HADOOP之配置HDFS集群,修改四个文件workers,hadoop-env.sh,core-site.xml,hdfs-site.xml

1.配置workers文件

进入hadoop所在的文件夹
cd etc/hadoop
vim workers
node1
node2
node3

2.配置hadoop-env.sh文件

我的jdk,hadoop都在/export/server/目录下


export JAVA_HOME=/export/server/jdk
export HADOOP_HOME=/export/server/hadoop
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export HADOOP_LOG_DIR=$HADOOP_HOME/logs

3.配置core-site.xml文件


       
   
               fs.defaultFS
               hdfs://node1:8020
   
   
   
            io.file.buffer.size
            131072 
   

4.配置hdfs-site.xml文件


    
    
            dfs.datanode.data.dir.perm
            700
    
    
    
             dfs.namenode.name.dir 
             /data/nn
    
    
    
             dfs.namenode.hosts 
             node1,node2,node3
    
    
    
             dfs.blocksize 
             268435456
    
  
    
             dfs.namenode.handler.count 
             100
    
    
    
             dfs.datanode.data.dir
             /data/dn
    

你可能感兴趣的:(hadoop,hdfs)