1、集群IP
192.168.2.218 hadoop-slave-1
192.168.2.4 hadoop-master
2、java 选用自带的java 1.7.0. openjdk
关于java版本和hadoop版本的搭配可以参考hadoop官方wiki
https://wiki.apache.org/hadoop/HadoopJavaVersions
3、配置/etc/proflie
JAVA_HOME=/usr/lib/jvm/java-1.7.0-openjdk
PATH=$JAVA_HOME/bin:$PATH
CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export JAVA_HOME PATH CLASSPATH
4、创建hadoop 账户并设计密码
useradd -m hadoop
passwd hadoop
5、配置免秘钥登录
切换到hadoop用户
ssh-keygen -t rsa 一路回车
在hadoop 家目录下(/home/hadoop)多出 .ssh/ 文件夹,里面包含以下文件
config id_rsa id_rsa.pub known_hosts
然后 cat id_rsa.pub >authorized_keys
chmod 644 authorized_keys
然后将.ssh copy到 hadoop-slave-1 hadoop-slave-2的数据节点下。验证免密登录是否成功
6、下载 hadoop-2.8.0 到家目录
7.解压到当前目录 tar -zxvf hadoop-2.8.0.tar.gz
8、修改配置文件:
9、core-site.xml 的配置如下:
10、hdfs-site.xml配置如下
11、配置slave如下
[hadoop@localhost hadoop]$ cat slaves
192.168.2.218
12、配置mapred-site.xml
13、配置hadoop-env.sh
export JAVA_HOME=/usr/lib/jvm/java-1.7.0-openjdk
export HADOOP_CONF_DIR=/home/hadoop/hadoop-2.8.0/etc/hadoop
export HADOOP_OPTS="-Djava.net.preferIPv4Stack=true -Dsun.security.krb5.debug=true -Dsun.security.spnego.debug"
14、格式化文件
bin/hadoop namenode -format
15、启动集群:
./sbin/start-all.sh
停止集群使用 ./sbin/stop-all.sh
16、查看集群状态
http://192.168.2.4:8088
http://192.168.2.4:50070
17、向HDFS copy文件测试