在Ubuntu系统上安装Hadoop涉及到几个主要步骤。以下是详细的安装过程:
sudo apt-get update
sudo apt-get install openjdk-8-jdk
java -version
sudo adduser hadoop
切换到root用户,如果你没有用户,请自行搜索,如何在ubuntu下创建root用户。
su - root
sudo chown -R hadoop:hadoop /usr/local/hadoop
sudo chmod -R 755 /usr/local/hadoop
sudo su - hadoop
https://hadoop.apache.org/releases.html
wget https://downloads.apache.org/hadoop/common/hadoop-3.3.1/hadoop-3.3.1.tar.gz
tar -xzf hadoop-3.3.1.tar.gz
sudo mv hadoop-3.3.1 /usr/local/hadoop
sudo su - hadoop
vim .bashrc
export HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
source .bashrc
ls /usr/lib/jvm
java-1.8.0-openjdk-amd64
记下这个路径,因为我们将在下一步中使用它。
确保当前用户是hadoop用户,如果不是,请切换到hadoop用户:
sudo su - hadoop
vim .bashrc
export JAVA_HOME=/usr/lib/jvm/YOUR_JAVA_PATH
export PATH=$PATH:$JAVA_HOME/bin
export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-amd64
export PATH=$PATH:$JAVA_HOME/bin
保存文件并退出编辑器。
使更改生效:
source .bashrc
core-site.xml
hdfs-site.xml
mapred-site.xml
yarn-site.xml
<configuration>
<property>
<name>fs.defaultFSname>
<value>hdfs://localhost:9000value>
property>
configuration>
<configuration>
<property>
<name>dfs.replicationname>
<value>1value>
property>
<property>
<name>dfs.namenode.name.dirname>
<value>/usr/local/hadoop/hadoop_data/hdfs/namenodevalue>
property>
<property>
<name>dfs.datanode.data.dirname>
<value>/usr/local/hadoop/hadoop_data/hdfs/datanodevalue>
property>
configuration>
mapred-site.xml
文件中添加以下内容:<configuration>
<property>
<name>mapreduce.framework.namename>
<value>yarnvalue>
property>
configuration>
<configuration>
<property>
<name>yarn.nodemanager.aux-servicesname>
<value>mapreduce_shufflevalue>
property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.classname>
<value>org.apache.hadoop.mapred.ShuffleHandlervalue>
property>
configuration>
mkdir -p /usr/local/hadoop/hadoop_data/hdfs/{namenode,datanode}
/usr/local/hadoop/bin/hdfs namenode -format
/usr/local/hadoop/sbin/start-all.sh
此命令将启动Hadoop的所有守护进程,包括namenode、datanode、resourcemanager和nodemanager。
jps
你应该看到以下进程:
NameNode
DataNode
ResourceManager
NodeManager
SecondaryNameNode
如果没有看到,则让我们尝试逐个启动它们并检查可能出现的问题。
启动NameNode:
/usr/local/hadoop/sbin/hadoop-daemon.sh start namenode
启动DataNode:
/usr/local/hadoop/sbin/hadoop-daemon.sh start datanode
启动ResourceManager:
/usr/local/hadoop/sbin/yarn-daemon.sh start resourcemanager
启动NodeManager:
/usr/local/hadoop/sbin/yarn-daemon.sh start nodemanager
在运行这些命令时,如果遇到错误或问题,请查看/usr/local/hadoop/logs目录下的日志文件,这可能有助于确定问题所在。
另外,确保在运行这些命令之前,已经正确配置了core-site.xml、hdfs-site.xml、mapred-site.xml和yarn-site.xml文件,并且已经为hadoop用户设置了JAVA_HOME环境变量。
在启动所有守护进程后,再次运行jps命令。这次应该可以看到以下进程:
NameNode
DataNode
ResourceManager
NodeManager
如果问题仍然存在,请检查日志文件以获取更多详细信息,并确保系统上已正确安装和配置Java和Hadoop。
此外,你还可以访问Hadoop Web界面来查看集群状态:
NameNode: http://localhost:9870/
ResourceManager: http://localhost:8088/
至此,你已成功在Ubuntu系统上安装并配置了Hadoop。接下来,你可以开始使用Hadoop进行大数据处理。
<configuration>
只能有这么一对这样的括号存在,原配置文件中的这对括号删除掉,把我给的代码直接粘贴就好了。
</configuration>
如果,大家在配置中还出现了哪些问题,请私信我,您的点赞与关注是我继续输出优质内容的无上动力!