hadoop的运行模式

Hadoop的运行模式

hadoop一共有如下三种运行方式

1. 本地运行。数据存储在linux本地,测试偶尔用一下。我们上一节课使用的就是本地运行模式hadoop100。

2. 伪分布式在一台机器上模拟出 Hadoop 分布式系统的各个组件,各个组件在逻辑上是分离的,但是都运行在同一台物理机器上,以此来模拟分布式环境。

3. 完全分布式。数据存储在HDFS,多台服务器工作,企业中大量使用。

要在本地去模拟这个真实的场景功能,我们需要做好如下的准备

1)准备3台客户机(关闭防火墙、静态IP、主机名称)

2)安装javaJDK安装Hadoop配置环境变量

3)配置集群

4)单点启动

5配置ssh

6)群起并测试集群

其中,第1项我们在之前克隆虚拟机的环节中已经完成了。现在我们来看看按照JDK和Hadoop并配置环境变量的工作。有两种思路:

1. 每台机器都去手动安装一次(上传jar包再去解压)。

2. 把一台机器装好,把module 拷贝到其他的机器。这样就不需要省略了上传和解压的工作了。

scp命令--基本使用

我们在前面的课中把hadoop100上安装了javahadoop这个两个软件,那我们要如何才能把对于的文件拷贝到hadoop101上去?

现在要学一个新的命令: scp可以实现服务器与服务器之间的数据拷贝。

1.基本语法

scp    -r        $pdir/$fname    $user@$host:$pdir/$fname

说明

(1)-r: 表示递归拷贝。如果要拷贝的是文件夹,就把文件夹下的内容都拷贝

(2)$pdir/$fname: 要拷贝的文件路径/名称   

(3)$user@host:$pdir/$fname: 目的地用户@主机:目的地路径/名称

注意:要输入相应的账号和密码!

你可能感兴趣的:(spark中的问题分析,hadoop,大数据,分布式)