如何在Linux环境下进行Hadoop环境的配置
1、打开三台虚拟机Master、Slave1、Slave2;
2、在怡觎现喾Master节点中,解压Hadoop文件;即输入命令:cd /usr/local/src/;lstar xvzf hadoop-1.2.1-bin.t锾攒揉敫ar.gz如下图所示,Hadoop压缩文件则解压成功。
3、解压成功后,src目录下将新生出hadoop-1.2.1目录;
4、进入hadoop-1.2.1目录,新增一个文件,用来存放之后的临时文件;输入命令:mkdir tmp
5、接下来,将修改配置文件:进入hadoop的配醅呓择锗置文件中:4、修改master配置文件,输入内容为master;输入命令:cd confvi master;输入master;保存并退出;
6、修改slaves配置文件,输入两个节点名称;输入命令:vi slaves;输入内容为slave1 slave2;保存并退出;
7、修改core-site.xml配置文件;输入命令:vi core-site.xml;配置tmp的路径、namenode的URI;保存并退出;
8、修改mapred-site.xml配置文件;输入命令:vi mapred-site.xml配置job.tracker的URI;保存并退出;
9、修改hdfs-site.xml配置文件;输入命令:vi hdfs-site.xml,配置副本数;保存并退出;
10、修改hadoop-env.sh配置文件;输入命令:vi hadoop-env.sh,配置Jdk的目录;保存并退出;
11、查看刚刚所有的修改的配置文件;输入命令:ls -rlt;则配置文件一共需要配置六个文件。
12、在Master虚拟机中,对于Hadoop的配置已经配置完毕。
13、11、接下来,将hadoop文件依次拷贝到Slave1、Slave2虚拟机上;输入命令:scp -rp hadoop-1.2.1 192.168.26.11:/usr/local/src/scp -rp hadoop-1.2.1 192.168.26.12:/usr/local/src/如下图所示,文件已经拷贝完毕。
14、12、分别进入Slave1、Slave2的虚拟机上,查看/usr/local/src/目录下是否存在hadoop文件;如下图所示,hadoop文件已经拷贝到Slave1和Slave2上。
15、综上所述,Master、Slave1、Slave2虚拟机对于hadoop的配置均配置完毕。