1 安装说明
1.1 用到的软件
软件
版本
下载地址
linux
Ubuntu Server 18.04.2 LTS
https://ubuntu.com/download/server
hadoop
hadoop-2.7.1
http://archive.apache.org/dist/hadoop/common/hadoop-2.7.1/hadoop-2.7.1.tar.gz
java
jdk-8u211-linux-x64
https://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html
1.2 节点安排
名称
ip
hostname
主节点
192.168.233.200
Master
子节点1
192.168.233.201
Slave01
子节点2
192.168.233.202
Slave02
2 创建hadoop用户
所有的节点均创建一个名为hadoop的用户,并添加管理员权限。
注意:这里这是单纯为了方便管理,创建的用户名,也可以使用其他用户名,或者使用系统之前的用户,主要有管理员权限即可
$ sudo useradd -m hadoop -s /bin/bash #创建用户 $ sudo passwd hadoop #修改密码 $ sudo adduser hadoop sudo #添加管理员权限
3 配置网络环境
3.1 修改主机名
修改 /etc/hostname文件,每个节点都要修改。
- 主节点修改为:Master
- 从节点分别修改为:Slave01,Slave02,...
注意:如果是ubuntu18.04桌面版直接修改/etc/hostname文件即可,ubuntu18.04服务器版还需要修改/etc/cloud/cloud.cfg文件,修改如下:
# This will cause the set+update hostname module to not operate (if true) preserve_hostname: true #这里是将false改成true
3.2 添加IP与主机名的映射关系
在/etc/hosts文件里添加如下内容(每个节点都要修改,根据实际情况修改ip)
192.168.233.200 Master 192.168.233.201 Slave01 192.168.233.202 Slave02
检查各个节点是否能相互ping通。
3.3 设置SSH无密码登录节点
让Master能够通过SSH无密码登录各个Slave节点
如果修改过主机名,需要重新生成的新的公钥。
在Master上执行如下命令:
$ cd ~/.ssh # 如果没有该目录,先执行一次ssh localhost $ rm ./id_rsa* # 删除之前生成的公匙(如果已经存在) $ ssh-keygen -t rsa # 执行该命令后,遇到提示信息,一直按回车就可以 $ cat ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys
接着将Master中的id_rsa.pub文件复制到各个Slave节点中
$ scp ~/.ssh/id_rsa.pub hadoop@Slave01:/home/hadoop/ $ scp ~/.ssh/id_rsa.pub hadoop@Slave02:/home/hadoop/
在各个Slave节点中执行如下命令:
$ mkdir ~/.ssh # 如果不存在该文件夹需先创建 $ cat ~/id_rsa.pub ~/.ssh/authorized_keys $ rm ~/id_rsa.pub # 用完以后就可以删掉
在Master中验证是否可以无密码登录,各个Slave节点。
如:
$ ssh Slave01 #如果成功登录,则配置完成 $ ssh Slave02 #如果成功登录,则配置完成
4 安装java环境
每个节点都要安装,步骤相同
为了方便操作每个节点,默认在/usr/local/下新建一个名为bigdata的文件夹,存放所有的大数据相关的软件。
$ sudo mkdir /usr/local/bigdata $ sudo chown -R hadoop:hadoop /usr/local/bigdata/
4.1 解压
$ sudo mkdir /usr/local/bigdata/java $ sudo tar -zxvf jdk-8u211-linux-x64.tar.gz -C /usr/local/bigdata/java/
4.2 添加环境变量
在~/.bashrc文件中添加如下内容,并执行$ source ~/.bashrc命令使其生效
#java export JAVA_HOME=/usr/local/bigdata/java/jdk1.8.0_211 export JRE_HOME=$JAVA_HOME/jre export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib export PATH=${JAVA_HOME}/bin:$PATH
5 解压hadoop
下载hadoop-2.7.1.tar.gz文件,并解压到/usr/local/bigdata/文件夹下
$ sudo tar -zxvf hadoop-2.7.1.tar.gz -C /usr/local/bigdata
6 修改hadoop配置文件
需要修改6个文件,文件位于/usr/local/bigdata/hadoop-2.7.1/etc/hadoop/下
6.1 slave 文件
将文件中原来的 localhost 删除,添加内容:
Slave01 Slave02
6.2 core-site.xml 文件
内容修改为:
<configuration> <!-- 指定HADOOP所使用的文件系统schema(URI)--> <property> <name>fs.defaultFS</name> <value>hdfs://Master:9000</value> </property> <!-- 指定hadoop运行时产生文件的存储目录 --> <property> <name>hadoop.tmp.dir</name> <value>file:/usr/local/bigdata/hadoop-2.7.1/tmp</value> <description>Abase for other temporary directories.</description> </property> </configuration>
6.3 hdfs-site.xml文件
Hadoop的分布式文件系统HDFS一般采用冗余存储,一份文件通常保存3份副本,所以dfs.replication的值还是设置为3。
具体内容如下:
<configuration> <property> <!-- 指定SecondaryNamenode所在地址 --> <name>dfs.namenode.secondary.http-address</name> <value>Master:50090</value> </property> <property> <name>dfs.replication</name> <value>3</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>file:/usr/local/bigdata/hadoop-2.7.1/tmp/dfs/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:/usr/local/bigdata/hadoop-2.7.1/tmp/dfs/data</value> </property> </configuration>
6.4 mapred-site.xml 文件
修改内容如下:
<configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> <property> <name>mapreduce.jobhistory.address</name> <value>Master:10020</value> </property> <property> <name>mapreduce.jobhistory.webapp.address</name> <value>Master:19888</value> </property> </configuration>
6.5 yarn-site.xml文件
内容如下:
<configuration> <property> <name>yarn.resourcemanager.hostname</name> <value>Master</value> </property> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> </configuration>
6.6 hadoop-env.sh 文件
修改如下内容:
export JAVA_HOME=/usr/local/bigdata/java/jdk1.8.0_211 # 可以不用 export HADOOP_HOME=/usr/local/hadoop-2.7.1
7 设置hadoop环境变量
每个节点都要设置
在~/.bashrc文件中添加如下内容,并$ source ~/.bashrc使其生效
export PATH=$PATH:/usr/local/bigdata/hadoop-2.7.1/bin:/usr/local/bigdata/hadoop-2.7.1/sbin
8 slave节点配置
slave节点只需将master节点上/usr/local/下的bigdata文件夹和~/.bashrc文件,放到slave节点即可
注意切换到对应机器执行$ source ~/.bashrc使环境变量生效。
后续的软件均可使用此方式配置。
在master节点:
$ sudo rm -r /usr/local/bigdata/hadoop-2.7.1/tmp # 删除 Hadoop 临时文件,如果之前有启动过 $ sudo rm -r /usr/local/bigdata/hadoop-2.7.1/logs/* # 删除日志文件,如果之前有启动过 $ tar -zcvf ~/bigdata.tar.gz /usr/local/bigdata/ # 先压缩再复制 $ scp ~/bigdata.tar.gz Slave01:/home/hadoop $ scp ~/bigdata.tar.gz Slave02:/home/hadoop $ scp ~/bashrc Slave01:/home/hadoop $ scp ~/bashrc Slave02:/home/hadoop
在各个slave节点上
$ sudo mkdir /usr/local/bigdata $ sudo chown -R hadoop:hadoop /usr/local/bigdata $ tar -zxvf ~/bigdata.tar.gz -C /usr/local/bigdata $ sudo source ~/.bashrc
9 启动Hadoop集群
在Master上执行
首次运行需要,执行
$ hdfs namenode -format
格式化名称节点,然后就可以启动hadoop了。
启动hadoop:
$ start-dfs.sh $ start-yarn.sh $ mr-jobhistory-daemon.sh start historyserver
使用jps查看启动的各个节点,缺少任何进程,都表示出错。
$ jps 3585 JobHistoryServer 2938 NameNode 3148 SecondaryNameNode 3308 ResourceManager 3629 Jps
浏览器查看:http://192.168.233.200:50070/
查看相关信息:$ hdfs dfsadmin -report
关闭hadoop:
$ stop-yarn.sh $ stop-dfs.sh $ mr-jobhistory-daemon.sh stop historyserver
如果有问题,重复如下命令:
$ stop-dfs.sh # 关闭 $ rm -r /usr/local/bigdata/hadoop-2.7.1/tmp # 删除 tmp 文件,注意这会删除 HDFS中原有的所有数据 $ hdfs namenode -format # 重新格式化名称节点 $ start-dfs.sh # 重启
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。
免责声明:本站资源来自互联网收集,仅供用于学习和交流,请遵循相关法律法规,本站一切资源不代表本站立场,如有侵权、后门、不妥请联系本站删除!
RTX 5090要首发 性能要翻倍!三星展示GDDR7显存
三星在GTC上展示了专为下一代游戏GPU设计的GDDR7内存。
首次推出的GDDR7内存模块密度为16GB,每个模块容量为2GB。其速度预设为32 Gbps(PAM3),但也可以降至28 Gbps,以提高产量和初始阶段的整体性能和成本效益。
据三星表示,GDDR7内存的能效将提高20%,同时工作电压仅为1.1V,低于标准的1.2V。通过采用更新的封装材料和优化的电路设计,使得在高速运行时的发热量降低,GDDR7的热阻比GDDR6降低了70%。
更新日志
- 凤飞飞《我们的主题曲》飞跃制作[正版原抓WAV+CUE]
- 刘嘉亮《亮情歌2》[WAV+CUE][1G]
- 红馆40·谭咏麟《歌者恋歌浓情30年演唱会》3CD[低速原抓WAV+CUE][1.8G]
- 刘纬武《睡眠宝宝竖琴童谣 吉卜力工作室 白噪音安抚》[320K/MP3][193.25MB]
- 【轻音乐】曼托凡尼乐团《精选辑》2CD.1998[FLAC+CUE整轨]
- 邝美云《心中有爱》1989年香港DMIJP版1MTO东芝首版[WAV+CUE]
- 群星《情叹-发烧女声DSD》天籁女声发烧碟[WAV+CUE]
- 刘纬武《睡眠宝宝竖琴童谣 吉卜力工作室 白噪音安抚》[FLAC/分轨][748.03MB]
- 理想混蛋《Origin Sessions》[320K/MP3][37.47MB]
- 公馆青少年《我其实一点都不酷》[320K/MP3][78.78MB]
- 群星《情叹-发烧男声DSD》最值得珍藏的完美男声[WAV+CUE]
- 群星《国韵飘香·贵妃醉酒HQCD黑胶王》2CD[WAV]
- 卫兰《DAUGHTER》【低速原抓WAV+CUE】
- 公馆青少年《我其实一点都不酷》[FLAC/分轨][398.22MB]
- ZWEI《迟暮的花 (Explicit)》[320K/MP3][57.16MB]