hadoop实训目的和内容 hadoop平台搭建实训报告 您所在的位置:网站首页 大数据开发流程和环境搭建的实训总结 hadoop实训目的和内容 hadoop平台搭建实训报告

hadoop实训目的和内容 hadoop平台搭建实训报告

2024-07-07 05:48| 来源: 网络整理| 查看: 265

这里写目录标题一、实验介绍1.1 实验内容1.2 实验知识点1.3 实验环境1.4 实验资源1.5 实验步骤清单二、实验架构三、实验环境准备四、实验步骤4.1 查看环境4.2部署Hadoop集群4.2.1安装hadoop(master)4.2.2创建hdfs数据文件存储目录(master)4.2.3修改配置文件(master)4.2.4主从节点同步(master)4.3测试Hadoop集群4.3.1启动集群五、实验总结

一、实验介绍1.1 实验内容

基于开源软件搭建满足企业需求的Hadoop生态系统,构建基础的大数据分析平台。 本实验采用4台机器搭建Hadoop完全分布式集群,其中1台机器作为Master节点,另外三台机器作为Slave节点,主机名分别为Slave1,Slave2和Slave3。

1.2 实验知识点

Hadoop集群部署 HDFS分布式文件系统管理

1.3 实验环境

Hadoop2.7.3 VMware Workstation 16 Pro for Windows

1.4 实验资源

资源名称

存储目录

hadoop安装包

/opt/software/package/

hadoop实训目的和内容 hadoop平台搭建实训报告_大数据

1.5 实验步骤清单

检查实验环境(防火墙、hosts配置、ssh互信) 可以参考搭建Hadoop集群环境 部署hadoop集群(安装hadoop、创建hdfs数据文件、修改配置文件、主从节点同步) 测试hadoop集群(启动集群、验证集群)

二、实验架构

序号

IP地址

机器名

1

172.25.10.140

master

2

172.25.10.141

slave1

3

172.25.10.142

slave2

4

172.25.10.143

slave3

三、实验环境准备

启动虚拟机master、slave1,slave2和slave3的快照。 输入用户名root密码root登录系统。

四、实验步骤4.1 查看环境

#关闭防火墙命令

systemctl stop firewalld #检查防火墙是否关闭

firewall-cmd --state

hadoop实训目的和内容 hadoop平台搭建实训报告_大数据_02

#检查四台虚拟机hosts文件

cat /etc/hosts

hadoop实训目的和内容 hadoop平台搭建实训报告_Hadoop_03

#检查ssh环境

ssh slave1 datessh slave2 date

ssh slave3 date

hadoop实训目的和内容 hadoop平台搭建实训报告_hadoop实训目的和内容_04

4.2部署Hadoop集群4.2.1安装hadoop(master)

#解压安装包tar zxvf /opt/software/package/hadoop-2.7.3.tar.gz -C /usr/local/

#重命名Hadoop安装目录mv /usr/local/hadoop-2.7.3 /usr/local/hadoop

4.2.2创建hdfs数据文件存储目录(master)

#删除并创建hdfs数据文件存储目录

rm -rf /home/hadoopdirmkdir /home/hadoopdir

#创建临时文件存储目录

mkdir /home/hadoopdir/tmp

#创建namenode数据目录

mkdir -p /home/hadoopdir/dfs/name

#创建datanode数据目录

mkdir /home/hadoopdir/dfs/data

hadoop实训目的和内容 hadoop平台搭建实训报告_大数据_05

4.2.3修改配置文件(master)

1、配置环境变量 #检查环境变量

vim /etc/profile #末尾添加 export HADOOP_INSTALL=/usr/local/hadoop export PATH=${HADOOP_INSTALL}/bin:${HADOOP_INSTALL}/sbin:${PATH}

hadoop实训目的和内容 hadoop平台搭建实训报告_大数据_06

#/etc/profile文件生效source /etc/profile

#hadoop-env.sh配置JAVA_HOME

vim /usr/local/hadoop/etc/hadoop/hadoop-env.sh```

export JAVA_HOME=/usr/local/jdk/jre

#验证Hadoop版本 ```hadoop version``` ![在这里插入图片描述]() 2、修改core-site.xml内容参考如下 ```vim /usr/local/hadoop/etc/hadoop/core-site.xml```

fs.defaultFS hdfs://master:9000 io.file.buffer.size 131072 hadoop.tmp.dir file:/home/hadoopdir/tmp/ A base for other temporary directories. hadoop.proxyuser.hadoop.hosts * hadoop.proxyuser.hadoop.groups * ``` 3、修改hdfs-site.xml文件 ```vim /usr/local/hadoop/etc/hadoop/hdfs-site.xml``` ``` dfs.namenode.name.dir file:///home/hadoopdir/dfs/name dfs.datanode.data.dir file:///home/hadoopdir/dfs/data dfs.replication 2 dfs.webhdfs.enabled true ``` 4、修改mapred-site.xml #复制配置文件 ```cp /usr/local/hadoop/etc/hadoop/mapred-site.xml.template /usr/local/hadoop/etc/hadoop/mapred-site.xml```

#修改配置文件vim /usr/local/hadoop/etc/hadoop/mapred-site.xml

mapreduce.framework.name yarn mapreduce.jobhistory.address master:10020 mapreduce.jobhistory.webapp.address master:19888 mapreduce.jobtracker.http.address master:50030 mapred.job.tracker master:9001

5、修改 yarn-site.xmlvi /usr/local/hadoop/etc/hadoop/yarn-site.xml

yarn.nodemanager.aux-services mapreduce_shuffle yarn.nodemanager.aux-services.mapreduce.shuffle.class org.apache.hadoop.mapred.ShuffleHandler yarn.resourcemanager.hostname master yarn.resourcemanager.address master:8032 yarn.resourcemanager.scheduler.address master:8030 yarn.resourcemanager.resource-tracker.address master:8031 yarn.resourcemanager.admin.address master:8033 yarn.resourcemanager.webapp.address master:8088

6、修改 slaves文件vim /usr/local/hadoop/etc/hadoop/slaves

slave1 slave2 slave3

7、初始化HDFS

hadoop namenode -format

hadoop实训目的和内容 hadoop平台搭建实训报告_hadoop实训目的和内容_07

备注:最后出现“util.ExitUtil: Exiting with status 0”,表示成功。

4.2.4主从节点同步(master)

1、同步/usr/local/hadoop目录文件到slave节点scp -r /usr/local/hadoop slave1:/usr/local/scp -r /usr/local/hadoop/ slave2:/usr/local/scp -r /usr/local/hadoop/ slave3:/usr/local/

2、同步/home/hadoopdir目录文件到slave节点

#删除目录

ssh slave1 rm -rf /home/hadoopdirssh slave2 rm -rf /home/hadoopdir

ssh slave3 rm -rf /home/hadoopdir

hadoop实训目的和内容 hadoop平台搭建实训报告_hadoop_08

#同步目录scp -r /home/hadoopdir slave1:/home/scp -r /home/hadoopdir slave2:/home/scp -r /home/hadoopdir slave3:/home/

hadoop实训目的和内容 hadoop平台搭建实训报告_大数据_09

3、同步环境信息

scp /etc/profile slave1:/etc/profilescp /etc/profile slave2:/etc/profile

scp /etc/profile slave3:/etc/profile

hadoop实训目的和内容 hadoop平台搭建实训报告_大数据_10

[root@slave1 ~]# source /etc/profile ``[root@slave2 ~]# source /etc/profile [root@slave3 ~]# source /etc/profile```

hadoop实训目的和内容 hadoop平台搭建实训报告_hadoop实训目的和内容_11

4.3测试Hadoop集群4.3.1启动集群

#启动hadoop集群(master)

start-all.sh

hadoop实训目的和内容 hadoop平台搭建实训报告_大数据_12

4.3.2验证Hadoop集群

1、JPS查看Java进程

#master

hadoop实训目的和内容 hadoop平台搭建实训报告_hadoop_13

#slave1

hadoop实训目的和内容 hadoop平台搭建实训报告_hdfs_14

#slave2

hadoop实训目的和内容 hadoop平台搭建实训报告_hdfs_15

#slave3

hadoop实训目的和内容 hadoop平台搭建实训报告_hadoop实训目的和内容_16

2、登录网页查看

打开浏览器,登录http://172.25.10.140:50070

hadoop实训目的和内容 hadoop平台搭建实训报告_hdfs_17

打开浏览器,查看yarn环境,登录http://172.25.10.140:8088

hadoop实训目的和内容 hadoop平台搭建实训报告_hdfs_18

五、实验总结

本次实验采用完全分布式集群安装方式,需要提前部署JDK环境、SSH验证等过程。安装并启动后可以访问 Web 界面 http://localhost:50070 查看 NameNode 和 Datanode 信息,还可以在线查看 HDFS 中的文件。



【本文地址】

公司简介

联系我们

今日新闻

    推荐新闻

    专题文章
      CopyRight 2018-2019 实验室设备网 版权所有