hadoop实训目的和内容 hadoop平台搭建实训报告 | 您所在的位置:网站首页 › 大数据开发流程和环境搭建的实训总结 › hadoop实训目的和内容 hadoop平台搭建实训报告 |
这里写目录标题一、实验介绍1.1 实验内容1.2 实验知识点1.3 实验环境1.4 实验资源1.5 实验步骤清单二、实验架构三、实验环境准备四、实验步骤4.1 查看环境4.2部署Hadoop集群4.2.1安装hadoop(master)4.2.2创建hdfs数据文件存储目录(master)4.2.3修改配置文件(master)4.2.4主从节点同步(master)4.3测试Hadoop集群4.3.1启动集群五、实验总结 一、实验介绍1.1 实验内容 基于开源软件搭建满足企业需求的Hadoop生态系统,构建基础的大数据分析平台。 本实验采用4台机器搭建Hadoop完全分布式集群,其中1台机器作为Master节点,另外三台机器作为Slave节点,主机名分别为Slave1,Slave2和Slave3。 1.2 实验知识点Hadoop集群部署 HDFS分布式文件系统管理 1.3 实验环境Hadoop2.7.3 VMware Workstation 16 Pro for Windows 1.4 实验资源资源名称 存储目录 hadoop安装包 /opt/software/package/ 1.5 实验步骤清单检查实验环境(防火墙、hosts配置、ssh互信) 可以参考搭建Hadoop集群环境 部署hadoop集群(安装hadoop、创建hdfs数据文件、修改配置文件、主从节点同步) 测试hadoop集群(启动集群、验证集群) 二、实验架构序号 IP地址 机器名 1 172.25.10.140 master 2 172.25.10.141 slave1 3 172.25.10.142 slave2 4 172.25.10.143 slave3 三、实验环境准备启动虚拟机master、slave1,slave2和slave3的快照。 输入用户名root密码root登录系统。 四、实验步骤4.1 查看环境#关闭防火墙命令 systemctl stop firewalld #检查防火墙是否关闭 firewall-cmd --state #检查四台虚拟机hosts文件 cat /etc/hosts #检查ssh环境 ssh slave1 datessh slave2 date ssh slave3 date 4.2部署Hadoop集群4.2.1安装hadoop(master)#解压安装包tar zxvf /opt/software/package/hadoop-2.7.3.tar.gz -C /usr/local/ #重命名Hadoop安装目录mv /usr/local/hadoop-2.7.3 /usr/local/hadoop 4.2.2创建hdfs数据文件存储目录(master)#删除并创建hdfs数据文件存储目录 rm -rf /home/hadoopdirmkdir /home/hadoopdir #创建临时文件存储目录 mkdir /home/hadoopdir/tmp #创建namenode数据目录 mkdir -p /home/hadoopdir/dfs/name #创建datanode数据目录 mkdir /home/hadoopdir/dfs/data 4.2.3修改配置文件(master)1、配置环境变量 #检查环境变量 vim /etc/profile #末尾添加 export HADOOP_INSTALL=/usr/local/hadoop export PATH=${HADOOP_INSTALL}/bin:${HADOOP_INSTALL}/sbin:${PATH}#/etc/profile文件生效source /etc/profile #hadoop-env.sh配置JAVA_HOME vim /usr/local/hadoop/etc/hadoop/hadoop-env.sh```export JAVA_HOME=/usr/local/jdk/jre #验证Hadoop版本 ```hadoop version``` ![在这里插入图片描述]() 2、修改core-site.xml内容参考如下 ```vim /usr/local/hadoop/etc/hadoop/core-site.xml```fs.defaultFS hdfs://master:9000 io.file.buffer.size 131072 hadoop.tmp.dir file:/home/hadoopdir/tmp/ A base for other temporary directories. hadoop.proxyuser.hadoop.hosts * hadoop.proxyuser.hadoop.groups * ``` 3、修改hdfs-site.xml文件 ```vim /usr/local/hadoop/etc/hadoop/hdfs-site.xml``` ``` dfs.namenode.name.dir file:///home/hadoopdir/dfs/name dfs.datanode.data.dir file:///home/hadoopdir/dfs/data dfs.replication 2 dfs.webhdfs.enabled true ``` 4、修改mapred-site.xml #复制配置文件 ```cp /usr/local/hadoop/etc/hadoop/mapred-site.xml.template /usr/local/hadoop/etc/hadoop/mapred-site.xml``` #修改配置文件vim /usr/local/hadoop/etc/hadoop/mapred-site.xml mapreduce.framework.name yarn mapreduce.jobhistory.address master:10020 mapreduce.jobhistory.webapp.address master:19888 mapreduce.jobtracker.http.address master:50030 mapred.job.tracker master:90015、修改 yarn-site.xmlvi /usr/local/hadoop/etc/hadoop/yarn-site.xml yarn.nodemanager.aux-services mapreduce_shuffle yarn.nodemanager.aux-services.mapreduce.shuffle.class org.apache.hadoop.mapred.ShuffleHandler yarn.resourcemanager.hostname master yarn.resourcemanager.address master:8032 yarn.resourcemanager.scheduler.address master:8030 yarn.resourcemanager.resource-tracker.address master:8031 yarn.resourcemanager.admin.address master:8033 yarn.resourcemanager.webapp.address master:80886、修改 slaves文件vim /usr/local/hadoop/etc/hadoop/slaves slave1 slave2 slave37、初始化HDFS hadoop namenode -format 备注:最后出现“util.ExitUtil: Exiting with status 0”,表示成功。 4.2.4主从节点同步(master)1、同步/usr/local/hadoop目录文件到slave节点scp -r /usr/local/hadoop slave1:/usr/local/scp -r /usr/local/hadoop/ slave2:/usr/local/scp -r /usr/local/hadoop/ slave3:/usr/local/ 2、同步/home/hadoopdir目录文件到slave节点 #删除目录 ssh slave1 rm -rf /home/hadoopdirssh slave2 rm -rf /home/hadoopdir ssh slave3 rm -rf /home/hadoopdir #同步目录scp -r /home/hadoopdir slave1:/home/scp -r /home/hadoopdir slave2:/home/scp -r /home/hadoopdir slave3:/home/ 3、同步环境信息 scp /etc/profile slave1:/etc/profilescp /etc/profile slave2:/etc/profile scp /etc/profile slave3:/etc/profile [root@slave1 ~]# source /etc/profile ``[root@slave2 ~]# source /etc/profile [root@slave3 ~]# source /etc/profile``` 4.3测试Hadoop集群4.3.1启动集群#启动hadoop集群(master) start-all.sh 4.3.2验证Hadoop集群 1、JPS查看Java进程 #master #slave1 #slave2 #slave3 2、登录网页查看 打开浏览器,登录http://172.25.10.140:50070 打开浏览器,查看yarn环境,登录http://172.25.10.140:8088 五、实验总结本次实验采用完全分布式集群安装方式,需要提前部署JDK环境、SSH验证等过程。安装并启动后可以访问 Web 界面 http://localhost:50070 查看 NameNode 和 Datanode 信息,还可以在线查看 HDFS 中的文件。
|
CopyRight 2018-2019 实验室设备网 版权所有 |