Hadoop历险记(七 Hive配置和启动hiveservice2服务) |
您所在的位置:网站首页 › hadoop集群可以运行的3个模式 › Hadoop历险记(七 Hive配置和启动hiveservice2服务) |
Hive的元数据服务
之前讲了hive的元数据,它存储着hiveSQL映射和hdfs具体文件数据的对应关系。 但是元数据存在单独的mysql中 直接将它暴露给外部是不安全的,所以hive特别增加了一个元数据服务。 它作为元数据和外部客户端之间的一个中间人。
这里有个关键点要注意, beeline只能访问HS2服务 不能跳过去直接访问metastore, 所以我们在启动H2服务之前 必须先确定启动元数据服务 启动Hive服务现在万事俱备,我们一步一步启动服务,先启动hadoop集群 start-all.sh然后我们启动元数据服务 nohup /export/server/apache-hive-3.1.2-bin/bin/hive --service metastore &启动完之后 打开jps 查看一下 发现多了一个runjar 这个就是metastore的后台进程 最后我们启动HS2服务: nohup /export/server/apache-hive-3.1.2-bin/bin/hive --service hiveserver2 &这样我们的hive服务就启动成功了! 这里又要画重点理解了, 注意 我们在集群的每天机器上 都安装了hadoop, 并且配置了主从节点。 但是hive我们并没有每天机器都安装,我们只安装第一台机器,所以从安装角度说他是单机的,但是它为什么优势分布式查询呢? 因为它的数据只存在hdfs 计算又用的是MR 所以它等于是自己是单机 但是白嫖了hdfs的集群特性。 所以它虽然只安装一台机器 但是背靠hadoop这颗大树 依然可以达到分布式的效果 理解hive的配置文件理解配置文件是非常必要的,这个必要性就在于 从配置文件你能体会到hive的各个组合是怎么联系起来的,它是怎么和Hadoop配合的 这里主要放两个文件 其他文件就不多啰嗦了 我们找到hive目录的conf文件夹下面: hive-env:
![]() 然后它配置了H2运行绑定host 它绑定了node1 这台机器 作为H2服务的运行机器 然后它配置了远程模式部署metastore的地址, 你的元数据服务部署在哪台机器上? 部署在node这台机器上 它的端口号是9083. 客户端使用hive前面一堆操作 我们已经正式启动了hive 装也装好了 配也配好了 服务也起来了,现在我们可以正式的使用它了。 然后我们启动beeline: *这里记一个h2服务的默认端口 10000,类似mysql是3306 然后一路下去 hive服务就算起来了!: 现在你可以输入各种基础的sql命令 来玩hive了! |
今日新闻 |
点击排行 |
|
推荐新闻 |
图片新闻 |
|
专题文章 |
CopyRight 2018-2019 实验室设备网 版权所有 win10的实时保护怎么永久关闭 |