Hive安装

安装
说明:安装hive前提是要先安装hadoop集群,并且hive只需要在hadoop的namenode节点集群里安装即可(需要在所有namenode上安装),可以不在datanode节点的机器上安装。

http://hive.apache.org/downloads.html

对照关系:

首先拷贝mysql-connector-java-5.1.18-bin.jar 到lib

然后安装mysql 开通远程访问权限 GRANT ALL PRIVILEGES ON *.* TO ‘root’@’%’ IDENTIFIED BY ‘root’ WITH GRANT OPTION;

# mv apache-hive-3.1.2-bin /home/hive

# vi /etc/profile

export HIVE_HOME=/usr/local/hive
export PATH=$PATH:$HIVE_HOME/bin

# source /etc/profile

# hive –version

配置
# cd /home/hive/conf

hive-site.xml

<?xml version=”1.0″ encoding=”UTF-8″ standalone=”no”?>
<?xml-stylesheet type=”text/xsl” href=”configuration.xsl”?>
<configuration>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://192.168.10.2:3306/hive</value>
</property>

<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>

<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
</property>

<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>root</value>
</property>

<property>
<name>hive.metastore.schema.verification</name>
<value>false</value>
</property>
</configuration>
以上配置还有其他几个重要属性如下:

hive.metastore.uris:指定hive元数据访问路径
hive.metastore.warehouse.dir:(HDFS上的)数据目录
hive.exec.scratchdir:(HDFS上的)临时文件目录
hive.metastore.warehouse.dir默认值是/user/hive/warehouse
hive.exec.scratchdir 默认值是 /tmp/hive-${user.name}

hive-env.sh

HADOOP_HOME=/home/hadoop/hadoop-3.1.4
export HIVE_CONF_DIR=/home/hive/conf
export HIVE_AUX_JARS_PATH=/home/hive/lib
hive依赖hadoop,与hadoop的关联就体现在(HADOOP_HOME=/home/hadoop/hadoop-3.1.4 )

初始化数据库
# /home/hive/bin

# schematool -dbType mysql -initSchema

启动Hive


Hive的HQL操作和SQL几乎一样,default为系统自带数据库:

测试
(1) Hive创建数据库

hive> create database hive1;
OK
Time taken: 0.483 seconds
hive> show databases;
OK
default
hive1
Time taken: 0.038 seconds, Fetched: 2 row(s)
(2)Hadoop 数据位置

Dbeaver连接
首先、修改在hive/conf目录下的hive-site.xml

<property>
<name>hive.server2.thrift.port</name>
<value>10000</value>
</property>
<property>
<name>hive.server2.thrift.bind.host</name>
<value>127.0.0.1</value>
</property>
这一段配置是用来绑定hiveserver2的端口号,默认是10000,这个就不改了,第二个是绑定host,我是伪分布式所以是localhost(127.0.0.1).

其次、hadoop的core-site.xml中加入以下:

<property>
<name>hadoop.proxyuser.root.hosts</name>
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.root.groups</name>
<value>*</value>
</property>

如果是xx用户就写

<property>
<name>hadoop.proxyuser.xx.hosts</name>
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.xx.groups</name>
<value>*</value>
</property>
驱动自己下载(自动下载没用)

无用户名、密码登录


带用户名、密码登录
修改hive-site.xml

具体参考:https://www.itengying.com/articles/204ff6e0a6da35

Hql样例

————————————————
版权声明:本文为CSDN博主「^果然好^」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/allensandy/article/details/116085007

本文来自网络,不代表本网站立场,转载请注明出处。http://loadingok.com/2068.html
© 2021 京ICP备2021027871号-1
联系我们

联系我们

18513870113

在线咨询: QQ交谈

邮箱: 1140136143@qq.com

工作时间:周一至周五,9:00-17:30,节假日休息

关注微信
微信扫一扫关注我们

微信扫一扫关注我们

返回顶部