1.3.2 搭建Hive CDH环境

1. 安装包下载

Hive可以安装在与Hadoop集群连通的任意主机中。本书采用的是CDH版本的hive-1.1.0-cdh5.14.2,读者可以自行在Cloudera下载。安装环境要求如下。

➢ 操作系统:CentOS 7.5

➢ Java环境:Java 8

➢ Hadoop环境:hadoop-2.6.0-cdh5.14.2

➢ 数据库:MySQL 5.6

2. 解压安装

(1)下载安装包并解压。

$ tar -zxvf hive-1.1.0-cdh5.14.2.tar.gz

(2)将解压后的文件复制到“/opt”目录下。

$ sudo mv hive-1.1.0-cdh5.14.2 /opt/hive-1.1.0-cdh5.14.2
注意

如果使用的是“普通用户”进行安装,须加sudo才能操作“/opt”目录。

3. Hive CDH环境搭建

(1)将Hive的安装目录添加到环境变量中,命令如下。

$ vi ~/.bashrc
export HIVE_HOME= /opt/hive-1.1.0-cdh5.14.2
export PATH= $PATH:$HIVE_HOME/bin

添加完成以后,执行如下命令,使环境变量生效。

$ source ~/.bashrc

(2)在Hive配置文件目录$HIVE_HOME/conf下创建hive-site.xml,并添加以下代码。

<configuration>
     <property>
          <name>hive.metastore.warehouse.dir</name>
          <value>/home/hadoop/hive/warehouse</value>
     </property>
     <!--mysql  数据配置-->
     <property>
          <name>javax.jdo.option.ConnectionURL</name>
          <value>jdbc:mysql://hadoop:3306/hive ?createDatabaseIfNot Exist=true</value>
     </property>
     <property>
           <name>javax.jdo.option.ConnectionDriverName</name>
           <value>com.mysql.jdbc.Driver</value>
     </property>
     <!-- Hive  连接MySQL的用户名和密码-->
     <property>
           <name>javax.jdo.option.ConnectionUserName</name>
           <value>hive</value>
     </property>
     <property>
           <name>javax.jdo.option.ConnectionPassword</name>
           <value>hive</value>
     </property>
     <!--配置Hive 临时文件存储地址-->
     <property>
          <name>hive.exec.scratchdir</name>
           <value>/home/hadoop/hive/data/hive-${user.name}</value>
           <description>Scratch space for Hive jobs</description>
     </property>
     <property>
           <name>hive.exec.local.scratchdir</name>
           <value>/home/hadoop/hive/data/${user.name}</value>
           <description>Local scratch space for Hive jobs</description>
     </property>
</configuration>

(3)复制MySQL JDBC驱动jar文件到“$HIVE_HOME/lib”目录下,同时修改目录的可写权限。

$ cp mysql-connector-java-5.1.44-bin.jar $HIVE_HOME/lib
#  验证
$ ll $HIVE_HOME/lib|grep mysql
-rw-r--r--  1 hadoop hadoop   999635 8 月  29 2017 mysql-connector-java-5.1.44-bin.jar

(4)修改Hive环境脚本hive-env.sh的内容。

#  设置 HADOOP_HOME  指定Hadoop安装目录
HADOOP_HOME=/opt/hadoop-2.6.0-cdh5.14.2
#  设置Hive 配置目录
export HIVE_CONF_DIR=/opt/hive-1.1.0-cdh5.14.2/conf
#  设置扩展类路径
export HIVE_AUX_JARS_PATH=/opt /hive-1.1.0-cdh5.14.2/lib

(5)配置日志。

#创建日志输出目录
$ mkdir /opt/hive-1.1.0-cdh5.14.2/logs
#创建hive-log4j.properties
$ mv $HIVE_HOME/conf/hive-log4j.properties.template $HIVE_HOME/conf/hive-log4j.properties
#修改hive-log4j.properties
$ vi $HIVE_HOME/conf/hive-log4j.properties
#指定日志输出目录
hive.log.dir=/opt/hive-1.1.0-cdh5.14.2/logs

(6)启动Hive,显示所有数据库。

$ cd $HIVE_HOME/bin
$ hive
hive> show databases;
OK
default
Time taken: 8.651 seconds, Fetched: 1 row(s)
注意

启动Hive前要先启动MySQL,并在MySQL中添加Hive用户名和密码。参考步骤如下。

create user 'hive'@'%' identified by 'hive';
grant all on *.* to 'hive'@'hadoop' identified by 'hive';
set password for hive@hadoop=password('hive');
flush privileges;

至此,Hive安装已完成。Hive CDH环境搭建视频请扫描二维码查看。

Hive CDH环境搭建