在Ubuntu16.04系统Hadoop2.7.6下安装hive2.3.3数据仓库。hive必须在Hadoop环境下使用,因此要先安装Hadoop,我已经安装好了Hadoop2.7.6,安装方法可以参考文章下方的相关主题,操作系统是Ubuntu16.04,使用的是在服务器上建立的虚拟机,一主二从结构,主节点8核8G内存,从节点4核4G内存。
hive简介 hive是一个数据仓库,可以看做是Hadoop的客户端,可以将结构化的数据文件映射为一张数据库表,并提供简单的sql查询功能,也可以将sql语句转换为MapReduce任务进行运行。要注意的是,hive并不是一个数据库,也不存储实际数据,实际数据都存储在hdfs中,hive只是简化了对数据的操作。
1.下载hive安装包并配置环境变量 到这里下载hive版本apache-hive-2.3.3-bin.tar.gz,最新版本是hive 3.0.0(如果是安装该版本,下方的解压改成tar -zxvf apache-hive-3.0.0-bin.tar.gz),你也可以安装该版本,方法是一样的。下载完成后解压,重命名为hive,并剪切到/usr/local目录下。 1].解压 tar -zxvf apache-hive-2.3.3-bin.tar.gz 2].重命名 mv apache-hive-2.3.3-bin hive 3].移动 mv hive /usr/local 4].配置环境变量 vim /root/.bashrc 5].增加 HIVE export HIVE_HOME=/usr/local/hive export PATH=PATH:PATH:PATH:HIVE_HOME/bin 6].使配置生效 source ~/.bashrc
2.安装MySQL 虽然hive并不存储实际的业务数据,但是hive要管理hdfs中的数据就要对这些数据建立一些类似于索引、映射的玩意,以便于hive识别哪个数据在哪一块,这些映射的数据成为元数据(metadata)。hive中自带的存储元数据的关系型数据库是Derby,但是这个数据库极其不稳定,因此安装MySQL来代替Derby存储元数据。在Ubuntu上安装MySQL十分简单。 1].安装,在安装过程中会提示输入root密码 apt-get install mysql-server 2].配置MySQL mysql_secure_installation 3].测试 mysql -u root -p 在mysql命令行下输入show databases;应该会看到如图所示的内容。
3.配置hive 1].将/conf文件夹下的hive-default.xml.template 改为 hive-default.xml,将hive-env.sh.template改为hive-env.sh cp hive-default.xml.template hive-default.xml cp hive-env.sh.template hive-env.sh 2].修改hive环境文件hive-env.sh,在其中按实际情况添加以下三句话: <1>.Hadoop的位置: export HADOOP_HOME=/usr/local/hadoop <2>.hive的conf目录位置: export HIVE_CONF_DIR=/usr/local/hive/conf <3>.hive的lib目录位置: export HIVE_AUX_JARS_PATH=/usr/local/hive/lib 3].你要是开心也可以添加jdk的安装目录。下面修改配置文件hive-env.sh,主要是和MySQL有关的四项。 <property> <name>javax.jdo.option.ConnectionURL</name> <value>jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true</value> <description>JDBC connect string for a JDBC metastore</description> </property> <property> <name>javax.jdo.option.ConnectionDriverName</name> <value>com.mysql.jdbc.Driver</value> <description>Driver class name for a JDBC metastore</description> </property> <property> <name>javax.jdo.option.ConnectionUserName</name> <value>root</value> <description>username to use against metastore database</description> </property> <property> <name>javax.jdo.option.ConnectionPassword</name> <value>root</value> <description>password to use against metastore database</description> </property> 4].以上四项顾名思义分别是MySQL的URL地址、MySQL驱动的名字、MySQL的用户名、MySQL的密码。然后要修复一些隐藏的坑。在hive下新建一个文件夹tmp,然后在hive-site.xml中增加下面配置。没有这个配置在启动hive时会报错。 <property> <name>system:java.io.tmpdir</name> <value>/usr/local/hive/tmp</value> </property> <property> <name>system:user.name</name> <value>root</value> </property>
4.相关且必须的工作 下载一个mysql的连接jdbc jar包到hive的lib目录下,下载地址 在hdfs上建立一些hive-site.xml中配置的仓库地址并授权 bin/hadoop fs -mkdir -p /user/hive/warehouse bin/hadoop fs -mkdir -p /user/hive/tmp bin/hadoop fs -mkdir -p /user/hive/log bin/hadoop fs -chmod -R 777 /user/hive/warehouse bin/hadoop fs -chmod -R 777 /user/hive/tmp bin/hadoop fs -chmod -R 777 /user/hive/log
5.初始化 在hive的bin目录下 schematool -initSchma -dbType mysql 如果执行不报错,会显示completed,此时查看MySQL的数据库会多出来一个hive,hive数据库中会有很多表,这些就是hive初始化的表。
6.启动hive 必须要先启动Hadoop且没有错误,在hive/bin目录中输入hive,就会进入hive命令行,输入show databases;没有抛出异常说明hive安装成功并且成功启动。
相关主题 |