Hadoop的群集搭建Hive操作系统

Hive是Hadoop生态中的一个重要组成部分,主要用于数据仓库。前面的文章中我们已经搭建好了Hadoop的群集,下面我们在这个群集上再搭建Hive的群集。

主机环境

1.安装MySQL

Ubuntu 13.10

1.1安装MySQL Server

在Ubuntu下面安装MySQL的Server很简单,只需要运行:

sudo apt-get install mysql-server

系统会把MySQL下载并安装好。这里我们可以把MySQL安装在master机器上。

安装后需要配置用户名密码和远程访问。

Hadoop 1.2.1

1.2配置用户名密码

首先我们以root身份登录到mysql服务器:

sudo mysql -u root

然后修改root的密码,并允许root远程访问:

GRANT ALL PRIVILEGES ON *.* TO root@'%' IDENTIFIED BY "123456";

我们这里还可以为hive建立一个用户,而不是用root用户:

GRANT ALL PRIVILEGES ON *.* TO hive@'%' IDENTIFIED BY "hive";

运行完成后quit命令即可退出mysql的命令行模式。

Hive 0.12.0

1.3配置远程访问

默认情况下,MySQL是只允许本机访问的,要允许远程机器访问需要修改配置文件

sudo vi /etc/mysql/mysql.conf.d/mysqld.cnf

找到bind-address的配置部分,然后改为:

bind-address          = 0.0.0.0

保存,重启mysql服务

sudo service mysql restart

重启完成后,我们可以在Windows下,用MySQL的客户端连接master上的MySQL数据库,看是否能够远程访问。

下载解压和转移

2.下载并配置Hive

wget

tar -xzvf hive-0.12.0.tar.gz
mv hive-0.12.0 /opt/

2.1下载Hive

首先我们到官方网站,找到Hive的下载地址。
会给出一个建议的网速快的下载地址。

然后在master服务器上,wget下载hive的编译好的文件,我现在最新版是Hive
2.1.1 :

wget http://mirror.bit.edu.cn/apache/hive/hive-2.1.1/apache-hive-2.1.1-bin.tar.gz

下载完成后,解压这个压缩包

tar xf apache-hive-2.1.1-bin.tar.gz

按之前Hadoop的惯例,我们还是把Hive安装到/usr/local目录下吧,所以移动Hive文件:

sudo mv apache-hive-2.1.1-bin /usr/local/hive

2.2配置环境变量

sudo vi /etc/profile

增加如下配置:

export HIVE_HOME=/usr/local/hive
export PATH=$PATH:$HIVE_HOME/bin
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib:/usr/local/hive/lib

2.3配置``hive-env.sh

所有Hive的配置是在/usr/local/hive/conf目录下,进入这个目录,我们需要先基于模板新建hive-env.sh文件:

cp hive-env.sh.template hive-env.sh
vi hive-env.sh

指定Hadoop的路径,增加以下行:

HADOOP_HOME=/usr/local/hadoop

2.4配置hive-site.xml

cp hive-default.xml.template hive-site.xml
vi hive-site.xml

首先增加mysql数据库的连接配置:

操作系统 1

<property>
  <name>javax.jdo.option.ConnectionURL</name>
  <value>jdbc:mysql://master:3306/hive?createDatabaseIfNotExist=true</value>
  <description>JDBC connect string for a JDBC metastore</description>
</property>
<property>
  <name>javax.jdo.option.ConnectionDriverName</name>
  <value>com.mysql.jdbc.Driver</value>
  <description>Driver class name for a JDBC metastore</description>
</property>
<property>
  <name>javax.jdo.option.ConnectionUserName</name>
  <value>hive</value>
  <description>username to use against metastore database</description>
</property>
<property>
  <name>javax.jdo.option.ConnectionPassword</name>
  <value>hive</value>
  <description>password to use against metastore database</description>
</property>

操作系统 2

然后需要修改临时文件夹的路径,找到以下2个配置,并改为正确的路径:

操作系统 3

 <property> 
 <name>hive.exec.local.scratchdir</name>
 <value>/home/hduser/iotmp</value>
 <description>Local scratch space for Hive jobs</description>
 </property>
 <property>
 <name>hive.downloaded.resources.dir</name>
 <value>/home/hduser/iotmp</value>
 <description>Temporary local directory for added resources in the remote file system.</description>
 </property>

操作系统 4

这里因为我当前用户是hduser,所以我在hduser的目录下创建一个iotmp文件夹,并授权:

mkdir -p /home/hduser/iotmp 
chmod -R 775 /home/hduser/iotmp

2.5修改hive-config.sh

进入目录/usr/local/hive/bin

vi hive-config.sh

在该文件的最前面加入以下配置:

export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64 
export HADOOP_HOME=/usr/local/hadoop 
export HIVE_HOME=/usr/local/hive

2.6下载MySQL JDBC驱动

去MySQL的官网, 
下载JDBC驱动到master服务器上。

wget

下载完后解压

tar xf mysql-connector-java-5.1.40.tar.gz

然后进入解压后的目录,把jar包复制到Hive/lib目录下面

cp mysql-connector-java-5.1.40-bin.jar /usr/local/hive/lib/

2.7在HDFS中创建目录和设置权限

启动Hadoop,在Hadoop中创建Hive需要用到的目录并设置好权限:

hadoop fs -mkdir /tmp
hadoop fs -mkdir -p /user/hive/warehouse
hadoop fs -chmod g+w /tmp
hadoop fs -chmod g+w /user/hive/warehouse

2.8初始化meta数据库

进入/usr/local/hive/lib目录,初始化Hive元数据对应的MySQL数据库:

schematool -initSchema -dbType mysql

3.使用Hive

在命令行下,输入hive命令即可进入Hive的命令行模式。我们可以查看当前有哪些数据库,哪些表:

show databases;
show tables;

关于hive命令下有哪些命令,具体介绍,可以参考官方文档:https://cwiki.apache.org/confluence/display/Hive/Home

配置系统环境变量

3.1创建表

和普通的SQL创建表没有太大什么区别,主要是为了方便,我们设定用\t来分割每一行的数据。比如我们要创建一个用户表:

create table Users (ID int,Name String) ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t';

3.2插入数据

是insert语句可以插入单条数据:

insert into Users values(1,'Devin');

如果要导入数据

我们在Ubuntu下创建一个name.txt文件,然后编辑其中的内容,添加如下内容:

2      Edward
3      Mindy
4      Dave
5      Joseph
6      Leo

列直接我是用Tab隔开的。

如果想把这个txt文件导入hive的Users 表,那么只需要在hive中执行:

LOAD DATA LOCAL INPATH '/home/hduser/names.txt' into table Users ;

3.3查询数据

仍然是sql语句:

select * from Users ;

当然我们也可以跟条件的查询语句:

select * from Users where Name like 'D%';

3.4增加一个字段

比如我们要增加生日这个字段,那么语句为:

alter table Users add columns (BirthDate date);

3.5查询表定义

我们看看表的结构是否已经更改,查看Users表的定义:

desc Users;

3.6其他

另外还有重名了表,删除表等,基本也是SQL的语法:

alter table Users rename to Student;

删除一个表中的所有数据:

truncate table Student;

【另外需要注意,Hive不支持update和delete语句。似乎只有先truncate然后在重新insert。】

Hive编程指南 PDF 中文高清版 
http://www.linuxidc.com/Linux/2015-01/111837.htm

基于Hadoop集群的Hive安装
http://www.linuxidc.com/Linux/2013-07/87952.htm

Hive内表和外表的区别
http://www.linuxidc.com/Linux/2013-07/87313.htm

Hadoop + Hive + Map +reduce 集群安装部署
http://www.linuxidc.com/Linux/2013-07/86959.htm

Hive本地独立模式安装
http://www.linuxidc.com/Linux/2013-06/86104.htm

Hive学习之WordCount单词统计
http://www.linuxidc.com/Linux/2013-04/82874.htm

Hive运行架构及配置部署
http://www.linuxidc.com/Linux/2014-08/105508.htm

Hive
的详细介绍
:请点这里
Hive
的下载地址
:请点这里

本文永久更新链接地址:http://www.linuxidc.com/Linux/2016-12/138699.htm

操作系统 5

sudo vim /etc/profile
source /etc/profile

修改hive配置文档

用户自定义的配置文件:hive-site.xml

默认配置文件:hive-default.xml

用户自定义配置文件会覆盖默认配置文件,Hive也会读入Hadoop的配置,因为Hive是作为Hadoop客户端启动的。

cd conf
cp hive-default.xml.template hive-site.xml

Hive的主要配置项

hive.metastore.warehouse.dir 指定Hive的存储目录

hive.exec.scratchdir  指定hive的数据临时文件目录

连接数据库的配置

Hive需要将元数据存储在RDBMS中,配置mysql存储Hive元数据

<property>
  <name>javax.jdo.option.ConnectionURL</name>
 
<value>jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true</value>
  <description>JDBC connect string for a JDBC
metastore</description>
</property>

<property>
  <name>javax.jdo.option.ConnectionDriverName</name>
  <value>com.mysql.jdbc.Driver</value>
  <description>Driver class name for a JDBC
metastore</description>
</property>
………………………
………………………
<property>
  <name>javax.jdo.option.ConnectionUserName</name>
  <value>root</value>
  <description>username to use against metastore
database</description>
</property>

<property>
  <name>javax.jdo.option.ConnectionPassword</name>
  <value>111111</value>
  <description>password to use against metastore
database</description>
</property>

将JDBC的驱动拷贝到$HIVE_HOME/lib下

cp /home/dat/mysql-connector-java-5.1.24-bin.jar /opt/hive-0.12.0/lib/

安装Mysql和启动mysql略过。。

检查mysql的启动状态:

sudo service mysql.server status

启动Hive

/opt/hive-0.12.0/bin$ hive

报错:

Cannot find hadoop installation: $HADOOP_HOME or $HADOOP_PREFIX must
be set or hadoop must be in the path

原因hadoop没有启用,简单处理:source
/opt/hadoop-1.2.1/conf/hadoop-env.sh

继续启动,继续报错:

Caused by: org.xml.sax.SAXParseException; systemId:
file:/opt/hive-0.12.0/conf/hive-site.xml; lineNumber: 2000;
columnNumber: 16; 元素类型 “value” 必须由匹配的结束标记 “</value>”
终止。

原因:xml文件有问题,2000行<value><auth>配对了,修改为vaule

继续重启,OK!

dat@dat-HP:/opt/hive-0.12.0/bin$ hive

Logging initialized using configuration in
jar:file:/opt/hive-0.12.0/lib/hive-common-0.12.0.jar!/hive-log4j.properties
hive>

更多详情见请继续阅读下一页的精彩内容
http://www.linuxidc.com/Linux/2013-11/92525p2.htm

Hive
的详细介绍
:请点这里
Hive
的下载地址
:请点这里

相关阅读

基于Hadoop集群的Hive安装
http://www.linuxidc.com/Linux/2013-07/87952.htm

Hive内表和外表的区别
http://www.linuxidc.com/Linux/2013-07/87313.htm

Hadoop + Hive + Map +reduce 集群安装部署
http://www.linuxidc.com/Linux/2013-07/86959.htm

Hive本地独立模式安装
http://www.linuxidc.com/Linux/2013-06/86104.htm

Hive学习之WordCount单词统计
http://www.linuxidc.com/Linux/2013-04/82874.htm

Windows 7下硬盘安装Ubuntu
13.10图文教程

http://www.linuxidc.com/Linux/2013-10/91565.htm

Ubuntu 13.10 下载、安装、配置 整理汇总 页面
http://www.linuxidc.com/Linux/2013-10/91564.htm

操作系统 6