qidao123.com技术社区-IT企服评测·应用市场

标题: 云计算技能 实验八 数据堆栈Hive的安装和使用 [打印本页]

作者: 何小豆儿在此    时间: 2024-7-30 00:50
标题: 云计算技能 实验八 数据堆栈Hive的安装和使用
参考资料为:
 
讲义代码-林子雨编著《大数据基础编程、实验和案例教程(第2版)》讲义所有章节代码_厦大数据库实验室博客
1.实验学时
4学时
2.实验目标

3.实验内容
(一)完成Hive的安装和配置Mysql接口。
先进行hive安装包的安装。


然后修改文件名和文件权限;

之后加入情况变量的路径:

加入:

然后输入命令使得配置立即见效。
之后进入对应文件夹修改文件名:


然后创建一个新的文件.xml

输入信息:
  1. <?xml version="1.0" encoding="UTF-8" standalone="no"?>
  2. <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
  3. <configuration>
  4.   <property>
  5.     <name>javax.jdo.option.ConnectionURL</name>
  6.     <value>jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true</value>
  7.     <description>JDBC connect string for a JDBC metastore</description>
  8.   </property>
  9.   <property>
  10.     <name>javax.jdo.option.ConnectionDriverName</name>
  11.     <value>com.mysql.jdbc.Driver</value>
  12.     <description>Driver class name for a JDBC metastore</description>
  13.   </property>
  14.   <property>
  15.     <name>javax.jdo.option.ConnectionUserName</name>
  16.     <value>hive</value>
  17.     <description>username to use against metastore database</description>
  18.   </property>
  19.   <property>
  20.     <name>javax.jdo.option.ConnectionPassword</name>
  21.     <value>hive</value>
  22.     <description>password to use against metastore database</description>
  23.   </property>
  24. </configuration>
复制代码

之后配置MySQL:
先把压缩包压解,之后将压缩包复制到对应文件夹内;

 


先安装MySql数据库:



关闭然后重新启动数据库:


乐成进入数据库:

进入sql的shell命令

测试几个功能:
查看sql当前字符格式:

临时设置编码格式:

通过修改配置文件来进行编码格式的永世修改:

在下面加上character_set_server=utf8即可
这里要留意,必要修改文件权限才可以进行修改,添加代码的利用。


之后进入mysql查看发现已经修改utf8(character_set_server)乐成:

之后是mysql数据库的基本利用:
显示数据库:

使用use命令打开数据库:

使用下面的命令显示数据库中的表:


显示user表中的记录:



创建数据库aaa:


创建表:
创建表并使得创建表person,表中有id、xm(姓名)、xb(性别)、csny(出生年代)等信息。

打印对应的信息:


增加对应的记录:

由于设置了id自增,所以对应的增加的信息会自动的加入到下一个列表之中。
使用select命令查看插入是否乐成:


修改数据库中的信息:

删除信息:

删除对应的数据库以及表可以使用命令drop database+对应库名
drop table+对应表格
配置完成mysql数据库之后,开始配置接入hive数据库。
然后将mysql接入hive数据堆栈:

然后配置答应mysql接入hive数据堆栈:


然后可以开始启动hive数据堆栈:
不过启动之前先要启动hadoop。


启动完成之后就可以启动hive数据堆栈:
发现出现了题目:

这时可以使用架构升级软件来进行版本的提拔适配:
但是还是出现了报错,这个时间必要修改对应的版本号来进行错误清除。
查看发现对应的hadoop和hive两个的版本号是不一样的。这个时间就可以将两个guava版本修改成一样的就可以了。

修改之后,再次启动hive。
不过还是报错。

这里的报错意思是hadoop现在在安全模式下,这个时间无法创建文件!!!
这个时间必要关闭hadoop的安全模式!!!!

关闭之后,就可以重新启动hive,之后就可以重新进入hive进行编程。


 (二)了解Hive的基本数据范例。列出各种数据范例。
这里的hive基本数据范例有多种。
TINYINT
1B(8b)有符号整数
1
SMALLINT
2B(16b)有符号整数
1
INT
4B(32b)有符号整数
1
BIGINT
8B(64b)有符号整数
1
FLOAT
4B(32b)单精度浮点数
1.0
BOUBLE
8B(64b)双精度浮点数
1.0
STRING
字符串,可以指定字符串
“smu”
TIMESTAMP
整数、浮点数大概字符串
127383728193
BINARY
字节数组
[0,1,0,1,0,1]
BOOLEAN
布尔范例:true/false
true
同时还有Hive支持的聚集数据范例:
ARRAY
一组有序字段,字段范例必须相同
Array(1,2)
MAP
一组无序的键值对,键的范例必须是原子的,值可以是任何数据范例,同一个映射的健和值的范例必须相同
Map(‘a’,1,2)
STRUCT
一组命名的字段,字段的范例可以不同
Struct(‘a’,1,1,0)
(三)完成Hive的基本利用,参考8.3节。
然后开始hive的编程基本利用
1.首先是创建数据库hive:,创建的指令与mysql数据库相似:

2.创建表:必要在创建好的hive数据库中才创建一个表:

在hive中创建一个表的同时,还可以指定对应的路径进行表的创建。

固然,还可以在外部创建一个表,创建的这个表可以读取路径/usr/local/data下以”.”分割的数据。

然后在hive数据库中创建分区表uerl,这个表通过复制usr表得到:


3.创建视图:


之后是删除利用:
1.删除数据库:


这里的意思是说这个库中有其他的信息,必要将这些信息删除之后才可以删除库。
可以在代码中加入if exists代码,如果不存在也不会产生非常
固然,也可以在代码后面加上caseade,这样删除当前数据库和数据库中的表。


2.删除表:
如果删除内部表,那么所有的信息都会被删除,如果是外部表,那么只会删除元数据而不会删除实际数据。


3.删除视图:


之后是修改数据库中的元素的利用:
1.修改数据库:
先创建一个数据库,然后在数据库中设置键值对属性进行利用。

2.修改表:
重命名:

为usr增加分区:


删除分区:


将usr表中的name修改为username,而且将name放在age之后

在usr分区字段前面增加一个新的列sex:


删除usr表中的所有字段之后重新定义字段:

描述对应的属性信息:


3.修改视图:
首先创建一个a的表,然后将视图继承于这个表:


然后修改视图


之后是查看数据库、表、视图:
1.查看数据库:

2.查看表和视图:


描述数据库、表、视图:
1.描述数据库基本信息:


查看数据库具体信息:


2.描述表和视图:
查看表usr和视图的基本信息:



查看具体信息:



然后是查看usr列中的id信息:


然后是向表中装载数据:
首先打开hive库,然后写入路径中的数据:

 


将HDFS路径下的数据文件装入表中而且覆盖原来数据:


导出数据:
首先创建一个新的分区表,然后创建一个新的表,让这个新的表继承这个分区表,
然后向新的分区表装载信息。

  

然后导出信息:


可以选择追加原有数据:



(四)在hive中实现wordcount。
创建一个input文件作为输入:

进入这个文件夹之后创建两个文件:

然后进入hive界面编写实现wordcount算法:



之后使用select语句查看结果:

4.思考题
(一)为什么要设计Hive?
1.在使用hive的时间,可以比mapreduce使用更少的代码量,在mapreduce中必要实现产生jar包,但是在使用hive的时间不必要使用jar包。用户不用实现具体的细节。
2. 大多数数据堆栈应用步伐都是使用关系数据库进行实现的,并使用SQL作为查询语言。Hive降低了将这些应用步伐转移到Hadoop体系上的难度
3. 别的,相比其他工具,Hive更便于开发职员将基于SQL的应用步伐转移到Hadoop中如果没有Hive,那么开发者将面临一个困难的挑战,怎样将他们的SQL应用步伐移植到Hadoop上。

(二)在hive中实现wordcount和直接写java步伐有什么区别和相似?
相似:
使用的时间与直接在java步伐中一样先要创建两个测试文件,也是必要进入到相同的目录和路径之下。
不同:
实现wordcount时hive已经将sql封装成mapreduce,简化了编写mapreduce的时间,相当于执行了两次mapreduce。但是使用java编写的时间,将会调用各种包,之前还必要进行各种包的导入以及代码的编写,远远没有wordcount便利轻便。
5.实验结论或体会
1.实验的时间,必要事先安装好mysql,下载的时间如果速率太慢,可以更换对应的下载网站。
2.在安装好hive而且想要启动的时间,有大概会报错。这里必要留意,可以使用架构升级软件来进行版本的提拔适配:
但是还是出现了报错,这个时间必要修改对应的版本号来进行错误清除。
查看发现对应的hadoop和hive两个的版本号是不一样的。这个时间就可以将两个guava版本修改成一样的就可以了。

修改之后,再次启动hive。
不过还是报错。

这里的报错意思是hadoop现在在安全模式下,这个时间无法创建文件!!!
这个时间必要关闭hadoop的安全模式!!!!

关闭之后,就可以重新启动hive,之后就可以重新进入hive进行编程。

3.发起每次使用hive的时间,启动hadoop的时间必要启动hadoop的安全模式。进行删除数据库的时间,必要匹配对应的路径才可以。
4.必要留意路径有中文符号的题目。


免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。




欢迎光临 qidao123.com技术社区-IT企服评测·应用市场 (https://dis.qidao123.com/) Powered by Discuz! X3.4