马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。
您需要 登录 才可以下载或查看,没有账号?立即注册
x
参考资料为:
讲义代码-林子雨编著《大数据基础编程、实验和案例教程(第2版)》讲义所有章节代码_厦大数据库实验室博客
1.实验学时
4学时
2.实验目标
3.实验内容
(一)完成Hive的安装和配置Mysql接口。
先进行hive安装包的安装。
然后修改文件名和文件权限;
之后加入情况变量的路径:
加入:
然后输入命令使得配置立即见效。
之后进入对应文件夹修改文件名:
然后创建一个新的文件.xml
输入信息:
- <?xml version="1.0" encoding="UTF-8" standalone="no"?>
- <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
- <configuration>
- <property>
- <name>javax.jdo.option.ConnectionURL</name>
- <value>jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true</value>
- <description>JDBC connect string for a JDBC metastore</description>
- </property>
- <property>
- <name>javax.jdo.option.ConnectionDriverName</name>
- <value>com.mysql.jdbc.Driver</value>
- <description>Driver class name for a JDBC metastore</description>
- </property>
- <property>
- <name>javax.jdo.option.ConnectionUserName</name>
- <value>hive</value>
- <description>username to use against metastore database</description>
- </property>
- <property>
- <name>javax.jdo.option.ConnectionPassword</name>
- <value>hive</value>
- <description>password to use against metastore database</description>
- </property>
- </configuration>
复制代码
之后配置MySQL:
先把压缩包压解,之后将压缩包复制到对应文件夹内;


先安装MySql数据库:

关闭然后重新启动数据库:

乐成进入数据库:

进入sql的shell命令

测试几个功能:
查看sql当前字符格式:

临时设置编码格式:

通过修改配置文件来进行编码格式的永世修改:

在下面加上character_set_server=utf8即可
这里要留意,必要修改文件权限才可以进行修改,添加代码的利用。

之后进入mysql查看发现已经修改utf8(character_set_server)乐成:

之后是mysql数据库的基本利用:
显示数据库:

使用use命令打开数据库:

使用下面的命令显示数据库中的表:
 
显示user表中的记录:



创建数据库aaa:

创建表:
创建表并使得创建表person,表中有id、xm(姓名)、xb(性别)、csny(出生年代)等信息。

打印对应的信息:

增加对应的记录:

由于设置了id自增,所以对应的增加的信息会自动的加入到下一个列表之中。
使用select命令查看插入是否乐成:

修改数据库中的信息:

删除信息:

删除对应的数据库以及表可以使用命令drop database+对应库名
drop table+对应表格
配置完成mysql数据库之后,开始配置接入hive数据库。
然后将mysql接入hive数据堆栈:

然后配置答应mysql接入hive数据堆栈:

然后可以开始启动hive数据堆栈:
不过启动之前先要启动hadoop。

启动完成之后就可以启动hive数据堆栈:
发现出现了题目:

这时可以使用架构升级软件来进行版本的提拔适配:
但是还是出现了报错,这个时间必要修改对应的版本号来进行错误清除。
查看发现对应的hadoop和hive两个的版本号是不一样的。这个时间就可以将两个guava版本修改成一样的就可以了。
 
修改之后,再次启动hive。
不过还是报错。

这里的报错意思是hadoop现在在安全模式下,这个时间无法创建文件!!!
这个时间必要关闭hadoop的安全模式!!!!

关闭之后,就可以重新启动hive,之后就可以重新进入hive进行编程。

(二)了解Hive的基本数据范例。列出各种数据范例。
这里的hive基本数据范例有多种。
TINYINT
| 1B(8b)有符号整数
| 1
| SMALLINT
| 2B(16b)有符号整数
| 1
| INT
| 4B(32b)有符号整数
| 1
| BIGINT
| 8B(64b)有符号整数
| 1
| FLOAT
| 4B(32b)单精度浮点数
| 1.0
| BOUBLE
| 8B(64b)双精度浮点数
| 1.0
| STRING
| 字符串,可以指定字符串
| “smu”
| TIMESTAMP
| 整数、浮点数大概字符串
| 127383728193
| BINARY
| 字节数组
| [0,1,0,1,0,1]
| BOOLEAN
| 布尔范例:true/false
| true
| 同时还有Hive支持的聚集数据范例:
ARRAY
| 一组有序字段,字段范例必须相同
| Array(1,2)
| MAP
| 一组无序的键值对,键的范例必须是原子的,值可以是任何数据范例,同一个映射的健和值的范例必须相同
| Map(‘a’,1,2)
| STRUCT
| 一组命名的字段,字段的范例可以不同
| Struct(‘a’,1,1,0)
| (三)完成Hive的基本利用,参考8.3节。
然后开始hive的编程基本利用:
1.首先是创建数据库hive:,创建的指令与mysql数据库相似:
2.创建表:必要在创建好的hive数据库中才创建一个表:
在hive中创建一个表的同时,还可以指定对应的路径进行表的创建。
固然,还可以在外部创建一个表,创建的这个表可以读取路径/usr/local/data下以”.”分割的数据。
然后在hive数据库中创建分区表uerl,这个表通过复制usr表得到:
3.创建视图:
之后是删除利用:
1.删除数据库:
这里的意思是说这个库中有其他的信息,必要将这些信息删除之后才可以删除库。
可以在代码中加入if exists代码,如果不存在也不会产生非常
固然,也可以在代码后面加上caseade,这样删除当前数据库和数据库中的表。
2.删除表:
如果删除内部表,那么所有的信息都会被删除,如果是外部表,那么只会删除元数据而不会删除实际数据。
3.删除视图:
之后是修改数据库中的元素的利用:
1.修改数据库:
先创建一个数据库,然后在数据库中设置键值对属性进行利用。
2.修改表:
重命名:
为usr增加分区:
删除分区:
将usr表中的name修改为username,而且将name放在age之后
在usr分区字段前面增加一个新的列sex:
删除usr表中的所有字段之后重新定义字段:
描述对应的属性信息:
3.修改视图:
首先创建一个a的表,然后将视图继承于这个表:
然后修改视图
之后是查看数据库、表、视图:
1.查看数据库:
2.查看表和视图:
描述数据库、表、视图:
1.描述数据库基本信息:
查看数据库具体信息:
2.描述表和视图:
查看表usr和视图的基本信息:
查看具体信息:
然后是查看usr列中的id信息:
然后是向表中装载数据:
首先打开hive库,然后写入路径中的数据:
将HDFS路径下的数据文件装入表中而且覆盖原来数据:
导出数据:
首先创建一个新的分区表,然后创建一个新的表,让这个新的表继承这个分区表,
然后向新的分区表装载信息。
然后导出信息:
可以选择追加原有数据:
(四)在hive中实现wordcount。
创建一个input文件作为输入:
进入这个文件夹之后创建两个文件:
然后进入hive界面编写实现wordcount算法:
之后使用select语句查看结果:
4.思考题
(一)为什么要设计Hive?
1.在使用hive的时间,可以比mapreduce使用更少的代码量,在mapreduce中必要实现产生jar包,但是在使用hive的时间不必要使用jar包。用户不用实现具体的细节。
2. 大多数数据堆栈应用步伐都是使用关系数据库进行实现的,并使用SQL作为查询语言。Hive降低了将这些应用步伐转移到Hadoop体系上的难度。
3. 别的,相比其他工具,Hive更便于开发职员将基于SQL的应用步伐转移到Hadoop中。如果没有Hive,那么开发者将面临一个困难的挑战,怎样将他们的SQL应用步伐移植到Hadoop上。
(二)在hive中实现wordcount和直接写java步伐有什么区别和相似?
相似:
使用的时间与直接在java步伐中一样先要创建两个测试文件,也是必要进入到相同的目录和路径之下。
不同:
实现wordcount时hive已经将sql封装成mapreduce,简化了编写mapreduce的时间,相当于执行了两次mapreduce。但是使用java编写的时间,将会调用各种包,之前还必要进行各种包的导入以及代码的编写,远远没有wordcount便利轻便。
5.实验结论或体会
1.实验的时间,必要事先安装好mysql,下载的时间如果速率太慢,可以更换对应的下载网站。
2.在安装好hive而且想要启动的时间,有大概会报错。这里必要留意,可以使用架构升级软件来进行版本的提拔适配:
但是还是出现了报错,这个时间必要修改对应的版本号来进行错误清除。
查看发现对应的hadoop和hive两个的版本号是不一样的。这个时间就可以将两个guava版本修改成一样的就可以了。
修改之后,再次启动hive。
不过还是报错。
这里的报错意思是hadoop现在在安全模式下,这个时间无法创建文件!!!
这个时间必要关闭hadoop的安全模式!!!!
关闭之后,就可以重新启动hive,之后就可以重新进入hive进行编程。
3.发起每次使用hive的时间,启动hadoop的时间必要启动hadoop的安全模式。进行删除数据库的时间,必要匹配对应的路径才可以。
4.必要留意路径有中文符号的题目。
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。 |