创建可视化网页四 : 假造机中Hive的安装与配置 , 并测试其是否安装乐成 ...

打印 上一主题 下一主题

主题 638|帖子 638|积分 1914

引入 : hive-2.1.0的安装包

hive-2.1.0的安装包
一.安装配置hive

1.启动相关进程 , 进行解压安装

//打开假造机时 , 先启动所有进程
[root@hadoop ~]# jps
10111 Jps
[root@hadoop ~]# start-all.sh
[root@hadoop ~]# jps
10544 SecondaryNameNode
10723 ResourceManager
10249 NameNode
10825 NodeManager
11212 Jps
10351 DataNode
//启动mysql
[root@hadoop ~]# service mysql start
Starting MySQL SUCCESS!
[root@hadoop ~]# 2024-05-19T10:35:28.535241Z mysqld_safe A mysq
mysql -uroot -p
Enter password:
mysql> exit;
Bye
[root@hadoop ~]# systemctl stop firewalld //关闭防火墙
[root@hadoop ~]# start-yarn.sh //启动mapreduce
[root@hadoop ~]# cd /usr/soft
//解压hive的安装包
[root@hadoop soft]# tar -zxvf apache-hive-2.1.0-bin.tar.gz  //解压
[root@hadoop soft]# ls
apache-hive-2.1.0-bin hadoop mysql5.7
apache-hive-2.1.0-bin.tar.gz jdk
[root@hadoop soft]# rm -rf apache-hive-2.1.0-bin.tar.gz  //删除压缩包
[root@hadoop soft]# ls
apache-hive-2.1.0-bin hadoop jdk mysql5.7
[root@hadoop soft]# mv apache-hive-2.1.0-bin/ hive //改名为hive
[root@hadoop soft]# ls
hadoop hive jdk mysql5.7
2.相关配置

//配置环境变量
[root@hadoop soft]# vim /etc/profile.d/hive.sh
[root@hadoop profile.d]# cat hive.sh
HIVE_HOME=/usr/soft/hive
PATH=                                   P                         A                         T                         H                         :                              PATH:                  PATH:HIVE_HOME/bin
CLASSPATH=                                   C                         L                         A                         S                         S                         P                         A                         T                         H                         :                              CLASSPATH:                  CLASSPATH:HIVE_HOME/lib
export HIVE_HOME PATH CLASSPATH
//source一下,让环境变量的配置生效
[root@hadoop profile.d]# source /etc/profile.d/hive.sh
//修改hive-site.xml 文件
[root@hadoop profile.d]# cd /usr/soft/hive/conf
[root@hadoop conf]# cat hive-site.xml
- hive-site.xml 文件

  1.         <?xml version="1.0" encoding="UTF-8" standalone="no"?>
  2.         <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
  3.         <configuration>
  4.          <property>
  5.           <name>javax.jdo.option.ConnectionURL</name>
  6.           <value>jdbc:mysql://localhost:3306/hive?useUnicode=true&amp;characterEncoding=utf8&amp;useSSL=false&amp;createDatabaseIfNotExist=true</value>
  7.          </property>
  8.          <property>
  9.           <name>javax.jdo.option.ConnectionDriverName</name>
  10.           <value>com.mysql.jdbc.Driver</value>
  11.          </property>
  12.          <property>
  13.           <name>javax.jdo.option.ConnectionUserName</name>
  14.           <value>root</value>
  15.          </property>
  16.          <property>
  17.           <name>javax.jdo.option.ConnectionPassword</name>
  18.           <value>1234</value>
  19.          </property>
  20.          </<configuration>>
复制代码
//在xftp中将mysql的驱动包传到 /usr/soft/hive/lib目次下


  • mysql驱动包下载到 /usr/soft/hive/lib目次下


//然后初始化元数据
[root@hadoop lib]# schematool -dbType mysql -initSchema
//这时数据库就会有些变动(更新了) , 我们可以查看一下
[root@hadoop lib]# mysql -uroot -p
mysql> show databases;
//…
5 rows in set (0.01 sec)
mysql> use hive;
mysql> show tables;
//…
57 rows in set (0.00 sec)


  • 查看mysql

二.测试是否乐成安装Hiv

1.导入数据

//先创建一个文件 , 存放点数据
[root@hadoop ~]# cd /usr/
[root@hadoop usr]# mkdir data
[root@hadoop usr]# cd data
[root@hadoop data]# vim student.txt
[root@hadoop data]# cat student.txt
  1. 95002,刘晨,女,19,IS
  2. 95017,王风娟,女,18,IS
  3. 95018,王一,女,19,IS
  4. 95013,冯伟,男,21,CS
  5. 95014,王小丽,女,19,CS
  6. 95019,邢小丽,女,19,IS
  7. 95020,赵钱,男,21,IS
  8. 95003,王敏,女,22,MA
  9. 95004,张立,男,19,IS
  10. 95012,孙花,女,20,CS
  11. 95010,孔小涛,男,19,CS
  12. 95005,刘刚,男,18,MA
  13. 95006,孙庆,男,23,CS
  14. 95007,易思玲,女,19,MA
  15. 95008,李娜,女,18,CS
  16. 95021,周二,男,17,MA
  17. 95022,郑明,男,20,MA
  18. 95001,李勇,男,20,CS
  19. 95011,包小柏,男,18,MA
  20. 95009,梦圆圆,女,18,MA
  21. 95015,王君,男,18,MA
复制代码
//将文件 上传到hdfs中
[root@hadoop data]# hdfs dfs -put student.txt /
[root@hadoop data]# hdfs dfs -ls /
Found 2 items
-rw-r–r-- 1 root supergroup 504 2024-05-27 09:56 /student.txt
drwx-wx-wx - root supergroup 0 2024-05-19 21:18 /tmp
2.在hive中执行数据操作

//打开hive
[root@hadoop ~]# hive
hive> show databases;
OK
default
Time taken: 1.361 seconds, Fetched: 1 row(s)
//创建一个数据库
hive> create database myhive;
OK
Time taken: 0.583 seconds
hive> show databases;
OK
default
myhive
Time taken: 0.022 seconds, Fetched: 2 row(s)
hive> use myhive;
OK
Time taken: 0.047 seconds
//创建一个student的表
hive> create table student(id int, name string, sex string, age int, department string) row format delimited fields terminated by ",";
OK
Time taken: 0.158 seconds
//执行数据加载
hive> load data inpath "/student.txt" into table student;
Loading data to table myhive.student
OK
Time taken: 0.964 seconds
//此时,数据导入到表中 , 可以使用hive进行表操作了
hive> select * from student;
  1. OK
  2. 95002        刘晨        女        19        IS
  3. 95017        王风娟        女        18        IS
  4. 95018        王一        女        19        IS
  5. 95013        冯伟        男        21        CS
  6. 95014        王小丽        女        19        CS
  7. 95019        邢小丽        女        19        IS
  8. 95020        赵钱        男        21        IS
  9. 95003        王敏        女        22        MA
  10. 95004        张立        男        19        IS
  11. 95012        孙花        女        20        CS
  12. 95010        孔小涛        男        19        CS
  13. 95005        刘刚        男        18        MA
  14. 95006        孙庆        男        23        CS
  15. 95007        易思玲        女        19        MA
  16. 95008        李娜        女        18        CS
  17. 95021        周二        男        17        MA
  18. 95022        郑明        男        20        MA
  19. 95001        李勇        男        20        CS
  20. 95011        包小柏        男        18        MA
  21. 95009        梦圆圆        女        18        MA
  22. 95015        王君        男        18        MA
  23. Time taken: 1.905 seconds, Fetched: 21 row(s)
复制代码
//计算平均年事 ----> hive去调用了mapreduce
hive> select avg(age) from student;
  1. WARNING: Hive-on-MR is deprecated in Hive 2 and may not be available in the future versions. Consider using a different execution engine (i.e. spark, tez) or using Hive 1.X releases.
  2. Query ID = root_20240527102934_25490751-a0bb-48aa-9f5e-79f3426a66d8
  3. Total jobs = 1
  4. Launching Job 1 out of 1
  5. Number of reduce tasks determined at compile time: 1
  6. In order to change the average load for a reducer (in bytes):
  7.   set hive.exec.reducers.bytes.per.reducer=<number>
  8. In order to limit the maximum number of reducers:
  9.   set hive.exec.reducers.max=<number>
  10. In order to set a constant number of reducers:
  11.   set mapreduce.job.reduces=<number>
  12. Starting Job = job_1716114831307_0001, Tracking URL = http://hadoop:8088/proxy/application_1716114831307_0001/
  13. Kill Command = /usr/soft/hadoop/bin/hadoop job  -kill job_1716114831307_0001
  14. Hadoop job information for Stage-1: number of mappers: 1; number of reducers: 1
  15. 2024-05-27 10:30:07,243 Stage-1 map = 0%,  reduce = 0%
  16. 2024-05-27 10:30:21,672 Stage-1 map = 100%,  reduce = 0%, Cumulative CPU 3.16 sec
  17. 2024-05-27 10:30:31,669 Stage-1 map = 100%,  reduce = 100%, Cumulative CPU 5.24 sec
  18. MapReduce Total cumulative CPU time: 5 seconds 240 msec
  19. Ended Job = job_1716114831307_0001
  20. MapReduce Jobs Launched:
  21. Stage-Stage-1: Map: 1  Reduce: 1   Cumulative CPU: 5.24 sec   HDFS Read: 9204 HDFS Write: 118 SUCCESS
  22. Total MapReduce CPU Time Spent: 5 seconds 240 msec
  23. OK
  24. 19.285714285714285
  25. Time taken: 59.164 seconds, Fetched: 1 row(s)
复制代码
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

何小豆儿在此

金牌会员
这个人很懒什么都没写!

标签云

快速回复 返回顶部 返回列表