傻瓜式教程Windows下安装Hive MySQL版

打印 上一主题 下一主题

主题 1044|帖子 1044|积分 3132

几个留意事项:

  • 本篇文章会提供所有安装需要的资源,各人下载我提供的资料就好,制止如版本不对应等不须要的题目出现;
  • 在安装过程中会涉及一些环境设置,盼望各人解压的目次所在最好和我的一样,如许既可以直接复制我提供的文本信息,也可以制止粗心导致的题目;
  • 本篇文章会提供所有各人需要更改的文本,各人直接复制即可,不要自己手打了;
  • 没装JDK的朋友可以先安装完再来。
1 安装Hadoop

1.1 下载并解压资源

链接:https://pan.baidu.com/s/1gSo09Tv8GytCt6dwCr3JNA
提取码:1024
下载完如下图解压即可,留意我这里是直接解压到E盘。



补充:原有的hadoop-2.7.7/bin目次下没有文件是winutils和hadoop.dll文件的,需要下载hadooponwindows-master并将其bin覆盖原先的bin,这里我提供的资源是已经覆盖了的,可省略该操纵。

1.2 设置系统变量和环境变量

1.2.1 系统变量

变量名:HADOOP_HOME
变量值:E:\Hadoop\hadoop-2.7.7


1.2.2 环境变量




环境变量值:%HADOOP_HOME%\bin

1.2.3测试

打开CMD,输入hadoop,如下图则为设置成功。


1.3 复制文件

将E:\Hadoop\hadoop-2.7.7\bin目次下的hadoop.dll复制到E:\Hadoop\hadoop-2.7.7\sbin以及C:\Windows\System32这两个目次下。








1.4 修改设置文件

1.4.1 创建目次

修改之前先创建以下几个空目次:
E:\Hadoop\hadoop-2.7.7\data
E:\Hadoop\hadoop-2.7.7\data\dfs
E:\Hadoop\hadoop-2.7.7\data\dfs\datanode
E:\Hadoop\hadoop-2.7.7\data\dfs\namenode


1.4.2 修改5个文件

第一个是E:\Hadoop\hadoop-2.7.7\etc\hadoop下的core-site.xml文件。
打开该文件,找到如下位置。



将红色部分的内容更改为如下内容:

  1. <configuration>
  2.     <property>
  3.         <name>fs.defaultFS</name>
  4.         <value>hdfs://localhost:9000</value>
  5.     </property>
  6. </configuration>
复制代码



第二个是E:\Hadoop\hadoop-2.7.7\etc\hadoop下的hdfs-site.xml文件。

打开该文件,找到如下位置。



将红色部分的内容更改为如下内容,留意路径是否需要更改。

  1. <configuration>
  2.     <property>
  3.         <name>dfs.replication</name>
  4.         <value>1</value>
  5.     </property>
  6.     <property>
  7.         <name>dfs.namenode.http-address</name>
  8.         <value>localhost:50070</value>
  9.     </property>
  10.     <property>
  11.         <name>dfs.namenode.dir</name>
  12.         <value>/E:/Hadoop/hadoop-2.7.7/data/dfs/namenode</value>
  13.     </property>
  14.     <property>
  15.         <name>dfs.datanode.name.dir</name>
  16.         <value>/E:/Hadoop/hadoop-2.7.7/data/dfs/datanode</value>
  17.     </property>
  18. </configuration>
复制代码


第三个是E:\Hadoop\hadoop-2.7.7\etc\hadoop下的mapred-site.xml.template文件。
打开该文件,找到如下位置。



将红色部分的内容更改为如下内容。

  1. <configuration>
  2.     <property>
  3.         <name>mapreduce.framework.name</name>
  4.         <value>yarn</value>
  5.     </property>
  6.     <property>
  7.         <name>mapred.job.tracker</name>
  8.         <value>hdfs://localhost:9001</value>
  9.     </property>
  10. </configuration>
复制代码



改完记得将mapred-site.xml.template改名为mapred-site.xml。

第四个是E:\Hadoop\hadoop-2.7.7\etc\hadoop下的yarn-site.xml文件。
打开该文件,找到如下位置。



将红色部分的内容更改为如下内容。

  1. <configuration>
  2.     <property>
  3.         <name>yarn.nodemanager.aux-services</name>
  4.         <value>mapreduce_shuffle</value>
  5.     </property>
  6.     <property>
  7.         <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
  8.         <value>org.apache.hadoop.mapred.ShuffleHandler</value>
  9.     </property>
  10. </configuration>
复制代码



第五个是E:\Hadoop\hadoop-2.7.7\etc\hadoop下的hadoop-env.cmd文件。

由于是cmd文件,所以我是用UE打开的,当然了各人可以先把后缀改成txt,修改完再更改回来。
具体来说,就是在文件的末了添加如下语句。
  1. @rem set JAVA_HOME=%JAVA_HOME%
  2. set JAVA_HOME=E:\JDK8
复制代码



这里的E:\JDK8是我的JDK环境变量值,各人需要根据自己的举行更改,下图是查询方法。



1.5 格式化HDFS

打开CMD,输入hdfs namenode -format。


1.6 开启四个历程

管理员身份打开CMD,切换到E:\Hadoop\hadoop-2.7.7\sbin目次下,输入命令:start-all.cmd





输入命令:jps测试是否开启成功。


1.7 测试Hadoop DFS

打开浏览器,在所在栏输入http://localhost:50070查看Hadoop状态



输入http://localhost:8088查看集群状态。



此时安装Hadoop成功。

2 安装Hive MySQL版本

2.1 下载并解压资源

官网下载:http://archive.apache.org/dist/hive/hive-2.1.1/apache-hive-2.1.1-bin.tar.gz
其他下载方式:
链接:https://pan.baidu.com/s/1Or5Q5EwD-RBx5bLHzfpI-Q
提取码:1024
下载完之后,直接解压到E盘,如图。



紧接着是下载MySQL驱动。

官网下载:https://dev.mysql.com/downloads/file/?id=476197



其他下载方式:
链接:https://pan.baidu.com/s/1cl8SY-c4uFyL8MLPKtk6PA
提取码:1024

下载完后,也是直接解压到E盘。
解压完,将E:\mysql-connector-java-5.1.46目次下的mysql-connector-java-5.1.46-bin.jar复制到E:\apache-hive-2.1.1-bin\lib目次下,如图所示。





2.2 设置系统变量和环境变量

2.2.1 系统变量

变量名:HIVE_HOME
变量值:E:\apache-hive-2.1.1-bin


2.2.2 环境变量

变量值: %HIVE_HOME%\bin


2.3 Hive config设置

如图,找到E:\apache-hive-2.1.1-bin\conf目次下的4个文件。



按照如下方式举行更改:

   hive-default.xml.template -----> hive-site.xml  
hive-env.sh.template -----> hive-env.sh  
hive-exec-log4j.properties.template -----> hive-exec-log4j2.properties  
hive-log4j2.properties.template -----> hive-log4j2.properties  

2.4 创建目次

创建以下几个空目次:
E:\apache-hive-2.1.1-bin\my_hive
E:\apache-hive-2.1.1-bin\my_hive\operation_logs_dir
E:\apache-hive-2.1.1-bin\my_hive\querylog_dir
E:\apache-hive-2.1.1-bin\my_hive\resources_dir
E:\apache-hive-2.1.1-bin\my_hive\scratch_dir


2.5 修改 hive-env.sh

找到E:\apache-hive-2.1.1-bin\conf下的hive-env.sh文件。
找到下图中的位置:



将其更换为如下内容:

  1. # Set HADOOP_HOME to point to a specific hadoop install directory
  2. HADOOP_HOME=E:\Hadoop\hadoop-2.7.7
  3. # Hive Configuration Directory can be controlled by:
  4. export HIVE_CONF_DIR=E:\apache-hive-2.1.1-bin\conf
  5. # Folder containing extra ibraries required for hive compilation/execution can be controlled by:
  6. export HIVE_AUX_JARS_PATH=E:\apache-hive-2.1.1-bin\lib
复制代码



留意路径题目。

2.6 修改hive-site.xml

这里需要修改的较多,我直接把我已经修改好的文件上传到网盘上,各人下载即可。
链接:https://pan.baidu.com/s/1p3cGCpRn7UUW96icyfUxEA
提取码:1024
这里需要留意的是,
你的Hive的解压路径是否和我一样,不一样就得更改,一共是4处。








然后尚有连接数据库的题目,账号是否为root,密码是否为123456,端口是否为3306,如果不一样,就需要更改,如下。








2.7 在Hadoop上创建HDFS目次

命令如下(记得先启动Hadoop):
hadoop fs -mkdir /tmp
hadoop fs -mkdir /user/
hadoop fs -mkdir /user/hive/
hadoop fs -mkdir /user/hive/warehouse
hadoop fs -chmod g+w /tmp
hadoop fs -chmod g+w /user/hive/warehouse
如图:


2.8 创建MySQL数据库

利用命令的方式:
  1. create database if not exists hive default character set latin1;
复制代码
或者用Navicat创建也可以。


2.9 启动Hadoop

以管理员身份打开CMD,切换到E:\Hadoop\hadoop-2.7.7\sbin命令下,输入命令start-dfs.cmd


2.10 启动Hive metastore服务

以管理员身份打开CMD,输入命令hive --service metastore



如果hive数据库下出现了很多表,则开启成功。




补充:只有第一次打开需要输入hive --service metastore。

2.11 启动Hive

打开CMD,输入命令hive.cmd



这个时候就可以输入HQL语句啦。

我们输入一个create table stu(id int, name string)



然后再浏览器所在栏输入:http://localhost:50070/explorer.html#/user/hive/warehouse




创建表成功!


免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

自由的羽毛

论坛元老
这个人很懒什么都没写!
快速回复 返回顶部 返回列表