论坛
潜水/灌水快乐,沉淀知识,认识更多同行。
ToB圈子
加入IT圈,遇到更多同好之人。
朋友圈
看朋友圈动态,了解ToB世界。
ToB门户
了解全球最新的ToB事件
博客
Blog
排行榜
Ranklist
文库
业界最专业的IT文库,上传资料也可以赚钱
下载
分享
Share
导读
Guide
相册
Album
记录
Doing
应用中心
搜索
本版
文章
帖子
ToB圈子
用户
免费入驻
产品入驻
解决方案入驻
公司入驻
案例入驻
登录
·
注册
账号登录
立即注册
找回密码
用户名
Email
自动登录
找回密码
密码
登录
立即注册
首页
找靠谱产品
找解决方案
找靠谱公司
找案例
找对的人
专家智库
悬赏任务
圈子
SAAS
qidao123.com技术社区-IT企服评测·应用市场
»
论坛
›
大数据
›
数据仓库与分析
›
傻瓜式教程Windows下安装Hive MySQL版
傻瓜式教程Windows下安装Hive MySQL版
自由的羽毛
论坛元老
|
2025-3-12 00:16:28
|
显示全部楼层
|
阅读模式
楼主
主题
2017
|
帖子
2017
|
积分
6051
马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
几个留意事项:
本篇文章会提供所有安装需要的资源,各人下载我提供的资料就好,制止如版本不对应等不须要的题目出现;
在安装过程中会涉及一些环境设置,盼望各人解压的目次所在最好和我的一样,如许既可以直接复制我提供的文本信息,也可以制止粗心导致的题目;
本篇文章会提供所有各人需要更改的文本,各人直接复制即可,不要自己手打了;
没装JDK的朋友可以先安装完再来。
1 安装Hadoop
1.1 下载并解压资源
链接:https://pan.baidu.com/s/1gSo09Tv8GytCt6dwCr3JNA
提取码:1024
下载完如下图解压即可,留意我这里是直接解压到E盘。
补充:原有的hadoop-2.7.7/bin目次下没有文件是winutils和hadoop.dll文件的,需要下载hadooponwindows-master并将其bin覆盖原先的bin,这里我提供的资源是已经覆盖了的,可省略该操纵。
1.2 设置系统变量和环境变量
1.2.1 系统变量
变量名:HADOOP_HOME
变量值:E:\Hadoop\hadoop-2.7.7
1.2.2 环境变量
环境变量值:%HADOOP_HOME%\bin
1.2.3测试
打开CMD,输入hadoop,如下图则为设置成功。
1.3 复制文件
将E:\Hadoop\hadoop-2.7.7\bin目次下的hadoop.dll复制到E:\Hadoop\hadoop-2.7.7\sbin以及C:\Windows\System32这两个目次下。
1.4 修改设置文件
1.4.1 创建目次
修改之前先创建以下几个空目次:
E:\Hadoop\hadoop-2.7.7\data
E:\Hadoop\hadoop-2.7.7\data\dfs
E:\Hadoop\hadoop-2.7.7\data\dfs\datanode
E:\Hadoop\hadoop-2.7.7\data\dfs\namenode
1.4.2 修改5个文件
第一个是E:\Hadoop\hadoop-2.7.7\etc\hadoop下的core-site.xml文件。
打开该文件,找到如下位置。
将红色部分的内容更改为如下内容:
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
复制代码
第二个是E:\Hadoop\hadoop-2.7.7\etc\hadoop下的hdfs-site.xml文件。
打开该文件,找到如下位置。
将红色部分的内容更改为如下内容,留意路径是否需要更改。
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.http-address</name>
<value>localhost:50070</value>
</property>
<property>
<name>dfs.namenode.dir</name>
<value>/E:/Hadoop/hadoop-2.7.7/data/dfs/namenode</value>
</property>
<property>
<name>dfs.datanode.name.dir</name>
<value>/E:/Hadoop/hadoop-2.7.7/data/dfs/datanode</value>
</property>
</configuration>
复制代码
第三个是E:\Hadoop\hadoop-2.7.7\etc\hadoop下的mapred-site.xml.template文件。
打开该文件,找到如下位置。
将红色部分的内容更改为如下内容。
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapred.job.tracker</name>
<value>hdfs://localhost:9001</value>
</property>
</configuration>
复制代码
改完记得将mapred-site.xml.template改名为mapred-site.xml。
第四个是E:\Hadoop\hadoop-2.7.7\etc\hadoop下的yarn-site.xml文件。
打开该文件,找到如下位置。
将红色部分的内容更改为如下内容。
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
</configuration>
复制代码
第五个是E:\Hadoop\hadoop-2.7.7\etc\hadoop下的hadoop-env.cmd文件。
由于是cmd文件,所以我是用UE打开的,当然了各人可以先把后缀改成txt,修改完再更改回来。
具体来说,就是在文件的末了添加如下语句。
@rem set JAVA_HOME=%JAVA_HOME%
set JAVA_HOME=E:\JDK8
复制代码
这里的E:\JDK8是我的JDK环境变量值,各人需要根据自己的举行更改,下图是查询方法。
1.5 格式化HDFS
打开CMD,输入hdfs namenode -format。
1.6 开启四个历程
以
管理员身份
打开CMD,切换到E:\Hadoop\hadoop-2.7.7\sbin目次下,输入命令:start-all.cmd
输入命令:jps测试是否开启成功。
1.7 测试Hadoop DFS
打开浏览器,在所在栏输入http://localhost:50070查看Hadoop状态
输入http://localhost:8088查看集群状态。
此时安装Hadoop成功。
2 安装Hive MySQL版本
2.1 下载并解压资源
官网下载:http://archive.apache.org/dist/hive/hive-2.1.1/apache-hive-2.1.1-bin.tar.gz
其他下载方式:
链接:https://pan.baidu.com/s/1Or5Q5EwD-RBx5bLHzfpI-Q
提取码:1024
下载完之后,直接解压到E盘,如图。
紧接着是下载MySQL驱动。
官网下载:https://dev.mysql.com/downloads/file/?id=476197
其他下载方式:
链接:https://pan.baidu.com/s/1cl8SY-c4uFyL8MLPKtk6PA
提取码:1024
下载完后,也是直接解压到E盘。
解压完,将E:\mysql-connector-java-5.1.46目次下的mysql-connector-java-5.1.46-bin.jar复制到E:\apache-hive-2.1.1-bin\lib目次下,如图所示。
2.2 设置系统变量和环境变量
2.2.1 系统变量
变量名:HIVE_HOME
变量值:E:\apache-hive-2.1.1-bin
2.2.2 环境变量
变量值: %HIVE_HOME%\bin
2.3 Hive config设置
如图,找到E:\apache-hive-2.1.1-bin\conf目次下的4个文件。
按照如下方式举行更改:
hive-default.xml.template -----> hive-site.xml
hive-env.sh.template -----> hive-env.sh
hive-exec-log4j.properties.template -----> hive-exec-log4j2.properties
hive-log4j2.properties.template -----> hive-log4j2.properties
2.4 创建目次
创建以下几个空目次:
E:\apache-hive-2.1.1-bin\my_hive
E:\apache-hive-2.1.1-bin\my_hive\operation_logs_dir
E:\apache-hive-2.1.1-bin\my_hive\querylog_dir
E:\apache-hive-2.1.1-bin\my_hive\resources_dir
E:\apache-hive-2.1.1-bin\my_hive\scratch_dir
2.5 修改 hive-env.sh
找到E:\apache-hive-2.1.1-bin\conf下的hive-env.sh文件。
找到下图中的位置:
将其更换为如下内容:
# Set HADOOP_HOME to point to a specific hadoop install directory
HADOOP_HOME=E:\Hadoop\hadoop-2.7.7
# Hive Configuration Directory can be controlled by:
export HIVE_CONF_DIR=E:\apache-hive-2.1.1-bin\conf
# Folder containing extra ibraries required for hive compilation/execution can be controlled by:
export HIVE_AUX_JARS_PATH=E:\apache-hive-2.1.1-bin\lib
复制代码
留意路径题目。
2.6 修改hive-site.xml
这里需要修改的较多,我直接把我已经修改好的文件上传到网盘上,各人下载即可。
链接:https://pan.baidu.com/s/1p3cGCpRn7UUW96icyfUxEA
提取码:1024
这里需要留意的是,
你的Hive的解压路径是否和我一样,不一样就得更改,一共是4处。
然后尚有连接数据库的题目,账号是否为root,密码是否为123456,端口是否为3306,如果不一样,就需要更改,如下。
2.7 在Hadoop上创建HDFS目次
命令如下(记得先启动Hadoop):
hadoop fs -mkdir /tmp
hadoop fs -mkdir /user/
hadoop fs -mkdir /user/hive/
hadoop fs -mkdir /user/hive/warehouse
hadoop fs -chmod g+w /tmp
hadoop fs -chmod g+w /user/hive/warehouse
如图:
2.8 创建MySQL数据库
利用命令的方式:
create database if not exists hive default character set latin1;
复制代码
或者用Navicat创建也可以。
2.9 启动Hadoop
以管理员身份打开CMD,切换到E:\Hadoop\hadoop-2.7.7\sbin命令下,输入命令start-dfs.cmd
2.10 启动Hive metastore服务
以管理员身份打开CMD,输入命令hive --service metastore
如果hive数据库下出现了很多表,则开启成功。
补充:只有第一次打开需要输入hive --service metastore。
2.11 启动Hive
打开CMD,输入命令hive.cmd
这个时候就可以输入HQL语句啦。
我们输入一个create table stu(id int, name string)
然后再浏览器所在栏输入:http://localhost:50070/explorer.html#/user/hive/warehouse
创建表成功!
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
继续阅读请点击广告
回复
使用道具
举报
0 个回复
倒序浏览
返回列表
快速回复
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
or
立即注册
本版积分规则
发表回复
回帖并转播
回帖后跳转到最后一页
发新帖
回复
自由的羽毛
论坛元老
这个人很懒什么都没写!
楼主热帖
JDBC p2 JDBC API
【MySQL】MySQL的安装、卸载、配置、登 ...
【python】标准库(第四讲)
iOS 组件化及二进制化的探索 ...
线程本地存储 ThreadLocal
Vue使用ajax(axios)请求后台数据 ...
.MD语法入门,教你写好readme文档 ...
Linux【实操篇】—— Shell函数、Shell ...
我眼中的大数据(二)——HDFS ...
go学习笔记(一)
标签云
国产数据库
集成商
AI
运维
CIO
存储
服务器
快速回复
返回顶部
返回列表