用户名
Email
论坛
潜水/灌水快乐,沉淀知识,认识更多同行。
ToB圈子
加入IT圈,遇到更多同好之人。
朋友圈
看朋友圈动态,了解ToB世界。
ToB门户
了解全球最新的ToB事件
博客
Blog
排行榜
Ranklist
文库
业界最专业的IT文库,上传资料也可以赚钱
下载
分享
Share
导读
Guide
相册
Album
记录
Doing
帖子
本版
文章
帖子
ToB圈子
用户
免费入驻
产品入驻
解决方案入驻
公司入驻
案例入驻
登录
·
注册
只需一步,快速开始
账号登录
立即注册
找回密码
用户名
自动登录
找回密码
密码
登录
立即注册
首页
找靠谱产品
找解决方案
找靠谱公司
找案例
找对的人
专家智库
悬赏任务
圈子
SAAS
IT评测·应用市场-qidao123.com技术社区
»
论坛
›
软件与程序人生
›
移动端开发
›
Mac 安装 Hadoop 详细教程(安装包 and Homebrew) ...
Mac 安装 Hadoop 详细教程(安装包 and Homebrew)
民工心事
论坛元老
|
2024-12-10 19:47:11
|
显示全部楼层
|
阅读模式
楼主
主题
1632
|
帖子
1632
|
积分
4896
马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
一、JDK 安装
JDK 版本高于 JDK 8,可能会导致 Hadoop ResourceManager 打不开,从而导致无法访问 localhost:8088。因此最好的方法,就是准备好 JDK 8 的环境,然后导入到 Hadoop 当中。
参考这篇文章,以为写的很好:MAC安装与卸载jdk_mac 卸载jdk-CSDN博客
二、配置 SSH
配置 SSH,防止后续毗连失败。
1. 输入:
ssh localhost
复制代码
成功则显示:
2. 假如失败,则在本地设置中,搜索“共享”,打开“长途登录”。
3. 打开 terminal:
(1) 假如之前没有天生过密钥,则天生:
ssh-keygen -t rsa
复制代码
(2) 有密钥后,更改授权,免密登岸:
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
chmod 600 ~/.ssh/authorized_keys
复制代码
三、Hadoop下载
方法一:安装包下载
1. 登岸网址:hadoop安装毗连
2. 选择自己要的版本下载,我下的是最新版:
3. 点进去后,选择 tar.gz:
4. 点击,下载到本地,然后解压,放在自己需要的目次中,我放在了
/usr/local/Cellar/hadoop/hadoop-3.4.0
复制代码
方法二:Homebrew 安装
1. 本地先安装 Homebrew,参考这篇文章:Mac安装Homebrew
2. 安装 Hadoop:
brew install hadoop
复制代码
PS: 这种安装方式可能会少 lib/native 文件夹,详细原因未知。
四、配置 Hadoop
1、 配置 Hadoop 全局变量:
注意
:这里是在主terminal配置。
1. 打开 terminal,输入:
vim ~/.bash_profile
复制代码
2. 在文件中输入:
# Hadoop
# 你本机的Hadoop存放地址
export HADOOP_HOME=/usr/local/Cellar/hadoop/hadoop-3.4.0
export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib/native"
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_INSTALL=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
复制代码
3. 保存后,使之生效,这样便可在全局使用 hadoop 启动命令:
source ~/.bash_profile
复制代码
2、配置 Hadoop 中的文件
打开 hadoop 文件夹,再打开 /etc/hadoop 文件夹,修改以下文件:
1. 打开 hadoop-env.sh,添加 java_home 的位置:
使用这句话来查询 java_home 的位置:
/usr/libexec/java_home -V
复制代码
2. 我的 hadoop 文件夹位置是:
/usr/local/Cellar/hadoop/hadoop-3.4.0
复制代码
使用 terminal,在 hadoop 文件夹中新建几个文件夹:
mkdir /usr/local/Cellar/hadoop/hadoop-3.4.0/tmp
mkdir /usr/local/Cellar/hadoop/hadoop-3.4.0/tmp/dfs
mkdir /usr/local/Cellar/hadoop/hadoop-3.4.0/tmp/dfs/name
mkdir /usr/local/Cellar/hadoop/hadoop-3.4.0/tmp/dfs/data
复制代码
3. 打开 core-site.xml,添加:
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:8020</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<!--hadoop安装地址+/tmp,刚刚新建的文件夹-->
<value>/usr/local/Cellar/hadoop/hadoop-3.4.0/tmp</value>
</property>
</configuration>
复制代码
4. 打开 hdfs-site.xml,添加:
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<!--hadoop安装地址+/tmp/dfs/name,刚刚新建的文件夹-->
<value>/usr/local/Cellar/hadoop/hadoop-3.4.0/tmp/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<!--hadoop安装地址+/tmp/dfs/data,刚刚新建的文件夹-->
<value>/usr/local/Cellar/hadoop/hadoop-3.4.0/tmp/dfs/data</value>
</property>
</configuration>
复制代码
5. 查看 hadoop classpath, terminal 输入:
hadoop classpath
复制代码
打开 mapred-site.xml ,添加:
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapred.job.tracker</name>
<value>localhost:9010</value>
</property>
<property>
<name>mapreduce.application.classpath</name>
<!--上面查到的 Hadoop classpath-->
<value>/usr/local/Cellar/hadoop/hadoop-3.4.0/etc/hadoop:/usr/local/Cellar/hadoop/hadoop-3.4.0/share/hadoop/common/lib/*:/usr/local/Cellar/hadoop/hadoop-3.4.0/share/hadoop/common/*:/usr/local/Cellar/hadoop/hadoop-3.4.0/share/hadoop/hdfs:/usr/local/Cellar/hadoop/hadoop-3.4.0/share/hadoop/hdfs/lib/*:/usr/local/Cellar/hadoop/hadoop-3.4.0/share/hadoop/hdfs/*:/usr/local/Cellar/hadoop/hadoop-3.4.0/share/hadoop/mapreduce/*:/usr/local/Cellar/hadoop/hadoop-3.4.0/share/hadoop/yarn:/usr/local/Cellar/hadoop/hadoop-3.4.0/share/hadoop/yarn/lib/*:/usr/local/Cellar/hadoop/hadoop-3.4.0/share/hadoop/yarn/*</value>
</property>
<property>
<name>yarn.app.mapreduce.am.env</name>
<!--hadoop安装地址-->
<value>/usr/local/Cellar/hadoop/hadoop-3.4.0</value>
</property>
<property>
<name>mapreduce.map.env</name>
<!--hadoop安装地址-->
<value>/usr/local/Cellar/hadoop/hadoop-3.4.0</value>
</property>
<property>
<name>mapreduce.reduce.env</name>
<!--hadoop安装地址-->
<value>/usr/local/Cellar/hadoop/hadoop-3.4.0</value>
</property>
</configuration>
复制代码
6. 打开 yarn-site.xml,添加:
<configuration>
<!-- Site specific YARN configuration properties -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.resourcemanager.address</name>
<value>localhost:9000</value>
</property>
<property>
<name>yarn.scheduler.capacity.maximum-am-resource-percent</name>
<value>100</value>
</property>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>127.0.0.1</value>
</property>
</configuration>
复制代码
五、启动 Hadoop
1、初始化
1. terminal 执行:
hdfs namenode -format
复制代码
2、启动 Hadoop
1、terminal 执行:
start-all.sh
复制代码
执行结果:
2. 查看启动状态:
jps
复制代码
3. 网页查看是否启动成功:
查看 HDFS 启动环境:http://localhost:9870
查看 YARN 启动环境:http://localhost:8088
4. 关闭 hadoop,输入:
stop-all.sh
复制代码
六、测试 Hadoop
使用 wordcount 函数测试。
1. 在 hdfs 上创建一个文件夹 input,用于存放输入数据源:
hdfs dfs -mkdir -p input
复制代码
2. 本地创建一个数据源文件 word.txt,将其上传到 hdfs:
hadoop fs -put wordinput/word.txt input/word.txt
复制代码
3. 执行 wordcount 函数,进行计算:
hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.4.0.jar wordcount input/ woutput
复制代码
显示成功:
4. 查看结果:
登岸 HDFS:http://localhost:9870
找到创建的文件夹,选择输出文件夹:
选择 “part-r-00000”:
可以下载,也可以直接查看结果:
七、配置汗青服务器
通过汗青服务器,可以很好的看到当前执行的job环境,还能回顾汗青job的环境,非常方便。
1. 在 /etc/hadoop 目次下,打开 mapred.xml,添加:
<!--Job History server-->
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>localhost:19888</value>
</property>
复制代码
如图所示:
2. 重新启动 yarn:
start-yarn.sh
复制代码
3. 启动汗青服务器,terminal 输入:
mapred --daemon start historyserver
复制代码
4. jps 命令查看是否启动:
5. 登岸网页查看:
登岸配置的网页:http://localhost:19888/jobhistory
参考文章
Hadoop 安装教程 (Mac m1/m2版)_m1 安装hadoop-CSDN博客
Mac 安装Hadoop教程(HomeBrew安装)_mac安装hadoop-CSDN博客
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
回复
举报
0 个回复
倒序浏览
返回列表
快速回复
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
or
立即注册
本版积分规则
发表回复
回帖并转播
回帖后跳转到最后一页
发新帖
回复
民工心事
论坛元老
这个人很懒什么都没写!
楼主热帖
Cilium系列-10-启用 IPv6 BIG TCP和启 ...
【云原生】Spring Cloud是什么?Spring ...
大数据开源项目,一站式全自动化全生命 ...
容器化|自建 MySQL 集群迁移到 Kubern ...
如火如荼的「云原生」,你了解多少? ...
Spark快速上手(4)Spark核心编程-Spark ...
【Java面试】介绍下Spring IoC的工作流 ...
超详细的手把手撸代码---教你你⾃定义 ...
用 Flutter 写一个精美的登录页面(最 ...
Java中如何将“日期字符串”转换为java ...
标签云
AI
运维
CIO
存储
服务器
浏览过的版块
Mysql
Java
快速回复
返回顶部
返回列表