论坛
潜水/灌水快乐,沉淀知识,认识更多同行。
ToB圈子
加入IT圈,遇到更多同好之人。
朋友圈
看朋友圈动态,了解ToB世界。
ToB门户
了解全球最新的ToB事件
博客
Blog
排行榜
Ranklist
文库
业界最专业的IT文库,上传资料也可以赚钱
下载
分享
Share
导读
Guide
相册
Album
记录
Doing
搜索
本版
文章
帖子
ToB圈子
用户
免费入驻
产品入驻
解决方案入驻
公司入驻
案例入驻
登录
·
注册
只需一步,快速开始
账号登录
立即注册
找回密码
用户名
Email
自动登录
找回密码
密码
登录
立即注册
首页
找靠谱产品
找解决方案
找靠谱公司
找案例
找对的人
专家智库
悬赏任务
圈子
SAAS
ToB企服应用市场:ToB评测及商务社交产业平台
»
论坛
›
大数据
›
数据仓库与分析
›
【Hadoop】集群设置之重要设置文件(hadoop-env.sh、yar ...
【Hadoop】集群设置之重要设置文件(hadoop-env.sh、yarn-env.sh、core-sit ...
饭宝
金牌会员
|
2024-9-3 12:40:27
|
显示全部楼层
|
阅读模式
楼主
主题
711
|
帖子
711
|
积分
2133
Hadoop设置文件模板
参考官方设置文档:https://hadoop.apache.org/docs/stable/hadoop-project-dist/hadoop-common/ClusterSetup.html#Configuring_Environment_of_Hadoop_Daemons
Hadoop的设置文件都在$HADOOP_HOME/etc/hadoop下面。比如我这里是:
Hadoop重要设置文件:
设置文件
功能描述
hadoop-env.sh设置Hadoop运行所需的情况变量yarn-env.sh设置Yarn运行所需的情况变量core-site.xmlHadoop核心全局设置文件,可在其他设置文件中引用该文件hdfs-site.xmlHDFS设置文件,继续core-site.xml设置文件mapred-site.xmlMapReduce设置文件,继续core-site.xml设置文件yarn-site.xmlYarn设置文件,继续core-site.xml设置文件
core-site.xml
参考官方core-default.xml设置字段信息:hadoop.apache.org/docs/stable/hadoop-project-dist/hadoop-common/core-default.xml
该文件是Hadoop的核心设置文件,其目的是设置HDFS地址、端口号,以及暂时文件目录。
<configuration>
<!-- 用于设置Hadoop的默认文件系统,由URI指定 -->
<property>
<name>fs.defaultFS</name>
<value>hdfs://hadoop1:9000</value>
</property>
<!-- 配置Hadoop的临时目录,默认/tmp/hadoop-${user.name} -->
<property>
<name>hadoop.tmp.dir</name>
<value>file:/app/hadoop/hadoop-2.6.4/tmp</value>
</property>
<!-- 指定哪些主机可以充当代理用户 hduser。在这里,设置为 * 表示任何主机 -->
<property>
<name>hadoop.proxyuser.hduser.hosts</name>
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.hduser.groups</name>
<value>*</value>
</property>
</configuration>
复制代码
hadoop-env.sh
hadoop-env.sh用来包管Hadoop系统能够正常实行HDFS的守护进程NameNode、Secondary NameNode和DataNode。
修改 HADOOP_CONF_DIR 和JAVA_HOME 情况变量值,并添加HADOOP_LOG_DIR 情况变量项。
export JAVA_HOME=/usr/lib/java/jdk1.7.0_79
export HADOOP_LOG_DIR=/app/hadoop/hadoop-2.6.4/tmp
export HADOOP_CONF_DIR=/app/hadoop/hadoop-2.6.4/etc/hadoop
复制代码
修改完之后source编译该文件,让修改见效。
hdfs-site.xml
参考官方hdfs-default.xml设置字段信息:https://hadoop.apache.org/docs/stable/hadoop-project-dist/hadoop-hdfs/hdfs-default.xml
该文件用于设置HDFS的NameNode和DataNode两大进程。
<configuration>
<!-- 指定secondary namenode的HTTP地址和端口 -->
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>hadoop1:9000</value>
</property>
<!-- 指定namenode名称空间的存储地址 -->
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/app/hadoop/hadoop-2.6.4/name</value>
</property>
<!-- 指定datanode数据存储地址 -->
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/app/hadoop/hadoop-2.6.4/data</value>
</property>
<!--指定数据冗余份数-->
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<!--指定可以通过web访问hdfs目录-->
<property>
<name>dfs.webhdfs.enabled</name>
<value>true</value>
</property>
</configuration>
复制代码
yarn-env-sh
添加JAVA_HOME 情况变量值。
export JAVA_HOME=/usr/lib/java/jdk1.7.0_79
复制代码
yarn-site.xml
参考官方yarn-default.xml设置字段信息:https://hadoop.apache.org/docs/stable/hadoop-yarn/hadoop-yarn-common/yarn-default.xml
本文件是Yarn框架的核心设置文件,设置ResourceManager 和NodeManager。
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
<!-- 客户端提交作业的端口 -->
<property>
<name>yarn.resourcemanager.address</name>
<value>hadoop1:8032</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>hadoop1:8030</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>hadoop1:8031</value>
</property>
<property>
<name>yarn.resourcemanager.admin.address</name>
<value>hadoop1:8033</value>
</property>
<property>
<name>yarn.resourcemanager.webapp.address</name>
<value>hadoop1:8088</value>
</property>
</configuration>
复制代码
mapred-site.xml
参考官方设置信息:hadoop.apache.org/docs/stable/hadoop-mapreduce-client/hadoop-mapreduce-client-core/mapred-default.xml
该文件是MapReduce的核心设置文件,用于指定MapReduce运行时框架。在etc/hadoop/目录中默认没有该文件,需要先通过“cp mapred-site.xml.template mapred-site.xml”下令将文件复制并重定名为“mapred-site.xml”。接着,打开mapred-site.xml文件举行修改。
<configuration>
<!-- 指定MapReduce运行时框架,这里指定在Yarn上,默认是local -->
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<!-- 配置jobhistory server -->
<property>
<name>mapreduce.jobhistory.address</name>
<value>hadoop1:10020</value>
</property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>hadoop1:19888</value>
</property>
</configuration>
复制代码
slaves
在etc/hadoop/slaves文件中列出所有工作节点的主机名或者IP地址。每行一个。用来配合一键启动脚本启动集群从节点。要使用此功能,必须为用于运行 Hadoop 的账户建立 ssh 信任(通过无密码 ssh 或其他方式,如 Kerberos)。打开该设置文件,先删除里面的内容(默认localhost),然后设置如下内容:
hadoop1
hadoop2
hadoop3
复制代码
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
本帖子中包含更多资源
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
回复
使用道具
举报
0 个回复
正序浏览
返回列表
快速回复
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
or
立即注册
本版积分规则
发表回复
回帖并转播
发新帖
回复
饭宝
金牌会员
这个人很懒什么都没写!
楼主热帖
53基于java的资源博客论坛系统设计与实 ...
天涯神贴合集500篇(2023最新) ...
zotero+坚果云实现多pc端及iPad同步管 ...
需求:清空三个月前的操作日志,并生成 ...
面试官:@Configuration 和 @Component ...
nginx 常用指令配置总结
PerfView专题 (第十一篇):使用 Diff ...
Django笔记十二之defer、only指定返回 ...
Python潮流周刊#5:并发一百万个任务要 ...
Android——一个简单的记账本APP ...
标签云
挺好的
服务器
快速回复
返回顶部
返回列表