大数据原生集群 (Hadoop3.X为焦点) 本地测试环境搭建二

打印 上一主题 下一主题

主题 1016|帖子 1016|积分 3048

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?立即注册

x
本篇安装软件版本

mysql5.6
spark3.2.1-hadoop3.2
presto0.272
zeppelin0.11.2
kafka_2.13_3.7.2

mysql

安装步调见-》 https://blog.csdn.net/dudadudadd/article/details/110874570
spark

安装步调见-》https://blog.csdn.net/dudadudadd/article/details/109719624
安装的时候要注意的点如下:
1、3.x的spark一定要早env中改默认的master-web端口,默认的8080会导致内部资源404
2、3.x的spark和下面的hive3.x一样需要将jars下的guava-14包改个名字,不用自带的,将hadoop中share/hadoop/common/lib/guava-27.0-jre.jar包复制到jars目录下
3、3.x的spark在env文件中指定master的地址时,用的是SPARK_MASTER_HOST,而不再是SPARK_MASTER_IP,这一点一定要注意
presto

安装步调见-》https://blog.csdn.net/dudadudadd/article/details/109726023 presto安装的时候固然搭建在hadoop3.0体系上,但并不受影响,正常按照之前的方式设置hive的catalog就行
zeppelin

安装步调见-》https://blog.csdn.net/dudadudadd/article/details/109719624
安装要注意:这个版本改动默认spark执行器的设置时,页面上的提示不准,需要正常的设置spark.master=yarn、spark.submit.deployMode=cluster 才可以
kafka

安装步调见–》https://blog.csdn.net/dudadudadd/article/details/109679296
需要注意的时较新的kafka版本在操作的时候,已经不再需要--zookeeper zookeeper集群地址这个设置了,你假如直接使用的话会提示你这个参数已经不再有用了,如今较新的kafka指定自身的bootstrap-server就行,底层在运行的时候会自动辨认和处置惩罚zookeeper的链接信息,如下
  1. [root@node1 ~]# /opt/kafka2.13_372/bin/kafka-topics.sh --create --bootstrap-server node1:9092 --replication-factor 1 --partitions 1 --topic test
  2. Created topic test.
  3. [root@node1 ~]# /opt/kafka2.13_372/bin/kafka-topics.sh --bootstrap-server node1:9092 --list
  4. test
复制代码

第一篇https://blog.csdn.net/dudadudadd/article/details/139886344

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

熊熊出没

论坛元老
这个人很懒什么都没写!
快速回复 返回顶部 返回列表