大数据原生集群 (Hadoop3.X为焦点) 本地测试环境搭建二
本篇安装软件版本mysql5.6
spark3.2.1-hadoop3.2
presto0.272
zeppelin0.11.2
kafka_2.13_3.7.2
mysql
安装步调见-》 https://blog.csdn.net/dudadudadd/article/details/110874570
spark
安装步调见-》https://blog.csdn.net/dudadudadd/article/details/109719624
安装的时候要注意的点如下:
1、3.x的spark一定要早env中改默认的master-web端口,默认的8080会导致内部资源404
2、3.x的spark和下面的hive3.x一样需要将jars下的guava-14包改个名字,不用自带的,将hadoop中share/hadoop/common/lib/guava-27.0-jre.jar包复制到jars目录下
3、3.x的spark在env文件中指定master的地址时,用的是SPARK_MASTER_HOST,而不再是SPARK_MASTER_IP,这一点一定要注意
presto
安装步调见-》https://blog.csdn.net/dudadudadd/article/details/109726023 presto安装的时候固然搭建在hadoop3.0体系上,但并不受影响,正常按照之前的方式设置hive的catalog就行
zeppelin
安装步调见-》https://blog.csdn.net/dudadudadd/article/details/109719624
安装要注意:这个版本改动默认spark执行器的设置时,页面上的提示不准,需要正常的设置spark.master=yarn、spark.submit.deployMode=cluster 才可以
kafka
安装步调见–》https://blog.csdn.net/dudadudadd/article/details/109679296
需要注意的时较新的kafka版本在操作的时候,已经不再需要--zookeeper zookeeper集群地址这个设置了,你假如直接使用的话会提示你这个参数已经不再有用了,如今较新的kafka指定自身的bootstrap-server就行,底层在运行的时候会自动辨认和处置惩罚zookeeper的链接信息,如下
# /opt/kafka2.13_372/bin/kafka-topics.sh --create --bootstrap-server node1:9092 --replication-factor 1 --partitions 1 --topic test
Created topic test.
# /opt/kafka2.13_372/bin/kafka-topics.sh --bootstrap-server node1:9092 --list
test
第一篇https://blog.csdn.net/dudadudadd/article/details/139886344
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
页:
[1]