[数仓]十、离线数仓(安全集群实战)
第1章 概述Hadoop启用Kerberos安全认证之后,之前的非安全环境下的全流程调度脚本和即席查询引擎均会遇到认证问题,故需要对其进行改进。
第2章 数仓全流程
2.1 改动说明
此处同一将数仓的全部数据资源的所有者设为hive用户,全流程的每步操纵均认证为hive用户。
2.2 改动实操
2.2.1 用户准备
1.在各节点创建hive用户,如已存在则跳过
# useradd hive -g hadoop
# echo hive | passwd --stdin hive
# useradd hive -g hadoop
# echo hive | passwd --stdin hive
# useradd hive -g hadoop
# echo hive | passwd --stdin hive
2.为hive用户创建Keberos主体
1)创建主体
# kadmin -padmin/admin -wadmin -q"addprinc -randkey hive"
2)生成keytab文件
# kadmin -padmin/admin -wadmin -q"xst -k /etc/security/keytab/hive.keytab hive"
3)修改keytab文件所有者和访问权限
# chown hive:hadoop /etc/security/keytab/hive.keytab
# chmod 440 /etc/security/keytab/hive.keytab
4)分发keytab文件
# xsync /etc/security/keytab/hive.keytab
2.2.2 数据收罗通道修改
1.用户举动日志
修改/opt/module/flume/conf/kafka-flume-hdfs.conf配置文件,增加以下参数
# vim /opt/module/flume/conf/kafka-flume-hdfs.conf
a1.sinks.k1.hdfs.kerberosPrincipal=hive@EXAMPLE.COM
a1.sinks.k1.hdfs.kerberosKeytab=/etc/security/keytab/hive.keytab
2.业务数据
修改sqoop每日同步脚本/home/seen/bin/mysql_to_hdfs.sh,
# vim /home/seen/bin/mysql_to_hdfs.sh
在顶部增加如下认证语句
kinit -kt /etc/security/keytab/hive.keytab hive
2.2.3 数仓各层脚本修改
数仓各层脚本均需在顶部加入如下认证语句
kinit -kt /etc/security/keytab/hive.keytab hive
修改语句如下
# sed -i '1 a kinit -kt /etc/security/keytab/hive.keytab hive' hdfs_to_ods_log.sh
# sed -i '1 a kinit -kt /etc/security/keytab/hive.keytab hive' hdfs_to_ods_db.sh
# sed -i '1 a kinit -kt /etc/security/keytab/hive.keytab hive' ods_to_dwd_log.sh
# sed -i '1 a kinit -kt /etc/security/keytab/hive.keytab hive' ods_to_dim_db.sh
# sed -i '1 a kinit -kt /etc/security/keytab/hive.keytab hive' ods_to_dwd_db.sh
# sed -i '1 a kinit -kt /etc/security/keytab/hive.keytab hive' dwd_to_dws.sh
# sed -i '1 a kinit -kt /etc/security/keytab/hive.keytab hive' dws_to_dwt.sh
# sed -i '1 a kinit -kt /etc/security/keytab/hive.keytab hive' dwt_to_ads.sh
# sed -i '1 a kinit -kt /etc/security/keytab/hive.keytab hive' hdfs_to_mysql.sh
注:sed -i '1 a text' file
表现将text内容加入到file文件的第1行之后
2.2.4 修改HDFS特定路径所有者
1.认证为hdfs用户,执行以下命令并按提示输入密码
#kinit hdfs/hadoop
2.修改数据收罗目标路径
# hadoop fs -chown -R hive:hadoop /origin_data
3.修改数仓表所在路径
# hadoop fs -chown -R hive:hadoop /warehouse
4.修改hive家目录/user/hive
# hadoop fs -chown -R hive:hadoop /user/hive
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
页:
[1]