注意:上面配置文件中的路径在 vi 编辑器下 全局替换上传 MySQL 连接驱动 jar 包到 hive 安装目录的lib目录下:不要使用图形化 不然每次保存后3215行都会有个  特殊字符 如果产生删除即可 具体报错信息 后面有单独的描述复制代码
- :%s@\${system:java.io.tmpdir}@/tmp/hive-logp@g
jar 包有两个 分别为:guava版本冲突
删除原有的 protobuf-java-2.5.0.jar 文件
- mysql-connector-java-8.0.33.jar
- protobuf-java-3.22.2.jar
注意:初始初始元素中库之前 保证 hadoop 和 mysql 正常启动
普通表
临时表 temporary
外部表 external
json函数
get_json_object
json_tuple
json serde加载数据复制代码
- --serialization 序列化
- --deserialization 反序列化
-- 部门表 dept.csv
员工表
学生表学生表 student.csv
讲师表
课程表
分数表
身份证前六位
数据抽样 提高join查询效率
行式存储与列式存储text file:
hive表中的数据选择一个合适的文件格式,对于高性能查询是比较有益的
行式存储:text file,sequence file
列式存储:ORC、Parquet
hive默认采用text file 文件存储格式;
sequence file 文件 是Hadoop用来存储二进制形式的的 key : value 键值对而设计的一种平面文件 flatmap
欢迎光临 ToB企服应用市场:ToB评测及商务社交产业平台 (https://dis.qidao123.com/) | Powered by Discuz! X3.4 |