论坛
潜水/灌水快乐,沉淀知识,认识更多同行。
ToB圈子
加入IT圈,遇到更多同好之人。
朋友圈
看朋友圈动态,了解ToB世界。
ToB门户
了解全球最新的ToB事件
博客
Blog
排行榜
Ranklist
文库
业界最专业的IT文库,上传资料也可以赚钱
下载
分享
Share
导读
Guide
相册
Album
记录
Doing
搜索
本版
文章
帖子
ToB圈子
用户
免费入驻
产品入驻
解决方案入驻
公司入驻
案例入驻
登录
·
注册
只需一步,快速开始
账号登录
立即注册
找回密码
用户名
Email
自动登录
找回密码
密码
登录
立即注册
首页
找靠谱产品
找解决方案
找靠谱公司
找案例
找对的人
专家智库
悬赏任务
圈子
SAAS
ToB企服应用市场:ToB评测及商务社交产业平台
»
论坛
›
数据库
›
分布式数据库
›
kettle优化解决办法
kettle优化解决办法
伤心客
金牌会员
|
2024-12-27 03:57:19
|
显示全部楼层
|
阅读模式
楼主
主题
879
|
帖子
879
|
积分
2637
kettle优化解决办法
说下背景,在公司有9张表,每个表大约25万的数据量的excel表要定时更新到数据库表中,我做了定时任务,但是发现9张表在kettle要跑1个小时,忍受了2个月,实在顶不住这么慢的插入速度 。
现在网上有很多优化的办法,我觉得最重要的是使用kettle的连接池,连接池的解释如下

复制代码
在kettle,打开数据库编辑,毗连池,设置8,-1
方法二:在数据库毗连,选项那设置
rewriteBatchedStatements 为true。
defaultRowPrefetch为200。
defaultFetchSize为500
useCursorFetch为true
useCompression为 true
useServerPrepStmts为false。
这两个利用下来,速度起码提示10倍,
同样的内容,改完之后,1个半以上的跑数时间变成只有7分钟。
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
本帖子中包含更多资源
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
回复
使用道具
举报
0 个回复
倒序浏览
返回列表
快速回复
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
or
立即注册
本版积分规则
发表回复
回帖并转播
回帖后跳转到最后一页
发新帖
回复
伤心客
金牌会员
这个人很懒什么都没写!
楼主热帖
Java打怪之路----谷粒商场认证服务 ...
《百万IT毕业生的心声:IT专业大学生毕 ...
xtrabackup2版本和xtrabackup8版本对比 ...
原型设计工具比较及实践--滴爱音乐 ...
Excelize 发布 2.6.1 版本,支持工作簿 ...
sqlserver导入sql文件的方式
基于 SpringBoot + MyBatis 的博客系统 ...
Flink-使用流批一体API统计单词数量 ...
JavaSE笔记
Snowflake(雪花算法),什么情况下会 ...
标签云
挺好的
服务器
快速回复
返回顶部
返回列表