kafka调优参考发起 —— 筑梦之路

打印 上一主题 下一主题

主题 887|帖子 887|积分 2661

这里主要是从不同利用场景来调优,仅供参考。
吞吐量优先

吞吐量优先利用场景如采集日志。
1. broker设置调优

   num.partitions:分区个数,设置为与消费者的线程数基本相等
  2. producer设置调优

    
  

  • batch.size
    批量提交消息的字节数,发送消息累计大小达到该值时才会发送(或者达到linger.ms),默认16k,如果 batch 设置太小,会导致频仍网络请求,吞吐量下降;如果 batch 太大,会导致一条消息须要等候很久才气被发送出去,增长网络延时;发起设置为1M。
  • linger.ms
    发送隔断时间,默认是 0,意思就是消息必须立刻被发送。如果 linger.ms 设置的太小,会导致频仍网络请求,吞吐量下降;如果 linger.ms 太长,会导致一条消息须要等候很久才气被发送出去,增长网络延时;发起设置为100ms以上。
  • compression.type
    压缩范例,默认是 none,不压缩,但是也可以利用 lz4 压缩,服从照旧不错的,压缩之后可以减小数据量,提拔吞吐量,但是会加大 producer 端的 CPU 开销。
  • acks
    应答机制,默认是all(0.8.x之前,默以为1),即等候所有的副本收到消息后再返回成功,可以设置成1,即leader副本确认接收到消息后,生产者会收到返回成功的信息。但如果恰恰此时leader失效,该条消息就会丢失。
  • buffer.memory
    内存缓冲区大小,默认32M,当消息写入过快或者写入量过大时,Sender 线程来不及处置处罚,造成缓存区堆积,此时会阻塞用户线程,克制往 kafka 写入消息,一般须要根据业务场景估算一个 buffer_memory 的合理值,发起64M以上。
   3. consumer设置调优

   

  • fetch.min.bytes
    从broker获取消息的最小字节数,只有大于这个值时,consumer才会拉取消息,默认是1,发起设置为1048576(1M)。
  • fetch.max.wait.ms
    当fetch.min.bytes不满足时,从broker获取消息的最大等候时间,默认是500,发起设置为1000
  低延时优先

 利用场景有实时数据传输,比如弹幕
1. broker设置调优

   

  • num.partitions
    分区个数,设置为与消费者的线程数基本相等。
  • num.io.threads
    默认是8。负责写磁盘的线程数。整个参数值要占总核数的50%。
  • num.replica.fetchers
    默认是1。副本拉取线程数,这个参数占总核数的50%的1/3。
  • num.network.threads
    默认是3。数据传输线程数,这个参数占总核数的50%的2/3
  2. producer设置调优​​​​​

   

  • linger.ms
    设置为0,即有消息就发送。
  • compression.type
    设置为nonenone。
  • acks
    设置为0,异步发送,无需等候任何broker确认
  3. consumer设置调优

   

  • fetch.min.bytes
    设置为1,一有消息就消费。
  • 线程数
    消费者的并发线程数能满足实时消费的要求,制止积压
  可靠性优先

 将kafka作为核心数据源,不答应kafka出现数据丢失情况的业务架构。
1. broker设置调优

   

  • default.replication.factor
    至少设置为3,2/3机器挂掉够,依然不影响数据的可靠性。
  • min.insync.replicas
    当生产者的ack设置为all时,必须满足该数目的副本同步成功后才气继承写入。当default.replication.factor设置为3时,该值发起设置为2。
  • unclean.leader.election.enable
    不洁leader选举,默认true,发起设置为false,即不答应不在ISR列表中的broker到场leader的选举,否则会导致已经提交但是还未复制的消息的丢失
  2. producer设置调优

   

  • acks
    设置为all,等候ISR中的所有副本收到数据后再返回成功。
  • retries
    重试次数,发起>=3
  3. consumer设置调优 

   enable.auto.commit: 是否开启自动提交,默认true,在设置为true时与auto.commit.interval.ms(自动提交时间隔断)配合利用,有点是简单,省去了偏移量提交逻辑,缺点是会存在重复消费和消息丢失的情况,在数据可靠性优先的场景下须要设置为false,当事务提交后再提交位移。
  可用性优先

 将kafka作为核心依赖,不答应kafka出现长时间不可用情况的业务架构(对数据可靠性要求不高,不阻塞读写就行)
1. broker设置调优

   

  • unclean.leader.election.enable
    设置为true,答应不洁的副本当选leader。
  • min.insync.replicas
    设置为1。
  • num.recovery.threads.per.data.dir
    启动时用于日志恢复和关闭时用于革新的每个数据目录的线程数,默以为1,发起设置为1,减少重启时加载日志的时间。
  2. producer设置调优

   acks : 设置为0,不等候任何确认,直接返回成功。

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

兜兜零元

金牌会员
这个人很懒什么都没写!

标签云

快速回复 返回顶部 返回列表