泉缘泉 发表于 2024-10-14 22:07:18

消息队列——数十万级消息的消费方案

配景:

​        卑鄙平台通过消息队列上报监控消息,但是消息量很大,在三分钟左右可以到达百万级别,而对于我的服务来说,我需要对这些消息进行一些业务处理,然后再存入es中。(为了简化场景,以下对于消息的处理只是单纯的存储到es中)
https://img2024.cnblogs.com/blog/2050806/202410/2050806-20241014224043749-634916689.png
服务启动不到10s,es中写入的数据
青铜方案:

​        MQ只要收到消息,就直接调用es进行存储。
伪代码如下:

// 伪代码版本
public void processRequestMessage(MessageInfo info) {
    // 将接收到的信息对象复制为一个新对象(例如,监控数据对象)
   MonitorData monitorData = Util.copyProperties(info, MonitorData.class);
    // 将新对象的 JSON 字符串索引到 Elasticsearch 中
   elasticClient.index("monitor_index", info.getId(), convertToJson(monitorData), false);
}存在的问题:

​        不难发现,如许的实现方式,会导致消息消费速度非常慢,甚至导致消息积压和服务挂掉,因为这里对es的调用次数=消息条数,通过在本地的测试中也可以发现,纵然在关闭掉消息生产者后,还是需要很长一段时间才能将消息消费完全消费掉。
白银方案:

​        通过瓶颈,可以很自然的想到使用es的批量增加,那么只需要实现一个缓冲池,将消息暂存到缓冲池中,在到达一定大小的时候再同一在es存储
伪代码如下:

@Component
@Slf4j
public class ESOperationMonitorBuffer{

    private static final int BUFFER_SIZE = 100;// 缓冲池大小
    private List<ElasticDoc> buffer;// 用于存储消息的缓冲池

    @Autowired
    private ElasticClient elasticClient;
    private String indexName = EsConstans.NODE_MONITOR_INDEX;// Elasticsearch 索引名称

    public ESOperationMonitorBuffer() {
      this.buffer = new ArrayList<>();
    }

    // 添加消息到缓冲池
    public void addMessage(WlwMessageShareInfo message){
      ElasticDoc elasticDoc = new ElasticDoc();
      elasticDoc.setIndex(indexName);
      MonitorESData monitorESData = BeanUtil.copyProperties(message, MonitorESData.class);
      elasticDoc.setDoc(JSONObject.toJSONString(monitorESData));
      buffer.add(elasticDoc);
      if(buffer.size() > BUFFER_SIZE){
              flush();
      }
    }

    /**
   * 执行 flush 操作
   */
    private void flush(){
       log.info("开始批量插入 Elasticsearch,共 {} 条数据", buffer.size());
            if (buffer.isEmpty()) {
                return;// 如果缓冲池为空,不执行操作
            }
            BulkResponse index = elasticClient.index(buffer, false);// 批量插入
            if (index.hasFailures()) {
                log.error("批量插入 Elasticsearch 失败,失败原因:{}", index.buildFailureMessage());
            }
            // 清空缓冲池
            buffer.clear();
    }

    // 如果程序关闭前有剩余数据,执行 flush 操作
    public void close() throws IOException {
    }

}存在的问题:


[*]若消息数目一直没到达阈值,就一直不会保存到es
[*]存在并发问题,ConcurrentModificationException(并发修改非常),是基于java聚集中的 快速失败(fail-fast) 机制产生的,在使用迭代器遍历一个聚集对象时,假如遍历过程中对聚集对象的内容进行了增编削,就会抛出该非常。快速失败机制使得java的聚集类不能在多线程下并发修改,也不能在迭代过程中被修改。在上面场景中的体现就是在flush操作中时,又有消息进入到了buffer中。
黄金方案:

​        解决问题1:可以开启一个定时任务去执行flush方法
​        解决问题2:大概大家第一时间会想到对buffer加锁,但是如许又会导致在存入buffer的时候速度慢,所以不难想到可以对 flush() 方法加锁, 但是如许一来还是无法解决buffer存在的并发问题,怎么办呢?其实很简单,我们可以用两个buffer来分别给add()方法和flush()方法使用,如许一来,就可以制止并发问题,并且继续对flush()方法加锁,制止和定时任务同时执行,导致数据重复。
伪代码如下:

@Component
@Slf4j
public class ESOperationMonitorBuffer implements CommandLineRunner {

    private static final int BUFFER_SIZE = 100;// 缓冲池大小
    private List<ElasticDoc> buffer;// 用于存储消息的缓冲池
    private List<ElasticDoc> temBuffer;// 用于存储临时消息的缓冲池

    @Autowired
    private ElasticClient elasticClient;
    private String indexName = EsConstans.NODE_MONITOR_INDEX;// Elasticsearch 索引名称
    private Lock lock = new ReentrantLock();
   
    public ESOperationMonitorBuffer() {
      this.buffer = new ArrayList<>();
      this.temBuffer = new ArrayList<>();
    }

    // 添加消息到缓冲池
    public void addMessage(WlwMessageShareInfo message){
      ElasticDoc elasticDoc = new ElasticDoc();
      elasticDoc.setIndex(indexName);
      MonitorESData monitorESData = BeanUtil.copyProperties(message, MonitorESData.class);
      elasticDoc.setDoc(JSONObject.toJSONString(monitorESData));
      temBuffer.add(elasticDoc);

      // 当缓冲池达到设定大小时,批量插入到 Elasticsearch
      if (temBuffer.size() >= BUFFER_SIZE) {
            lock.lock();
            try{
                buffer.addAll(temBuffer);
                temBuffer.clear();
            }catch(Exception e){
                log.error("添加消息到缓冲池失败",e);
            }finally {
                lock.unlock();
            }
            flush();
      }
    }

    /**
   * 执行 flush 操作
   */
    private void flush(){
      lock.lock();
      try{
            log.info("开始批量插入 Elasticsearch,共 {} 条数据", buffer.size());
            if (buffer.isEmpty()) {
                return;// 如果缓冲池为空,不执行操作
            }
            BulkResponse index = elasticClient.index(buffer, false);// 批量插入
            if (index.hasFailures()) {
                log.error("批量插入 Elasticsearch 失败,失败原因:{}", index.buildFailureMessage());
            }
            // 清空缓冲池
            buffer.clear();
      }catch (Exception e){
            log.info("批量插入 Elasticsearch 失败",e);
      }finally {
            lock.unlock();
      }
    }

    // 如果程序关闭前有剩余数据,执行 flush 操作
    public void close() throws IOException {
    }

    @Override
    public void run(String... args) throws Exception {
      log.info("启动 ESOperationMonitorBuffer 缓冲池,开启线程池定时执行flush操作");
      // 定时执行 flush 操作
      ScheduledExecutorService scheduledExecutorService = Executors.newScheduledThreadPool(1);
      scheduledExecutorService.scheduleAtFixedRate(()->{
            try{
                flush();
            }catch (Exception e){
                log.error("定时执行 flush 操作失败",e);
            }
      },1,5, TimeUnit.SECONDS);
    }
}


免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
页: [1]
查看完整版本: 消息队列——数十万级消息的消费方案