AI守护煤矿安全生产:基于视频智能的煤矿管理系统架构剖析 ...

王柳  论坛元老 | 2025-1-21 00:39:42 | 显示全部楼层 | 阅读模式
打印 上一主题 下一主题

主题 1021|帖子 1021|积分 3063

 前言

         本文我将介绍我和我的团队自主研发计划的一款AI产品的成果展示——“基于视频AI识别技术的煤矿安全生产管理系统”。

         这款产品是目前我在创业阶段和几位矿业大学的博士共同从架构计划、开发到交付的全过程中首次在博客频道发布, 我之前一直想写但没有时机来整理这套系统的架构, 因此我也特别感谢CSDN平台提供了这个时机,让我有了一定的动力来整理并分享这套系统的架构。
        本文主要介绍的是系统的抽芽,系统的架构计划,业务模块的划分,容灾恢复等多个方面来介绍这款产品。
        ​​​​​​​我相信这将为系统架构计划,业务模块划分,容灾业务处理本领感到狐疑的技术开发人员也能提供有价值的思绪。
人工智能在煤矿安全检测领域的发展趋势

        比年来,在中美两国的AI发展中,仍然存在一定的差异。美国在AI基础研究和技术创新方面处于领先地位,而且他们拥有丰富的资金和人才支持。而中国则在应用层面敏捷追赶,特别是在工业应用和智能化建立方面取得了显着希望, 中国的AI发展更注意财产协同,推动技术与现实应用的结合,以实现更高效的生产和管理。        

         随着AI技术在国内的迅猛发展,AI正在重塑各个行业,尤其是在煤矿安全检测领域。煤矿业作为国民经济发展的关键支柱型财产,其智能化建立对于促进矿山安全妥当发展、确保国家能源资源安全具有举足轻重的意义。比年来,我国矿山智能化建立步伐加快,成效显着,然而仍面临发展不均衡、不充实及不协调等挑战,亟需进一步优化与提升。为深入贯彻落实《中共中心办公厅 国务院办公厅关于进一步加强矿山安全生产工作的意见》 ,大家可以参考关于印发《关于深入推进矿山智能化建立 促进矿山安全发展的指导意见》的通知 检察具体政策意见。除此之外,国家能源局也出台了关于进一步加快煤矿智能化建立促进煤炭高质量发展的通知

明白要求加强新一代通讯技术、人工智能(AI)、数据中心等信息基础办法建立,鼓励具备条件的地方建立煤炭工业互联网平台,渐渐实现煤矿生产、经营、管理等数据的智能分析和统一管理。推广AI视频智能监控、井下高精度定位、露天矿边坡监测预警等系统,强化关键地区、重点岗位的实时监控。
       可见将来AI领域将对煤矿业的生产带来生产服从,安全的提升,优化资源管理和故障管理维护的猜测,促进智能化转型等多方面的影响,安全性将产生非常深远重大的意义。 
项目的抽芽

        自2011年结业以来,我首先在IBM Platform Computing深耕假造云计算领域,积聚了近两年的宝贵履历。随后,我转战淘米网与网易,投身于游戏开发行业,不断拓展自己的技术边界。之后,我决定踏上创业之路,专注于人工智能领域的研发与创新。一次偶然的机遇,我在CSDN上与几位来自矿业大学的博士都对人工智能发展趋势,模子训练聊的投机,同舟共济,仿佛“桃园结义”,所以我们又共同致力于推动AI技术在煤矿行业的深度应用与发展,一步步妥当前行。 
        

        在这样的矿业背景和AI发展趋势下,我们从2014年3月份开始计划一款基于视频AI识别技术的煤矿安全生产管理系统计划,并敏捷推广给西北各个煤矿企业,我主要负责全平台的系统架构计划。
系统架构计划

        系统架构计划是软件开发和部署中的核心环节,尤其在煤矿行业这样复杂且高风险的环境中,架构计划需要综合思量多种因素,以确保系统的性能、可靠性和安全性。以下将从通用架构计划因素和煤矿行业特定环境因素两个方面进行分析。

系统架构计划需要思量的因素

        在计划系统架构时(有对服务器架构计划开发感兴趣的可以订阅专栏 游戏服务器开发专栏     缓存计划专栏),除了要思量通用的业务需求,性能,可扩展性,高可用,安全性以及成本控制等方面之外,作为煤矿行业,他的环境又有一定的特殊性,这就决定了系统架构计划需要额外思量以下环境因素:


   1. 复杂的井上井下环境

  

  • 高湿度和粉尘浓度
    煤矿井下环境通常湿度大且粉尘浓度高,这对硬件装备的耐用性和系统的稳定性提出了更高要求。需要选择防尘、防潮的装备,并计划冗余系统以应对装备故障。
  • 有限的网络条件
    井下井上网络通常带宽有限且延迟较高,系统需要优化数据传输协议,减少带宽占用,并支持离线模式以应对网络中断。
  2. 安全性和实时性

  

  • 安全监测需求
    煤矿行业需要实时监测瓦斯浓度、温度、压力等环境参数,以防止安全变乱。系统必须具备高实时性和可靠性,确保数据收罗和处理的实时性。
  • 应急响应本领
    系统需要支持快速响应机制,例如在检测到危险环境时,能够自动触发报警并执行预设的应急方案。
  3. 系统的可扩展性

  

  • 模块化计划
    煤矿系统通常需要集成多种功能模块(如装备监控、人员定位、生产调度等)。模块化计划可以提高系统的灵活性,便于后续功能扩展。
  • 分布式架构
    由于煤矿作业地区分散,系统需要接纳分布式架构,以支持多地区协同工作,同时制止单点故障。
  4. 法规与合规性

  煤矿行业受严格的安全法规约束,系统计划必须符合相干尺度(如数据存储合规性、隐私掩护等)
  需求简要阐明

        这里我简要阐明下系统计划的需求部分:操作人员可以通过任何一台电脑用浏览器登陆系统页面,部署视频监控,硬件嵌入式盒子,算法和模子的信息,部署告警的地区,设置的算法一旦触发告警战略,会立即通知给管理平台,并通过音柱对告警地点地区进行语音告警,可分析出某一个时间段内所有告警范例的趋势并针对告警趋势进行预判猜测。
        以下是目前常见的煤矿安全生产过程中需要检测的算法:
告警分类                               算法                                               

 人员违规及异常举动       人员违规穿越皮带,人员脱岗举动,人员在岗睡觉,规范佩戴安全帽,
                                        规范穿戴反光衣,打电话,吸烟,人员聚集,固定场所巡检举动

主运输系统隐患管理         皮带大块煤检测,皮带异物检测,皮带跑偏检测,皮带空载
                                          皮带煤量识别,烟火检测,高温检测,火焰检测,吸烟检测
                                          破裂站人员报警,人员靠近仓口预警  

车辆运输异常举动识别     人员下车检测,超时停车检测

软件架构计划


一、应用与服务层
该层位于架构的最顶端,直接与用户和业务需求对接。它包罗以下关键组件: 
   

  • 视频结构化‌:在视频结构化过程中,通过RTSP等协议传输的视频流可以被接入随处理系统中。处理系统会对这些视频流进行解码、去噪、稳定处理等预处理操作,然后,利用算法对预处理后的视频流进行特征提取和对象识别等处理,从而提取出视频中的关键信息,以便于后续的应用和分析。
  • 业务模块‌:如“人员违规举动”、“车辆结构化”、“火点烟雾检测”等,这些模块实现了具体的业务逻辑和功能需求。
  • 算法模子与特征提取‌:负责处理和分析数据,提取有用信息,并应用算法模子进行猜测和决议。
  • 态势猜测:通过态势猜测,基于当前和汗青数据,对将来一段时间内的发展趋势进行预估,从而为决议制定提供科学依据,实时发现并预警埋伏的风险和问题,使相干人员能够提前采取步伐进行防范,从而降低损失。
  ‌二、模子与数据处理层
该层位于应用与服务层之下,专注于算法模子的部署、数据处理和特征提取。它包罗:
   

  • BMC引擎与BMCV Engine‌:专为特定业务场景计划的算法引擎,提供高效的模子推理和数据处理本领。
  • OpenCV与FFmpeg‌:开源的计算机视觉和多媒体处理库,用于图像和视频的处理与分析。
  ‌三、基础架构与资源管理层
该层位于模子与数据处理层之下,负责提供基础架构支持和资源管理服务。它包罗:
   

  • Docker容器‌:用于封装和部署算法模子,提高模子的可移植性和可扩展性。通过Docker,可以轻松地在不同环境中部署和运行模子。
  • K8S‌:作为容器编排系统,Kubernetes负责管理和调度容器化应用,提供自动化部署、扩展、管理和运行容器化应用步伐的本领。
  • 操作系统内核(Kernel)‌:操作系统的核心部分,负责管理硬件资源、提供历程调度、内存管理等功能。
  • 装备驱动步伐(Device Drivers)‌:与硬件装备通讯的接口,使操作系统能够控制和管理这些装备。
  • NGINX‌:高性能的HTTP和反向代理服务器,用于处理网络通讯和负载均衡。
  • BootLoader‌:引导加载步伐,负责系统启动时加载操作系统内核。
  • 数据库(MySQL)‌:作为数据存储的核心,MySQL负责存储和管理系统所需的所有结构化数据,如地区信息,装备信息,算法信息,模子信息,告警信息等。
  • Redis‌:高性能的键值存储数据库,用于缓存数据、热数据存储,劫难恢复和崩溃拉起业务。
  各个模块业务松耦合

        松耦合‌是一种软件计划原则,旨在降低系统组件之间的依靠关系,使系统更加可扩展和易维护(感兴趣的可以阅读 :你的代码是否按照高内聚、低耦合的原则来计划的?-CSDN博客)。实在从我们的业务需求上不难划分出各个模块来,我使用了服务化计划‌的思绪:将应用拆分为多个独立的服务,每个服务负责特定的功能。这些服务通过轻量级的通讯协议(如REST、gRPC)进行交互,而不依靠于彼此的具体实现。

        因此我拆分为三个主要的服务: AI管理平台(Platform)算法后处理服务(AIEC)算法处理服务(AIInterface),此中AIEC和AIInterface都是运行在嵌入式盒子大概服务器上的,这就要求AIEC和AIInterface适配不同的厂家硬件。
        Platform:

平台的功能相对简单,主要是提供人机交互界面,操作人员登陆后对相机,算法,模子等资源进行设置和升级管理:

吸收和检察算法告警信息
​根据告警汗青记录进行告警的态势猜测:

        AIEC: 

        AIEC现实上充当的是算法调度器的角色,由于它运行在arm嵌入式盒子大概服务器上,那么他就需要适配多种硬件厂商来满足不同场景下的业务需要。
        思量到适配不同硬件,而且要对算法调度,因此我们抽象化了硬件接口:
  1. type IBaseDevice interface {
  2.         GetDeviceType() string //获取设备类型
  3.         Init() error           //启动的时候初始化一些配置文件
  4.         StartAI() error        //开启算法接口(必须初始化一些配置检查之类的)
  5.         StopAI() error         //关闭算法接口
  6.         StatDeep() error //检查ai算法服务状态
  7.         GetDeepState() (bool, string, error)
  8.         ReloadAIProcess() error //重启ai算法服务
  9.         Terminal() error        //关闭ai算法服务
  10.         Stop() error            //暂停ai算法服务
  11. }
复制代码
        对于不同的硬件比如华为,算能,英伟达只需要实现以上接口即可。 
        

       同样的,由于AIEC需要对算法服务的检测结果要进一步的分析推理,因此我们要对不同的算法进行抽象,现实上就只有一个接口方法DetectAnlysis(result *AIResultReq)而已,通过调用接口方法可以获取到AIInterface的检测结果,并根据不同的算法范例进行各自的推理分析。
        比如离岗检测,需要统计某一个时间段内,目的地区是否有人员识别结果,一旦识别到人,则重置识别状态和结果,否则到达时间段的阈值则触发告警。

        怎样调度的简要阐明:
        我们通过RESTful接口吸收来自Platform的相机和算法更新信息,处理这些请求,并根据相机和算法调度相应的检测算法服务。之后,我们异步获取算法返回的检测结果,进行进一步的分析推理,终极将需要告警的信息推送回Platform。
         
        AIInterface

        同样的,AIInterface也需要根据不同硬件装备(常见的SE算能,英伟达Nvidia,华为Huawei盒子、服务器)来适配做算法处理,根据视频流信息和算法信息进行模子 推理,通过rabbitmq消息队列将算法检测结果通知给AIEC。
        由于不同的硬件资源他们的算力不同,因此对于不同的硬件,我们也接纳多历程多模子计算,单历程多模子等多种灵活的设置方案来办理算力和计算性能上的问题。
  模子训练

         我们都知道,模子训练在机器学习和人工智能领域中扮演着至关重要的角色。它不但是构建有用模子的基础,也是实现高准确性和可靠性的关键过程。
         我们大多数模子训练都是通过自己收罗数据->人工标注->模子训练这样的方式来进行的,以人以及穿戴装备为例,大多数据集我们都使用了公开的数据集。
        我就以安全帽识别为例,我们使用了 Kaggle的数据集:Safety Helmet Detection | KaggleSafety Helmet Detection | Kaggle
        该数据集包罗 5000 个带有边界框注释的图像,格式为 PASCAL VOC 格式且主要针对以下 3 个类别:helmet, head person,存在数据不平衡:

        从上面绘制的直方图中可以清晰看到,数据集中几乎 75% 的出现都属于头盔类,这不是什么功德。
        虽然这个数据集从来都不是我们的首选,但这是我们在互联网上能找到的唯一像样的数据集。我们将整个数据集按照 8:1:1 的比例划分为训练集、验证集和测试集。上述集合分别包罗 4000、500 和 500 张图像。
         我们使用了预先训练的Faster R-CNN 模子,并以 Resnet50 为主 ,并根据该数据集的训练分割进行了微调。让我们看看训练模子的代码片段:
 用于训练迭代的函数定义:
  1. from tqdm import tqdm
  2. def train(train_data_loader, model):
  3.     print('Training...')
  4.     global train_itr
  5.     global train_loss_list
  6.     # initialize tqdm progress bar
  7.     prog_bar = tqdm(train_data_loader, total=len(train_data_loader))
  8.     # criterion = torch.nn.BCELoss(size_average=True)
  9.     for i, data in enumerate(prog_bar):
  10.         optimizer.zero_grad() #####
  11.         images, targets = data #####
  12.         images = list(image.to(DEVICE) for image in images) #####
  13.         targets = [{k: v.to(DEVICE) for k, v in t.items()} for t in targets] #####
  14.         loss_dict = model(images, targets) #####
  15.         losses = sum(loss for loss in loss_dict.values()) #####
  16.         loss_value = losses.item()
  17.         train_loss_list.append(loss_value)
  18.         train_loss_hist.send(loss_value)
  19.         losses.backward() #####
  20.         optimizer.step() #####
  21.         train_itr += 1 #####
  22.         # update the loss value beside the progress bar for each iteration
  23.         prog_bar.set_description(desc=f"Loss: {loss_value:.4f}")
  24.     return train_loss_list
复制代码
验证迭代的函数定义: 
  1. # function for running validation iterations
  2. def validate(valid_data_loader, model):
  3.     print('Validating...')
  4.     global val_itr
  5.     global val_loss_list
  6.     # initialize tqdm progress bar
  7.     prog_bar = tqdm(valid_data_loader, total=len(valid_data_loader))
  8.     for i, data in enumerate(prog_bar):
  9.         images, targets = data
  10.         images = list(image.to(DEVICE) for image in images)
  11.         targets = [{k: v.to(DEVICE) for k, v in t.items()} for t in targets]
  12.         with torch.no_grad():
  13.             loss_dict = model(images, targets)
  14.         losses = sum(loss for loss in loss_dict.values())
  15.         loss_value = losses.item()
  16.         val_loss_list.append(loss_value)
  17.         val_loss_hist.send(loss_value)
  18.         val_itr += 1
  19.         # update the loss value beside the progress bar for each iteration
  20.         prog_bar.set_description(desc=f"Loss: {loss_value:.4f}")
  21.     return val_loss_list
复制代码
 平均类用于记录训练和验证损失
  1. class Averager:
  2.     def __init__(self):
  3.         self.current_total = 0.0
  4.         self.iterations = 0.0
  5.     def send(self, value):
  6.         self.current_total += value
  7.         self.iterations += 1
  8.     @property
  9.     def value(self):
  10.         if self.iterations == 0:
  11.             return 0
  12.         else:
  13.             return 1.0 * self.current_total / self.iterations
  14.     def reset(self):
  15.         self.current_total = 0.0
  16.         self.iterations = 0.0
  17. class SaveBestModel:
  18.     """
  19.     Class to save the best model while training. If the current epoch's
  20.     validation loss is less than the previous least less, then save the
  21.     model state.
  22.     """
  23.     def __init__(self, best_valid_loss=float('inf')):
  24.         self.best_valid_loss = best_valid_loss
  25.     def __call__(self, current_valid_loss, epoch, model, optimizer):
  26.         if current_valid_loss < self.best_valid_loss:
  27.             self.best_valid_loss = current_valid_loss
  28.             print(f"\nBest validation loss: {self.best_valid_loss:.3f}")
  29.             print(f"\nSaving best model for epoch: {epoch+1}\n")
  30.             torch.save({
  31.                 'epoch': epoch+1,
  32.                 'model_state_dict': model.state_dict(),
  33.                 'optimizer_state_dict': optimizer.state_dict(),
  34.                 'scheduler_state_dict': scheduler.state_dict(),
  35.                 }, '/content/drive/My Drive/helmet_dataset/savedmodel/best_model.pth')
  36. # function to save the model after each epoch and after training ends
  37. def save_model(epoch, model, optimizer):
  38.     """
  39.     Function to save the trained model till current epoch, or whenver called
  40.     """
  41.     torch.save({
  42.                 'epoch': epoch+1,
  43.                 'model_state_dict': model.state_dict(),
  44.                 'optimizer_state_dict': optimizer.state_dict(),
  45.                 'scheduler_state_dict': scheduler.state_dict(),
  46.                 }, '/content/drive/My Drive/helmet_dataset/savedmodel/last_model.pth')
复制代码
训练循环
  1. train_loss_hist = Averager()
  2. val_loss_hist = Averager()
  3. train_itr = 1
  4. val_itr = 1
  5. # train and validation loss lists to store loss values of all
  6. # iterations till end and plot graphs for all iterations
  7. train_loss_list = []
  8. val_loss_list = []
  9. # initialize SaveBestModel class
  10. save_best_model = SaveBestModel()
  11. NUM_EPOCHS = 16 # number of epochs to train for
  12. epoch=0
  13. # start the training epochs
  14. for epoch in range(epoch, NUM_EPOCHS):
  15.     print(f"\nEPOCH {epoch+1} of {NUM_EPOCHS}")
  16.     # reset the training and validation loss histories for the current epoch
  17.     train_loss_hist.reset()
  18.     val_loss_hist.reset()
  19.     train_loss = train(train_loader, model)
  20.     val_loss = validate(valid_loader, model)
  21.     print(scheduler.get_last_lr()) # this prints the lr used in training that specific epoch
  22.     scheduler.step()
  23.     print(f"Epoch #{epoch+1} train loss: {train_loss_hist.value:.3f}")
  24.     print(f"Epoch #{epoch+1} validation loss: {val_loss_hist.value:.3f}")
  25.     # save the best model till now if we have the least loss in the current epoch
  26.     save_best_model(val_loss_hist.value, epoch, model, optimizer)
  27.     # save the current epoch model
  28.     save_model(epoch, model, optimizer)
复制代码
这些代码片段将指导我们完成用于该模子的整个训练过程。我们首先定义了用于迭代训练和验证数据集的函数。然后定义了用于记录损失和保存最佳和最后模子的类。然后我们有了训练循环的终极代码片段。
终极经过训练的模子图如下:

我们测试下训练结果:
设置置信度为0.65,选择一张测试图片,我们来看下检测结果

检测结果信息:
   {   
  "predictions": [
    {   
      "x": 244.5,
      "y": 66.5,
      "width": 111,
      "height": 79,
      "confidence": 0.891,
      "class": "helmet",
      "class_id": 1,
      "detection_id": "d6ca5493-b249-44b2-b857-56d98057051d"
    },
    {   
      "x": 189,
      "y": 366,
      "width": 40,
      "height": 40,
      "confidence": 0.83,
      "class": "boots",
      "class_id": 0,
      "detection_id": "24dc2b28-235d-42ea-9c17-b4583ee75295"
    },
    {   
      "x": 198,
      "y": 237,
      "width": 312,
      "height": 388,
      "confidence": 0.731,
      "class": "person",
      "class_id": 5,
      "detection_id": "7c5d5d4f-931e-4486-ac98-b56a8984ff80"
    }
  ]
}
  硬件适配

        我将从硬件性能、开发 SDK 和适用场景三个方面,对 SE 算能盒子、英伟达 Nvidia 盒子(如 Jetson 系列)以及华为盒子(如昇腾系列)进行具体对比。

硬件对比

特性SE 算能盒子英伟达 Nvidia 盒子华为盒子处理器架构专用 AI 加快芯片(如 BM1684X TPU)Tegra 系列 SoC(如 Jetson Xavier NX)昇腾 AI 芯片(如昇腾310/910)算力INT8 算力高达 32 TOPS(BM1684X)FP16 算力高达 32 TOPS(Jetson AGX Xavier)FP16 算力高达 256 TOPS(昇腾910)功耗低功耗计划,范例功耗 15W-30W功耗范围 10W-30W(根据型号不同)功耗范围 30W-310W(根据型号不同)存储与内存DDR4/DDR5 内存,eMMC 存储LPDDR4 内存,eMMC 或 NVMe 存储HBM 高带宽内存(如 HBM2e)接口支持丰富的 I/O 接口(HDMI、USB、以太网等)支持 PCIe、USB、HDMI、GPIO 等支持 PCIe、以太网、NVLink 等高性能接口适用场景视频分析、工业检测、边沿 AI 推理自动驾驶、机器人、边沿 AI 推理云端 AI 训练、大规模推理、边沿计算 硬件总结


  • SE 算能盒子:专注于低功耗、高效的边沿 AI 推理,恰当工业和视频分析场景。
  • 英伟达 Nvidia 盒子:通用性强,支持从边沿推理到图形处理的多种任务。
  • 华为盒子:以高性能为主,恰当云端 AI 训练和大规模推理任务。

SDK 对比

特性SE 算能盒子 SDK英伟达 Nvidia SDK华为盒子 SDK开发工具Sophon SDK,支持模子优化、推理加快JetPack SDK,包罗 CUDA、cuDNN、TensorRT 等工具MindSpore 和 CANN,支持训练与推理支持框架TensorFlow、PyTorch、Caffe 等TensorFlow、PyTorch、ONNX 等TensorFlow、PyTorch、MindSpore 等模子优化BMCompiler 和 BMOptimizerTensorRT 进行模子优化和推理加快CANN 提供模子编译与优化编程语言支持C++、PythonC++、PythonC++、Python文档与社区支持文档较完善,社区支持相对较少文档丰富,社区活跃,支持广泛文档完善,社区支持渐渐加强 SDK 总结


  • SE 算能盒子:Sophon SDK 针对其专用硬件进行了深度优化,恰当特定 AI 推理任务。
  • 英伟达 Nvidia 盒子:JetPack SDK 提供全面的开发工具,生态系统成熟,恰当多样化开发需求。
  • 华为盒子:MindSpore 和 CANN 提供从训练到推理的完整支持,恰当高性能 AI 应用。
华为适配

        从刚才的硬件,SDK对比结果不丢脸出,不同硬件装备的适配方案是各有不同的,这里我就以以华为服务器为例,  华为的 MindX 组件 是昇腾 AI 生态系统中的重要部分,旨在简化 AI 应用的开发和部署。通过与 pipeline(数据管道)相结合,MindX 提供了一种高效的方式来处理数据流和任务流,从而实现复杂的 AI 应用场景。 开发文档大家可以参考:      简介-mxVision 用户指南-智能视频分析-MindSDK5.0.0开发文档-昇腾社区
MindX 提供了多个功能模块,这些模块可以通过 pipeline 进行灵活组合。例如:


  • 数据解码模块:负责将输入数据(如图片或视频流)解码为可处理的格式。
  • 推理模块:调用 AI 模子进行推理。
  • 后处理模块:对推理结果进行处理,如生成可视化输出或统计分析。
  • 设置驱动:pipeline 的设置文件定义了各模块的执行顺序、参数设置以及模块间的数据运动。
1.设置pipeline
例如设置我们的pipeline信息如下:
  1. {
  2.         "detection": {
  3.                 "appsink0": {
  4.                         "factory": "appsink"
  5.                 },
  6.                 "mxpi_imageresize0": {
  7.                         "factory": "mxpi_imageresize",
  8.                         "next": "mxpi_modelinfer0",
  9.                         "props": {
  10.                                 "interpolation": "1",
  11.                                 "resizeType": "Resizer_KeepAspectRatio_Fit",
  12.                                 "paddingType": "Padding_NO"
  13.                         }
  14.                 },
  15.                 "mxpi_modelinfer0": {
  16.                         "factory": "mxpi_modelinfer",
  17.                         "next": "appsink0",
  18.                         "props": {
  19.                                 "dataSource": "mxpi_imageresize0",
  20.                                 "deviceId": "0",
  21.                                 "labelPath": "/data0/algorithm/hvhpp/model/hvhpp.names",
  22.                                 "modelPath": "/data0/algorithm/hvhpp/model/hvhpp.om",
  23.                                 "postProcessConfigPath": "/data0/algorithm/hvhpp/model/yolov5.cfg",
  24.                                 "postProcessLibPath": "/data0/algorithm/mxVision-5.0.1/lib/libMpYOLOv5PostProcessor.so"
  25.                         }
  26.                 },
  27.                 "mxpi_parallel2serial0": {
  28.                         "factory": "mxpi_parallel2serial",
  29.                         "next": "mxpi_imageresize0",
  30.                         "props": {
  31.                                 "dataSource": "mxpi_videodecoder1, mxpi_videodecoder22, mxpi_videodecoder14, mxpi_videodecoder3, mxpi_videodecoder10, mxpi_videodecoder15, mxpi_videodecoder4, mxpi_videodecoder24, mxpi_videodecoder5, mxpi_videodecoder21, mxpi_videodecoder0, mxpi_videodecoder9, mxpi_videodecoder2"
  32.                         }
  33.                 },
  34.                 "mxpi_rtspsrc0": {
  35.                         "factory": "mxpi_rtspsrc",
  36.                         "next": "mxpi_videodecoder0",
  37.                         "props": {
  38.                                 "channelId": "0",
  39.                                 "rtspUrl": "rtsp://admin:a!123456789@192.168.2.81:554/media1/video2/video"
  40.                         }
  41.                 },
  42.                 "mxpi_rtspsrc1": {
  43.                         "factory": "mxpi_rtspsrc",
  44.                         "next": "mxpi_videodecoder1",
  45.                         "props": {
  46.                                 "channelId": "1",
  47.                                 "rtspUrl": "rtsp://admin:a!123456789@192.168.2.83:554/media1/video2/video"
  48.                         }
  49.                 },
  50.                 "mxpi_rtspsrc10": {
  51.                         "factory": "mxpi_rtspsrc",
  52.                         "next": "mxpi_videodecoder10",
  53.                         "props": {
  54.                                 "channelId": "10",
  55.                                 "rtspUrl": "rtsp://admin:a!123456789@192.168.2.93:554/media1/video2/video"
  56.                         }
  57.                 },
  58.                 "mxpi_rtspsrc14": {
  59.                         "factory": "mxpi_rtspsrc",
  60.                         "next": "mxpi_videodecoder14",
  61.                         "props": {
  62.                                 "channelId": "14",
  63.                                 "rtspUrl": "rtsp://admin:a!123456789@192.168.2.90:554/media1/video2/video"
  64.                         }
  65.                 },
  66.                 "mxpi_rtspsrc15": {
  67.                         "factory": "mxpi_rtspsrc",
  68.                         "next": "mxpi_videodecoder15",
  69.                         "props": {
  70.                                 "channelId": "15",
  71.                                 "rtspUrl": "rtsp://admin:a!123456789@192.168.2.187:554/media1/video2/video"
  72.                         }
  73.                 },
  74.                 "mxpi_rtspsrc2": {
  75.                         "factory": "mxpi_rtspsrc",
  76.                         "next": "mxpi_videodecoder2",
  77.                         "props": {
  78.                                 "channelId": "2",
  79.                                 "rtspUrl": "rtsp://admin:a!123456789@192.168.2.82:554/media1/video2/video"
  80.                         }
  81.                 },
  82.                 "mxpi_rtspsrc21": {
  83.                         "factory": "mxpi_rtspsrc",
  84.                         "next": "mxpi_videodecoder21",
  85.                         "props": {
  86.                                 "channelId": "21",
  87.                                 "rtspUrl": "rtsp://admin:a!123456789@192.168.2.225:554/media1/video2/video"
  88.                         }
  89.                 },
  90.                 "mxpi_rtspsrc22": {
  91.                         "factory": "mxpi_rtspsrc",
  92.                         "next": "mxpi_videodecoder22",
  93.                         "props": {
  94.                                 "channelId": "22",
  95.                                 "rtspUrl": "rtsp://admin:a!123456789@192.168.2.95:554/media1/video2/video"
  96.                         }
  97.                 },
  98.                 "mxpi_rtspsrc24": {
  99.                         "factory": "mxpi_rtspsrc",
  100.                         "next": "mxpi_videodecoder24",
  101.                         "props": {
  102.                                 "channelId": "24",
  103.                                 "rtspUrl": "rtsp://admin:a!123456789@192.168.1.105:554/media1/video2/video"
  104.                         }
  105.                 },
  106.                 "mxpi_rtspsrc3": {
  107.                         "factory": "mxpi_rtspsrc",
  108.                         "next": "mxpi_videodecoder3",
  109.                         "props": {
  110.                                 "channelId": "3",
  111.                                 "rtspUrl": "rtsp://admin:a!123456789@192.168.1.102:554/media1/video2/video"
  112.                         }
  113.                 },
  114.                 "mxpi_rtspsrc4": {
  115.                         "factory": "mxpi_rtspsrc",
  116.                         "next": "mxpi_videodecoder4",
  117.                         "props": {
  118.                                 "channelId": "4",
  119.                                 "rtspUrl": "rtsp://admin:a!123456789@192.168.1.101:554/media1/video2/video"
  120.                         }
  121.                 },
  122.                 "mxpi_rtspsrc5": {
  123.                         "factory": "mxpi_rtspsrc",
  124.                         "next": "mxpi_videodecoder5",
  125.                         "props": {
  126.                                 "channelId": "5",
  127.                                 "rtspUrl": "rtsp://admin:a!123456789@192.168.1.100:554/media1/video2/video"
  128.                         }
  129.                 },
  130.                 "mxpi_rtspsrc9": {
  131.                         "factory": "mxpi_rtspsrc",
  132.                         "next": "mxpi_videodecoder9",
  133.                         "props": {
  134.                                 "channelId": "9",
  135.                                 "rtspUrl": "rtsp://admin:a!123456789@192.168.1.100:554/media1/video2/video"
  136.                         }
  137.                 },
  138.                 "mxpi_videodecoder0": {
  139.                         "factory": "mxpi_videodecoder",
  140.                         "next": "mxpi_parallel2serial0:10",
  141.                         "props": {
  142.                                 "deviceId": "0",
  143.                                 "skipFrame": "30",
  144.                                 "inputVideoFormat": "H264",
  145.                                 "outputImageFormat": "YUV420SP_NV12",
  146.                                 "vdecChannelId": "0"
  147.                         }
  148.                 },
  149.                 "mxpi_videodecoder1": {
  150.                         "factory": "mxpi_videodecoder",
  151.                         "next": "mxpi_parallel2serial0:0",
  152.                         "props": {
  153.                                 "deviceId": "0",
  154.                                 "skipFrame": "30",
  155.                                 "inputVideoFormat": "H264",
  156.                                 "outputImageFormat": "YUV420SP_NV12",
  157.                                 "vdecChannelId": "1"
  158.                         }
  159.                 },
  160.                 "mxpi_videodecoder10": {
  161.                         "factory": "mxpi_videodecoder",
  162.                         "next": "mxpi_parallel2serial0:4",
  163.                         "props": {
  164.                                 "deviceId": "0",
  165.                                 "skipFrame": "30",
  166.                                 "inputVideoFormat": "H264",
  167.                                 "outputImageFormat": "YUV420SP_NV12",
  168.                                 "vdecChannelId": "10"
  169.                         }
  170.                 },
  171.                 "mxpi_videodecoder14": {
  172.                         "factory": "mxpi_videodecoder",
  173.                         "next": "mxpi_parallel2serial0:2",
  174.                         "props": {
  175.                                 "deviceId": "0",
  176.                                 "skipFrame": "30",
  177.                                 "inputVideoFormat": "H264",
  178.                                 "outputImageFormat": "YUV420SP_NV12",
  179.                                 "vdecChannelId": "14"
  180.                         }
  181.                 },
  182.                 "mxpi_videodecoder15": {
  183.                         "factory": "mxpi_videodecoder",
  184.                         "next": "mxpi_parallel2serial0:5",
  185.                         "props": {
  186.                                 "deviceId": "0",
  187.                                 "skipFrame": "30",
  188.                                 "inputVideoFormat": "H264",
  189.                                 "outputImageFormat": "YUV420SP_NV12",
  190.                                 "vdecChannelId": "15"
  191.                         }
  192.                 },
  193.                 "mxpi_videodecoder2": {
  194.                         "factory": "mxpi_videodecoder",
  195.                         "next": "mxpi_parallel2serial0:12",
  196.                         "props": {
  197.                                 "deviceId": "0",
  198.                                 "skipFrame": "30",
  199.                                 "inputVideoFormat": "H264",
  200.                                 "outputImageFormat": "YUV420SP_NV12",
  201.                                 "vdecChannelId": "2"
  202.                         }
  203.                 },
  204.                 "mxpi_videodecoder21": {
  205.                         "factory": "mxpi_videodecoder",
  206.                         "next": "mxpi_parallel2serial0:9",
  207.                         "props": {
  208.                                 "deviceId": "0",
  209.                                 "skipFrame": "30",
  210.                                 "inputVideoFormat": "H264",
  211.                                 "outputImageFormat": "YUV420SP_NV12",
  212.                                 "vdecChannelId": "21"
  213.                         }
  214.                 },
  215.                 "mxpi_videodecoder22": {
  216.                         "factory": "mxpi_videodecoder",
  217.                         "next": "mxpi_parallel2serial0:1",
  218.                         "props": {
  219.                                 "deviceId": "0",
  220.                                 "skipFrame": "30",
  221.                                 "inputVideoFormat": "H264",
  222.                                 "outputImageFormat": "YUV420SP_NV12",
  223.                                 "vdecChannelId": "22"
  224.                         }
  225.                 },
  226.                 "mxpi_videodecoder24": {
  227.                         "factory": "mxpi_videodecoder",
  228.                         "next": "mxpi_parallel2serial0:7",
  229.                         "props": {
  230.                                 "deviceId": "0",
  231.                                 "skipFrame": "30",
  232.                                 "inputVideoFormat": "H264",
  233.                                 "outputImageFormat": "YUV420SP_NV12",
  234.                                 "vdecChannelId": "24"
  235.                         }
  236.                 },
  237.                 "mxpi_videodecoder3": {
  238.                         "factory": "mxpi_videodecoder",
  239.                         "next": "mxpi_parallel2serial0:3",
  240.                         "props": {
  241.                                 "deviceId": "0",
  242.                                 "skipFrame": "30",
  243.                                 "inputVideoFormat": "H264",
  244.                                 "outputImageFormat": "YUV420SP_NV12",
  245.                                 "vdecChannelId": "3"
  246.                         }
  247.                 },
  248.                 "mxpi_videodecoder4": {
  249.                         "factory": "mxpi_videodecoder",
  250.                         "next": "mxpi_parallel2serial0:6",
  251.                         "props": {
  252.                                 "deviceId": "0",
  253.                                 "skipFrame": "30",
  254.                                 "inputVideoFormat": "H264",
  255.                                 "outputImageFormat": "YUV420SP_NV12",
  256.                                 "vdecChannelId": "4"
  257.                         }
  258.                 },
  259.                 "mxpi_videodecoder5": {
  260.                         "factory": "mxpi_videodecoder",
  261.                         "next": "mxpi_parallel2serial0:8",
  262.                         "props": {
  263.                                 "deviceId": "0",
  264.                                 "skipFrame": "30",
  265.                                 "inputVideoFormat": "H264",
  266.                                 "outputImageFormat": "YUV420SP_NV12",
  267.                                 "vdecChannelId": "5"
  268.                         }
  269.                 },
  270.                 "mxpi_videodecoder9": {
  271.                         "factory": "mxpi_videodecoder",
  272.                         "next": "mxpi_parallel2serial0:11",
  273.                         "props": {
  274.                                 "deviceId": "0",
  275.                                 "skipFrame": "30",
  276.                                 "inputVideoFormat": "H264",
  277.                                 "outputImageFormat": "YUV420SP_NV12",
  278.                                 "vdecChannelId": "9"
  279.                         }
  280.                 },
  281.                 "stream_config": {
  282.                         "deviceId": "0"
  283.                 }
  284.         }
  285. }
复制代码
2.设置信息:
        模子训练om模子是华为昇腾AI处理器支持的离线推理模子格式,因此我们使用om模子和对应的模子文件设置。

3.加载模子启动算法检测
启动算法脚本python编写:
  1. import os
  2. import cv2
  3. import redis
  4. import json
  5. import time
  6. import base64
  7. import struct
  8. import numpy as np
  9. from StreamManagerApi import StreamManagerApi, MxDataInput, StringVector
  10. import MxpiDataType_pb2 as MxpiDataType
  11. # redis
  12. r = redis.StrictRedis(host='localhost', port=6379)
  13. # The following belongs to the SDK Process
  14. streamManagerApi = StreamManagerApi()
  15. # init stream manager
  16. ret = streamManagerApi.InitManager()
  17. if ret != 0:
  18.     print("Failed to init Stream manager, ret=%s" % str(ret))
  19.     exit()
  20. # create streams by pipeline config file
  21. # load pipline
  22. cur_dir = os.path.dirname(os.path.abspath(__file__))
  23. print(cur_dir)
  24. cur_dir = cur_dir + "/pipeline/video.pipeline"
  25. print(cur_dir)
  26. with open(cur_dir, 'rb') as f:
  27.     pipelineStr = f.read()
  28. ret = streamManagerApi.CreateMultipleStreams(pipelineStr)
  29. # Print error message
  30. if ret != 0:
  31.     print("Failed to create Stream, ret=%s" % str(ret))
  32. # Stream name
  33. streamName = b'detection'
  34. # Obtain the inference result by specifying streamName and keyVec
  35. # The data that needs to be obtained is searched by the plug-in name
  36. keys = [b"ReservedFrameInfo", b"mxpi_modelinfer0", b"mxpi_parallel2serial0"]
  37. keyVec = StringVector()
  38. for key in keys:
  39.     keyVec.push_back(key)
  40. while True:
  41.     # Get data through GetResult
  42.     infer_result = streamManagerApi.GetResult(streamName, b'appsink0', keyVec)
  43.     # Determine whether the output is empty
  44.     if infer_result.metadataVec.size() == 0:
  45.         print("infer_result is null")
  46.         # continue
  47.     # Frame information structure
  48.     frameList = MxpiDataType.MxpiFrameInfo()
  49.     frameList.ParseFromString(infer_result.metadataVec[0].serializedMetadata)
  50.     # Objectpostprocessor information
  51.     objectList = MxpiDataType.MxpiObjectList()
  52.     objectList.ParseFromString(infer_result.metadataVec[1].serializedMetadata)
  53.     # Videodecoder information
  54.     visionList = MxpiDataType.MxpiVisionList()
  55.     visionList.ParseFromString(infer_result.metadataVec[2].serializedMetadata)
  56.     vision_data = visionList.visionVec[0].visionData.dataStr
  57.     visionInfo = visionList.visionVec[0].visionInfo
  58.     # # cv2 func YUV to BGR
  59.     # YUV_BYTES_NU = 3
  60.     # YUV_BYTES_DE = 2
  61.     # img_yuv = np.frombuffer(vision_data, np.uint8)
  62.     # # reshape
  63.     # img_bgr = img_yuv.reshape(visionInfo.heightAligned * YUV_BYTES_NU // YUV_BYTES_DE, visionInfo.widthAligned)
  64.     # # Color gamut conversion
  65.     # img = cv2.cvtColor(img_bgr, getattr(cv2, "COLOR_YUV2BGR_NV12"))
  66.     Id = frameList.frameId
  67.     bboxes = []
  68.     # fire or not
  69.     # if len(objectList.objectVec) == 0:
  70.     #     continue
  71.     json_str = '{' + '"StreamID":"{}","list":['.format(frameList.channelId)
  72.     # json_str = '{' + '"StreamID":"1679044571","list":['
  73.     print(len(objectList.objectVec))
  74.     list = ""
  75.     for i in range(len(objectList.objectVec)):
  76.         # get ObjectList
  77.         results = objectList.objectVec[i]
  78.         bboxes = {'x0': int(results.x0),
  79.                  'x1': int(results.x1),
  80.                  'y0': int(results.y0),
  81.                  'y1': int(results.y1),
  82.                  'confidence': round(results.classVec[0].confidence, 4),
  83.                  'text': results.classVec[0].className}
  84.         text = "{}{}".format(str(bboxes['confidence']), " ")
  85.         list = list  + '{' + '"x1":{},"y1":{},"x2":{},"y2":{},"data":"NULL","class":"{}","confidence":{},"track_id":-1'.format(bboxes['x0'], bboxes['y0'], bboxes['x1'], bboxes['y1'], bboxes['text'], bboxes['confidence']) + '}'
  86.         if(i < len(objectList.objectVec) - 1):
  87.             list = list + ','
  88.         # Draw rectangle
  89.         # for item in bboxes['text']:
  90.         #     text += item
  91.         # cv2.putText(img, text, (bboxes['x0'] + 10, bboxes['y0'] + 10), cv2.FONT_HERSHEY_SIMPLEX, 1.0, (0, 0, 255), 2)
  92.         # cv2.rectangle(img, (bboxes['x0'], bboxes['y0']), (bboxes['x1'], bboxes['y1']), (0, 0, 255), 4)
  93.     # send_json_time = int(time.time())
  94.     send_json_time = int(time.time() * 1000)
  95.     if len(objectList.objectVec) == 0:
  96.         json_str = json_str  + ']}'
  97.     else:
  98.         json_str = json_str + list + ']}'
  99.     list_buf = '{' + '"Long_j":{},"width":{},"height":{},"timestamp":{},"json":{},"long_p":{}'.format(len(json_str), visionInfo.width, visionInfo.height, send_json_time, json_str, len(vision_data)) + '}'
  100.     # 计算list_buf不包含图片的大小,(大小头)小头保存长度
  101.     len_little = len(list_buf).to_bytes(4, byteorder='little', signed=True)
  102.     #转成字节
  103.     list_buf = bytes(list_buf,'UTF-8')
  104.     # 拼接图片内容
  105.     print(list_buf)
  106.     print("\n")
  107.     list_buf = len_little + list_buf + vision_data
  108.     r.publish("mychannel",list_buf)
  109.     # # save picture
  110.     # Id = frameList.frameId
  111.     # result_path = "./result/"
  112.     # if os.path.exists(result_path) != 1:
  113.     #     os.makedirs("./result/")
  114.     # oringe_imgfile = './result/image' + '-' + str(Id) + '.jpg'
  115.     # print("Warning! Fire or smoke detected")
  116.     # print("Result save in ",oringe_imgfile)
  117.     # cv2.imwrite(oringe_imgfile, img)
  118. # Destroy All Streams
  119. streamManagerApi.DestroyAllStreams()
复制代码
执行算法检测:

服务自启和崩溃拉起

        崩溃拉起和服务自启是当代软件系统中不可或缺的机制,通过自动监控和恢复,可以显着提高系统的可用性和稳定性。服务在运行过程中大概会存在各种各样的场景,比如异常断电,断网,硬件故障等,崩溃拉起和服务自启可以确保应用步伐高可用性和稳定性。
        关于高可用,容灾恢复问题,我曾经在CSDN里的这篇文章里做过方案,大家可以通过阅读这篇文章来寻找答案:
变形记---容灾恢复(一),异常崩溃引发服务器丢档或无法正常运行-CSDN博客
         这里我只阐明AIEC的服务自启和崩溃拉起的机制,由于Platform和算法AIInterface的相对较为简单,完满是靠操作系统的服务管理设置项大概由AIEC来控制的。
AIEC自启动机制

        aiec承接着非常重要的算法资源调度工作,当aiec服务发生崩溃后,服务假如不再正常运行,则会给煤矿生产带来非常重大的安全隐患和损失,我们使用两种方式来确保aiec边沿计算的可用性:

  •    通过Platform平台可定时检测AIEC的心跳来监控其运行状态,假如历程一旦崩溃则触发重启操作。
  •    aiec自身有服务自启机制,通过借助linux的systemd大概init.d的服务器管理设置项来设置启动战略。

关于aiec的自启动机制,我提供了以下自启动脚本:
  1. #!/bin/bash
  2. ## 创建systemctl服务配置文件
  3. ## $1 服务名称,
  4. ## $2 pwd
  5. ## $3程序位置
  6. ## $4 程序文件
  7. ## $5名字
  8. ## $6 after
  9. ## $7用户
  10. function createService() {
  11.     {
  12.         echo "[Unit]"
  13.         echo "Description=$5"
  14.         #echo "After=$6"
  15.         echo "Requires=aiec.service mysql.service"
  16.         echo "Wants=aiec.service mysql.service"
  17.         echo ""
  18.         echo "[Service]"
  19.         echo "User=$7"
  20.             echo "Restart=always"
  21.         echo "Group=$7"
  22.         echo "Type=forking"
  23.         echo "ExecStart=/bin/bash $2/$3/$4 start"
  24.         echo "ExecStop=/bin/bash $2/$3/$4 stop"
  25.         echo "ExecReload=/bin/bash $2/$3/$4 restart"
  26.         echo ""
  27.         echo "[Install]"
  28.         echo "WantedBy=multi-user.target"
  29.     } >"$1"
  30. }
  31. ## 创建systemctl服务
  32. function installService() {
  33.     sudo systemctl daemon-reload
  34.     systemctl enable "$1"
  35.     systemctl start "$1"
  36. }
  37. ## 创建服务启动、关闭、重启命令脚本
  38. function createCommandScript() {
  39.     # 脚本文件名
  40.     scriptName="$1"
  41.     # 服务目录
  42.     serverPath="$(pwd)/$2"
  43.     # 服务名称
  44.     serverName="$3"
  45.     # 服务启动命令
  46.     serverStartCommand="$4"
  47.     # systemctl服务名称
  48.     systemctlName="$5"
  49.     {
  50.         echo "#!/bin/bash"
  51.         echo ""
  52.         echo "case \$1 in"
  53.         echo "start)"
  54.         echo "    cd $serverPath && $serverStartCommand"
  55.         echo "    ;;"
  56.         echo "stop)"
  57.         echo "    if [[ -n \$(pgrep "$serverName") ]]; then"
  58.         echo "        pgrep $serverName | sudo xargs kill -9"
  59.         echo "    fi"
  60.         echo "    ;;"
  61.         echo "restart)"
  62.         echo "    if [[ -n \$(pgrep "$serverName") ]]; then"
  63.         echo "        pgrep $serverName | sudo xargs kill -9"
  64.         echo "    fi"
  65.         echo "    cd $serverPath && $serverStartCommand"
  66.         echo "    ;;"
  67.         echo "reload)"
  68.         echo "    systemctl restart $systemctlName"
  69.         echo "    ;;"
  70.         echo "esac"
  71.     } >"$scriptName"
  72.     chmod 777 "$scriptName"
  73. }
  74. ## 创建对应服务启动、关闭、重启命令脚本
  75. # aiec启动脚本
  76. createCommandScript "./aiec.sh" "" "aiec" "nohup ./aiec >/dev/null &" "aiec.service"
  77. ## 创建aiec的服务
  78. createService "/etc/systemd/system/aiec.service" "$(pwd)" "" "aiec.sh" "aiec.service" "redis.service" "root"
  79. ## 设置对应服务自启动
  80. installService  "aiec.service"
复制代码
执行shell脚本后会自动创建一个aiec服务,并启动aiec服务。


AIEC崩溃拉起机制

        当一个服务发生崩溃而自启动,假如没有一个安全的崩溃拉起机制,大概会导致多种严肃问题: 


  • 未保存的数据丢失:服务崩溃时,任何未保存的重要的检测结果或临时数据都大概会丢失,导致AIEC自动后依靠的数据找不到,算法分析出现异常。
  • 影响上下文分析:假如服务器启动后部分算法的分析需要借助上下文的临时数据来分析这些告警数据,假如崩溃之前的临时数据丢失就很有大概造成数据状态不一致,影响检测告警结果。 
     这里我给大家提供几个我专栏里的关于崩溃和缓存的文章:
  变形记---容灾恢复(一),异常崩溃引发服务器丢档或无法正常运行-CSDN博客
  使用缓存战略优化系统性能:综合指南
  掌握服务器缓存战略
            我们会把每次关键的检测结果缓存到Redis中,当崩溃拉起的时候,就能获取到崩溃前的记录,这样就能根据上下文继续进行算法推理分析了。


后记

        我们团队每个人的每一小步都能为人工智能行业和煤矿领域带来积极的进步。纵然这些步子微小,缓慢,但我相信,总会有人在默默推动着这一历程向前发展。
        每一个小的积极和实验,都是为将来的更大突破奠定基础。正是这些看似微不敷道的希望,汇聚起来才能形成推动整个行业前行的强盛动力。无论前路多么艰难,我都愿意坚定地迈出这一步,为实现更高效、更安全的煤矿作业和更智能的AI应用贡献自己的气力。 
        最后,我相信人工智能不但能够推动煤矿安全检测的发展,也能促进越来越多行业的高效安全生产,助力其在各个领域扎根生长。

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

王柳

论坛元老
这个人很懒什么都没写!
快速回复 返回顶部 返回列表