作者:兮墨
阿里云窄带高清本质上是一种转码质量优化技能,是一套以人眼的主观感受最优为基准的视频编码技能,研究的是在带宽受限的情况下,如何追求最佳的视觉感受,即人眼感受的主观质量最优。而画面质量提升则是通过使用得当的画质加强技能以到达。
我们先来看两个窄带高清画质加强技能提升源视频画质的客户案例:百视 TV APP NBA 直播转码画质加强以及江苏移动 FIFA2022 世界杯直播转码画质加强。
视频1:窄带高清画质加强输出演示1
https://v.youku.com/v_show/id_XNTk1MjUxNzg4OA==.html
右侧为窄带高清画质加强输出
视频仅限于演示技能方案效果
视频2:窄带高清画质加强输出演示2
https://v.youku.com/v_show/id_XNTk1MDY4NjUzMg==.html
右侧为窄带高清画质加强输出
视频仅限于演示技能方案效果
01 视频高清化已成大趋势
视频是信息呈现和传播的重要载体。从早期的 625 线模拟电视信号,到后来的 VCD、DVD、蓝光、超大尺寸电视等,用户对高品质画面无止境的追求推动着视频技能的不停进步和产业的蓬勃发展。据猜测,未来个人消费者网络流量的 80%以上和行业应用流量的 70%以上都将是视频数据。
当下,随着视频拍摄和视频播放显示设备的软/硬件配置和性能不停升级,消费者对于视频画质的要求越来越高:从 360p 到 720p 再到 1080p,现在正全面跃升至 4K,而且 8K 的脚步正在迫近。在视频娱乐场景中,视频画质是影响用户互动体验的关键因素,高清视频每每比低清视频包罗更多的细节和信息,给用户的视频互动带来更好的体验,这也促进了用户在视频娱乐中对视频画质的要求越来越高。视频消费者一旦适应了高清视频所带来和以往不一样的感受和体验,比方:高清视频可以将光线、质感、人物皮肤、纹理等细节还原得更为真实,对于“渣”画质的容忍度就会越来越低。
作为创新的排头兵,互联网视频网站正拿出各种应对手段满足消费者的需求,提升画质俨然成为视频网站争取 IP 之外的新战场。当下,国内外主流的视频网站/APP 已经全面普及 1080p,1080p 已经成为一种标配;一些视频平台,比方爱优腾、B 站、YouTube,部分节目内容也提供了 4K 版本。
02 窄带高清云转码助力“最后一公里”的画质优化
视频从采集到终极分发再到终端消费者进行播放观看,中间要经历复杂的视频处理惩罚和传输链路。完备的处理惩罚和传输链路通常包括以下几个环节:
l 采集/编码:内容提供方采集的视频首先会被编码为特定的格式;
l 编辑/剪辑/重编码:对原始素材进行多样化的编辑/剪辑操纵,进行二次创作,然后重编码输出;有的业务场景大概会包罗多次剪辑处理惩罚;剪辑/编码完成的视频会被上传至服务端;
l 云服务端转码:视频在上传到云服务器后,为适应差别的网络情况和播放终端通常会在云端进行转码(本文所讨论的窄带高清转码即发生在该环节,以更高的压缩比呈现更高质量的视频);
l 云发布:CDN 内容分发网络
l 播放端:视频经由内容分发网络(CDN)加快分发,通过解码终极在内容消费方的终端设备上实现播放。
l 多平台播放:手机,Pad,OTT,IPTV,Web
图 1 视频处理惩罚和传输链路
从视频处理惩罚角度来看,窄带高清云转码是视频内容触达终端消费者的最后一个处理惩罚环节;从客观实际上来说,是视频内容生产消费全链路的“最后一公里”。
从传输角度来看,在视频生产和消费全链路,各环节之间数据的流转有多种形式:SDI 有线线缆方式、无线蜂窝移动通信、互联网以及卫星通信等。差别数据传输方案在传输情况稳固性和带宽存在巨大的差异,因此,为了能在带宽受限的链路上进行稳固的视频传输,必然要对视频信号进行深度编码压缩,而编码压缩势必会带来差别程度的画质损伤。
举个例子:常见的视频流规格:1080p, 60 fps, YUV 4:2:0, 8-bit,raw data 码率为 1920*1080*1.5*8*60 = 1.49Gbps
上述提到的传输方式中,只有 3G-SDI 有线线缆可支持该码流的及时传输。而视频内容触达终端消费者的方式一般是经由互联网进行分发,码率需要控制在 10Mbps 以下,因此意味要将原始视频压缩上百倍。
综上所述,从整个视频处理惩罚和传输链路来看,视频内容从采集到终端播放,要经历多个视频编辑、处理惩罚、重编码的操纵。而每一次处理惩罚/编码操纵或多或少都会对视频的画质产生影响,通常会损伤画质。因此,当下即便是使用最新的视频采集设备(可以输出高画质的原始视频信号),终端消费者侧也不一定保证能体验到高画质,缘故原由就在于中间处理惩罚环节的画质损耗。
窄带高清云转码作为整个视频处理惩罚链路的最后一个处理惩罚环节,其输出码流画质效果即为终极分发至终端消费者的画质效果。因此,如果在该环节使用得当的画质加强技能,可以一定程度上弥补前序视频处理惩罚环节所产生的画质损伤,起到优化画质的作用。
03 窄带高清画质加强应该优先办理什么问题?
视频画质加强技能大抵可以分为三大类:
l 色彩/亮度/对比度维度加强:色彩加强(色域,位深,HDR 高动态范围)、去雾、低光照/暗光加强等;
l 时域维度帧率加强:视频帧率变换/智能插帧;
l 空域维度细节复原/加强:去压缩失真、分辨率倍增、降噪/去划痕/去亮斑、去闪烁、去模糊、去抖等。
视频加强技能在产物落地层面,目前比较热门的选择是做老旧视频素材的高清化,比方年代比较久远的电影、电视剧、动画片和 MV/演唱会视频等。老旧影视素材广泛存在:划痕、噪点/霉斑、闪烁、细节模糊、运动拖尾、色彩暗淡或者只有好坏等问题,可以通过去噪、去脏点/划痕/霉斑、去模糊、去闪烁、分辨率/帧率倍增以及色彩加强(好坏上色)等处理惩罚,这样可以全面提升素材的整体观感。
然而,由于每个老旧素材所面临的画质问题差异很大,且目前的技能水平对于有的画质问题还难以给出令人满意的效果,因此老旧素材高清化处理惩罚过程必须引入人工干预。
人工干预表现在两个方面:一是对老旧素材画质问题进行诊断,并配置得当的处理惩罚模型和处理惩罚流程;二则是对模型处理惩罚效果进行人工查察,并做得当的精修和微调。
窄带高清画质加强技能落地选择原则
窄带高清云转码作为一种全自动,无人工干预的视频转码作业,所采用的视频画质加强优化技能也需要做到全自动,无需人工到场。我们认为在选择产物化方向时,所集成的视频加强技能应该满足以下几个条件:
l 视频加强技能可以实现全自动,无需人工干预:老旧素材高清化目前还需要太多的人工干预,不符合该原则;
l 相关技能具有广泛的实用范围:低光照/暗光加强和视频去抖在部分场景也有需求,但在视频转码场景,有这类画质问题的视频占比非常少;
l 连续的刚需:该技能可带来消费者可感知的画质提升,且其办理的问题在未来 5-10 年都会连续存在,因此可以形成连续的刚需。
窄带高清画质加强:办理生产链路引入的画质丧失
根据上述原则,我们终极选择在窄带高清转码中集成的画质加强技能为:空间维度细节修复,办理视频生产链路产生的画质丧失,即多次编码压缩导致的画质丧失。
从整个视频处理惩罚和传输链路来看,我们再详细分析一下产生画质丧失的环节有哪些:
1.信号源本身的画质问题
l 传输链路导致的低码率:在视频生产流程中,传输链路的带宽通常有一定的限定,为了优先保证流通,不得不采用低码率。典范场景有:跨国境直播流;大型赛事活动现场信号远间隔传输,无专线保障;以及无人机航拍及时信号。典范的码率设置比方 1080p 50fps 4-6M,直播场景通常是硬件编码,输出的码流有显着的编码压缩丧失;
l 内容版权/商业模式导致的低码率:由于视频版权或者商业模式问题,视频版权方给到分发渠道只有低码率信号源;
l 原始视频素材经历过多次编码压缩,已经有显着的画质丧失问题。
图 2 低码率信号源画质问题:有显着的编码块效应
2.编辑/剪辑及二次创作引入的画质问题
l 剪辑软件编码压缩引入的画质问题。
在 UGC 短视频范畴,大家通常习惯使用手机剪辑 APP 来进行视频剪辑,剪辑 APP 会调用手机硬件编码来做完成渲染视频的编码输出;但手机的视频编码能力比较受限,且差别型号手机的编码压缩性能差异很大,因此很容易出现编码压缩后画质不好的情况,即便输出码率高达 20M@1080p,如下图;
l 推流工具重编码压缩引入的画质问题。
在一些业务场景,比方网红博主陪你看球,演播室或者解说主播会将原始信号流通过 OBS 拉流到本地,叠加解说,再推流上云;OBS 的重编码会再次损伤原始视频的画质。
图 3 UGC 短视频,剪辑软件输出视频:
码率 20M,分辨率 1920x1080,画面存在显着编码块效应和模糊
图 4 主播解说,OBS 推流:
码率 6M,分辨率 1920x1080,画面存在大量编码压缩导致的边沿锯齿/毛刺,以及模糊
从需求连续时间来看,由于传输带宽的限定,在整个视频天生流程中,视频编码压缩是一个无法避免的处理惩罚操纵,而有压缩就不可避免引入画质损伤,因此,面向编码压缩丧失的画质提升会是一种连续性的需求。
04 面向编码压缩丧失的画质加强技能
从学术的角度来看,办理生产链路引入的画质丧失,重要研究的技能包括:去压缩失真以及超分辨率重建。去压缩失真重要办理编码压缩导致的块效应,比方边沿毛刺和细节丢失/模糊问题;超分辨率重建可以消除处理惩罚链路中大概引入的空间分辨率降采样,并提升画面整体锐度和清晰度。
学术界对图像超分辨率重建技能的研究已经连续了几十年。早期的方法大多基于空域/时域重构技能,后来发展到基于样例的学习方法,比较有代表性的方案有:(1)基于图像自相似性的方法;(2)基于范畴嵌入的方法;(3)基于字典学习/稀疏表示的方法;(4)基于随机森林等。但直到基于卷积神经网络(CNN)的超分辨率技能鼓起,才让该项技能在处理惩罚效果和性能方面到达可商用的水平,从而在工业界得到广泛关注和应用。
第一个将基于 CNN 的图像/视频超分辨率技能进行产物化落地尝试的当属一家叫 Magic Pony 的创业公司。该公司在 CVPR 2016 上做了一个当时非常炫酷的 demo - Real-Time Image and Video Super-Resolution on Mobile, Desktop and in the Browser[1, 3]。第一次将基于 CNN 的视频超分辨率技能移植到了移动平台(三星手机和 iPad),可以对游戏直播画面进行及时的超分辨率加强处理惩罚,显著提升源流的画质。该项技能很快引起了 Twitter 的关注,并在很短的时间内就完成了对该公司的收购 [2]。
尔后,随着第一届 NTIRE 超分辨率比赛 - NTIRE 2017 Challenge on Single Image Super-Resolution [4]的举行,越来越多的公司开始关注基于 CNN 的图像超分辨率技能,从那之后,这方面的落地应用也如雨后春笋般地涌现。
l 常规 CNN 去压缩失真处理惩罚:这个人脸有点假
固然基于 CNN 的图像超分辨率技能可取得远超过往技能的处理惩罚效果,但其产物化过程照旧存在不少问题。一个典范的问题是:基于 MSE/SSIM 丧失函数训练得到 CNN 超分辨率模型(也即常规 CNN 超分辨率模型),重建天生的图像每每会缺少高频细节信息,从而显得过平滑,主观感受不佳。
下面三个例子为一个典范的常规 CNN 超分辨率模型到达的处理惩罚效果:
常规 CNN 超分辨率模型对编码压缩造成的块效应、边沿锯齿、毛刺等 artifacts 有比较好的平滑作用,从而使得整个画面看起来更加干净,但画面缺少细节和质感,重要表现在人脸区域,有比较显着磨皮效应。因此,在对画面细节有要求的业务场景,比方 PGC 内容生产,用户通常会诉苦:人脸磨皮太显着,有点假。
图 5 常规 CNN 模型处理惩罚效果示范:
处理惩罚之后编码 artifacts 被有效去除,画面比较干净平滑,
但缺少细节和质感,比方人像区域的头发/眉毛/胡子/皮肤颗粒感/嘴唇纹理等细节;
地面草地纹理细节以及晚会节目视频中演员服装、道具细节丢失
l 基于 GAN 的处理惩罚方案
为了办理常规 CNN 超分辨率模型缺乏细节、过平滑的问题,学术界在 2017 年提出了基于天生对抗网络(GAN)的超分辨率方案:超分辨率天生对抗网络(SRGAN)[5]。SRGAN 在模型训练过程中,额外使用判别器对模型输出效果的纹理真实性进行辨别,从而使得模型倾向输出具有一定细节纹理的效果。
如下图所示,基于 MSE 的模型倾向输出平滑的效果,而基于 GAN 的模型倾向输出有一定纹理细节的效果。
图 6 基于 GAN 的 SR 方案
图来源:论文 Photo-Realistic Single Image Super-Resolution Using a Generative Adversarial Network
基于 GAN 的超分辨率模型具有“无中生有”天生细节的能力,因此可以补充原始画面缺失的纹理细节,这对办理常规 CNN 模型过平滑问题有很大的帮助。在 SRGAN 模型之后,学术界有不少工作对这一技能方向进行不停的完善[6, 7]。
05 窄带高清 GAN 细节天生技能:时域稳固的细节天生能力
然而,想要在实际业务场景中用好 GAN 天生技能,尤其是要在窄带高清全自动转码作业中应用该能力,技能实现层面照旧有不少难点。由于 GAN 的纹理细节是通过大量数据训练之后“脑补”出来的,那么“脑补”天生出来的细节纹理是否天然、与原始画面有没有违和感、相邻帧的天生效果是否具有同等性等,对该项技能能否在实际视频业务中乐成应用至关重要。
详细来讲,要在窄带高清全自动转码作业中使用 GAN 天生能力,需要办理以下几个问题才气满足商用要求:
l 模型“脑补”天生的纹理天然,与原始画面没有违和感;
l 视频相邻帧的天生效果同等性高,连续播放无时域闪烁现象;
l 可应用于自动化处理惩罚流:模型对片源质量有精良的自适应能力,对差别画质丧失程度差别的片源均有收益;
l 模型可实用于差别视频类型场景,比方影视剧,综艺,赛事,动画片等;
l 模型处理惩罚流程简单,处理惩罚耗时可猜测、可控制(直播场景对处理惩罚服从有比较高的要求)。
阿里云视频云音视频算法团队经过对 GAN 天生技能连续的钻研,积聚了多项 GAN 模型优化技能,办理了上述 GAN 细节天生能力商用落地的难点问题,打造了一个可应用于全自动转码作业的 GAN 细节天生方案。该方案的核心优势是:时域稳固的细节天生能力。
图 7 阿里云窄带高清 GAN 细节天生技能
详细来讲,在窄带高清 GAN 细节天生模型的训练过程中,我们使用了以下优化技能:
1.建立类型丰富、清晰度高、细节丰富的高画质视频库作为模型训练的高清样本,训练样本包罗多样的纹理特性对 GAN 天生纹理的真实感有很大的帮助;
2.通过风雅化建模不停优化训练数据的制备过程:基于对业务场景所面临的画质问题的深入洞察,贴合业务场景不停优化训练样本建模方法,不停探索以到达风雅化建模;
3.探索积聚有效的模型训练计谋:
l 丧失函数:训练丧失函数配置调优,比方 perceptual loss 使用差别 layer 的 feature,会影响天生纹理的颗粒度,差别 loss 的权重配比,也会影响纹理天生的效果;
l 训练方式:我们在模型训练过程使用了一种叫 NoGAN 的训练计谋 [8]。在图像/视频上色 GAN 模型训练中,NoGAN 训练计谋被证明是一种非常有效的训练本领:一方面可以提升模型的处理惩罚效果,另外一方面临模型天生效果的稳固性也有帮助。
4.模型对片源质量的自适应能力决定了其是否可应用于自动化处理惩罚作业。为了提高模型对片源质量的自适应能力,我们在训练输入样本质量的多样性和训练流程方面做了许多工作。终极我们训练得到的 GAN 模型具有精良的片源质量自适应能力:对中低质量视频源具有显着的细节天生加强能力、对高质量片源有适中的加强效果;
5.打造多场景处理惩罚能力:根据学术界的经验,处理惩罚目标先验信息越明确,GAN 的天生能力越强。比方将 GAN 技能用于人脸或者文字修复,由于其处理惩罚对象单一(高维空间中的一个低维流形),可以得到非常惊艳的修复效果;
因此,为了提升 GAN 对差别场景的处理惩罚效果,我们采用了一种「1+N」的处理惩罚模式:「1」为打造一个实用于通用场景的 GAN 天生模型,具有比较暖和的天生能力;「N」为多个垂直细分场景,针对垂直细分场景,在通用场景模型基础之上,对该场景特有的纹理细节进行比较激进的天生,比方:对于足球赛事场景,模型对赛场草地纹理有更强的天生效果;对于动画片场景,模型对线条有更强的天生能力;对于综艺节目,舞台表演场景,模型对人像特写细节有更强的天生能力。特别留意:如下所述,对于特定目标的天生效果提升,我们并没有采用特定目标单独处理惩罚的方案;
6.计算复杂度可控可猜测的处理惩罚模式:直播场景对处理惩罚模型的运行服从有很高的要求。为了适配直播画质加强的需求,当下,我们采用了单个模型处理惩罚模式,即:对全幅图像,统一使用单个模型进行处理惩罚。即便要对某些特定目标的天生效果进行针对性提升,比方人像区域及足球园地草地纹理,我们并没有采用将目标抠出来,单独处理惩罚的方案。因此,我们的模型推理时间是可猜测的,与图像内容无关。经过模型蒸馏、轻量化,基于阿里云神龙 HRT GPU 推理框架,我们的 GAN 细节天生模型在单卡 NVIDIA Tesla V100 上,处理惩罚服从可达 60fps@1920x1080。
GAN 天生时域稳固性保障技能
为了保证 GAN 模型天生效果的帧间同等性,以避免帧间不连续带来视觉上的闪烁,我们通过与高校合作的方式,提出一种即插即用的帧间同等性加强模型 - Temporal Consistency Refinement Network (TCRNet)。TCRNet 的工作流程重要包罗以下三个步骤:
l 对单帧 GAN 处理惩罚效果进行后处理惩罚,到达加强 GAN 处理惩罚效果的帧间同等性的同时,加强部分细节,改善视觉效果;
l 使用偏移迭代修正模块(Iterative Residual Refinement of Offset Module,IRRO)联合可变形卷积,提高帧间运动赔偿精度;
l 使用 ConvLSTM 模块,使模型可以或许融合更长间隔的时序信息。并通过可变形卷积对传递的时序信息进行空间运动赔偿,防止由于偏移造成的信息融合误差。
图 8 TCRNet 算法流程,来源:论文 Deep Plug-and-Play Video Super-Resolution
图 9 偏移迭代修正模块(IRRO)算法流程
来源:论文 Deep Plug-and-Play Video Super-Resolution
窄带高清 GAN 细节天生:这个人脸效果还假吗?
回到前面提及的几个常规 CNN 处理惩罚效果例子,我们再来看看使用窄带高清 GAN 细节天生处理惩罚会有怎样不一样的效果。对于这些例子,我们使用通用场景模型进行处理惩罚。
图例:从左至右分别为:窄带高清 GAN 处理惩罚、输入原始帧、常规 CNN 处理惩罚效果
图 10 人脸皮肤上有了颗粒感,有一种皮肤质感;头发,眉毛有了发丝的感觉;嘴唇纹理更丰富
图 11 头发,胡子的细节更丰富,人脸不会有磨皮感
图 12 地面/草地纹理更丰富,细节更清晰
图例:从上至下分别为:窄带高清 GAN 处理惩罚、输入原始帧、常规 CNN 处理惩罚效果
图 13 左侧演员裙子纹理更丰富;右侧演员道具纹理更丰富,细节更清晰
图例仅限于演示技能方案效果,从左至右分别为:窄带高清 GAN 处理惩罚、输入原始帧
图 14 头发,胡子区域有显着的细节天生,纹理更丰富
在前面我们提到,针对垂直细分场景,模型会对该场景特有的目标进行较为激进的纹理天生。比方对于足球赛事场景,模型对园地的草地纹理有更强的天生能力。下图是两个示例:
图例:从左至右分别为:窄带高清 GAN 处理惩罚、输入原始帧
图 15 足球赛事场景,草地纹理天生效果
此外,对于动画片场景,我们也训练了一个针对性的 GAN 模型,聚焦在线条天生能力。下面为三个动画片的处理惩罚效果。
图例:从左至右分别为:窄带高清 GAN 处理惩罚、输入原始帧
图 16 动画片处理惩罚效果
窄带高清 GAN 细节天生技能商用
目前,窄带高清 GAN 细节天生能力已在百视 TV NBA 直播转码中全面启用。当您用百视 TV APP 观看 NBA 比赛,选择“蓝光 265”档位,就可以体验基于窄带高清 GAN 细节天生能力转码输出的画质。同时,百视 TV 在一些综艺节目和大型活动的直播中也使用了该功能。
此外,在 FIFA2022 世界杯转播中,江苏移动使用窄带高清 GAN 细节天生技能提升咪咕视频原始机顶盒分发流的画质。在为期一个月的赛事转播期间,窄带高清为江苏移动全天 24 小时不停止直播提供画质加强能力。
除了百视 TV 和江苏移动,目前还有多个客户在试用窄带高清 GAN 细节天生能力,POC 测试的效果得到了客户的高度认可。
客户场景画质加强效果示范:
足球赛事直播画质加强演示视频1 | 左侧源流;右侧画质加强(细节修复+色彩调整)
https://www.bilibili.com/video/BV1jh41137oA/?vd_source=0ffef0efc167fb620e266ccee35b5005
左侧 百视 TV APP 直播推流信号源;右侧:窄带高清画质加强输出
足球赛事直播画质加强演示视频2 | 左侧源流;右侧画质加强(细节修复+色彩调整)
https://www.bilibili.com/video/BV1Th411371G/?vd_source=0ffef0efc167fb620e266ccee35b5005
左侧 江苏移动直播推流信号源(咪咕 8M);右侧:窄带高清画质加强输出
高分辨率、纹理丰富、细节清晰的视频能提供更清晰的画面和更高阶的感官体验,对于提升视频质量和用户视觉感受有很大的帮助。窄带高清 GAN 细节天生修复技能将连续在该范畴不停探索,不停精进,打造极致的细节恢复和加强效果,为视频消费者提供优质的视频观看体验。
未来,窄带高清 GAN 细节天生能力将连续进行算法性能优化,提升细节天生和修复效果,同时不停降低处理惩罚成本。
更好!提升细节天生和修复效果;除了现在采用的 GAN 方案,基于扩散模型的细节天生技能也将是我们后续研究的重点方向;
更广!打造更多垂直细分场景,采用激进的天生计谋提升相应场景的细节恢复效果;
更普惠!通过模型轻量化,以及优化摆设方案,连续降低处理惩罚成本,以普惠的价格服务更多的客户。
【本文所涉及的视频、图片为实际案例,仅用于技能分享及效果展示】
附:参考文献
[1] https://cvpr2016.thecvf.com/program/demos
[2] https://www.gov.uk/government/news/magic-pony-technology-twitter-buys-start-up-for-150-million
[3] Wenzhe Shi et al., Real-Time Single Image and Video Super-Resolution Using an Efficient Sub-Pixel Convolutional Neural Network, CVPR 2016
[4] NTIRE 2017 Challenge on Single Image Super-Resolution: Dataset and Study, CVPRW 2017
[5] Christian Ledig et al., Photo-Realistic Single Image Super-Resolution Using a Generative Adversarial Network, CVPR 2017
[6] Kai Zhang et al., Designing a Practical Degradation Model for Deep Blind Image Super-Resolution, ICCV 2021
[7] Xintao Wang et al., Real-ESRGAN: Training Real-World Blind Super-Resolution with Pure Synthetic Data, ICCVW 2021
[8] https://www.fast.ai/posts/2019-05-03-decrappify.html#nogan-training
[9] Hannan Lu et al., Deep Plug-and-Play Video Super-Resolution, ECCVW 2020
致谢
特别感谢以下同学对本文所涉及的算法做出的贡献。@刘佳慧(佳芙) @吕峥瑶(相泉) @李岁缠(岁曦) @王伟(静瑶) @邵纬航(生辉) @周明才(明烁)
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。 |