如何用Python将普通视频变成动漫视频

打印 上一主题 下一主题

主题 880|帖子 880|积分 2640

最近几个月,毒教材被曝光引发争议,那些编写度教材的人着实可恶。咱程序员也没有手绘插画能力,但咱可以借助强大的深度学习模型将视频转动漫。所以今天的目标是让任何具有python语言基本能力的程序员,实现短视频转动漫效果。

效果展示

一、思路流程


  • 读取视频帧
  • 将每一帧图像转为动漫帧
  • 将转换后的动漫帧转为视频
难点在于如何将图像转为动漫效果。这里我们使用基于深度学习的动漫效果转换模型,考虑到许多读者对这块不了解,因此我这边准备好了源码和模型,直接调用即可。不想看文章细节的可以直接拖到文章末尾,获取源码。
二、图像转动漫

为了让大家不关心深度学习模型,已经为大家准备好了转换后的onnx类型模型。接下来按顺序介绍运行onnx模型流程。
安装onnxruntime库
  1. pip install onnxruntime
  2. # 源码及Python资料教程、电子书领取群 279199867
复制代码
 
如果想要用GPU加速,可以安装GPU版本的onnxruntime:
  1. pip install onnxruntime-gpu
复制代码
 
需要注意的是:
onnxruntime-gpu的版本跟CUDA有关联,具体对应关系如下:
 

 
 
当然,如果用CPU运行,那就不需要考虑那么多了。考虑到通用性,本文全部以CPU版本onnxruntime。
运行模型
先导入onnxruntime库,创建InferenceSession对象,调用run函数。
如下所示
  1. import onnxruntime as rt
  2. sess = rt.InferenceSession(MODEL_PATH)
  3. inp_name = sess.get_inputs()[0].name
  4. out = sess.run(None, {inp_name: inp_image})
复制代码
 
具体到我们这里的动漫效果,实现细节如下:
  1. import cv2
  2. import numpy as np
  3. import onnxruntime as rt
  4. # MODEL = "models/anime_1.onnx"
  5. MODEL = "models/anime_2.onnx"
  6. sess = rt.InferenceSession(MODEL)
  7. inp_name = sess.get_inputs()[0].name
  8. def infer(rgb):
  9.     rgb = np.expand_dims(rgb, 0)
  10.     rgb = rgb *  2.0 / 255.0 - 1
  11.     rgb =  rgb.astype(np.float32)
  12.     out = sess.run(None, {inp_name: rgb})
  13.     out = out[0][0]
  14.     out = (out+1)/2*255
  15.     out = np.clip(out, 0, 255).astype(np.uint8)
  16.     return out
  17. def preprocess(rgb):
  18.     pad_w = 0
  19.     pad_h = 0
  20.     h,w,__ = rgb.shape
  21.     N = 2**3
  22.     if h%N!=0:
  23.         pad_h=(h//N+1)*N-h
  24.     if w%2!=0:
  25.         pad_w=(w//N+1)*N-w
  26.     # print(pad_w, pad_h, w, h)
  27.     rgb = np.pad(rgb, ((0,pad_h),(0, pad_w),(0,0)), "reflect")
  28.     return rgb, pad_w, pad_h
复制代码
 
其中, preprocess函数确保输入图像的宽高是8的整数倍。这里主要是因为考虑到深度学习模型有下采样,确保每次下采样能被2整除。
单帧效果展示



三、视频帧读取与视频帧写入

这里使用Opencv库,提取视频中每一帧并调用回调函数将视频帧回传。在将图片转视频过程中,通过定义VideoWriter类型变量WRITE确保唯一性。具体实现代码如下:
  1. import cv2
  2. from tqdm import tqdm
  3. WRITER = None
  4. def write_frame(frame, out_path, fps=30):
  5.     global WRITER
  6.     if WRITER is None:
  7.         size = frame.shape[0:2][::-1]
  8.         WRITER = cv2.VideoWriter(
  9.             out_path,
  10.             cv2.VideoWriter_fourcc(*'mp4v'),  # 编码器
  11.             fps,
  12.             size)
  13.     WRITER.write(frame)
  14. def extract_frames(video_path, callback):
  15.     video = cv2.VideoCapture(video_path)
  16.     num_frames = int(video.get(cv2.CAP_PROP_FRAME_COUNT))
  17.     for _ in tqdm(range(num_frames)):
  18.         _, frame = video.read()
  19.         if frame is not None:
  20.             callback(frame)
  21.         else:
  22.             break
复制代码
 
完整源码获取点击  蓝色字体 获取哟~
给大家推荐一套爬虫教程,涵盖常见大部分案例,非常实用!
代码总是学完就忘记?100个爬虫实战项目!让你沉迷学习丨学以致用丨下一个Python大神就是你!

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

小秦哥

金牌会员
这个人很懒什么都没写!

标签云

快速回复 返回顶部 返回列表