【iOS ARKit】3D 视频

打印 上一主题 下一主题

主题 764|帖子 764|积分 2292

      在AR 中播放视频也是一种常见的需求,如在一个展厅中放置的假造电视上播放宣传视频,大概在游戏中为营造氛围而设置的假造电视视频播放,大概在识别的2D个人名片上播放自我先容视频,因视频具有静态图像无法比拟的综合信息展示能力,接纳视频比单纯使用图像表达上更充实,本节我们将学习怎样在AR场景中播放视频。
      在 AR场景中播放视频与在普通应用中播放视频有许多雷同之处,但也有许多不一样的地方,在RealityKit 中播放视频,也同样使用 AVFoundation 流媒体框架,但需要将视频作为动态的纹理映射到假造物体表面,基本流程如图 11-4所示。
    使用 AVFoundation 流媒体框架播放视频使用到两个最基本的对象:AVPlayeritem 和AVPlayer。其中 AVPlayerItem 为流媒体资源管理对象,它负责管理视频的基本信息和状态,如视频长度、当前状态、缓存进度等,每一个 AVPlayerItem 对象对应一个视频资源;AVPlayer 为视频播放控制操尴尬刁难象,控制视频的播放、停息、还原等。
     在明白 RealityKit 播放视频的原理与流程后,就可以编写出视频播放代码,为更好地构造代码,新建一个 VideoPlayController 类管理视频播放相干代码,如下代码所示。
  1. //
  2. //  VideoPlayController.swift
  3. //  ARKitDeamo
  4. //
  5. //  Created by zhaoquan du on 2024/3/22.
  6. //
  7. import AVFoundation
  8. import Foundation
  9. import RealityKit
  10. public class VideoPlayController {
  11.     private var playing = false
  12.     private var avPlayer: AVPlayer?
  13.     private var avPlayerItem: AVPlayerItem?
  14.     private var avPlayerLooper: AVPlayerLooper?
  15.     private var videoMaterial: VideoMaterial?
  16.     public var material: Material? { videoMaterial }
  17.     private func createAVPlayer(_ named: String, withExtension ext: String) -> AVPlayer? {
  18.         guard let url = Bundle.main.url(forResource: named, withExtension: ext) else {
  19.             return nil
  20.         }
  21.         let avPlayer = AVPlayer(url: url)
  22.         return avPlayer
  23.     }
  24.     private func createVideoPlayerItem(_ named: String, withExtension ext: String) -> AVPlayerItem? {
  25.         guard let url = Bundle.main.url(forResource: named, withExtension: ext) else {
  26.             return nil
  27.         }
  28.         let avPlayerItem = AVPlayerItem(asset: AVAsset(url: url))
  29.         return avPlayerItem
  30.     }
  31.    
  32.     init?(_ named: String, withExtension ext: String, useLooper: Bool = false) {
  33.         playing = false
  34.         let player: AVPlayer?
  35.         if useLooper {
  36.             let playerItem = createVideoPlayerItem(named, withExtension: ext)
  37.             guard let avPlayerItem = playerItem else { return nil }
  38.             let queuePlayer = AVQueuePlayer()
  39.             avPlayerLooper = AVPlayerLooper(player: queuePlayer, templateItem: avPlayerItem)
  40.             self.avPlayerItem = avPlayerItem
  41.             player = queuePlayer
  42.         } else {
  43.             player = createAVPlayer(named, withExtension: ext)
  44.         }
  45.         avPlayer = player
  46.         guard let avPlayer = player else { return nil }
  47.         avPlayer.actionAtItemEnd = .pause
  48.         avPlayer.pause()
  49.         videoMaterial = VideoMaterial(avPlayer: avPlayer)
  50.         videoMaterial?.controller.audioInputMode = .spatial
  51.         //if(avPlayerItem?.status == AVPlayerItem.Status.readyToPlay){}
  52.         NotificationCenter.default.addObserver(self, selector: #selector(VideoDidReachEndNotificationHandler(_:)), name: NSNotification.Name.AVPlayerItemDidPlayToEndTime, object: avPlayer.currentItem)
  53.     }
  54.     public func reset() {
  55.         guard let avPlayer = self.avPlayer else { return }
  56.         avPlayer.pause()
  57.         avPlayer.seek(to: .zero)
  58.         playing = false
  59.     }
  60.     public func sceneUpdate() {
  61.         guard playing, let avPlayer = avPlayer else { return }
  62.         if avPlayer.timeControlStatus == .paused {
  63.             avPlayer.seek(to: .zero)
  64.             avPlayer.play()
  65.         }
  66.     }
  67.     public func enablePlayPause(_ enable: Bool) {
  68.         playing = enable
  69.         guard let avPlayer = self.avPlayer else { return }
  70.         if playing, avPlayer.timeControlStatus == .paused {
  71.             avPlayer.play()
  72.         } else if !playing, avPlayer.timeControlStatus != .paused {
  73.             avPlayer.pause()
  74.         }
  75.     }
  76.    
  77.     @objc func VideoDidReachEndNotificationHandler(_ notification:NSNotification){
  78.         print("播放完了")
  79.     }
  80.     deinit {
  81.         NotificationCenter.default.removeObserver(self)
  82.     }
  83.    
  84. }
复制代码
     在代码中,起首根据是否需要循环播放可在构造函数中分别使用 AVPlayer 大概AVPlayerLooper 构建视频播放控制器,然后设置视频播放完毕后的状态,最后使用视频资源作为材质创建VideoMaterial 对象。除此之外,在代码中还新建了几个控制视频播放的方法以便调用。
    代码中设置了视频播放时音频的播放方式,RealityKit 在播放视频时允许其音频以几种不同的方式播放,音频播放方式由 AudioResource. InputMode 枚举形貌,详细如下表所示。
枚举值
形貌
nonSpatial
不考虑声源位置与方向,以配景音乐方式播放音频
spatial
3D音效,考虑声源的位置与方向
ambient
只考虑声源的方向,不考虑声源位置,声音音量不会出现随距离变化的特性
     在代码中,我们也对视频播放完毕事件举行了处置惩罚,需要留意的是,播放视频时的事件处置惩罚方式与 RealityKit 中其他事件处置惩罚方式有些不一样,播放视频的事件使用了 AVFoundation 中更一般的事件机制,详细支持事件及一般处置惩罚方法可参阅AVFoundation 相干资料。
留意⚠️视频播放完毕事件只有在视频以不循环播放类型播放时才会触发,另外,添加的事件监听应当在不需要时移除,如本例中在析构函数中移除。
     除了可以播放当地视频资源,AVFoundation 也支持通过 HTTP 大概 HTTPS播放网络流媒体资源,但需要留意的是,网络视频资源加载受网速、网络连接等因素影响,具有不确定性,在视频播放之前,务必先查抄当前视频资源的可用性,如代码清单11-4中第49行的注释一样,以防止出现不可预知的题目(播放网络视频资源通常应当先缓冲,确保资源在播放前可用)。
     视频加载并转换成视频材质之后,就可以像普通材质一样使用,示例代码如下所示。
  1. //
  2. //  Video3DView.swift
  3. //  ARKitDeamo
  4. //
  5. //  Created by zhaoquan du on 2024/3/26.
  6. //
  7. import SwiftUI
  8. import ARKit
  9. import RealityKit
  10. import Combine
  11. struct Video3DView: View {
  12.     static var arView:ARView!
  13.     var body: some View {
  14.         Video3DViewContainer().overlay(
  15.             VStack{
  16.                 Spacer()
  17.                 HStack{
  18.                     Button(action:{Video3DView.arView.playOrPause()}) {
  19.                         Text("播放/暂停")
  20.                             .frame(width:120,height:40)
  21.                             .font(.body)
  22.                             .foregroundColor(.black)
  23.                             .background(Color.white)
  24.                             .opacity(0.6)
  25.                     }
  26.                     .offset(y:-30)
  27.                     .padding(.bottom, 30)
  28.                     Button(action: {Video3DView.arView.reset()}) {
  29.                         Text("重播")
  30.                             .frame(width:120,height:40)
  31.                             .font(.body)
  32.                             .foregroundColor(.black)
  33.                             .background(Color.white)
  34.                             .opacity(0.6)
  35.                     }
  36.                     .offset(y:-30)
  37.                     .padding(.bottom, 30)
  38.                 }
  39.                 Spacer().frame(height: 40)
  40.             }
  41.     ).navigationTitle("3D视频").edgesIgnoringSafeArea(.all)
  42.     }
  43. }
  44. var videoPlayController : VideoPlayController!
  45. struct Video3DViewContainer:UIViewRepresentable {
  46.    
  47.     func makeUIView(context: Context) -> some ARView {
  48.         let arView = ARView(frame: .zero)
  49.         let config = ARWorldTrackingConfiguration()
  50.         config.planeDetection = .horizontal
  51.         Video3DView.arView = arView
  52.         
  53.         arView.session.run(config)
  54.         arView.createVideoPlane()
  55.         return arView
  56.     }
  57.    
  58.     func updateUIView(_ uiView: UIViewType, context: Context) {
  59.         
  60.     }
  61.    
  62. }
  63. var play = false;
  64. extension ARView{
  65.     func createVideoPlane(isLoop: Bool = false){
  66.         videoPlayController  = VideoPlayController("video2", withExtension: "mp4", useLooper:false)
  67.         guard let vPlayController = videoPlayController,
  68.               let planeMaterial = videoPlayController.material else {return}
  69.         let planeAnchor = AnchorEntity(plane:.horizontal)
  70.         let boxMesh = MeshResource.generatePlane(width: 0.2, height: 0.4, cornerRadius: 0)
  71.         let boxEntity = ModelEntity(mesh: boxMesh,materials: [planeMaterial])
  72.         boxEntity.generateCollisionShapes(recursive: false)
  73.         planeAnchor.addChild(boxEntity)
  74.         self.scene.addAnchor(planeAnchor)
  75.         self.installGestures(.all,for:boxEntity)
  76.     }
  77.     func playOrPause(){
  78.         play = !play
  79.         videoPlayController.enablePlayPause(play)
  80.     }
  81.     func reset(){
  82.         videoPlayController.reset()
  83.         videoPlayController.enablePlayPause(true)
  84.     }
  85.    
  86.    
  87. }
复制代码
 RealityKit 播放视频的效果如下图所示。
   

图 11-5 在 RealityKit 中播放视频效果图     

     通过本节的学习,我们知道了在 RealityKit 中播放视频实际上是使用了动态纹理映射的方式,VideoMaterial 与其他全部的材质类型一样,可以使用到任何物体表面、平面、曲面上,由于现在 RealityKit并不支持Shader,所以我们可以使用视频材质作为替换方案实现诸如发光、闪耀、描边等特效,更简单地使用 VideoMaterial的代码如下所示。
  1. let planeAnchor = AnchorEntity(plane:. horizontal)
  2. let planeMesh = MeshResource. generatePlane(width: 0. 3, height: 0.2, cornerRadius:0)
  3. let asset = AVURIAsset (url: Bundle. main. url (forResource: "video",withExtension: "mp4")! )
  4. let playerItem = AVPlayerIten(asset:asset)
  5. let player = AVPlayer ( )
  6. let planeEntity = ModelEntity(mesh: planeMesh, materials: [VideoMaterial (aPlayer:player) ])
  7. player. replaceCurrentItem(with: playerItem)
  8. player. play()
  9. planeEntity. generateCollisionShapes(recursive: false)
  10. planeAnchor. addChild(planeEntity)
  11. self. scene. addAnchor (planeAnchor)
复制代码
        在举行 AR 体验共享时,视频材质与其他材质一样,可以自动举行同步及播放,无须开发人员举行额外处置惩罚,在可播放视频格式类型方面,AVFoundation 支持的视频格式其都支持。
详细代码地址:GitHub - duzhaoquan/ARkitDemo

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

风雨同行

金牌会员
这个人很懒什么都没写!

标签云

快速回复 返回顶部 返回列表