在AR 中播放视频也是一种常见的需求,如在一个展厅中放置的假造电视上播放宣传视频,大概在游戏中为营造氛围而设置的假造电视视频播放,大概在识别的2D个人名片上播放自我先容视频,因视频具有静态图像无法比拟的综合信息展示能力,接纳视频比单纯使用图像表达上更充实,本节我们将学习怎样在AR场景中播放视频。
在 AR场景中播放视频与在普通应用中播放视频有许多雷同之处,但也有许多不一样的地方,在RealityKit 中播放视频,也同样使用 AVFoundation 流媒体框架,但需要将视频作为动态的纹理映射到假造物体表面,基本流程如图 11-4所示。
使用 AVFoundation 流媒体框架播放视频使用到两个最基本的对象:AVPlayeritem 和AVPlayer。其中 AVPlayerItem 为流媒体资源管理对象,它负责管理视频的基本信息和状态,如视频长度、当前状态、缓存进度等,每一个 AVPlayerItem 对象对应一个视频资源;AVPlayer 为视频播放控制操尴尬刁难象,控制视频的播放、停息、还原等。
在明白 RealityKit 播放视频的原理与流程后,就可以编写出视频播放代码,为更好地构造代码,新建一个 VideoPlayController 类管理视频播放相干代码,如下代码所示。
- //
- // VideoPlayController.swift
- // ARKitDeamo
- //
- // Created by zhaoquan du on 2024/3/22.
- //
- import AVFoundation
- import Foundation
- import RealityKit
- public class VideoPlayController {
- private var playing = false
- private var avPlayer: AVPlayer?
- private var avPlayerItem: AVPlayerItem?
- private var avPlayerLooper: AVPlayerLooper?
- private var videoMaterial: VideoMaterial?
- public var material: Material? { videoMaterial }
- private func createAVPlayer(_ named: String, withExtension ext: String) -> AVPlayer? {
- guard let url = Bundle.main.url(forResource: named, withExtension: ext) else {
- return nil
- }
- let avPlayer = AVPlayer(url: url)
- return avPlayer
- }
- private func createVideoPlayerItem(_ named: String, withExtension ext: String) -> AVPlayerItem? {
- guard let url = Bundle.main.url(forResource: named, withExtension: ext) else {
- return nil
- }
- let avPlayerItem = AVPlayerItem(asset: AVAsset(url: url))
- return avPlayerItem
- }
-
- init?(_ named: String, withExtension ext: String, useLooper: Bool = false) {
- playing = false
- let player: AVPlayer?
- if useLooper {
- let playerItem = createVideoPlayerItem(named, withExtension: ext)
- guard let avPlayerItem = playerItem else { return nil }
- let queuePlayer = AVQueuePlayer()
- avPlayerLooper = AVPlayerLooper(player: queuePlayer, templateItem: avPlayerItem)
- self.avPlayerItem = avPlayerItem
- player = queuePlayer
- } else {
- player = createAVPlayer(named, withExtension: ext)
- }
- avPlayer = player
- guard let avPlayer = player else { return nil }
- avPlayer.actionAtItemEnd = .pause
- avPlayer.pause()
- videoMaterial = VideoMaterial(avPlayer: avPlayer)
- videoMaterial?.controller.audioInputMode = .spatial
- //if(avPlayerItem?.status == AVPlayerItem.Status.readyToPlay){}
- NotificationCenter.default.addObserver(self, selector: #selector(VideoDidReachEndNotificationHandler(_:)), name: NSNotification.Name.AVPlayerItemDidPlayToEndTime, object: avPlayer.currentItem)
- }
- public func reset() {
- guard let avPlayer = self.avPlayer else { return }
- avPlayer.pause()
- avPlayer.seek(to: .zero)
- playing = false
- }
- public func sceneUpdate() {
- guard playing, let avPlayer = avPlayer else { return }
- if avPlayer.timeControlStatus == .paused {
- avPlayer.seek(to: .zero)
- avPlayer.play()
- }
- }
- public func enablePlayPause(_ enable: Bool) {
- playing = enable
- guard let avPlayer = self.avPlayer else { return }
- if playing, avPlayer.timeControlStatus == .paused {
- avPlayer.play()
- } else if !playing, avPlayer.timeControlStatus != .paused {
- avPlayer.pause()
- }
- }
-
- @objc func VideoDidReachEndNotificationHandler(_ notification:NSNotification){
- print("播放完了")
- }
- deinit {
- NotificationCenter.default.removeObserver(self)
- }
-
- }
复制代码 在代码中,起首根据是否需要循环播放可在构造函数中分别使用 AVPlayer 大概AVPlayerLooper 构建视频播放控制器,然后设置视频播放完毕后的状态,最后使用视频资源作为材质创建VideoMaterial 对象。除此之外,在代码中还新建了几个控制视频播放的方法以便调用。
代码中设置了视频播放时音频的播放方式,RealityKit 在播放视频时允许其音频以几种不同的方式播放,音频播放方式由 AudioResource. InputMode 枚举形貌,详细如下表所示。
枚举值
| 形貌
| nonSpatial
| 不考虑声源位置与方向,以配景音乐方式播放音频
| spatial
| 3D音效,考虑声源的位置与方向
| ambient
| 只考虑声源的方向,不考虑声源位置,声音音量不会出现随距离变化的特性
| 在代码中,我们也对视频播放完毕事件举行了处置惩罚,需要留意的是,播放视频时的事件处置惩罚方式与 RealityKit 中其他事件处置惩罚方式有些不一样,播放视频的事件使用了 AVFoundation 中更一般的事件机制,详细支持事件及一般处置惩罚方法可参阅AVFoundation 相干资料。
留意⚠️视频播放完毕事件只有在视频以不循环播放类型播放时才会触发,另外,添加的事件监听应当在不需要时移除,如本例中在析构函数中移除。
除了可以播放当地视频资源,AVFoundation 也支持通过 HTTP 大概 HTTPS播放网络流媒体资源,但需要留意的是,网络视频资源加载受网速、网络连接等因素影响,具有不确定性,在视频播放之前,务必先查抄当前视频资源的可用性,如代码清单11-4中第49行的注释一样,以防止出现不可预知的题目(播放网络视频资源通常应当先缓冲,确保资源在播放前可用)。
视频加载并转换成视频材质之后,就可以像普通材质一样使用,示例代码如下所示。
- //
- // Video3DView.swift
- // ARKitDeamo
- //
- // Created by zhaoquan du on 2024/3/26.
- //
- import SwiftUI
- import ARKit
- import RealityKit
- import Combine
- struct Video3DView: View {
- static var arView:ARView!
- var body: some View {
- Video3DViewContainer().overlay(
- VStack{
- Spacer()
- HStack{
- Button(action:{Video3DView.arView.playOrPause()}) {
- Text("播放/暂停")
- .frame(width:120,height:40)
- .font(.body)
- .foregroundColor(.black)
- .background(Color.white)
- .opacity(0.6)
- }
- .offset(y:-30)
- .padding(.bottom, 30)
- Button(action: {Video3DView.arView.reset()}) {
- Text("重播")
- .frame(width:120,height:40)
- .font(.body)
- .foregroundColor(.black)
- .background(Color.white)
- .opacity(0.6)
- }
- .offset(y:-30)
- .padding(.bottom, 30)
- }
- Spacer().frame(height: 40)
- }
- ).navigationTitle("3D视频").edgesIgnoringSafeArea(.all)
- }
- }
- var videoPlayController : VideoPlayController!
- struct Video3DViewContainer:UIViewRepresentable {
-
- func makeUIView(context: Context) -> some ARView {
- let arView = ARView(frame: .zero)
- let config = ARWorldTrackingConfiguration()
- config.planeDetection = .horizontal
- Video3DView.arView = arView
-
- arView.session.run(config)
- arView.createVideoPlane()
- return arView
- }
-
- func updateUIView(_ uiView: UIViewType, context: Context) {
-
- }
-
- }
- var play = false;
- extension ARView{
- func createVideoPlane(isLoop: Bool = false){
- videoPlayController = VideoPlayController("video2", withExtension: "mp4", useLooper:false)
- guard let vPlayController = videoPlayController,
- let planeMaterial = videoPlayController.material else {return}
- let planeAnchor = AnchorEntity(plane:.horizontal)
- let boxMesh = MeshResource.generatePlane(width: 0.2, height: 0.4, cornerRadius: 0)
- let boxEntity = ModelEntity(mesh: boxMesh,materials: [planeMaterial])
- boxEntity.generateCollisionShapes(recursive: false)
- planeAnchor.addChild(boxEntity)
- self.scene.addAnchor(planeAnchor)
- self.installGestures(.all,for:boxEntity)
- }
- func playOrPause(){
- play = !play
- videoPlayController.enablePlayPause(play)
- }
- func reset(){
- videoPlayController.reset()
- videoPlayController.enablePlayPause(true)
- }
-
-
- }
复制代码 RealityKit 播放视频的效果如下图所示。
图 11-5 在 RealityKit 中播放视频效果图
通过本节的学习,我们知道了在 RealityKit 中播放视频实际上是使用了动态纹理映射的方式,VideoMaterial 与其他全部的材质类型一样,可以使用到任何物体表面、平面、曲面上,由于现在 RealityKit并不支持Shader,所以我们可以使用视频材质作为替换方案实现诸如发光、闪耀、描边等特效,更简单地使用 VideoMaterial的代码如下所示。
- let planeAnchor = AnchorEntity(plane:. horizontal)
- let planeMesh = MeshResource. generatePlane(width: 0. 3, height: 0.2, cornerRadius:0)
- let asset = AVURIAsset (url: Bundle. main. url (forResource: "video",withExtension: "mp4")! )
- let playerItem = AVPlayerIten(asset:asset)
- let player = AVPlayer ( )
- let planeEntity = ModelEntity(mesh: planeMesh, materials: [VideoMaterial (aPlayer:player) ])
- player. replaceCurrentItem(with: playerItem)
- player. play()
- planeEntity. generateCollisionShapes(recursive: false)
- planeAnchor. addChild(planeEntity)
- self. scene. addAnchor (planeAnchor)
复制代码 在举行 AR 体验共享时,视频材质与其他材质一样,可以自动举行同步及播放,无须开发人员举行额外处置惩罚,在可播放视频格式类型方面,AVFoundation 支持的视频格式其都支持。
详细代码地址:GitHub - duzhaoquan/ARkitDemo
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。 |