那些根本就不是全息,而是3D的虚拟植入。
在春晚的直播中,已经多次出现3D的虚拟植入了。 例如 我的微博里所列出的这些
http://weibo.com/1700267835/zipIztU0T#1360419341409 福字,灯笼,蝴蝶飞舞,虚拟光源等等。你们可以在重播的时候再看看。
所有的3D虚拟物体其实是计算机绘制的,然后通过一个叫虚拟植入渲染引擎的东西实时绘制并加载在摄像机拍摄到的视频信号中。当然,摄像机拍摄到的信号是经过延迟的,因为渲染也需要时间。
当然,在现实拍摄中,摄像机是会移动的,那么就需要跟踪技术跟踪摄像机具体移动的参数,例如,摄像机的俯仰,摇移,摄像机镜头的推拉还有聚焦。这些都通过传感设备收集到数据并且发送这些数据到渲染引擎。
渲染引擎根据这些数据进行实时的计算,然后把虚拟的光源,透视效果,物体实时的渲染在视频信号中。
其实根本原理就是计算机的3D渲染和跟踪,当然,不同的厂商是有自己不同的技术和专利的。只是为了保证直播和安全性,通常这种直播中的3D会选择技术性能和安全保障最好的公司来做。(PS,我们公司的人现在还在现场看着,就怕出现任何问题....而且,春晚的系统也是主备系统,出现设备和软件出错的可能性非常低)。
可以在另一个题目里看到我的回答
http://www.zhihu.com/question/20763830?group_id=9534751#1569075 其实原理都是一样的,只是针对不同的节目和摄像类型采用的不同的机位和跟踪方式而已。
— 完 —
本文作者:
于波
知乎是一个真实网络问答社区,在这里可以寻找答案、分享知识,发现一个更大的世界。
下载知乎 iPhone 客户端:
http://zhi.hu/ios
此问题还有
6 个回答,查看全部。
延伸阅读:
未来 20 年内,哪些现有的行业将脱颖而出?哪些新型行业将登上历史舞台?
像 iPad 那样流行的掌上 3D 全息投影设备大概需要多少年才能出现?最有可能是哪家厂商首先开发出来?请从这些厂商或科研机构/院校的现有技术以及目前遇到的技术壁垒来分析这个问题。