作为一名在虚拟制片(VP)与XR转播一线摸爬滚打了五年的TD(技术总监),如果有人问我:“为什么你们非要用Aximmetry?直接用Unreal Engine 5(UE5)原生的nDisplay加Composure不行吗?”
我通常会报以一个苦笑。
外行看VP,看的是Lumen的光追和Nanite的亿级多边形;但内行做VP,每天在死磕的,是Genlock同步的毫秒级抖动(Jitter)、Alpha通道的预乘(Premultiplied)逻辑、色彩空间(Color Space)的线性映射,以及不可控的渲染管线开销。
UE5极其强大,但它骨子里是一个游戏引擎。当它被强行塞进要求“零容错、绝对同步、广电级色彩”的直播或电影实时管线时,它带着一身沉重的“技术债”。
而Aximmetry之所以成为目前全球高端VP/XR影棚的“标配主控”,并非因为它自身能渲染出多厉害的特效,而是因为它在底层直接“劫持并重构”了虚幻引擎的输入输出(I/O)与合成管线,解决了一线技术团队最头疼的三个底层灾难。

灾难一:帧同步与追踪数据抖动(Jitter)
在XR容积棚里,追踪系统(如Mo-Sys, Ncam)输出的6DOF数据,与摄像机的SDI/SMPTE ST 2110视频流,存在着天然的“时间差”。
如果你用UE原生的Live Link去吃追踪数据,再用Composure去合成,你会发现一个致命问题:由于UE的Game Thread(游戏线程)和Render Thread(渲染线程)开销是动态波动的,导致视频帧和追踪数据在对齐时,经常出现1-2帧的微弱滑移。表现在画面上,就是背景在轻微地“漂”和“抖”。
Aximmetry的底层重构: Aximmetry直接绕过了UE的I/O模块。它本身就是一个极度轻量、基于时钟强同步的底层图形框架。
- 绝对时钟霸权: Aximmetry将自己作为整个片场的同步Master(或者接收外部的Blackburst/Tri-Level Sync信号)。它在最底层将视频帧输入、追踪数据流和引擎渲染指令进行纳秒级的锁频。
- 动态追踪平滑与预测: 它内置了极其强悍的追踪滤波器(Filter)和插值算法(Interpolation)。面对包含噪点的原始追踪数据,Aximmetry不仅能瞬间平滑杂波,还能根据机位运动的加速度做亚毫秒级的预测补偿(Prediction)。这就彻底消灭了镜头摇移时的背景拖影和抖动。
灾难二:XR场景延伸的“空间撕裂”与Z-Depth冲突
在LED容积棚拍摄中,镜头一旦摇出屏幕,我们就需要做Set Extension(场景延伸,即AR扩展屏外画面)。
在原生管线中,要做到这一点极其痛苦。你需要精确计算LED屏幕在物理世界的三维Mesh,然后在引擎里做复杂的视锥体剔除(Frustum Culling)和掩膜(Masking)。稍有不慎,屏内画面和屏外AR画面的接缝处就会出现曝光差异、透视错位,或者AR物体(比如飘落的虚拟雪花)的Z-Depth(深度信息)被物理LED屏幕错误遮挡。
Aximmetry的底层重构: Aximmetry的逻辑是将“物理屏幕”和“虚拟世界”在渲染前就进行拓扑分离。
- LED透视解算器: 它内置了极高精度的LED墙解算节点。只需输入屏幕的物理尺寸和位置,Aximmetry会自动在引擎外完成完美的视锥体切割。
- 复合深度计算(Composite Z-Buffer): 当处理前景AR(比如飞过主播面前的巨龙)时,Aximmetry直接提取UE的Depth Pass,并与摄像机的景深(DOF)参数进行匹配。这意味着AR物体的焦点虚实、与物理桌子的遮挡关系,在合成节点中被一次性完美计算。没有接缝,没有深度穿插。
灾难三:色域管理与抠像的“算力黑洞”
广电级制作对色彩极其敏感。摄像机进来的是S-Log3/Rec.2020,UE引擎里是Linear sRGB,最终输出要Rec.709。如果色彩空间映射(OCIO)没做对,合成画面就会出现灾难性的偏色。
而在绿幕拍摄中,高质量的Keyer(抠像器)是绝对的算力黑洞。如果你把抠像放在UE里用材质节点写,不仅开销巨大拖慢帧率,而且对于半透明溢色(Spill)的处理简直惨不忍睹。
Aximmetry的底层重构: Aximmetry将图像处理彻底从UE的算力负担中剥离。
- DE双引擎架构下的算力隔离: 它将UE5单纯作为一个“背景/前景渲染器(Renderer)”封存在底层(Aximmetry DE)。而所有高强度的视频I/O、色彩空间转换、OCIO配置,全都在Aximmetry自身极度优化的图像管线中运行。引擎帧率得到了极大的释放。
- 工业级Advanced Keyer: 这可以说是Aximmetry的杀手锏。它的色度键控算法完全是Nuke级别的。它不仅处理Luma和Chroma的容差极度精细,更重要的是它独创的Clean Plate(纯净背景)推算逻辑。即使现场绿幕布光不匀,它也能在GPU上极速算出一张完美的遮罩,不仅毫无绿边,甚至能完美保留水杯的折射和极其微弱的Contact Shadow(接触阴影)。这一切,只需要1毫秒的开销。
终极解药:基于Node的控制权夺回
作为TD,最崩溃的莫过于导演在现场突然要求:“能不能把主持人的麦克风音量跟虚拟背景里的闪电亮度绑定一下?”
如果用UE蓝图,你得重新连线、编译、测试,整个系统可能因为一个报错而当机。
Aximmetry用它的Flow Graph(流图节点)彻底夺回了控制权。 它的节点逻辑独立于UE之外。你不仅可以直接在Aximmetry的界面上实时修改UE材质里的参数(通过暴露出的Pin),还能用极其简单的节点,将DMX灯光信号、OSC/MIDI控制协议、网络API数据,瞬间转化为控制引擎的变量。 不需要重新编译引擎,不需要重启系统。所有的逻辑修改都是热插拔的、实时的。
结语:拒绝“拼凑”,走向“管线”
在VP与XR这行,能让画面出效果的软件很多,但能保证系统在7x24小时高压直播中不崩溃、不掉帧、不出偏差的软件,寥寥无几。
Aximmetry不是去替代Unreal Engine,而是去补全它。 它像一个冷酷而严密的交警,接管了片场所有混乱的信号流。它在底层重构了帧同步,接管了色彩空间,优化了Z-Depth冲突,并用无与伦比的Keyer算法解决了算力分配的难题。
对于真正的一线技术团队而言,Aximmetry带来的不是某种花哨的特效,而是这三个字:确定性。在混沌的实时渲染管线中,这种确定性,就是最大的生产力。