英伟达这次发布的DLSS 5技术自打一亮相,争议声就没停过。有人觉得这是实时图形领域最厉害的突破,也有人直接把它骂成“AI垃圾”。最近有位叫丹尼尔·欧文(Daniel Owen)的YouTuber和英伟达的专家雅各布·弗里曼(Jacob Freeman)聊了聊,说了不少技术细节。雅各布是GeForce Evangelist,也就是个技术布道者。他解释说,DLSS 5其实就拿游戏画面的2D帧还有运动矢量当输入,完全不是之前宣传的那样直接用3D源内容。因为它这算法是摆在图形管线的最后端,只能看到这些2D图片,压根不知道物体是什么样的立体结构。同样它也读不到游戏引擎里那些基于物理渲染(PBR)的属性数据,只能自己猜材质应该是什么样的。这就迫使它得靠语义标注来分辨像素,比如把某些像素归到眼睛、脸颊、嘴唇这些类别里去。如果训练数据全是些特别完美的脸,模型就容易把角色的面部变成大家普遍觉得好看的那种样子。这就是不少玩家吐槽DLSS 5“AI换脸”的主要原因。 虽然英伟达嘴上说底层几何结构没变,不过这位YouTuber也展示了个挺明显的例子:AI被抓住画(或者说是想象)出了原始角色模型里根本不存在的头发和面部细节,也就是某种意义上的幻觉。虽然原始3D模型确实保留下来了,但DLSS 5还是在那些像素上重新画了一幅新画。这种情况很可能是因为AI在训练时觉得那种发型就应该长在那个位置上。你看最直观的证据就是打开DLSS 5后,《生化危机:安魂曲》的主角格蕾丝妆容变了样,脸也变了形,完全不顾场景是昏暗的还是亮堂的。弗里曼面对这种情况也只能回应说,以后开发者可以通过一个强度滑块来调整AI帧跟原始帧的比例比例。还能做一些色彩分级工作(伽马、饱和度、对比度),或者直接把某些物体排除在AI生成范围之外。 不过即便这样也没法让DLSS根据实际游戏画面去感知世界啊,开发者也没法微调模型让它更适合游戏的风格。对很多人来说,现在的DLSS 5感觉更像是个美颜滤镜而不是渲染革命。还有英伟达自己宣传的素材里有残影伪影的问题也挺明显,这说明要是不深入底层去整合3D场景信息,时间上的稳定性还是个大难题。就目前的表现看,在性能和视觉效果上确实还得再加把劲。如果英伟达不想被人骂成“AI垃圾”,那肯定得在今年秋天DLSS 5正式上市之前把这些争议都给解决了才行。