|PC的“视频DLSS”,迟到背后其实是商业上的无奈

|PC的“视频DLSS”,迟到背后其实是商业上的无奈

文章图片

|PC的“视频DLSS”,迟到背后其实是商业上的无奈

文章图片

|PC的“视频DLSS”,迟到背后其实是商业上的无奈

文章图片


最近几天 , 整个PC行业都沉浸在CES展的气氛中 , 无论是厂商、媒体 , 还是大多数消费者 , 都在关注、讨论着各式各样的新技术和新产品 。

对于我们三易生活来说 , 当然也不例外 。 前几天 , 我们刚刚为大家带来了RTX 4070 Ti的首发评测 。 但在今天 , 我们想来聊聊NVIDIA在此次CES期间发布的另外一个“小玩意” , 以及它背后可能并不太让人开心的那些事 。

这个东西的名字 , 叫做RTX视频超分辨率技术(RTX Video Super Resolution) 。 根据NVIDIA方面的说法 , 这是一种基于显卡内置AI算力来实现的在线视频画质实时增强功能 。
它的作用包括但不限于:
将低分辨率的视频实时上转换为高分辨率(比如将1080P实时处理为4K)
自动增强视频的锐度 , 使其看起来细节更加丰富
自动删除因为不高的压缩质量 , 而出现的色块和伪影
如果平时有关注过高端电视 , 你可能已经发现 , 与如今绝大多数电视里采用的AI图像增强(也叫AIPQ)技术相比 , NVIDIA这套“RTX视频超分辨率”看起来并不先进 , 甚至在功能上可以称之为简陋 。 因为它似乎并不支持基于场景自动检测的视频色彩优化(也就是自动让天更蓝、草更绿) , 也不支持基于图像语义分割的视频主体突出处理(让画面中的前景物体和背景物体分别呈现出不同的清晰度 , 从而更加突出主体) 。
说实在的 , 这合理吗?很不合理 , 但不得不承认 , 它确实也有一些合理之处 。

说不合理 , 是因为按照NVIDIA方面目前公布的相关信息显示 , “RTX视频超分辨率”只会兼容从RTX20系到RTX40系的显卡 。 这也就意味着 , 它在实时处理视频画面时 , 本质上很可能是要调用显卡的Tensor Core张量单元 , 甚至可能要用到部分RT Core光追单元的处理能力 。 因此不具备这两个单元的“非RTX”系列显卡 , 自然也就无法兼容这项功能了 。
然而大家要知道 , 哪怕是与最低端的RTX显卡(比如RTX2050)相比 , 如今智能电视SoC里集成的AI单元算力都要差上很多 。 于是这也就意味着 , NVIDIA的工程师守着相当于电视SoC少则数倍、多则数百倍的AI算力硬件 , 却做出来了可能复杂程度连如今入门级4K电视AIPQ功能都不如的一个“视频增强”算法 。

而且电视上的AI画面处理技术 , 起码也是在至少三、四年前就已经存在 , NVIDIA这几乎就属于是“抄作业”都没抄全 。 虽然看似给用户提供了一个免费福利 , 但对于真正有需求的人来说 , 却未必能够让他们满意 。
但是从另一个角度来说 , NVIDIA将显卡的这个“RTX视频超分辨率”功能做成如今这幅样子 , 却也可能还存在着一些现实的、合理的理由 。

索尼是最早基于“影视数据库”实现电视AIPQ的厂商 , 而这自然是因为他们自己有片源
一方面 , 正如手机厂商在设计“AI影像”算法时 , 首先需要先让摄影师拿着相机拍个几万张、几十万张照片 , 给手机里的“AI模型”充当训练教材一样 。 当电视厂商、电视芯片厂商在设计AI图像处理算法时 , 显然也需要有大量的影视资源来作为AI的“训练来源” , 通过让AI分析“高品质画面应该是什么样的” , 才能让它(算法)知道 , 应该把低清晰度、色彩不佳的视频 , 处理成何种程度为佳 。