面对手机厂家计算摄影的“算法黑箱”|新旗舰发布后仍会不停有相机ota( 二 )


面对手机厂家计算摄影的“算法黑箱”|新旗舰发布后仍会不停有相机ota
文章图片
爱搞机靓仔:有时弱光拍木纹、布纹等不规则纹理 , 会发现每一张纹理都不太一样 , 是因为动用AI贴图填充/反推缺失细节?还是只是噪点太多 , 导致常见的算法处理出不同的纹理?
HawkWang:存在多种情况:
1、噪声较多 , 对纹理涂抹导致结果不完全一致
2、算法结果很多时候和输入信息高度相关 , 输入的轻微变换也会导致结果不同
3、确实也存在AI反推细节的能力 , 但是在AI反推生成纹理上各个厂家都还比较克制 , 毕竟太多的失真容易引发消费者反感
爱搞机靓仔:各家发布会说的画面语意识别会对不同部分抠图针对优化 , 一般支持多少个目标物识别和处理?
HawkWang:场景识别类别比较多 , 一般都10-30个类别 , 但是基于语义进行抠图优化 , 一般就比较少了 , 虽然算法能做的类别会比较多 , 但是真实有用的其实没必要太多 , 一般会针对人像、人脸、皮肤、天空、绿植这些进行特殊处理 , 更特殊的还有太阳 , 月亮 , 但是使用率会比较少 。
爱搞机靓仔:三星/LG都和算法供应商有多年合作 , 2015年的GalaxyS6和LGG4用的都是虹软的算法吧?同代硬件、同代算法 , 甚至是同一供应商的算法 , 为何拍照水平依然有明显优劣之分?
HawkWang:算法的效果取决于很多方面 , 比如硬件水平决定了能上什么样的算法配置、算法参数、算法输入都会有影响 , 是一个系统工程 。 即便是同一个供应商的算法 , 当给它不同质量的输入时(爱搞机靓仔:乐金手机的棺材板要压不住了) , 也会得到不同质量的输出 。
爱搞机靓仔:18年华为P20Pro、GoogleNightSight这些超级夜景算法 , 和之前的HDR+多帧短快门合成有什么本质分别吗?相关算法不是早就有吗?为何以前只能1/4秒且无法保证成片率 , 但现在又可以了?
HawkWang:超级夜景相比过去多帧合成 , 区别主要有2点:
1.把过去降噪以及HDR两类算法能力做了整合 ,
2.算法从过去的yuv域和RGB域往RAW域进行了转移 , 当时常规ISP完全不具备这些通路 , 需要厂家比较强的系统能力 , 而Google和华为当时确实更早在这方面下功夫了
爱搞机靓仔:华为在2020年Mate40Pro、小米在21年的11Ultra之后、vivo在21年的X70Pro+之后、OPPO在今年的FindX5Pro之后 , 高光压制都有明显的进步 , 且特征相似 。 是同一家供应商的算法?还是某个算法被业界攻克了?以前做不到是因为算力不够吗?
HawkWang:不完全是同一个供应商的算法 , 有三方供应商也有厂家自研的 , 是大家一起的努力 。 谈不上某个算法突然被业界攻克了 , 都是积少成多的改进 , 这些改进和算力的持续提升还是有不少的关系 , 毕竟速度和功耗也是非常重要的指标 , 当算力提升后 , 可以用更加复杂的算法来解决问题 。 镜头与高像素拍摄
面对手机厂家计算摄影的“算法黑箱”|新旗舰发布后仍会不停有相机ota
文章图片
爱搞机靓仔:现在的手机镜头的光学分辨率 , 能喂饱1亿甚至2亿像素CMOS吗?以前Lumia1020和早期的IMX586手机 , 高像素模式都是雾蒙蒙的 , 那是光学分辨率不够用?还是纯粹因为没算力做常规的处理?
HawkWang:目前部分旗舰手机的光学镜头的理论光学分辨率基本可以喂饱1亿像素的CMOS , 但是由于制造工艺等原因 , 实际上是很难喂饱的;因此光学分辨率不够用也是导致高像素模式雾蒙蒙的原因之一 。
爱搞机靓仔:现在Quad-Bayer传感器的高像素模式 , 能稳赢低像素模式下的“摇摇乐”效果吗?现在手机的高像素模式大都是低像素模式插值 , 是为了控制成片速度?还是说镜头光学素质本身就不够用 , Quad-Bayer的高像素模式提升太小?