当前位置:首页 > 问答 > 正文

相机CMOS天梯图揭秘:从像素竞赛到低光突破,传感器发展全路径解析

相机CMOS天梯图揭秘:从像素竞赛到低光突破,传感器发展全路径解析

📸 不知道你有没有发现,现在的手机发布会,厂商最爱吹的就是“1亿像素”“超大底”“夜视仪”……好像谁的像素高谁就赢了?但现实是,很多5000万像素的手机拍出来还不如iPhone 1200万像素的干净,这背后,其实是CMOS传感器的一场暗战,而像素,只是最表面的那层皮。

像素大战:从数字游戏到“够用就行”

还记得2019年小米首发1亿像素的时候,整个行业都炸了🤯,大家都在想:“手机拍照终于能比肩单反了?”结果呢?高像素带来的问题是——文件巨大、处理器算力跟不上、夜间画质崩盘。

后来大家才明白,像素不是越高越好,而是单位像素面积(比如1.4μm、2.0μm)和传感器尺寸(比如1/1.28英寸、1英寸)才是关键,索尼IMX989(小米12S Ultra那颗1英寸大底)为什么强?因为它让每个像素能吃到更多光,而不是靠“数字注水”。

相机CMOS天梯图揭秘:从像素竞赛到低光突破,传感器发展全路径解析

低光之战:谁才是真正的“夜视仪”?

说到夜拍,华为P20 Pro的IMX600算是第一个真正让手机在晚上能用的传感器🚀,RYYB阵列(红黄黄蓝)比传统RGGB多进40%的光,但代价是偏色问题……(Mate40 Pro的“祖传偏绿”至今还是梗)

后来三星GN2(小米11 Ultra)玩起了双原生ISO,白天用低ISO保细节,晚上切高ISO降噪,再到现在的OV50H(一加12同款),直接堆上了LOFIC技术(横向溢出积分电容),高光压制比索尼还狠……但代价呢?贵啊!

计算摄影:CMOS不够,算法来凑

现在的传感器发展有个怪现象——硬件进步越来越慢,厂商开始狂卷算法,比如谷歌Pixel的HDR+,靠AI多帧合成硬生生把IMX363(2016年的老传感器)调校成夜拍王者😅,苹果的Deep Fusion也是同理,拍一张照片瞬间合成9张……

但这也带来一个问题:过度计算,有些手机拍夜景,亮是亮了,但细节全被AI抹平,像油画一样……(说的就是你,某些国产中端机)

未来趋势:大底+AI,但……

现在CMOS的发展基本两条路:

  1. 继续做大底(1英寸已经是手机极限,再大镜头模组塞不下)
  2. 玩AI优化(比如高通骁龙8 Gen3的ISP直接集成AI降噪)

但我觉得,未来可能得看双层晶体管(索尼IMX9系列)和量子点传感器(理论上比传统CMOS吸光效率高3倍)……不过这些技术落地至少还得等3年,现在嘛,大家还是老老实实拼调校吧。

个人吐槽时间

说实话,现在的CMOS天梯图越来越像“军备竞赛”了……厂商动不动就说“首发XX传感器”,结果用户拿到手发现——白天还行,晚上照样糊成一片🌚,与其盲目追参数,不如学学苹果和谷歌,把老传感器优化到极致。(他们芯片强也是真的……)

最后放个暴论:2024年,1英寸大底手机不超过5款能调好,信不信?🤔

(完)