手机拍照的短板其实是色彩
手机拍照的短板其实是色彩
现在的手机像素动辄就是一个亿了
再用谷歌相机的算法进行像素四合一,多幅合成,hdr,最后细节其实是不错的。
但是手机的色深一直是8比特色深
而相机却是14比特色深
色深越高,记录的色彩越多,色相过渡之间的断层越少,色彩饱和度,明度越越饱满,过渡也平滑,圆润。
手机的像素点小,密度大,镜头又小,无法真实记录现实中的一个点的明度和色彩,而马赛克传感器还要根据这个点插值其邻近区域的明度和色彩,于是造成图像明度和色彩上的混乱,造成很多错误像素,最后又通过算法一抹了之,只留下那些鲜明的像素,其他都被猜测涂抹掉。被猜测涂抹掉的像素很多,就会有放大后细节缺失,块状。
如果说,这些涂抹在形状细节上还能通过算法补救,让人不易察觉,但在色彩上就不好办了,毕竟色彩特别敏感,你在白色中间猜测出来一块黑色,就太扎眼了。不过,也许以后会有更高等的猜测色彩问题的算法来补救,不过现在好像还没有。
这就造成了,手机图片上的细节和色彩插值出来的很多,因为不明确某个点到底是什么色深彩,只能根据邻近的算个平均值,本来是高光的也变成中间调,本来是高饱和的点也被平均掉。而本来是黑的却被平均成了灰的,白的也被平均成了灰的。于是手机的图片在色彩和明度上都发灰。
发灰的照片是不讨人喜欢的,于是就会提高饱和度和对比度,提饱和和提对比,就会又增加明度和色彩上的断层。
这些就造成了即使用14比特的色深,也效果不大,还能造成拍照速度太慢,影响拍照体验。
造成手机的照片比相机在色彩上
不够鲜艳,不油润,发干,不真实。
内容来自网友分享,若违规或者侵犯您的权益,请联系我们
所有跟帖: ( 主贴楼主有权删除不文明回复,拉黑不受欢迎的用户 )
楼主前期社区热帖:
>>>>查看更多楼主社区动态...