当前位置: 手机中国论坛 > 苹果论坛 > iPhone 6S/6S Plus论坛 > 帖子正文

转:看到很多人在争论像素点大小对成像质量的影响,我这里简单的解释一下成像原理吧!

2015-09-24 10:21:24 1202 评论(0)
最近几天关于6s成像效果好坏讨论的贴真的太多了,而且很多人压根没有搞清楚屏幕分辨率像素和感光芯片像素这两个概念,经常听到很多人用屏幕分辨率来说像素点越多,像素越密集显示屏效果越好!其实这个跟数码相机感光芯片像素完全不是一个概念,所以我在这里简单解释一下数码相机成像原理跟感光芯片像素间的关系吧! 这里不讨论到底是6s照相好还是6好,仅仅是简单的讲述一个感光芯片的成像概念,其实数码相机成像远比我讲的复杂得很多,这里只是简单浅显原理!以免很多人犯最基本的概念错误

首先要了解数码相机是如何成像拍出照片的!!简单通俗的说就是:当物体反射过来的光通过镜头,经过快门开关控制,照射到相机的感光芯片,通过感光芯片把进来的光转换成电子信号,再由cpu处理后得到一张数码相片!所以感光芯片面积越大,当光线瞬间照到感光芯片上时,感光芯片所能够接收到的光越多,可供cpu转换的信号就越强,相应的照片效果就越好!
了解了这个原理之后,摄影最重要的是光,没有光什么也照不了!当镜头把光引进来的时候,感光芯片面积越大,那么它在单位时间内能够接收到得光照也就越多,光越多转换的信号越好!所谓单位时间,也就是快门数度,比如1/100秒,也就是百分一秒时间内通过镜头照到感光芯片上的光。
现在说感光芯片的像素,简单的说也就是感光芯片上的小格子,这跟屏幕倒是很像。 一个小格子就是一个像素点, 当感光芯片本身面积不变,假若它上面有800万像素时每一个小格子,也就是像素点面积越大,那么单位时间内每个像数因为面积大接收到的光就越多,这样可供转换信号越强,照片质量就好!
当他同样面积上面却有1200万像素时,就是同样大得面积上排列上了1200万个小格子,则每一个小格子的面积小了,每个小格子面积小了意味单位时间内每个像素能接收到得光也少了,光进来的少,所以每个像素收到的信号其实是减少了,信号减弱了cpu可以转换的效果也差了,这样反而使画质降低了!
那最好的升级像素的方法其实要增加感光芯片的体积,当感光芯片面积越大,上面的像素点多了,这样每个像素点不变小!才保证像素又高,像素画质也不会降低!
所以那用屏幕分辨率来说感光芯片像素的说法其实完全是错的,像素越高密度越大,每个像素的面积越小,那只会让感光芯每个像素点面积越小,面积越小单位时间内接收到得光越少那只会让转换的信号减弱,使得照片质量下降而已!而不会让相片清晰!最后出来的相片质量就不会好!
所以单反相机你自己拿下镜头可以看到高级的全幅相机感光芯片都是最大的,而低端的半幅相机,或者卡片机的感光芯片面积越小,成像效果也是这么排出来的! 所以你那个什么屏幕像素点密度越大,就越清楚的道理完全不是一个概念!

最后数码相机成像其实是个非常复杂的过程,有很多方面都会影响到最终照片的质量,镜头的好坏,感光芯片的工艺技术、材质,cpu的处理能力,软件的算法等等综合起来共同协作才能照出来好的照片,单单一个感光芯片或是像素大小多少,并不是照片好坏的必然原因!
所以请大家不要做无谓的争论了,也不要再犯一些低级的错误,说什么照片像素跟显示屏像素一个原理,像素越密集像素越大越清晰这种说法压根就不是一个概念的东西! 我这边顺便再简单说说好多人提出的疑问, 好多人说既然这样,干嘛不用分割直接一个像素多好!这个问题就要说到像素转化成数字信号了,当一个像素点感应到当光线,它会把这个结果转换成对应的唯一一个数字信号,例如白色用1代替,黑色用0代替,还原出来就是一个小色块,依次类推,那么一个照片是反射到每个像素点的光线根据这个感到的光线产生一个数字代替一个颜色,形成的小色块拼接起来,而形成一幅完整的画面,其实也就是你们把照片放到很大后看到的所谓的“马赛克”,但是若不分割那只有一个像素,一个像素只能转换一个颜色,那你的照片出来只会有一个颜色,哪怕这个颜色素质如何好,如何高,那它就是一个颜色的色块,是无法形成画面的!这个只是很浅显的来讲,其中过程其实非常复杂,讲得比较浅显,方便大家理解就好,高手就不要吹毛求疵了!

不吐不快,我来说两句... 登录 | 注册

发布
暂时没有回复

您需要注册登录后,才能回帖哦! 登录 | 注册