自从1839年法国人发明了世界上第一台现代意义上的光学照相机后,就有人把眼睛和相机相比,因为照相机有镜头、光圈、暗箱、底片等,人眼的结构也同样如此:角膜和晶状体相当于镜头,瞳孔相当于光圈,脉络膜相当于暗箱,视网膜相当于底片。
以现在的资料来看,如果将人眼比作一台数码相机,它的基本参数是这样的:熟悉眼睛结构解剖的人通过上表可以看出来,之所以称人眼的像素是“彩色约700万、黑白约13000万”,是因为视网膜上有约700万个可独立感受色彩光线的视锥细胞,每一个视锥细胞接到一条视神经上;视网膜上还有约13000万个可在黑暗环境中感光的视杆细胞,约几十个甚至上百个视杆细胞共同连接到同一条视神经上,故称其有效黑白像素约300~600万。13000万黑白像素算是“插值”。
700万左右像素数码相机的照片什么样儿大家都有概念,而标称700万像素的人眼数码相机的单幅图像呢?通常我们所说的人眼的视力,是指在明亮环境下注视点的视力,也叫中心视力。注视点对应人眼的黄斑,是人眼视觉细胞最密集的地方,因此也是视力最好的地方。有资料显示,偏离中心2度,视力下降50%,偏离中心10度,下降90%。因而有人说,依视锥细胞的数量就简单地把人眼比成700万像素的数码相机其实相当不准确,因为人眼感光器件的密度是严重不均匀的,整个视野中不同区域参与成像的权重也有巨大差距。真正分辨率高的清晰成像是在黄斑区内,这一点非常容易验证。在黄斑的中央凹处,每平方毫米约有15万个视锥细胞。可以说除了黄斑区,其他部位的成像都很模糊。故上面表格关于人眼数码相机的参数中,传感器尺寸指的是“视锥细胞密集区” ——黄斑的面积。
人眼在对不同距离的物体成像过程中,并不像照相机镜头那样调焦,而是通过睫状肌压缩晶状体使其屈光发生变化而得以实现。因而在观察无限远物和近物时,人眼“光学系统”的焦距长短有不同,所以不能说人眼是定焦的。实际上眼睛在看东西时,如果想看得远,就会自主地调节屈光,即松弛睫状肌,使悬韧带保持一定紧张度,牵引晶状体,使其变扁平,从而将“对焦点”移向远处。按照上述“中心视力”的解释,这一过程也等同于相机镜头的变焦。人的眼球在眼眶内反复转动,持续接受外界的光信号,并随时“更新”大脑内的图像细节。人的两只眼睛这样持续地抓取着周围的景象,尽可能获取较大的可视区域,然后把这些区域在大脑中拼合起来,就像拼接照片一样,获得全景图,增大图像的分辨率,这可以算是“多次成像”的结果。眼球和大脑的有机结合,使人眼的分辨率不仅仅由视网膜上的光感受器决定。
于是有人提出下面这样的算法,来计算人眼成像的最大分辨率:在光线足够的情况下,只要两个细线分开的距离不少于0.6弧度(0.01度),人的眼睛就可以把它们分辨出来。也就是说人眼成像的最大分辨率是0.3弧度。这样以人单眼的可视范围为120度计算,分辨率就可达到57600万。