通常来说,相机内部的CCD或者CMOS传感器上都有感光阵列,由一个一个的感光元件构成,每一个感光元件负责完成光电转换的过程。简单理解,一个感光元件可以认为就是一个像素(pixel)或像元(pel)。像元具有一定尺寸,如果像的尺寸大于像元的尺寸,那么一个像元就无法表示整个像,因此一个像元的尺寸和物镜的放大倍数,决定了对物体的分辨能力。例如一个 1 u m 1um 1um长度的物体,经物镜放大10倍以后,其像的长度为 10 u m 10um 10um,如果像元尺寸是 5 u m 5um 5um,那么需要2个像元才能完整表示整个像,因此一个像元表示 0.5 u m 0.5um 0.5um的物体。如果像元尺寸足够小,例如 1 u m 1um 1um,那么需要10个像元才能完整表示整个像,因此一个像元表示 0.1 u m 0.1um 0.1um的物体。可以看出,像元尺寸越小,其所能表示的物体尺寸越小,即像元越小,其对物体的分辨能力越高或者说获取物体的细节就越多。
像元尺寸也并非越小越好,从上面的结论可以看出,更小尺寸的像元需要更多数量的像元才能表示一个完整的像。这意味着对于同一个物体,同一像元尺寸的相机,物镜放大倍数增加,那么完整表示一个像所需要的像元数量也会相应的增加,而传感器上的像元数量是有限的,因此像元的尺寸实际从侧面限制了物镜的放大倍数。换句话说,在相机选型的时候就必须保证像元的尺寸至少能匹配物镜的放大倍数。
根据瑞利判别准则,显微物镜的光学分辨率仅与光波长及物镜的数值孔径有关(详见 https://blog.nas-kk.top/?p=112 ),因此物镜放大倍数与分辨率没有关系。换言之对于NA1.0的物镜,放大倍数是100x,还是60x对分辨率没有任何影响。但是放大倍数越小,视场角越大,这就意味着可以观测更大的区域(详见 https://blog.nas-kk.top/?p=129 )。
像元进行光电转换的过程实际是对连续光信号的离散采样过程,那么其采样过程大致如下图所示,该图假设发生衍射的光源之间的距离足够远,且只选取了艾里斑和第一暗环。
根据上面的图示可以很容易理解像元离散采样的过程,如果想要根据离散的信号恢复出连续信号,则必须满足奈奎斯特采样定理,因此必须采用至少两个像元去采集像的信息。同时,瑞利判别准则也指出如果要辨别两个光源的像,那么这两个光源的间距至少满足
0.61
λ
/
N
A
0.61\lambda/NA
0.61λ/NA ,那么相机与物镜之间则必须满足:
P
i
x
e
l
s
i
z
e
=
(
0.61
λ
N
A
×
M
)
/
2
Pixel_{size} = (\frac{0.61\lambda}{NA} \times M)/2
Pixelsize=(NA0.61λ×M)/2
其中,
λ
\lambda
λ 表示光波长,
N
A
NA
NA 表示物镜的数值孔径,
M
M
M 表示物镜的放大倍数,
P
i
x
e
l
s
i
z
e
Pixel_{size}
Pixelsize 表示像元大小。当像元尺寸满足要求时,只要
D
i
m
a
g
e
>
(
0.61
λ
/
N
A
)
×
M
D_{image} > (0.61\lambda/NA) \times M
Dimage>(0.61λ/NA)×M 即可保证能够正确还原信号。
相机的分辨率主要与感光阵列中的垂直和水平方向上的像元个数有关,而相机输出的图像大小(或者图像分辨率)则与相机分辨率、相机工作的模式、采集卡、ROI设置、Offset设置、像素插值等多个因素有关。例如一个感光阵列水平方向有1000个像元,垂直方向有1000个像元,那么相机的分辨则是 1000 × 1000 1000 \times 1000 1000×1000,那么在这种配置下,如果相机工作在TDI线阵方式,那么理论上其输出的图像在扫描方向上可以无限大;如果相机工作在面阵方式,通过像素插值,其输出的图像大小则可能可以达到 3000 × 3000 3000 \times 3000 3000×3000,随着面阵图像大小的增大,其等价于像元个数增多;对于固定尺寸的传感器(像元大小和像元个数共同决定了传感器的尺寸),这类似于像元尺寸缩小,但是与像元尺寸缩小有本质的区别,图像质量也较差。