就是拿一個大小熟悉的物體放在旁邊作比對,
例如人(對比恐龍)、打火機等。
圖片來源 : wikimedia |
在光學顯微鏡上,可以使用標準片來作比較,
圖片來源 : 淘寶網 |
或者是在目鏡上作刻度加上倍率調整指示作換算。
但是在AOI在談到鏡頭放大倍率時,
經常會有使用者誤解成是在螢幕上看到倍率,
形成同樣是“放大倍率”一個名詞卻雞同鴨講的狀況。
AOI系統的放大倍率可以分成兩種情況來解釋:
相機感測器透過鏡頭看到的放大倍率 : M.camera
人從螢幕上看到的放大倍率 : M.eye
M.camera
這個部分是我之前在鏡頭的分享文中提到的鏡頭倍率,
例如相機感測器尺寸是16*12mm*mm,
鏡頭倍率(M.camera)是2倍,
那物品的尺寸透過鏡頭會被放大兩倍,
原來是1 mm長度在相機感測器上會變成 2mm,
FOV是8*6 mm*mm。
如果相機感測器的像素間距是5um,
感測器上會佔據約400個像素,
如果像素間距是2um,
那相機感測器上會用1000個像素來表示。
M.eye
人看到的畫面其實是相機感測器傳送到螢幕所顯示出來的畫面,
所以如果是尺寸15.6“(對角線)的的螢幕,
FHD解析度1920*1080,
畫素間距約180 um。
所以若將相機感測器上的 1 個像素對應到螢幕上的 1 個畫素來表示,
1000個畫素在螢幕上是180 mm長,
對比原始長度 1 mm,
人眼從螢幕畫面上看到的放大倍率 M.eye 是180倍。
所以人從螢幕上看到的“放大倍率”,
會有鏡頭倍率、感測器尺寸、感測器像素尺寸、螢幕尺寸、顯示軟體放大比例等至少五個因素的影響。
除了放大倍率以外,
實務上影像從相機感測器到螢幕,
還經過好幾次影像或訊號處理,
第一階段是相機電路,包括光轉電訊號放大等,
第二階段是影像擷取元件,從相機到電腦記憶體
第三階段是作業系統,
第四階段是顯示用的軟體,
三跟四階段若無資料壓縮就幾乎沒有影響,
第五階段是顯示卡,
第六階段是螢幕的訊號處理晶片,
第七階段是LCD上的控制晶片,
第八階段是光從背光板的光源(演色性)發出經過偏光板、彩色濾光片、偏光板到人眼,
以及其它還有所有線材與線路上的干擾。
所以AOI系統擷取影像,
從影像感測器被記錄、傳輸到螢幕顯示給人眼看到,
已經被處理、干擾過很多次,
看到的跟實際上的一定會有差異,
這也是傳統OM一直有其存在的價值,
畢竟人眼透過光學鏡頭看到的,
和使用影像感測器經過多次訊號傳遞與處理在螢幕上看到的不同。
不過由於感測器具有擷取可見光與非可見光轉換到電訊號顯示的能力,
在應用上若能降低過程中處理失真、干擾等因素,
影像感測能力基本上超過人眼處理的能力是毋庸置疑的,
加上尺寸的精確計算、光強度分級能力,更是人所不及。
沒有留言:
張貼留言