基本上的步驟大概可以歸類如下:
1. 計算需要的解析度
2. 選擇相機感測器規格
3. 選擇廠商
???
就這三個步驟有甚麼難的?
計算需要的解析度:
首先要確認待檢測目標物所需要的光學解析度,
例如想要看到10微米大小的瑕疵,
如果選擇光學學系統解析度是10微米,那在相機的感測器上表現出來的就是1個點,
如果解析度是5微米,在相機上看到的就是2x2=4個點,
如果想要看到更清楚的輪廓,例如光學解析度到2.5微米,在相機上看到的就是4x4=16個點,
從10微米解析度到2.5微米解析度,在感測器上原本的1個點會變成16個點的表示,如下圖示:
左邊是圓形瑕疵,右邊是感測器訊號狀態
使用Powerpoint畫圓、畫方,計算方塊面積中圓的比例
計算亮度(灰階值)使用PP的自訂色彩(R51,G51,B51) > (R191,G191,B191)填入方格
其實RGB轉灰階Y有另外一個轉換公式,Y=0.299R+0.587G+0.114B,網路上有很多介紹。
|
當然可以繼續下去以獲得更高的解析度,
但是成本高,可成像檢查範圍小。
另外還有一個問題是以上的圖形是圓剛好放在Pixels的中間位置,
如果不是在中間位置,那又是另外一回事,
尤其是不對稱的情況下,如何檢出並判斷出正確尺寸?
還有當特徵邊緣的對比沒有到如上述的255:51的情況時,
狀況可能又不同了,
所以另外可能還需要使用"次像素分析"來找出特徵的真正邊緣。
除了感測元件的像素大小以外,
還有光波長的極限也會限制到最小的解析度,
基本上的可見光範圍,若使用短長藍光,400nm左右,
一般光學顯微鏡解解析度極限大概是波長的一半 0.2微米;
如果使用更短波長的非可見光(深紫外線),有機會看到更小,
或者是用其他的技術輔助(如近場光學、干涉、螢光...)等,一些介紹可以參考連結。
一般來說工業生產製造應用上不會去看次微米級的瑕疵,
通常選擇要辨識物體最小尺寸 1/3 算是比較常見的考量,
所以要辨識 10微米大小的瑕疵,可以設定光學解析度為 10/3=3.33微米,
當然也有人更冒險號稱可選擇 1/2 10/2 = 5 微米的光學解析度進行AOI。
更新:
最近有機會到一家台灣AOI大廠"面試",
問到瑕疵檢出跟所需要的光學解度Pixels關係,
他們採用了更保守的考量,4個 Pixels,
也就是 5微米的瑕疵會使用1.25微米光學解析度來作檢出,
3個Pixels是他們想要努力的目標。
選擇相機感測器規格
決定好光學解析度以後,再來要選擇所需要的感測器規格:
例如像液晶電視的表示方式1920x1080,或者用 2 MP (Million Pixels,百萬像素),
工業用相機從早期常見的30萬畫素(0.3MP),到現在有高達49MP的感測器,
當然價格也跟解析度的差距一樣。
所需要解析度選用考慮要從檢測物大小,
還有一次要看到的範圍 (FOV) 跟所需要的光學解析度開始;
例如被感測物大小為 4.8mm x 3.6mm,如果希望能夠在一個畫面中看到整個物件,
考慮定位誤差,需要看到的範圍大小設定為 6mmx4.8mm,等於容許+-0.6mm的定位誤差,
因此若選擇光學解析度為5微米,那需要感測器像素解析度(Pixel resolution) 為 6mm/0.005mm x 4.8mm/0.005mm = 1200x960,
如果光學解析度要求為3.33微米,那感測器解析度要求是1800x1440。
如果光學解析度要求為 2.5微米,那感測器解析度要求是2400x1920。
所以要找到解析度大於等於以上的解析度要求,例如2400x1920=4608000=4.61MP
但是光學解析度尺寸不等於是相機的解析度尺寸,
相機上的像素大小跟光學解析度的關係要再加上鏡頭倍率影響。
這時候需考慮感測器元件製造商生產的產品規格,
不是使用者想選多少就有多少,通常就是幾種尺寸可以選,
以面陣列最大廠商 Sony 的 Image sensor 為例,
解析度:
通常表示為 HxV,例如像液晶電視的表示方式1920x1080,或者用 2 MP (Million Pixels,百萬像素),
工業用相機從早期常見的30萬畫素(0.3MP),到現在有高達49MP的感測器,
當然價格也跟解析度的差距一樣。
所需要解析度選用考慮要從檢測物大小,
還有一次要看到的範圍 (FOV) 跟所需要的光學解析度開始;
例如被感測物大小為 4.8mm x 3.6mm,如果希望能夠在一個畫面中看到整個物件,
考慮定位誤差,需要看到的範圍大小設定為 6mmx4.8mm,等於容許+-0.6mm的定位誤差,
因此若選擇光學解析度為5微米,那需要感測器像素解析度(Pixel resolution) 為 6mm/0.005mm x 4.8mm/0.005mm = 1200x960,
如果光學解析度要求為3.33微米,那感測器解析度要求是1800x1440。
如果光學解析度要求為 2.5微米,那感測器解析度要求是2400x1920。
所以要找到解析度大於等於以上的解析度要求,例如2400x1920=4608000=4.61MP
像素尺寸(其實是像素中心距離):
以上是估算光學解析度轉換算相機像素解析度(數量),但是光學解析度尺寸不等於是相機的解析度尺寸,
相機上的像素大小跟光學解析度的關係要再加上鏡頭倍率影響。
這時候需考慮感測器元件製造商生產的產品規格,
不是使用者想選多少就有多少,通常就是幾種尺寸可以選,
以面陣列最大廠商 Sony 的 Image sensor 為例,
在區分給工業用途的 Global Shutter 相機中像素尺寸有 2.74, 3.45, 4.5, 5.86, 6.9, 9.0 um,
其他消費級、監控用、手機用的尺寸就更多,可以參考 Sony Semiconductor網站。
這些像素尺寸大小跟光學解度之間的差異就要靠鏡頭倍率來轉換;
2017/8/10查到網站資料最小的相機像素尺寸有 1um。
例如光學解析度要求為2.5um,像素尺寸為1um,鏡頭的倍率就是 1/2.5 = 0.4倍,
如果選擇像素尺寸為3.75um,鏡頭倍率為3.75/2.5=1.5倍。
以同樣設計、製程的感測器來說,
像素尺寸跟影像品質有關,基本上像素尺寸越大越好,但是價格就會越貴,
而且感測器整體尺寸也會變大,所需要的鏡頭也會更大,
這時候就整體光學系統就會變成越貴;
因此感測器像素尺寸的選擇就必須在功能、品質跟預算之間取得一個平衡,
這時候難度就來了。
尤其是相關解析度跟像素尺寸關係是完全沒有規則的,
完全看半導體元件廠商的產品策略,
所以有時想要的解析度跟尺寸搭配有是根本不存在的,必須選擇較大一級來確保成像範圍。
像素尺寸反映出來在規格上大概就是:
動態範圍(Dynamic Range),同一畫面中的亮暗對比,越高越好,
訊號雜訊比(SNR),背景雜訊佔訊號的比例,越低越好,
鏡頭連接規格也會跟像素尺寸有關:
C/CS Mount:
螺紋規格 1",32TPI,安裝平面到感測器距離17.526/12.526 mm,開口範圍就是1",所以有效可通過光線的口徑也受到限制。
圖片來源:Opto Engineering |
F-Mount:
Nikon單眼相機鏡頭的規格,開口範圍 44mm,安裝平面到感測器距離為46.5mm,
用F Mount相機有一個好處,除了工業用鏡頭以外,有一堆相容 F Mount的單眼相機鏡頭可以使用,
尺寸、焦段比C Mount鏡頭選擇性多很多,價格就看等級,事實上也真的有人這樣用在設備上。
圖片來源:Opto Engineering |
M42、M58、M72:
螺紋規格,螺紋節距都是0.75mm,安裝平面到感測器距離沒有規定。
通常感測器尺寸要計算對角線的長度,對應到鏡頭的有效最大成像圈(Image Circle)。
相機接口與感測器尺寸 |
電子快門模式:
Rolling(慢)/Global(快,適合動態影像)圖片來源:Teledyne Dalsa |
訊號解析度:
8、10、12、16 bit,一個畫素中的明暗分級,8 (0~255),10 (0~1023)、 12 (0~4095)、16(0~65535),
這個部分也會反映在相機輸出影像資料的 Dynamic Range。
圖片來原:FLIR |
其實跟資料傳輸頻寬有關,所以會跟畫素解析度和訊號解析度有關,也會關係到選用的輸出接口選擇,如下。
訊號輸出接口:
Camera Link HS (6000) > CoaXpress(781.25) > Camera Link (B255/M510/H680) > USB3.0 (300) > GiGE (100) > USB2.0 (60),(x)中的數字是每秒傳輸資料量 MB/s。其中USB跟GiGE可以使用電腦上既有的USB跟網路接口,不需要額外的影像擷取卡。
但是使用時電腦上的USB/網路埠供電必須要夠相機用,
否則就需要額外供電,或者使用市面上專門的卡,可以供電跟同時提供滿足連線的需求;
GiGE的好處是連線長度可以長達100M,電腦系統負擔也比較小,缺點就是速度較慢;
不過現在有推出新的GiGE規格,可以到 1GB/s。
Camera Link,圖片來源:Basler網站 |
CoaXpress,圖片來源:Optronis網站 |
USB 3.0,圖片來源:Basler網站 |
GiGE,圖片來源:Basler網站 |
很多相機都還有一個額外的接口可以做為電源供應、數位輸入輸出(啟動拍照跟閃光等控制用),接口的型式不一定,看相機設計考量。
量子轉換效率 Quantum Efficiency:
另外要注意的是適用的光波長,基本上有分彩色跟灰階相機,另外還有適合遠紅外線跟紫外線的相機。
通常彩色跟灰階相機都是使用一般的矽半導體元件,將光轉換成電子,
圖片來原:FLIR |
為了避免近紅外線影響電子訊號強度,彩色相機通常會加上IR cut filter。
圖片來源:Sony IMX253/IMX304 彩色感測器 |
圖片來源:Sony IMX253/IMX304 灰階感測器 |
紫外線跟遠紅外線相機量子轉換效率通常較低,所以必須使用多個像素強度來合成計算成光的訊號強度,所以通常解析度會低很多。
相機廠商選擇:
選擇相機廠商第一重要就是$$$,原因是當作完以上功課時,通常相機用的感測器規格就已經決定了,
相機剩下的部分就電路板、外殼,
這些部分的價差會因為相機廠商的不同設計而有不同的價格,
這時候就看口袋深度跟意願要用那一家相機廠商,
理論上越貴的用料應該會越好,運作上越穩,雜訊越少,越不容易熱當跟損壞。
在台灣,一般規格相機,Basler、Point Gray、Dalsa、Sentech、Sony...各有擁護者,
但是也有少數特殊規格跟設計廠商可以選。
但是選廠商有一個很重要的是所提供的SDK資源夠不夠,
免得到時候寫程式問題一大堆。
感謝您的分享,受益良多。
回覆刪除