傳統上我們辨識車牌的主要技術就是OCR,理想狀況下,車牌清晰也沒有傾斜或斜視等角度偏差,我們就可以正確切割出所有車牌字元,縮放到字模的大小就可以去比對是甚麼字了!但是做為一個商業級車牌辨識產品的提供者,我們當然不能只會處理理想狀況!
真實世界中隨機拍攝的車牌,完美的車牌影像很少,使用者期待的其實是跟自己的眼睛判斷能力(智慧)差不多的軟體,所以才會稱之為「人工智慧」也就是Artficial Intelligence, 縮寫為AI嘛!所以不要繼續被誤導AI是一種特殊技術名詞了!AI應該是一種概念,就是用任何演算法做出可以模擬人類智慧的軟體。
就像我們的倉庫有鼠患,我們要解決的問題是:如何可以最有效率的消滅老鼠?養一隻貓是一種解決方案,也可以用捕鼠器或毒藥誘餌,甚至養一隻也很會抓老鼠的其他動物!所有方案的成效如何要看所有的環境條件,如果有人硬是說養貓是唯一辦法,不用這個方案就是笨蛋?是違法的?大家一定會以為他病了!
但是現在的AI就已經被炒作成這麼愚蠢的狀態了!事實上包括影像辨識在內,大家說的AI都只是解決實際問題的方式,方法本來就有千百種,真正需要也實用ML、DL與CNN等技術的只是少數,試問:冷氣機自動控溫的AI,按摩椅自動調整力度的AI與ML有何關係?不過就是偵測溫壓做合理的反應而已。
又如導航系統能自動幫你規畫最佳路線,夠AI了吧?但那是機器「學習」出來的結果嗎?其實只是嘗試多種可能路線加以計分選擇而已,有點像機器學習,但即使沒有機器學習之前每個工程師科學家就已經會這麼做了!一定要讓機器學習掠美霸佔這些基本傳統科學方法的光環嗎?以前是叫做經驗公式或最佳化運算的!完全不必學機器學習的課就會的。
在影像辨識領域也大致如此,我不擔心ML、DL與CNN是否有成就,我擔心的是大家因噎廢食,誤以為這些「AI」技術已經證明比傳統的影像辨識好?可以拋棄舊方法,完全擁抱這些「AI」就天下太平了?事實上是兩種技術有基本上的差異,ML、DL與CNN是永遠無法取代OCR傳統技術的!即使你愛死了機器學習,也應該知道他們只能處理一部份的問題,效率還不見得比較高。
另一方面,我也不是說只要「復古」就可以了!重點是之前使用的OCR技術確實有很多缺點,很多問題難以解決,所以我們必須在舊有基礎上繼續研發精進,我在車牌辨識產品上獲得成功的關鍵就在這裡了!如上圖車牌的E字,以OCR技術來看是完全與背景沾連,無法被切割辨識的!
我們當然不能只回答辨識結果是:U-5789!因為我們自己都知道這個答案鐵定是錯的!台灣根本沒有這種格式的車牌!就像四選一的選擇題,你選擇答案5一樣,那是自殺!但是你得到的資訊已經不少了,如下圖你大概知道了車牌的上下邊界只是左右邊可能有疑慮而已,因為「好像」少了一個字?那就外插補上嘛!
硬挖出來的字其實也算不準要切到哪裡?所以在這個已經幾何校正,也把可能遺失的E字元納入的車牌子影像中,我們終於可以奢侈的使用CNN技術逐步掃描了!多餘的暗黑區當然沒有掃描反映,到了E的位置時就大有反應了!所以即使OCR無法切割正確獨立的E字元,加上額外的幾何技術還是可以辨識的!
所以我只是將OCR既有的幾何校正技術變得更聰明更廣用了而已!之前大概只有旋轉、縮放與平移三種處理,我讓他進化到可以處理任意變形,還可以內外差取得可能的遺失字元區塊了!有趣的是:我之前老是說CNN的掃描特徵概念沒效率,此地卻用上了同樣方法找出那個E字?道理很簡單,在全圖範圍用CNN找東西猶如在台灣海峽用聲納搜索找一艘沉沒的小漁船,工程太大效益太低;如果是在高雄港內找沈船呢?那就是很簡單的小事了!範圍小成本很低的。
還好我現在只是個商人,我的新發明要獲得肯定與效益,直接封裝產品拿出去賣就好了!今年的發明,今年就開始賺錢了!如果我是教授的話,這幾篇論文要獲得學界廣泛重視?最終頒個甚麼成就獎給我呢?那要等個十年八年的!我都必須坐輪椅領獎了!還好不必再等待學術界的關愛眼神了!
限會員,要發表迴響,請先登入