中興大學電資學院未來科技獎 光達技術整合&AOI智慧光學檢測影像元件偵測

稿源:中興大學研發處

「夥計,我們走。」1982年開始火紅的美國電視劇《霹靂遊俠》,「夥計」,是一台會對話、能溝通,還會思考判斷的智慧車,陪著男主角一起打擊犯罪。它是五、六年級生的共同回憶,也是一整個世代的「汽車科技夢」。以前的想像,來到2021年的今天,「自駕車」已逐步成真,但高昂的造價與售價,現階段很難「親民」。不過在可預見的未來,「自駕車普及化」很快就能實現,關鍵在於「科技的突破」與「成本降低」。2020年,有條件自動化(Level3)的自動駕駛逐漸普及,根據國際汽車工程師協會(SAE)預估,2030年歐盟的新車將達到20%具備「有條件自動化(L3)」以上等級的自駕功能,「完全自動」(L5)也可望站上銷售市場。

各國大廠致力於自駕車邁入Level 4自駕,其中最關鍵的環境感測技術之一就是「光達」,它必需同時能偵測「中遠距離之物體」與「辨識物體輪廓與速度」。但目前機械式光達,置於車頂旋轉方式進行,除了不符合汽車工藝美學,也存在防塵、防水性與電性系統架設不易的困擾。針對這個問題,台灣的中興大學電資學院團隊,研發「嵌入式光學雷達與AI辨識之智慧車燈於自動駕駛」,以固態嵌入式1550nm波長光達,結合AI辨識之智慧車燈,自駕車根據點雲圖與影像融合數據,提供「環境辨識」、「距離與速度」並快速反饋給智慧車燈控制系統,可以在不同路況下切換最適合車燈光型,符合安全駕駛的需求。這項技術,最大的突破點在於,目前技術相對成熟、波長905- nm對的光達系統光源,對人眼有傷害疑慮,但1550- nm長波長的光源,功率高、降低背景雜訊、增加感測距離與精確率。

自駕車中,光達感測與車燈控制更是關鍵。中興電資團隊以固態光達方式嵌入車燈,同時配合「自我調整遠光系統」(ADB),以團隊獨特開發的核心單晶螢光體(single crystal phosphor)與藍光雷射,提供高亮度光源,搭配數位微鏡組元件,可以快速變換「自駕車車燈照明光型」(遠近燈型切換、避開高反光區、補強弱光區、照明警示、預告行車方向與地面投影雙向溝通等功能)、適應不同駕駛路況(包括彎道超車)與地面投影行人車雙向溝通,同時符合車燈安規與標準(ECER112 and SAE J3069),達成自動安全駕駛需求。這項技術,目前已與國內車燈大廠進行合作測試,國外的智慧車燈競爭者,也尚未出現相關應用及技術,對於台灣車燈產業的國際競爭力,站穩Tier1供應商位置,更是如虎添翼。

   計劃主持人鄭木海教授指出,傳統車用的機械性光達,體積大、造價動輒高達七萬美元,未來,輕薄短小是趨勢,降到一千美元的造價是努力目標。中興電資學院團隊「嵌入式1550 nm 波長之光達與AI 辨識系統」這項技術,在測距精度、時間同步大幅領先中國光達技術,成本造價上卻有同樣的競爭力。以ADB智慧車燈500億台幣產值的預估,前景可期。而技術上的突破,也榮獲了2021年科技部未來科技獎殊榮。團隊也希望,透過創新及突破性的科技,協助台灣傳統車燈業者及本土企業,制定智慧車燈產業策略、專利佈局與相關配套,垂直整合上下游車燈供應鏈,推廣至終端車廠客戶,促進產業升級,提升我國在自駕車市場的參與能力及影響力。

    能達成「嵌入式1550 -nm 波長之光達與AI 辨識系統」這項技術,則是植基於中興電機系教授、玉山學者杜武青及計劃團隊成員施天從、劉浚年教授,在「1550-nm固態式光學雷達晶片開發」的技術,其中的關鍵是團隊整合了「OPA(optical phased array)」技術、「1550-nm重直腔面發射雷射VCSEL(vertical-cavity surface-emitting laser)」,組成「微型固態光達」,偵測距離可達100公尺,同時也是目前光達系統掃描速率最高的技術(30° x 2.5°,掃描速度1kHz ),並且應用在第四代光達,不但取得了科技部價創計劃,也獲得2021年科技部未來科技獎。杜武青教授更進一步說明,這項技術不僅應用在自駕車光達系統的整合,也能充份應在手機「擴增實境」功能,未來甚至可以結合在智慧眼鏡,讓人類生活更便利。

 同樣在這次科技部「2021未來科技獎」中獲得殊榮,還有中興電資學院黃春融老師的「見微知著:基於極少樣本學習之人工智慧光學檢測影像元件偵測」。這項技術希望解決「自動光學檢測」在「深度學習」的過程中,需要大量資料及人工標定,不符合成本考量及速度的問題。「TIME IS MONEY」,目前產業使用的深度學習模型需要大量的訓練資料以達成目標的準確率,此外深度學習模型的硬體規格需求高,因為深度學習的AI模型,需要長時間訓練而且運算複雜度高,所以需要依賴昂貴的圖形處理器GPU設備,來支援龐大的計算量與加速模型訓練,一般中小企業根本無力負擔。團隊透過所開發的少樣本自我學習方法,解決「大量影像資料準確定位標記元件」之問題。黃春融教授解釋,它同時也解決了科技業製程在AI專案開發的「深度學習」過程中,耗去八成的資料前後期處理、訓練資料標示,需要大量人力成本的問題。

    黃春融教授及其團隊,跳脫傳統深度學習的檢測模式,全新的人工智慧演算法,以影像為基礎,透過「少樣本自我學習方法」,就能針對不同標記元件進行標示作業,使用者只需要拖曳游標匡選標記元件位置就可以完成標示,甚至可以針對多邊型的特殊元件進行作業。相較於傳統要近千張的影像訓練樣本,新技術只需要少於十張的樣本,就能達到傳統自動光學檢測技術相同、甚至更高的效能。更重要的是,一般的電腦CPU設備就能負荷,大大提高產業升級、提高自動光學檢查AOI (Auto-Optical Inspection)檢測效率及精準度,增加AI人工智慧模型學習效率。黃教授用通俗易懂的說法解釋,一台普通的電腦,在少於傳統五倍以上的人力及時間的情況下,就可以做到精準把關、加速不良產品淘汰,並及時發現生產製程中的問題。

這項技術,目前已經完成國內科技大廠生產線產品檢測驗證,進而可協助增加良率及QC產品控管的精準度,團隊也期待,能逐步推廣到國內科技、傳產等有自動光學檢查AOI需求的產線,讓台灣的產業加值,因應快速變化的競爭市場。

Comments are closed.
彙整