網頁

2020年11月23日 星期一

【AI HUB專欄】利用深度學習技術讓裂縫無所遁形

圖/文 歐尼克斯實境互動工作室 許哲豪 2020/11/12

在上一篇「看電腦視覺如何助力智能裂縫偵測技術發展」[1]中已初步對「裂縫偵測」中常見的「裂縫型態」、「裂縫標註方式」、「裂縫偵測算法及模型」及「裂縫公開資料集」等方面作了初步介紹。本文將針對其中「裂縫偵測算法及模型」的「深度學習模型」類偵測方法再作進一步說明,而以傳統「影像處理算法」的裂縫偵測技術就請參考上一篇文章 [1]介紹,這裡就不再贅述。

以深度學習模型作為「裂縫偵測」大致上可以分成偵測有無裂縫的「影像分類(Image Classification)」,找出裂縫所在位置邊界框的「物件偵測(Object Detection)」 及精準標示出屬於裂縫位置像素的「語義分割(Semantic Segmentation)」。不同的算法所需算力、偵測能力、適合裂縫類型及輸出應用各有不同,沒有唯一解法,以下就舉幾個例子來說明不同概念下的作法及其優缺點。

2020年11月9日 星期一

歐尼克斯實境互動工作室部落格及FB成立三週年

從2017/11/8成立至今已滿三年了,又是到了自我檢視的時候了。感謝過去一年間大家的支持,點閱率新增81,535次,共貼文45篇,其中包括AI Hub AI專欄14篇,10次受邀演講課程講義。貼文數量雖沒有很多,但每一篇花費在寫作的時間較以往來說多了五到十倍,主要是因為整理AI專欄素材。

今(2020)年5月2日,成立了台灣第一個專門討論小型AI應用、邊緣智能運算相關應用的Facebook社團「Edge AI Taiwan邊緣智能交流區」,短短六個多月已有1,154位同好加入且互動良好,實在非常感謝。為了維護這個社團及至少每日更新一則訊息,也花費不少時間收集資訊,間接也導致寫部落格時間減少,實在分身乏術,敬請見諒。

以下幾張貼圖就是過去一年的成果,感謝大家的點閱、按讚,讓我有繼續寫下去的動力,如果覺得部落格或FB社團中的內容還用得上,歡迎多多分享給需要的人,謝謝!

 

部落格總點閱數23,7598(2019/11/08 - 2020/11/08 )(點擊圖放大)


部落格點閱統計(2019/11/08 - 2020/11/08 )(點擊圖放大)


十大點擊率文章部落格總點閱數23,7598(2019/11/08 - 2020/11/08 )(點擊圖放大)


Facebook 社團 Edge AI Taiwan 邊緣智能交流區,成員數1,154。(2019/11/08 - 2020/11/08 )(點擊圖放大)

Edge AI Taiwan 邊緣智能交流區貼文數及活躍人數。(2020/5/2~2020/11/08)(點擊圖放大)


【AI HUB專欄】看電腦視覺如何助力智能裂縫偵測技術發展

圖/文 歐尼克斯實境互動工作室 許哲豪 2020/10/29

在先前文章「導入AI表面瑕疵異常偵測提升智慧製造品質」[1]中曾介紹表面瑕疵偵測的相關技術,其中包含點、線、面等類型瑕疵,這次就再把重點放到「線型瑕疵」中的「裂縫偵測(Crack Detection)」這個主題,繼續和大家做進一步分享。

在工業、機械、建築、電子領域中,當材料在加工或組裝過程受到不當外力(如夾持、撞擊、剪力、振動)時,狀況嚴重的可能會產生結構性損壞及外表破損問題,輕則外型仍保持良好,但表面已經產生肉眼可見的裂縫。如果是一般中、小型電子或機械零件產生裂縫尚可直接淘汰,但若是大型機械結構、建物、橋樑、牆壁、地面則需要進行適當補強,不然可能會造成人身安全疑慮。

常見裂縫偵測方式包括目視(或電腦視覺)、壓力或洩漏、紅外線熱感影像、超音波、渦電流、雷射掃描測距及其它各種非破壞性物理量測設備。本文將著重在一般可見光(彩色或灰階)影像裂縫分析方式,而其它物理量轉成的數位影像由於特性差異頗大,暫不列入討論範圍。

另外「刮痕」也是常見且類似較細的「裂縫」,而二者的差異在於前者通常為直線段、痕跡深度、顏色較淺,有時肉眼還需於特定角度反光下才能看到,這些多半是美觀問題,較無結構安全性問題。而真正的裂縫是指材料已遭到破壞,通常會在目視時產生明顯、顏色較深的內容,而其痕跡則較不規則,粗細也不一,經常會產生許多分叉。由於兩者偵測方式有滿大的差異,故本文僅討論「裂縫偵測」問題。

另外由於裂縫偵測常會伴隨不同材質產生不同的裂縫型態問題,加上不同的背景雜訊干擾,亦會影響相關算法及模型,故很難用一種算法或模型完全克服。為更清楚說明,以下分別就常見的「裂縫型態」、「裂縫標註方式」、「裂縫偵測算法及模型」及「裂縫公開資料集」等方面作進一步說明。