- 回首頁
- 機械工業雜誌
機械工業雜誌
購物提醒:當您要離開或跳轉頁面時,請先將您想要購買的文章加入購物車,以便快速紀錄完成購買流程!
應用SAM與轉移學習的U-Net模型於刀具磨耗之研究
作者
蔡孟勳、林祐生、簡嘉宏
刊登日期:2025/10/29
摘要
本文提出一套創新的刀具磨耗檢測系統,結合 U-Net 語義分割與 Segment Anything Model(SAM),可自動辨識刀具磨耗位置。傳統深度學習方法仰賴大量人工標註,耗時且費力。為此,本文利用 SAM 模型自動產生遮罩,並與預訓練模型輸出比對,選取重疊度(IoU)最高的遮罩作為偽標註,實現無需人工介入的資料擴充流程。檢測系統採用影像疊圖展開技術,將端銑刀轉為全景影像,透過 U-Net 精準分割刀刃區域,並應用轉移學習以提升模型對新樣式刀具的辨識能力。實驗結果顯示,該方法在新刀具上的mIoU提升超過 35%,同時保留原有刀具的辨識效果,證明其具備應用於智慧製造之潛力。
Abstract
This study proposes an innovative tool wear detection system. It integrates U-Net semantic segmentation with the Segment Anything Model (SAM) to automatically identify wear on cutting tools. Traditional deep learning approaches rely heavily on manual data annotation, which is time-consuming and labor-intensive. To address this issue, the proposed method utilizes SAM to automatically generate segmentation masks and compares them with the output of a pre-trained model. The mask with the highest Intersection over Union (IoU) is selected as a pseudo-label, enabling dataset expansion without manual intervention. The system adopts an image stitching technique to transform end mills into panoramic images, which are then processed by U-Net for accurate cutting edge segmentation. Transfer learning is applied to enhance the model 's performance on new tool types. Experimental results show that the proposed approach improves mIoU by over 35% on unseen tools. It also maintains high accuracy on known tool types, demonstrating its potential for practical applications in smart manufacturing.
前言
在當前的工業自動化與智慧製造領域中,精準辨別各類型刀具磨耗程度對提升生產效率與保障設備安全具有關鍵意義。許多製造商在加工場域中所使用的刀具種類繁多,而如何有效辨識不同樣式的刀具,成為一項具挑戰性的任務。傳統機器視覺與分類方法往往在面對未見過的新型刀具時,因其外形、紋理與顏色與既有訓練數據差異甚大,導致辨識準確率不足。因此,開發一種能靈活適應各式新型刀具特徵的辨識系統,對實現高彈性與高可靠度的智慧製造環境至關重要。近年來,深度學習技術在影像處理與物體辨識領域取得長足進展,透過大量標註資料進行模型訓練,已能在特定範圍內達到穩定且準確的辨識效果。
針對刀具檢測的需求,本文提出一種方法,藉由影像展開技術將端銑刀的複數螺旋刃攤平成單一影像,以利後續分析與處理。然而,實際加工環境中刀具常伴隨油污、切屑等干擾,增加機器視覺演算法辨識刀刃磨耗的困難度。為此,本文引入語意分割(Image Segmentation)模型,如U-Net[1]與SegFormer[2],作為刀刃區域的初步定位工具,顯著降低後續特徵分析的複雜度。首先手動標註10把端銑刀具的刀刃位置,訓練U-Net模型以辨識刀刃區域,進而輔助磨耗偵測。然而,即使僅限於端銑刀,樣式的多樣性仍十分顯著。每新增一種刀具樣式,往往都需額外重新標註大量樣本才能維持辨識準確率,導致資料建構與模型調整需耗費大量人力與時間成本。此外,人工標註影像資料本身即為一項高成本的工作,因此如果希望加入新的刀具,需要一種能快速生成高品質標註資料的方法。
為解決此問題,本文進一步導入由Meta開發的Segmentation Anything Model(SAM)[3],一種具高度通用性的影像分割模型。SAM具備可自動識別圖像中任意物體的能力,並支援點選、框選、文字等多種互動提示方式進行分割。透過將SAM應用於刀具影像中,搭配所開發之演算法,可生成準確的刀刃遮罩,進行偽標註資料的建立。這種自動化產生訓練資料的方式,不僅節省大量人力標註成本,亦能透過轉移學習提升模型對新型刀具的適應能力,最終實現高效率且具擴展性的刀具磨耗檢測系統。
更完整的內容歡迎訂購
2025年11月號
(單篇費用:參考材化所定價)