• 正文
    • 主要貢獻
    • 模型結(jié)構
    • 實驗
    • 實驗結(jié)果
    • 結(jié)論
  • 推薦器件
  • 相關推薦
申請入駐 產(chǎn)業(yè)圖譜

VCP-CLIP:一種用于零樣本異常分割的視覺上下文提示模型

2024/07/31
5974
加入交流群
掃碼加入
獲取工程師必備禮包
參與熱點資訊討論

論文 VCP-CLIP: A visual context prompting model for zero-shot anomaly segmentation 提出了一種基于視覺上下文提示(VCP)的CLIP模型(VCP-CLIP),用于解決零樣本異常分割(ZSAS)問題。

現(xiàn)有基于CLIP的方法與VCP-CLIP的對比。VCP-CLIP引入了Pre-VCP模塊和Post-VCP模塊,相較于現(xiàn)有基于CLIP的方法提供了顯著的增強。(a) 現(xiàn)有基于CLIP的方法。(b) VCP-CLIP。

不同文本提示方法的比較。(a) 任務設置。(b) 手動定義的文本提示。(c) 設計的統(tǒng)一文本提示。(d) 設計的預視覺上下文提示。

主要貢獻

提出VCP-CLIP模型:該模型通過視覺上下文提示來激活CLIP的異常語義感知能力,能夠在有限的已知產(chǎn)品集上訓練后,定位任何未知產(chǎn)品中的異常,即使產(chǎn)品類別未知。與現(xiàn)有的文本提示方法相比,VCP-CLIP利用視覺上下文提示來充分激活CLIP的異常語義感知能力。

引入視覺上下文信息:首次揭示了視覺上下文為ZSAS任務中的文本提示提供了額外信息。具體來說,設計了Pre-VCP和Post-VCP模塊,分別利用全局和細粒度的圖像特征來優(yōu)化文本空間。

實驗驗證:在十個真實工業(yè)異常分割數(shù)據(jù)集上進行了廣泛的實驗,展示了VCP-CLIP在ZSAS任務中的最先進性能。

VCP-CLIP的框架。我們的方法通過使用Pre-VCP模塊和Post-VCP模塊,將更豐富的視覺知識融入文本空間,并實現(xiàn)文本特征和視覺特征之間的跨模態(tài)交互。

模型結(jié)構

Pre-VCP模塊:通過引入全局圖像特征來優(yōu)化文本空間,使用深度文本提示(DTP)技術來細化文本空間,從而減少提示設計的成本。與基線模型相比,Pre-VCP模塊使得從統(tǒng)一提示過渡到圖像特定提示,顯著降低了提示設計的成本。

Post-VCP模塊:基于細粒度的視覺特征調(diào)整輸出文本嵌入,增強不同模態(tài)特征的相互理解,進一步提升模型對新產(chǎn)品的泛化能力。Post-VCP模塊通過調(diào)整輸出文本嵌入來增強CLIP準確分割異常區(qū)域的能力。

實驗

實驗設置

數(shù)據(jù)集和評估指標:使用了包括MVTec-AD、VisA、BSD、GC、KSDD2、MSD、Road、RSDD、BTech、DAGM在內(nèi)的十個工業(yè)異常分割數(shù)據(jù)集。由于VisA中的產(chǎn)品與其他數(shù)據(jù)集不重疊,使用VisA作為訓練數(shù)據(jù)集來評估其他數(shù)據(jù)集的性能。對于VisA本身,在MVTec-AD上訓練后進行評估。評估指標包括像素級AUROC(接收者操作特征曲線下面積)、PRO(每區(qū)域重疊)和AP(平均精度)。

實現(xiàn)細節(jié):默認采用OpenAI預訓練的CLIP模型(ViT-L-14-336),圖像分辨率調(diào)整為518×518,使用Adam優(yōu)化器,初始學習率為4e-5,訓練10個epoch,批量大小為32。圖像編碼器包含24個transformer層,從第6、12、18和24層提取圖像特征。可學習類別向量的長度r和每個文本編碼器層中可學習文本嵌入的長度n分別設置為2和1。Post-VCP模塊中的注意力頭數(shù)M設置為8。不同異常圖的融合權重α默認設置為0.75。

實驗結(jié)果

與現(xiàn)有方法的對比:VCP-CLIP在所有評估指標上均優(yōu)于其他方法,特別是在AP指標上表現(xiàn)突出。與訓練自由的方法(如WinCLIP、AnVoL、SAA/SAA+)和需要訓練的方法(如APRIL-GAN、CLIP-AD、AnomalyCLIP、AnomalyGPT)相比,VCP-CLIP展示了更好的性能。

與現(xiàn)有最先進方法的比較。(a, b, c) 分別表示像素級AUROC(%)、PRO(%)和AP(%)。用 ? 標記的方法是無需訓練的,而其他方法則需要訓練。

定性分割結(jié)果。前五列使用的是來自MVTec-AD數(shù)據(jù)集的圖像,最后五列使用的是來自VisA數(shù)據(jù)集的圖像。

消融實驗

去除Pre-VCP和Post-VCP的影響:去除Post-VCP對性能的影響更大,說明Post-VCP在細粒度視覺特征的文本嵌入調(diào)整中起到了關鍵作用。

不同圖像編碼器層的特征影響:中間層(第12和18層)的圖像特征對最終分割結(jié)果貢獻更大,低層(第6層)特征過于低級,高層(第24層)特征過于抽象。綜合考慮,采用第6、12、18和24層的特征。

文本提示設計的影響:不同狀態(tài)詞(如“perfect/flawed”)對性能影響不大,驗證了模型對狀態(tài)詞的魯棒性。默認使用的模板(“a photo of a [state] [z(x, v)]”)整體表現(xiàn)優(yōu)于另一種模板(“this is a [state] photo of [z(x, v)]”)。

不同預訓練模型和分辨率的影響:適度增加輸入圖像分辨率有助于更精確的分割,但偏離原始預訓練分辨率(3362到7982)會導致模型性能下降。ViT-L-14-336在所有預訓練模型中表現(xiàn)最佳,因此選擇其作為默認骨干網(wǎng)絡。

結(jié)論

VCP-CLIP通過將豐富的視覺知識引入文本空間,并實現(xiàn)文本和視覺特征的跨模態(tài)交互,能夠在沒有任何先驗知識的情況下直接對新產(chǎn)品進行異常分割。實驗結(jié)果表明,VCP-CLIP在ZSAS任務中表現(xiàn)出色。

限制

過度檢測:對于一些小的異常區(qū)域,可能會導致過度檢測,分割結(jié)果通常比真實值稍大。這可能是由于預訓練骨干網(wǎng)絡(ViT-L-14-336)使用的小輸入分辨率(3362)和大補丁大小(142)所致。

特定異常區(qū)域定位不準確:對于必須依賴正常圖像進行識別的異常區(qū)域,定位不準確。這是因為在ZSAS任務設置中,VCP-CLIP直接對新產(chǎn)品進行異常分割,而不引入任何正常圖像的先驗信息。未來計劃探索利用少樣本技術來解決這一問題,利用VCP-CLIP的基礎工作。

相關信息

代碼:https://github.com/xiaozhen228/vcp-clip

論文:https://arxiv.org/abs/2407.12276v1

推薦器件

更多器件
器件型號 數(shù)量 器件廠商 器件描述 數(shù)據(jù)手冊 ECAD模型 風險等級 參考價格 更多信息
STM32F429VIT6 1 STMicroelectronics High-performance advanced line, Arm Cortex-M4 core with DSP and FPU, 2 Mbytes of Flash memory, 180 MHz CPU, ART Accelerator, Chrom-ART Accelerator, FSMC, TFT

ECAD模型

下載ECAD模型
$34.08 查看
MKL17Z256VMP4 1 Freescale Semiconductor Kinetis L 32-bit MCU, ARM Cortex-M0+ core, 256KB Flash, 48MHz, MAPBGA 64

ECAD模型

下載ECAD模型
$5.01 查看
STM32F767ZIT6 1 STMicroelectronics High-performance and DSP with FPU, Arm Cortex-M7 MCU with 2 Mbytes of Flash memory, 216 MHz CPU, Art Accelerator, L1 cache, SDRAM, TFT, JPEG codec, DFSDM

ECAD模型

下載ECAD模型
$25.18 查看

相關推薦