當前位置:
首頁 > 科技 > AI新突破!H-CAST分層分類模型讓電腦像人類一樣「見樹又見林」

AI新突破!H-CAST分層分類模型讓電腦像人類一樣「見樹又見林」

由密西根大學團隊研發的H-CAST人工智慧模型,突破傳統影象識別技術限制,能像人類思考般進行「分層分類」。這項創新技術不僅能辨識細微特徵,更能自動建立從廣泛到具體的認知樹狀結構,例如「鳥類→老鷹→白頭海鵰」的邏輯分類。

這項研究成果已發表於新加坡「國際學習表徵會議」,並刊登在arXiv預印本伺服器。有別於傳統深度學習僅專注於細粒度識別,H-CAST特別擅長處理現實中常見的模糊或不完整影象。研究共同作者、密西根大學電腦科學教授Stella Yu解釋:「當影像資訊不足時,傳統模型可能直接放棄判斷,但分層分類能在不同細節層級提供可靠答案。」

過往的分層模型常面臨「層級不一致」問題,例如細粒度分類判斷是「綠鸚鵡」,上層分類卻誤判為「植物」。H-CAST透過「影象內部分割」技術,確保各層級都聚焦同一物體的不同細節特徵。主要研發者Seulki Park博士指出:「我們發現視覺連貫性才是關鍵。讓AI『看見』層級間的視覺關聯,能大幅提升判斷一致性。」

研究團隊首創將「無監督分割」技術應用於分類任務,不需畫素級標註就能提升識別準確度。在四大基準測試中,H-CAST不僅完勝CLIP等零樣本學習模型,更在BREEDS資料集創下6%的準確度提升。特徵比對分析顯示,H-CAST能同時兼顧語意和視覺的一致性,避免傳統模型「視覺相似但語意錯誤」的盲點。

這項技術可廣泛應用於野生動物監測、自動駕駛等領域。Park博士舉例:「就像人類看到模糊影像時,即使無法辨認具體品種,至少能判斷是『狗』。我們希望AI也能具備這種彈性推理能力。」研究團隊特別感謝密西根大學ARC高效能運算中心的支援,並提及柏克萊加州大學、麻省理工學院等機構的共同貢獻。

[end]