當前位置:
首頁 > 科技 > AI過度自信現象竟與人類語言障礙驚人相似?

AI過度自信現象竟與人類語言障礙驚人相似?

在現代生活中,人工智慧(AI)助理與聊天機器人已成為許多人日常不可或缺的工具。以大型語言模型(LLM)為基礎的系統,如ChatGPT和Llama,雖然能流暢地生成回應,卻經常提供看似合理但實則錯誤的資訊。

東京大學研究團隊發現,這種現象與人類的語言障礙「失語症」有著驚人相似之處。失語症患者可能說話流利,卻會產生毫無意義或難以理解的語句。這項發現不僅可能為失語症診斷帶來新突破,更能為AI工程師改進語言模型提供重要啟示。

隨著AI文字生成技術在各領域的普及,確保這些工具能提供正確且連貫的回應變得愈發重要。許多使用者熟悉的AI工具,包括ChatGPT在內,雖然回應流暢,卻常夾雜虛構內容。若使用者對相關領域知識不足,很容易被AI表現出的高度自信所誤導。

東京大學國際神經智慧研究中心(WPI-IRCN)的渡邊隆光教授指出:「這些AI系統能言善道卻錯誤百出的特性令人印象深刻。最讓我們驚訝的是,這種行為模式與韋尼克氏失語症患者極為相似。」

研究團隊運用原本用於物理學的「能量景觀分析」技術,比較不同型別失語症患者的腦部活動模式與多個公開LLM的內部資料。結果顯示,AI模型中數位資訊的傳遞與處理方式,確實與特定型別失語症患者的腦部訊號運作極為相似。

渡邊教授解釋:「想像能量景觀是一個有球體的表面。當曲線明顯時,球會滾動並靜止;但當曲線平緩時,球會混亂滾動。在失語症中,球代表人的腦部狀態;在LLM中,則代表模型根據指令和內部資料產生的持續訊號模式。」

這項研究具有多重意義:對神經科學而言,提供了一種基於腦部活動而非僅憑外在症狀來分類與監測失語症的新方法;對AI領域來說,則可能發展出更好的診斷工具,協助工程師從內部改善AI系統架構。

不過渡邊教授也強調:「我們並非聲稱聊天機器人有腦損傷。但它們可能被限制在某種僵化的內部模式中,就像接受性失語症一樣。瞭解這些內部相似性,或許是開發更聰明、更可靠AI的第一步。」

[end]