物理學解密AI行為:為何人工智慧會胡說八道?
科技
04-16
ChatGPT等AI模型憑藉寫詩、解方程式甚至透過醫學考試的能力驚艷全球,但同時也會產出有害內容或散播假訊息。喬治華盛頓大學的最新研究運用物理學原理,成功破解了AI核心「注意力機制」的運作奧秘。
研究團隊Neil Johnson和Frank Yingjie Huo發現,AI之所以會重複內容、憑空捏造資訊,甚至從看似無害的輸入產生偏頗有害的輸出,關鍵在於其注意力機制就像兩顆相互作用的陀螺。AI的回應不僅取決於當下輸入,更受到所有學習經驗與當前輸入互動作用的影響。
這項發表於arXiv預印本伺服器的研究指出,AI系統的決策過程本質上是動態的「知識共振」現象。就像旋轉的陀螺會互相牽引,AI內部的神經網路會在不同知識點之間建立意想不到的連結,這解釋了為何有時會產生令人啼笑皆非的「幻覺」答案。
該研究為開發更安全、可靠且抗幹擾的AI系統開闢新途徑。透過理解這種「雙陀螺效應」,未來可設計出能自我檢測矛盾與偏見的演演算法,讓人工智慧真正成為人類值得信賴的夥伴。
[end]