當前位置:
首頁 > 科技 > AI語言模型竟能讀懂人類腦中的「視覺語言」?最新研究揭秘大腦與人工智慧的驚人相似性

AI語言模型竟能讀懂人類腦中的「視覺語言」?最新研究揭秘大腦與人工智慧的驚人相似性

當我們環顧四周時,大腦不僅能辨認出「狗狗」或「汽車」等物體,更能理解更深層的含義——包括正在發生什麼事、發生在哪裡,以及整體場景如何構成。多年來,科學家一直苦於找不到合適的方法來測量這種豐富而複雜的認知能力。

最新研究帶來重大突破!蒙特婁大學心理學副教授伊恩·查瑞斯特與明尼蘇達大學、德國奧斯納布呂克大學及柏林自由大學的研究團隊,在《自然·機器智慧》期刊發表研究指出,大型語言模型(LLMs,如ChatGPT背後的技術)竟能精準預測人類大腦對日常場景的感知模式。

「我們將自然場景描述輸入這些AI語言模型,創造出一種『語言指紋』來表徵場景意義。」身兼米拉-魁北克人工智慧研究所成員的查瑞斯特教授解釋,「令人驚訝的是,這些指紋與人們在MRI掃描器中觀看相同場景時記錄的大腦活動模式高度吻合——無論是孩子們玩耍的畫面,還是都市天際線的景觀。」

研究團隊更進一步訓練人工神經網路,讓AI能直接從影象預測這些語言指紋。結果顯示,這些網路在匹配大腦反應方面的表現,竟優於當今最先進的許多電腦視覺模型——儘管後者使用的訓練資料量遠超前者。

「這項發現暗示,人類大腦處理複雜視覺場景的方式,可能與現代語言模型理解文字的機制驚人相似。」查瑞斯特教授表示。這項突破性研究不僅為解讀人類思維開闢新途徑,更能推動腦機介面技術發展,打造更接近人類視覺認知的AI系統。

研究團隊展望,這項技術未來可應用於多個領域:從提升自動駕駛汽車的決策系統,到為視障人士開發視覺假體裝置。查瑞斯特教授強調:「這項研究最終將幫助我們更深入理解,人類大腦如何從視覺世界中提取意義——這正是認知科學最核心的奧秘之一。」

[end]