AI「腦波解碼器」:無需長時間訓練,快速讀取你的思緒
科學家們最近對一款基於人工智慧(AI)的「腦波解碼器」進行了重大升級,這款解碼器能夠將人的思緒轉化為文字,且無需長時間的訓練。這項突破性技術未來有望幫助失語症患者重新找回溝通的能力。
這款腦波解碼器利用機器學習技術,根據大腦對聽過的故事的反應,將人的思緒轉化為文字。然而,過去的版本需要參與者在MRI機器內聆聽數小時的故事,且解碼器僅能針對特定個體進行訓練。研究共同作者、德州大學奧斯汀分校(UT Austin)的計算神經科學家Alexander Huth表示:「失語症患者通常在理解語言和表達語言方面存在困難,因此我們可能無法透過觀察他們對故事的反應來建立他們的大腦模型。」
在這項發表於2月6日《Current Biology》期刊的新研究中,Huth與共同作者、UT Austin的研究生Jerry Tang探討瞭如何克服這一限制。他們首先對幾位參考參與者進行了長時間的訓練,收集了他們在聆聽10小時廣播故事時的功能性MRI資料。接著,他們利用這些資料訓練了兩種轉換演算法,並將其應用於另一組「目標」參與者:一組在聆聽70分鐘廣播故事時收集資料,另一組則在觀看70分鐘與廣播故事無關的無聲皮克斯短片時收集資料。
透過一種稱為「功能對齊」的技術,研究團隊繪製了參考參與者和目標參與者對相同音訊或影片故事的大腦反應圖譜,並利用這些資訊訓練解碼器,使其能夠在無需收集多小時訓練資料的情況下,適用於目標參與者的大腦。隨後,團隊使用一段參與者從未聽過的短篇故事對解碼器進行測試。雖然解碼器對原始參考參與者的預測準確度略高於使用轉換演算法的參與者,但從每位參與者的大腦掃描中預測出的文字仍與測試故事中的語意相關。
例如,測試故事中的一段描述某人談論自己不喜歡的工作:「我在一家冰淇淋店當服務生。所以,嗯,那不是……我不知道我想做什麼,但我知道那不是。」基於影片資料訓練的轉換演算法預測為:「我在一份我認為無聊的工作。我必須接訂單,但我不喜歡它們,所以我每天都在處理它們。」雖然並非完全一致,但Huth表示,解碼器並不會讀出人們聽到的確切聲音,而是捕捉到相關的概念。
Huth告訴《Live Science》:「最令人驚訝且酷炫的是,我們甚至不需要使用語言資料。我們可以僅透過某人觀看無聲影片時收集的資料,來建立他們的大腦語言解碼器。」研究人員表示,使用基於影片的轉換器將現有解碼器應用於失語症患者,可能有助於他們表達自己的思緒。這也揭示了人類大腦在處理語言和視覺敘事時的某些重疊。
未參與此研究的京都大學計算神經科學家Yukiyasu Kamitani告訴《Live Science》:「這項研究表明,某些語意表徵並不在意其來源的模態。」換句話說,這項研究揭示了即使以不同形式呈現,大腦仍以相同的方式表徵某些概念。研究團隊的下一步是對失語症患者進行轉換器測試,並「建立一個介面,幫助他們生成他們想要表達的語言」,Huth說道。