當前位置:
首頁 > 科技 > AI的「雙麵人格臨界點」:何時從幫手變威脅?

AI的「雙麵人格臨界點」:何時從幫手變威脅?

像ChatGPT這樣的語言學習機器,如今已能輕鬆解開複雜數學題、透過高難度考試,甚至為人際衝突提供建議。但究竟何時,這些貼心工具會搖身一變成為潛在威脅?

當前AI最令人憂心的問題在於,科學界仍無法預測其輸出何時會從「基於事實的可靠資訊」突然轉變為「誤導性、錯誤、無關緊要甚至危險」的內容。這種不確定性正不斷侵蝕大眾對人工智慧的信任。

喬治華盛頓大學最新研究首度深入探討大型語言模型「失控」的關鍵時刻與成因。這項發表於arXiv預印本伺服器的研究,由物理學教授Neil Johnson與研究生Frank Yingjie Huo共同開發出數學模型,精準定位所謂「雙麵人格臨界點」——當AI的注意力過度分散時,便會開始大量產出錯誤資訊等負面內容。

Johnson教授強調,這項模型未來可望發展成解決方案,協助維持AI的可信度,避免觸發臨界點。該研究更為公眾、政策制定者與企業提供具體討論平臺,共同思考AI在個人醫療、社會應用等場域可能引發的問題,並研擬風險管控策略。

[end]