AI也會「腦霧」?研究發現ChatGPT竟跟人類犯一樣的錯
科技
04-12
最新研究顯示,人工智慧不僅會處理資料,竟然還會犯下和人類相同的判斷錯誤。這項發表在《製造與服務運營管理》期刊的突破性研究,對OpenAI的ChatGPT進行了18種偏誤測試,結果令人驚訝。
研究團隊發現,這個全球最先進的AI模型在某些情境下,會表現出典型的「認知偏誤」——包括過度自信和賭徒謬誤(熱手效應)。不過有趣的是,它卻能避開「基本率忽略」和「沉沒成本謬誤」等人類常犯的錯誤。
「當決策有明確答案時,AI表現比多數人類更好。」皇后大學的奧夫欽尼科夫教授指出,「但涉及判斷力時,AI可能和人類掉入相同的認知陷阱。」
這項研究引發關鍵問題:既然AI可能和人類一樣帶有偏見,我們還能放心讓它做重要決策嗎?尤其現在從徵才到貸款審核,AI已在商界和政府決策中扮演關鍵角色。
研究主要作者、西安大略大學的陳陽助理教授解釋:「AI從人類資料中學習,難免會模仿人類的思考模式——包括各種偏見。」新南威爾斯大學的基什納教授更直言:「AI不是中立的裁判,若缺乏監督,它非但不能改善決策品質,反而可能讓問題惡化。」
麥克馬斯特大學的安迪亞潘教授建議,企業應將AI視為「做重大決策的員工」,需要監督和道德準則。研究團隊也呼籲定期審計AI決策,並持續最佳化系統以減少偏誤。
隨著各國積極制定AI監管框架,這項研究提醒我們:在擁抱AI的同時,必須審慎評估不同模型在實際決策中的表現。正如皇后大學的詹金教授所言:「從GPT-3.5到4.0的演進顯示,新版模型在某些方面變得更像人類,但在其他方面卻更精準。管理者需要持續追蹤,才能避免意外狀況。」