當前位置:
首頁 > 科技 > AI決策竟與人類如出一轍?研究揭ChatGPT也犯「人性化錯誤」

AI決策竟與人類如出一轍?研究揭ChatGPT也犯「人性化錯誤」

當AI開始模仿人類的思考盲點,我們還能放心讓它做重要決定嗎?最新研究發現,OpenAI開發的ChatGPT在決策過程中,竟會重現人類典型的認知偏誤,這項發現對日益依賴AI的商業與政府決策敲響警鐘。

發表於《製造與服務運營管理》期刊的研究論文指出,ChatGPT不單是進行資料運算,其思考模式與人類驚人相似——包含「賭徒謬誤」等過度自信傾向,卻又能避開「基礎比率忽略」等其他人類常見錯誤。這種矛盾現象在各種商業情境中持續存在,且可能隨AI版本更新產生變化。

這篇名為〈當經理人遇上AI:ChatGPT會像人類一樣做出偏頗決策嗎?〉的研究,對ChatGPT進行了18項偏誤測試。結果顯示,從人才招募到貸款審核,當AI系統開始複製人類的判斷缺陷時,非但無法改善決策品質,反而可能強化既有偏見。

「AI從人類資料中學習,自然也會繼承人類的思考模式——包括各種認知偏誤。」研究主筆、西安大略大學助理教授陳陽指出:「我們的研究證實,當AI進行判斷時,確實會使用與人類相同的心理捷徑。」

皇后大學的奧夫欽尼科夫教授分析:「面對有明確答案的問題,AI表現優異;但涉及主觀判斷時,AI就可能陷入與人類相同的認知陷阱。」這種雙面性引發關鍵疑問:當AI可能與人類同樣偏頗時,我們是否該讓它參與重要決策?

隨著各國推動AI監管,新南威爾斯大學商學院的基什納教授警告:「AI絕非中立仲裁者。若缺乏監督,它非但不能解決決策問題,反而可能加劇偏誤。」研究團隊因此建議,企業與政策制定者必須像監督人類決策者般審查AI的判斷。

麥克馬斯特大學的安迪亞潘教授強調:「應將AI視為參與重大決策的員工——需要監督機制與倫理準則。否則我們可能不是最佳化決策,而是將有缺陷的思考模式自動化。」

研究團隊提出具體解方:定期稽核AI決策、持續最佳化系統以降低偏誤。隨著AI影響力擴大,確保其真正改進決策品質——而非單純複製人類缺陷——將成為關鍵課題。皇后大學的詹金教授補充:「從GPT-3.5到4.0的演進可見,新版模型在某些方面更趨人性化,其他領域卻變得更精準而非擬人。管理者必須評估不同模型在決策場景的表現,並定期重新檢視,某些應用場景甚至需要大幅調整模型。」