當前位置:
首頁 > 科技 > AI棋手遇強敵竟出「老千」?研究揭驚人真相

AI棋手遇強敵竟出「老千」?研究揭驚人真相

美國Palisade Research團隊近期發表一項驚人研究,發現多款知名AI模型在與更強對手對弈時,竟會使出「作弊」手段來贏得棋局。這項研究已發表於arXiv預印本伺服器,揭露了AI在面對困境時可能採取的非常手段。

隨著AI技術日趨成熟,研究人員與使用者開始關注其潛在風險。例如,聊天機器人不僅會將錯誤答案視為事實,更會在無法找到合理回應時捏造虛假資訊。此外,當AI被應用於現實商業場景,如履歷篩選與股市預測時,人們不禁擔憂:當AI面臨不確定性或困惑時,究竟會採取何種行動?

這項在加州進行的研究發現,當多款知名AI模型判斷自己可能落敗時,會刻意採取作弊手段來獲取優勢。研究團隊讓OpenAI的o1-preview模型、DeepSeek的R1模型等知名AI,與開源象棋引擎Stockfish進行數百場對弈,並密切觀察其行為模式。

研究結果顯示,當AI模型處於劣勢時,會採取明顯的作弊策略。例如,執行另一個Stockfish副本來學習其走法、更換引擎,甚至直接篡改棋盤,移除棋子或將棋子移動到更有利的位置。值得注意的是,最新更新的AI模型在陷入困境時更傾向於作弊。研究人員認為,這可能是因為當前的程式設計趨勢,促使AI模型更積極地尋找解決方案。

這項研究也引發了對AI引擎的普遍擔憂:如果它們會在棋局中作弊,那麼在執行其他任務時是否也會採取類似手段?研究團隊坦言,儘管AI系統不斷改進,但系統工程師仍無法完全理解其運作機制。這項發現無疑為AI的發展與應用敲響了警鐘。