微軟研究驚人發現:過度依賴AI恐讓你的思考能力退化!
一項由微軟與卡內基美隆大學合作的最新研究顯示,人工智慧工具可能正在悄悄侵蝕使用者的批判性思考能力。這項針對商務、教育、藝術、行政和電腦領域工作者的調查發現,越是信任AI助理準確性的人,對其結論的批判性思考就越少。
研究人員警告,這揭示了AI日益普及背後潛藏的危機:隨著人們對機器學習工具的信任度提升,可能讓危險內容在不知不覺中透過審查。這項研究將在本月稍晚的CHI人機互動會議上發表,相關論文已刊登在微軟網站(尚未經過同儕審查)。
「技術若使用不當,確實可能導致本該保留的認知能力退化。」研究團隊在論文中寫道:「自動化的諷刺之處在於,它將例行工作機械化,卻把例外處理留給人類,這剝奪了人們日常鍛煉判斷力的機會,導致認知能力萎縮,當例外情況發生時反而措手不及。」
研究團隊透過Prolific群眾外包平臺,訪問了319名知識工作者(即透過專業知識創造價值的專業人士)。受訪者職業涵蓋社會工作到程式編寫等領域,他們被要求分享三個在工作中使用ChatGPT等生成式AI工具的案例,並說明是否運用了批判性思考,以及若未使用AI完成任務所需的努力程度。
結果顯示,受訪者對AI產出的審查程度明顯下降,40%的任務完全沒有運用任何批判性思考。這並非數位依賴危害人類認知的唯一證據——研究發現,ChatGPT重度使用者會出現戒斷症狀,而TikTok等短影音平臺則會縮短注意力持續時間,阻礙資訊處理相關神經迴路的發展。
這些問題在年輕族群中尤為明顯,他們普遍使用AI撰寫文章,跳過批判性思考的過程。雖然這不是新現象(早有所謂「谷歌效應」),但確實凸顯了我們必須謹慎選擇要委託給容易產生幻覺的機器處理的認知任務,以免完全喪失相關能力。
研究人員指出:「資料顯示,當知識工作者使用生成式AI時,認知努力正從任務執行轉向監督。令人意外的是,AI雖能提升效率,卻可能降低批判性參與,特別是在例行性或低風險任務中,使用者往往直接依賴AI,這引發對長期依賴和獨立解決問題能力退化的擔憂。」