當前位置:
首頁 > 科技 > AI在科學界的雙面刃:突破與危機並存

AI在科學界的雙面刃:突破與危機並存

2025年2月,Google宣佈推出「專為科學家設計的全新AI系統」,聲稱這套工具能協助科學家「提出新穎的假設與研究計畫」。雖然這項工具的實際效用尚待觀察,但不可否認的是,人工智慧(AI)已在科學領域掀起革命性的變革。例如,去年有電腦科學家因開發出能預測所有人類已知蛋白質結構的AI模型,而榮獲諾貝爾化學獎。諾貝爾委員會主席Heiner Linke更形容這項AI系統是「50年夢想的實現」,解決了自1970年代以來困擾科學界的難題。

然而,AI在推動科學突破的同時,也帶來了一股暗流:科學不端行為正日益猖獗。學術論文可能因資料造假、抄襲或人為錯誤而被撤稿。2023年,被撤稿的論文數量已突破10,000篇,這些論文被引用超過35,000次。一項研究顯示,8%的荷蘭科學家承認涉及嚴重的研究舞弊,是先前報告的兩倍。過去20年,生物醫學領域的論文撤稿數量更增加了四倍,其中多數與不端行為有關。

AI的普及可能使問題更加惡化。例如,生成式AI工具如ChatGPT的強大功能,讓造假研究變得輕而易舉。有研究人員曾利用AI生成288篇虛構的學術金融論文,預測股票報酬率。雖然這只是一項實驗,但不難想像這項技術可能被用於捏造臨床試驗資料、篡改基因編輯實驗結果,甚至掩蓋不良後果。

已有許多案例顯示,AI生成的論文透過同行評審並發表,事後卻因未揭露AI使用而被撤稿,其中不乏偽造參考文獻或蓄意造假資料的嚴重瑕疵。此外,部分研究人員也開始使用AI來評審同行的研究。儘管同行評審是科學誠信的基石,但這項工作耗時費力,科學家每年需投入數百小時的無償勞動。一項由史丹佛大學主導的研究發現,頂尖AI會議中高達17%的評審意見至少部分由AI撰寫。

更極端的情況是,AI可能直接撰寫研究論文,再由另一套AI進行評審。這種風險加劇了科學出版量暴增的問題,而每篇論文中真正新穎且有趣的內容卻在減少。此外,AI也可能導致無意的科學結果造假。生成式AI系統的「幻覺」問題,即當系統不知道答案時會捏造回應,這可能成為科學論文中的錯誤來源。一項針對電腦程式設計的研究發現,AI生成的程式碼解答中有52%包含錯誤,而人類監督未能修正的比例高達39%。

儘管這些現象令人擔憂,我們不應因此全盤否定AI在科學領域的應用。AI為科學帶來顯著的益處,研究人員多年來已利用專用AI模型解決科學難題。而像ChatGPT這樣的生成式AI模型,更提供了多功能科學助理的可能性,能與科學家協作完成多項任務。例如,澳洲聯邦科學與工業研究組織(CSIRO)的研究人員正在開發AI實驗室機器人,科學家可以像與人類助理對話一樣,指揮這些機器人自動化重複性工作。

任何顛覆性技術都有其優缺點,科學界的挑戰在於制定適當的政策與防護措施,以最大化AI的益處並降低風險。AI改變科學世界並協助科學讓世界變得更美好的潛力已得到證實。現在,我們面臨一個選擇:是積極擁抱AI,倡導並制定AI行為準則,確保其在科學領域的倫理與負責任使用?還是袖手旁觀,讓少數不肖分子破壞我們的研究領域,並錯失這項機會?