AI助手如何改變科研機構?阿貢實驗室內部研究揭密
生成式人工智慧正逐漸成為職場中的強大工具,在國家實驗室等科研機構中,這項技術有望加速關鍵領域的科學突破。但隨之而來的是一系列新問題:科研機構該如何負責任地匯入這項技術?不同崗位的員工又是如何在日常工作中運用AI?
芝加哥大學與美國能源部阿貢國家實驗室的最新研究,首次實際探討了大型語言模型(LLM)在國家實驗室中的應用情況。這項發表於arXiv預印本伺服器的研究不僅凸顯AI提升生產力的潛力,更強調需要審慎整合以解決隱私、安全和透明度等疑慮。
研究團隊透過問卷調查與訪談,深入瞭解阿貢實驗室員工如何使用LLM生成內容、自動化工作流程,以及對未來應用的想像。研究特別追蹤了實驗室2024年推出的內部AI助手「Argo」的早期使用情況,並提出組織如何支援有效運用生成式AI的建議。
2025年4月26日,團隊在日本舉辦的ACM CHI人機互動會議上發表了這項研究成果。阿貢實驗室的組織結構與Argo的及時推出,使其成為理想的研究場域。實驗室員工包含科研人員與人力資源、設施管理、財務等行政人員。
研究主要作者、芝加哥大學電腦科學博士生Kelly Wagman表示:「科學是人機協作能為社會帶來重大突破的領域。我們想探究不同群體如何與AI互動,以及他們的需求有何異同。」
雖然研究聚焦國家實驗室,但部分發現也適用於大學、律師事務所和銀行等機構,這些組織同樣面臨多元使用者需求與資安挑戰。阿貢員工經常處理敏感資料,因此實驗室推出不儲存或分享使用者資料的Argo,作為比ChatGPT更安全的替代方案。
研究發現員工主要以兩種方式使用生成式AI:協作夥伴(copilot)與工作流程代理(workflow agent)。作為協作夥伴,AI協助撰寫程式碼、組織文字或調整電子郵件語氣等任務;而作為工作流程代理,AI則自動化複雜任務,如資料庫搜尋或資料分析流程。
阿貢實驗室軟體工程師Matthew Dearing指出:「這項研究提供了寶貴反饋,將影響Argo後續開發方向。」研究也發現員工對AI可靠性、幻覺問題、資料隱私等有顯著擔憂。
為促進AI的適當使用,研究建議組織應主動管理安全風險、制定明確政策並提供員工培訓。阿貢實驗室已有近1,600名員工參加生成式AI培訓課程,學習如何正確使用Argo。
「阿貢正在引領生成式AI工具的發展,並塑造其在國家實驗室中的負責任整合方式。」Dearing總結道。這項研究不僅為科研機構提供實用洞見,也為其他組織匯入AI技術樹立了參考標竿。
[end]