生成式AI能取代人類參與質性研究嗎?
對研究人員來說,招募真人參與研究不僅耗時,成本也高,特別是在預算有限且時程緊迫的情況下。隨著功能強大的生成式大型語言模型(LLM)問世,部分研究機構開始探討是否能用AI取代人類受試者。然而,卡內基美隆大學電腦科學學院的研究團隊發現,在涉及人類觀點的質性研究中,使用LLM存在根本性限制,包括資料蒐集與整合方式,以及知情同意與資料取得等倫理問題。
「我們深入探討LLM是否能取代人類參與質性研究,結論是『不行』。」卡內基美隆大學軟體與社會系統系(S3D)暨機器學習系的KL Gates職業發展助理教授荷達·海達裡強調:「人類受試者能提供各種細微的觀察與反饋,這是再先進的AI技術都無法企及的。」
這篇名為《故事模擬器:檢視大型語言模型作為質性研究參與者》的論文,上週在日本橫濱舉行的ACM人機互動大會(CHI 2025)上獲得榮譽提名獎。研究團隊成員還包括人機互動研究所博士生夏瓦尼·卡帕尼亞、卡內基博世博士後研究員威廉·阿格紐,以及助理教授莫塔哈爾·埃斯拉米和莎拉·福克斯。
雖然LLM目前在醫療、法律等領域已作為訓練工具,讓專業人員能模擬真實情境(例如心理師演練辨識精神危機),但在以訪談為主的質性研究中,訓練LLM模仿人類應答仍存在明顯缺陷。研究團隊訪談19位具質性研究經驗的人士,透過與LLM聊天機器人互動,比較AI生成與人類提供的資料差異。
研究發現,LLM作為研究參與者會對科學探究產生多重限制,特別是其知識蒐集與詮釋方式。受試者指出,LLM常將不同來源的答案拼湊成單一回應,這種整合往往顯得生硬不自然。例如在工廠工作環境研究中,現場工人與管理階層的觀點本應存在差異,但LLM可能將兩種立場混為一談,扭曲真實情況。
知情同意是另一個關鍵問題。研究人員在論文中指出,若LLM使用社群媒體公開資料進行訓練,可能引發倫理爭議——原始資料提供者並未同意其資料被用於研究,也缺乏退出機制。
整體而言,這項研究對使用LLM作為研究參與者提出質疑,不僅涉及倫理顧慮,更關乎研究工具的有效性。研究團隊強調:「這些模型內建了開發者的偏見、假設與權力結構,以及訓練資料的社會脈絡。若用於研究,將重塑知識生產的本質,往往強化既有的階級與排除現象。」
[end]