研究驚人發現:民眾更信ChatGPT的法律建議,而非真人律師!
最新研究顯示,當民眾無法辨識建議來源時,非法律專業人士竟更傾向採信ChatGPT生成的法律建議,而非執業律師的專業意見。這項發現凸顯公眾日益依賴AI生成內容所帶來的隱憂。
隨著ChatGPT等大型語言模型(LLM)快速滲透日常生活,這些AI工具不僅能即時回答問題、激發創意、診斷病症,甚至開始提供具體法律建議。然而,LLM存在「幻覺」問題——可能產出錯誤或荒謬內容,這在法律等高風險領域尤其令人憂心。
研究團隊對288人進行三項實驗。前兩項實驗中,當受試者不知建議來源時,明顯更傾向採信AI生成的法律意見。更驚人的是,即使告知建議來源後,受試者對ChatGPT的信任度仍與真人律師相當。
研究發現,LLM之所以受青睞,可能因其使用較複雜的語彙;而律師雖用詞簡潔,卻傾向提供更詳盡的解釋。第三項實驗則測試民眾辨識建議來源的能力,結果顯示平均辨識準確率僅59%,雖優於隨機猜測,但辨別能力仍顯薄弱。
當AI助理已能處理購物、法律檔案摘要甚至病歷生成等複雜任務時,我們正面臨關鍵時刻——若依據AI的錯誤建議做出人生重大決定,可能導致法律糾紛甚至司法誤判。歐盟AI法案雖要求AI生成內容需標記來源,但這僅是解決方案的一部分。
提升全民AI素養同樣重要:大眾需學會質疑資訊來源、理解AI的侷限性,並在與AI互動時保持批判性思維。具體而言,重要資訊應與權威來源交叉驗證,並諮詢專業人士意見。
AI確實能成為法律諮詢的實用工具,例如初步釐清:「我有哪些選項?」、「該研讀哪些法條?」或「類似判例有哪些?」但切記:在上法庭或採取法律行動前,務必尋求真人律師確認建議內容。
要安全享受AI紅利,必須雙管齊下:完善法規監管的同時,也要強化公眾的AI識讀能力。唯有如此,我們才能在降低風險的前提下,充分發揮人工智慧的價值。
[end]