當前位置:
首頁 > 科技 > 研究發現:大眾對AI擔任道德決策角色存疑

研究發現:大眾對AI擔任道德決策角色存疑

心理學家警告,由於大眾認為人工智慧(AI)缺乏人類經驗和真正的理解能力,這可能會限制其在高風險道德決策方面的接受度。人工道德顧問(AMAs)是基於人工智慧的系統,目前已開始有人設計它們,期望能根據既定的倫理理論、原則或指引,協助人類做出道德決策。雖然相關原型正在研發中,但目前AMAs還無法提供一致且無偏見的建議以及合理的道德諮詢。

隨著人工智慧技術能力不斷提升,且逐漸涉足道德領域,瞭解民眾對此類人工道德顧問的看法就顯得尤為重要。肯特大學心理學院主導的一項研究,探討了人們對這些顧問的看法,以及與人類顧問相比,他們是否會信任其判斷。研究發現,儘管人工智慧有潛力提供公正且合理的建議,但人們仍然不完全信任它能在道德困境中做出符合倫理的決策。

這項發表在《認知》期刊上的研究顯示,即便人工道德顧問(AMAs)給出的建議與人類相同,人們還是相當排斥由它們提供道德建議。尤其是當顧問(無論是人類還是AI)基於功利主義原則(即能對大多數人產生積極影響的行動)給出建議時,這種排斥更為明顯。而給出非功利主義建議(例如遵守道德規則而非追求結果最大化)的顧問,則更受信任,尤其是在涉及直接傷害的困境中。這表明,人們更看重那些遵循將個體利益置於抽象結果之上原則的顧問,無論其是人類還是AI。

即便參與者認同人工道德顧問(AMAs)的決策,他們仍預計未來會與AI產生意見分歧,這顯示出人們內心深處的懷疑態度。

該研究由肯特大學的吉姆・埃弗雷特博士和華威大學的西蒙・邁爾斯博士共同領導。埃弗雷特博士表示:「對道德AI的信任不僅僅取決於其準確性或一致性,還在於它是否與人類價值觀和期望相符。我們的研究凸顯了推廣人工道德顧問(AMAs)所面臨的關鍵挑戰,以及如何設計出真正能獲得人們信任的系統。隨著科技不斷進步,我們可能會看到AMAs更多地融入從醫療保健到法律體系等各種決策過程中。因此,迫切需要了解如何彌合AI能力與人類信任之間的差距。」