AI時代的信任危機:如何在科技浪潮中保持清醒
2025年,人工智慧(AI)的影響力已無處不在。從交通導航到疾病治療,再到線上學術資源的快速搜尋,AI為我們的生活帶來諸多便利。然而,隨著AI技術的普及與精進,人們對其文化和社會影響的擔憂也日益加深。例如,2024年11月,可口可樂發布了一支由生成式AI製作的聖誕節宣傳影片,卻被批評為「缺乏創意」,並引發了對AI取代人類勞動力的廣泛討論,尤其是AI未經授權使用藝術家作品且未給予補償或署名的爭議。
在歐洲,AI對政治選舉的潛在影響也逐漸浮現。德國極右翼政黨「德國另類選擇黨」(AfD)在2023年2月23日大選前,利用AI生成的影片和圖片製作競選廣告,描繪了一個「從未存在過的國家」。這種AI生成內容讓AfD的政見——無論是對理想化未來的承諾,還是對對手勝選後可能帶來的反烏託邦警告——顯得更加真實,最終使其支援率翻倍,達到21%。
2023年3月初,《洛杉磯時報》推出了一款名為「偏見檢測器」的AI工具,旨在分析其評論文章的政治傾向並提供額外內容以達到「平衡」。然而,當該工具被用於評估一篇關於三K黨的文章時,其回應被認為淡化該組織的種族主義議程,最終被撤下。這再次引發了對AI工具內建偏見的質疑。
紐約大學亞瑟·卡特新聞學院的副教授Meredith Broussard長期關注AI技術的缺陷,特別是種族、性別等偏見問題。她在2023年出版的《More than a Glitch: Confronting Race, Gender, and Ability Bias in Tech》一書中警告,不應盲目相信技術的優越性,尤其是在涉及法律、金融或醫療決策等高風險情境中。她強調:「我們不應在不需要時依賴技術,也不應在未經檢驗的情況下盲目信任它。」
AI系統的運作原理是基於大量資料建立模型,並利用這些模型進行預測、決策或生成新內容。然而,這些訓練資料來自現實世界,而現實世界充滿偏見與不平等。因此,AI生成的內容或決策往往也帶有偏見。與其假設AI決策是中立或公正的,不如先假設其可能存在偏見,從而避免AI複製歷史問題與不平等。
Broussard提到數學公平與社會公平的區別。例如,將一塊巧克力餅乾平分給兩個孩子,數學上可以做到50–50,但實際上總有一半較大,另一半較小,這就需要協商以確保雙方都感到公平。AI在處理社會決策時,如招聘、貸款或醫療資源分配,往往忽略社會背景,而這些背景對決策的公平性至關重要。
我們可以將AI的應用分為高風險與低風險。例如,使用臉部辨識解鎖手機是低風險應用,而警方在即時監控中使用臉部辨識則屬高風險,因為該技術對深色皮膚與女性的辨識準確率較低,可能導致不公平的結果。Broussard主張禁止這類高風險應用。
盲目相信技術的優越性可能導致資源浪費。例如,在商業溝通中,若問題需多次郵件往來,不如直接通話五分鐘更有效率。然而,許多人仍過度依賴技術,導致效率低下。同樣地,將聊天機器人應用於所有場景尚未被證明有效。
我們應根據技術的功能與應用場景來選擇工具,就像選擇剪刀或鋸子
AI時代下的信任危機:我們該如何面對?
2025年,人工智慧(AI)的影響力已無所不在。從日常的交通導航到醫療領域的新藥研發,再到學術資源的快速搜尋,AI的便利性已深入我們的生活。然而,隨著AI技術的普及與精進,人們對其文化和社會影響的擔憂也日益加劇。例如,2024年11月,可口可樂發布了一支由生成式AI製作的聖誕節宣傳影片,卻被批評為「缺乏創意」,並被視為AI取代人類創作者的典型案例,且未給予藝術家任何補償或署名。
在歐洲,AI創造的虛擬現實也開始影響選舉政治。德國極右翼政黨「另類選擇黨」(AfD)利用AI生成的影像和影片製作競選廣告,描繪了一個「從未存在過的國家」。這支廣告讓AfD的支援率翻倍,達到21%,並讓其宣揚的理想化未來與警告的末日景象顯得異常真實。
2024年3月初,《洛杉磯時報》推出了一款名為「偏見檢測器」的AI工具,旨在評估其評論文章的政治傾向並提供額外內容以達到「平衡」。然而,當這款工具被用於評估一篇關於三K黨的文章時,其回應被認為淡化該組織的種族主義議程,最終導致工具被撤下。
紐約大學亞瑟·卡特新聞學院的副教授Meredith Broussard長期關注AI技術的缺陷,尤其是種族、性別等偏見問題。她在2023年出版的《More than a Glitch: Confronting Race, Gender, and Ability Bias in Tech》一書中警告,不應盲目相信技術的優越性,特別是在涉及法律、金融或醫療等高風險場景中。她強調:「我們不應在不需要時依賴技術,也不應在未經檢驗的情況下盲目信任它。」
AI的運作方式基於大量資料的輸入與模型的訓練,這些模型可用於預測、決策或生成新內容。然而,問題在於訓練資料來自現實世界,而這些資料本身帶有偏見。因此,AI生成的內容或決策也必然帶有偏見。我們應假設AI的決策可能存在偏見或歧視,並努力防止AI複製歷史上的不平等問題。
Broussard提到,數學公平與社會公平是不同的概念。例如,將一塊餅乾平分給兩個孩子,數學上可以做到50-50的分配,但在現實中,餅乾可能被分成一大一小,需要協商誰拿大塊誰拿小塊,以確保孩子們覺得分配是公平的。AI在數學上表現出色,但在社會決策上卻不盡如人意,特別是涉及招聘、貸款或醫療等領域時,社會背景至關重要。
我們可以區分AI的高風險與低風險應用。例如,使用臉部辨識解鎖手機是低風險,但警方在即時監控中使用臉部辨識則是高風險,因為臉部辨識技術存在種族和性別偏見,可能導致深色皮膚者被錯誤標記。
Broussard提醒,盲目相信技術的優越性可能導致浪費資源。例如,在商業溝通中,與其用電子郵件來回討論,不如直接打電話更有效率。同樣,將AI聊天機器人應用於所有場景尚未被證明有效。
我們應將技術視為工具,並根據其功能與應用場景進行選擇。例如,剪紙用剪刀,鋸木用鋸子。然而,電腦常被視為神秘且具魔力的物件,這與科幻小說在軟體開發社群中的流行有關。我們需要擺脫對AI的「魔法思維」,回歸現實與真相。
從法律角度來看,技術的監管至關重要。長期以來,科技公司自我監管的效果不佳,因此需要政府層面的法規與執法。美國現有的技術法律大多制定於電話為主要通訊工具的時代,已無法應對當前的科技發展。我們需要像迭代軟體一樣更新法律與政策。
汽車安全帶的演進是一個很好的例子。最初,汽車並未配備安全帶,後來立法要求安裝並強制使用。然而,研究發現安全帶的設計主要基於男性體型,導致女性和兒童受傷。因此,安全帶的設計被改良,並制定了兒童需使用汽車座椅的規定。這顯示新技術總會帶來意想不到的後果,我們應在發現問題後及時更新技術,使其更安全。AI的發展也應遵循這一原則。