當前位置:
首頁 > 科技 > 研究顯示:跨性別、非二元性別與身障族群對AI負面觀感更強烈

研究顯示:跨性別、非二元性別與身障族群對AI負面觀感更強烈

AI技術正快速滲透我們的生活各個層面。從診間的醫療輔助判斷,到求職時的履歷篩選,甚至日常的新聞推薦,這些關鍵決策背後都可能藏著AI的身影。然而當AI開始影響醫療資源分配、就業機會與資訊獲取等重大人生抉擇時,系統性的偏見問題卻日益浮現。

根據最新研究,美國社會中對AI持負面態度的群體呈現明顯差異。我們團隊針對700多名受訪者進行調查,包含全國性樣本與刻意超額取樣的邊緣群體。結果顯示,跨性別者、非二元性別者及身障人士對AI的負面評價,顯著高於順性別與非身障族群。

其中非二元性別者的負面態度最為強烈,整體跨性別族群(含跨性別男性與女性)也表現出明顯負面傾向。值得注意的是,在順性別群體中,女性比男性更不信任AI,這與過往研究趨勢相符,但我們特別揭示了非二元與跨性別族群的獨特觀點。

身障參與者同樣展現更強烈的質疑態度,特別是神經多樣性(如自閉症譜系)與心理健康狀況的族群。這與越來越多研究相互印證:當AI系統試圖將複雜身分簡化成僵化分類時,往往導致跨性別與身障族群遭到錯誤判定或系統性歧視。

相較之下,研究發現非裔族群對AI的態度反而比白人更為正面,這看似矛盾的結果可能反映其對科技潛力抱持務實期待,即便明知存在歧視風險。未來研究需要更深入探討這種批判與樂觀並存的複雜心理。

面對邊緣群體合理的不信任,我們建議:

1. 建立真實選擇權:醫療與職場等場域應明確告知AI使用時機與方式,並提供無損權益的退出機制。

2. 強化資料透明:完整揭露訓練資料來源與使用規範,對曾遭資料濫用的族群尤為關鍵。

3. 參與式開發:在系統設計階段納入受影響社群,若群體明確拒絕AI應用,開發者應予以尊重。

當最易受演算法傷害的族群同時對AI戒心最重時,這正是給技術開發者的重要警訊。真正的科技進步,應該優先保障那些被置於風險中的群體。

[end]