一項新的研究揭露了人工智慧語言模型中隱藏的種族主義,特別是在處理非裔美國英語(AAE)時。與先前關注公開種族主義的研究(例如衡量蒙面法學碩士的社會偏見的 CrowS-Pairs 研究)不同,這項研究特別強調人工智慧模型如何透過方言偏見巧妙地延續負面刻板印象。這些偏見雖然不會立即顯現出來,但卻很明顯,例如將 AAE 演講者與地位較低的工作和更嚴厲的刑事判決聯繫起來。
研究發現,即使經過訓練以減少明顯偏見的模型仍然存在根深蒂固的偏見。這可能會產生深遠的影響,特別是隨著人工智慧系統越來越多地融入就業和刑事司法等關鍵領域,在這些領域,公平和公正至關重要。
研究人員採用了一種稱為「匹配偽裝探測」的技術來發現這些偏見。透過比較 AI 模型對標準美式英語 (SAE) 和 AAE 書寫文本的反應,他們能夠證明,即使內容相同,模型也始終將 AAE 與負面刻板印象聯繫起來。這清楚地表明了當前人工智慧訓練方法的致命缺陷——減少公開種族主義的表面改進並不一定意味著消除更深層、更陰險的偏見形式。
人工智慧無疑將持續發展並融入社會的更多面向。然而,這也增加了現有社會不平等現象長期存在甚至擴大的風險,而不是減輕它們。像這樣的場景是應優先解決這些差異的原因。
免責聲明: 提供的所有資源部分來自互聯網,如果有侵犯您的版權或其他權益,請說明詳細緣由並提供版權或權益證明然後發到郵箱:[email protected] 我們會在第一時間內為您處理。
Copyright© 2022 湘ICP备2022001581号-3