人工智慧聊天機器人因在遇到各種問題時經常產生種族偏見的解決方案而聞名,許多研究工作都針對這個問題。現在,一種新的訓練方法已經準備好解決這個問題。該方法被稱為“公平重複資料刪除”或簡稱“FairDeDup”,是 Adobe 和俄勒岡州立大學工程學院博士生 Eric Slyman 團隊的研究成果。
人工智慧訓練中使用的資料集去重包括刪除冗餘訊息,從而降低整個過程的成本。目前,使用的數據來自整個互聯網,因此它包含人類經常在網上提出和分享的不公平或有偏見的想法和行為。
根據Slyman 的說法,「FairDeDup 刪除了冗餘數據,同時納入了可控的、人類定義的多樣性維度,以減少偏見。我們的方法使AI 訓練不僅具有成本效益和準確度,而且更加公平 如今,人工智慧聊天機器人所延續的一系列偏見方法包括職業、種族或性別,還包括年齡、地理和文化相關的想法,這些想法顯然是不公平的。 &&&]
FairDeDup 是一種稱為SemDeDup 的早期方法的改進版本,儘管它被證明是一種具有成本效益的解決方案,但它經常加劇社會偏見。 Kris Hermans 的《掌握AI 模型訓練:成為訓練AI 模型專家的綜合指南》,該書目前在Kindle 上有售,售價9.99 美元,平裝版(售價44.07 美元)。會寫作的技術人員嗎?免責聲明: 提供的所有資源部分來自互聯網,如果有侵犯您的版權或其他權益,請說明詳細緣由並提供版權或權益證明然後發到郵箱:[email protected] 我們會在第一時間內為您處理。
Copyright© 2022 湘ICP备2022001581号-3