كشفت دراسة جديدة عن العنصرية السرية المضمنة في نماذج لغة الذكاء الاصطناعي، لا سيما في تعاملهم مع اللغة الإنجليزية الأمريكية الأفريقية (AAE). على عكس الأبحاث السابقة التي ركزت على العنصرية الصريحة (مثل دراسة CrowS-Pairs لقياس التحيزات الاجتماعية في Masked LLMs)، تركز هذه الدراسة بشكل خاص على كيفية إدامة نماذج الذكاء الاصطناعي بمهارة الصور النمطية السلبية من خلال التحيز في اللهجة. هذه التحيزات ليست مرئية على الفور ولكنها تظهر بشكل واضح، مثل ربط متحدثي AAE بوظائف ذات مكانة منخفضة وأحكام جنائية أكثر قسوة.
وجدت الدراسة أنه حتى النماذج التي تم تدريبها للحد من التحيز العلني لا تزال تحمل تحيزات عميقة الجذور. وقد يكون لهذا آثار بعيدة المدى، خاصة مع تزايد دمج أنظمة الذكاء الاصطناعي في مجالات حيوية مثل التوظيف والعدالة الجنائية، حيث يعد العدل والإنصاف أمرًا بالغ الأهمية قبل كل شيء.
استخدم الباحثون تقنية تسمى "فحص المظهر المطابق" للكشف عن هذه التحيزات. من خلال مقارنة كيفية استجابة نماذج الذكاء الاصطناعي للنصوص المكتوبة باللغة الإنجليزية الأمريكية القياسية (SAE) مقابل AAE، تمكنوا من إثبات أن النماذج تربط باستمرار بين AAE والصور النمطية السلبية، حتى عندما كان المحتوى متطابقًا. وهذا مؤشر واضح على وجود خلل قاتل في أساليب التدريب الحالية على الذكاء الاصطناعي - فالتحسينات السطحية في الحد من العنصرية العلنية لا تترجم بالضرورة إلى القضاء على أشكال التحيز الأعمق والأكثر خبثاً.
لا شك أن الذكاء الاصطناعي سيستمر في التطور والاندماج في المزيد من جوانب المجتمع. ومع ذلك، فإن هذا يزيد أيضًا من خطر إدامة وحتى تضخيم التفاوتات المجتمعية القائمة، بدلاً من التخفيف منها. مثل هذه السيناريوهات هي السبب وراء وجوب معالجة هذه التناقضات كأولوية.تنصل: جميع الموارد المقدمة هي جزئيًا من الإنترنت. إذا كان هناك أي انتهاك لحقوق الطبع والنشر الخاصة بك أو الحقوق والمصالح الأخرى، فيرجى توضيح الأسباب التفصيلية وتقديم دليل على حقوق الطبع والنشر أو الحقوق والمصالح ثم إرسالها إلى البريد الإلكتروني: [email protected]. سوف نتعامل مع الأمر لك في أقرب وقت ممكن.
Copyright© 2022 湘ICP备2022001581号-3