أثار نشر مقطع فيديو مدته 40 ثانية بعنوان “وجوه الأساتذة استنادًا إلى مجالاتهم” على موقع Reddit نقاشًا مثيرًا للاهتمام. وفقًا لبعض الأشخاص وبناءً على تجربتهم ، فإن هذه الصور قريبة جدًا من الواقع. يقول آخرون ممن يختلفون في الرأي أن معظم هذه الصور تظهر فقط رجالًا بيض صلبين يرتدون أردية احترافية ، وهو ما لا ينطبق على معظم المؤسسات الأكاديمية الحديثة.
يمكن أن يكون لمولدي الصور بالذكاء الاصطناعي تحيزات في نماذجهم لأنهم يتعلمون من البيانات التي تم تدريبهم عليها. غالبًا ما تحتوي البيانات أيضًا على انحرافات عن العالم الحقيقي. يمكن أن تظهر مثل هذه التحيزات بطرق مختلفة اعتمادًا على النموذج المعين والبيانات المستخدمة في التدريب.

على سبيل المثال ، إذا تم تدريب مُنشئ صور AI على مجموعة بيانات من الصور التي تمثل بشكل غير متناسب مجموعات معينة من الأشخاص ، مثل الأشخاص ذوي البشرة الفاتحة ، فقد تعكس الصور التي تم إنشاؤها أيضًا هذا التحيز من خلال إنتاج صور أقل للأشخاص. تظهر ببشرة داكنة. إذا كانت بيانات التدريب تحتوي على قوالب نمطية أو تحيزات أخرى ، يمكن لمولد صور الذكاء الاصطناعي أن يتعلم إعادة إنتاج تلك التحيزات في الصور التي ينتجها.
أيضًا ، إذا كانت بيانات التدريب نفسها غير متحيزة ، فلا يزال بإمكان النموذج تعلم التحيزات بناءً على كيفية تسمية البيانات أو شرحها. على سبيل المثال ، إذا قامت مجموعة البيانات بتسمية كائنات أو أشخاص معينين بطريقة تعزز الصور النمطية أو الافتراضات ، فيمكن لمولد الصور بالذكاء الاصطناعي أن يتعلم دعم هذه التحيزات في مخرجاته.

نظرًا لتكاثر أنظمة تحويل النص إلى صورة ذات إمكانات التعلم الآلي وتجربة اعتماد متزايد كخدمات تجارية ، فإن الخطوة الأولى الأساسية في تقليل مخاطر نتائجها التمييزية هي تحديد التحيزات الاجتماعية الناتجة عن عرضها.

يجب على الباحثين والمطورين ضبط بيانات التدريب الخاصة بهم بعناية واستخدام تقنيات مثل زيادة البيانات ، وآليات التصنيف العادل ، والتعلم العدائي للتأكد من أن النماذج الناتجة خالية من التحيز قدر الإمكان.

5858
.

