يبدو الذكاء الاصطناعي محايدًا، ولكنه من صنع البشر، مما يعني أنه يستوعب جميع التحيزات التي لدينا، بما في ذلك التحيز ضد النساء، فإن الذكاء الاصطناعي مرآة لأنفسنا، ووفقًا لمجلة هارفارد بزنس ريفيو، هناك العديد من الحالات التي يتبنى فيها الذكاء الاصطناعي التحيز ضد النساء، وتشير المجلة إلى مثال على معالجة اللغة الطبيعية (NLP) الموجودة في مساعدي أمازون أليكسا وأبل سيري.
وتشير المجلة إلى تضمين الكلمات كأحد جوانب التحيز في الذكاء الاصطناعي، فمثل لعبة ربط الكلمات، غالبًا ما تربط هذه الأنظمة كلمة "رجل" بكلمة "طبيب" وكلمة "امرأة" بكلمة "ممرضة"، لا تعكس هذه المفاهيم المجتمع الحديث، أو على الأقل كيف نريد أن يتقدم المجتمع الحديث.
كيف يحدث التحيز من الذكاء الاصطناعى؟
وفقا لما ذكره موقع اليوم العالمى للمرأةInternational Women’s Day ، يحدث التحيز أثناء تعلم الآلة، ومن الأمثلة على ذلك البيانات، إذا لم تُسهم النساء بشكل كافٍ، فستكون هناك ثغرات في معرفة الذكاء الاصطناعي، وهذا هو سبب حدوث أخطاء التحيز، بطبيعة الحال، يقود البشر عملية التعلم الآلي، مما يعني أن تحيزاتهم الشخصية ستُدمج في نظام الذكاء الاصطناعي.
كيف يمكن للذكاء الاصطناعي التغلب على التحيز؟
تعد الخطوة الأولى نحو التغلب على التحيز هي ضمان تنوع عينات التدريب قدر الإمكان، من حيث الجنس، وكذلك العرق، والعمر، وأن يكون مطورو الذكاء الاصطناعي من خلفيات متنوعة.
كما هو الحال في جميع الصناعات، تحتاج صناعة الذكاء الاصطناعي أيضًا إلى العمل على تحقيق المساواة، سواء في نهجها أو منظورها.
تحتاج شركات الذكاء الاصطناعي إلى استقطاب المزيد من النساء في الوظائف التقنية، لتنويع الكوادر والقوى العاملة التي تُنشئ هذه التقنيات الجديدة.
لماذا من المهم التغلب على التحيز؟
كشف خبراء المساواة في الذكاء الاصطناعي في مؤتمر LivePerson عن كيفية تأثير التحيز في الذكاء الاصطناعي على المجتمع، إذا تم برمجة الذكاء الاصطناعي المستخدم في فحص المرشحين المحتملين للوظائف من قِبل علماء البيانات بتحيز لنوع محدد، فقد تصبح أماكن عملنا حكرًا على الرجال.
ووفقًا لشبكة سي إن إن بيزنس، قد يُسبب التحيز الجنسي مشاكل لبرامج التعرف على الوجوه التي تستخدم الذكاء الاصطناعي، مثل تطبيقات الأمن في الحفلات الموسيقية والمطارات والملاعب الرياضية.