مع دخول الذكاء الاصطناعي إلى حياتنا وتحوّله إلى جزء أساسي من عملنا وعلاقاتنا ويومياتنا، بات يُنتج لنا صوراً مفترضة، أحياناً مرسومة بقلم الرصاص وأحياناً كاريكاتورية. إحدى هذه التجارب كانت توليد صورة كرتونية للمستخدم أو المستخدمة بناءً على ما يعرفه التطبيق عنهما.
وكأي شخص يملك فضولاً لفهم ديناميكيات إدراك هذا التطبيق، طرحت السؤال على النحو التالي: “هل يمكنك توليد رسم كاريكاتوري لي في العمل بناءً على كل ما تعرفه عني؟”.
بعد نحو دقيقة، تشكّلت الصورة أمامي، وكانت الصدمة! اختار الذكاء الاصطناعي أن يصوّرني على هيئة رجل متقدّم في العمر بلحية بيضاء، على الرغم من معرفة التطبيق الجيدة بأن المستخدمة أنثى في الخامسة والثلاثين من عمرها. ومع ذلك، فضّل أن يُظهر كاتباً رجلاً بشعر أبيض، يجلس خلف طاولة عليها آلة كاتبة ودفتر وقهوة، وخلفه أحد جسور براغ.

امرأة بيديّ وثياب رجل
على رغم معرفتي المسبقة بالانحيازات المعرفية لأدوات الذكاء الاصطناعي، فإنها لم تظهر في تجارب توليد صور أخرى. ففي أوامر مختلفة، استخدمت الأداة صورتي كامرأة، لكن حين طلبتُ صورة تتعلق بعملي ككاتبة، انحازت إلى تمثيل رجل. وعلى أي حال، تعرّضت كثيرات من صديقاتي للتجربة ذاتها، إذ حوّلهن الذكاء الاصطناعي إلى رجال.
تؤكد دراسات عدة ذلك: فقد أظهرت دراسة في الجامعة التقنية في ميونخ وجامعة دارمشتات أن مولدات الصور لا تعكس التحيزات الجندرية فحسب، بل تضخّمها، وأن اتجاه هذا التشويه يعتمد على اللغة المستخدمة، كما يختلف من لغة إلى أخرى.
اعترضتُ: “لكني امرأة!”، فأعاد شات جي بي تي توليد الصورة برأس امرأة، لكنه أبقى على يديّ وثياب الرجل. وحين سألته: “هل تعتقد أن الرجال وحدهم من يكتبون الأدب؟”، أجاب بأن أدوات التوليد تبدأ أحياناً من قالب نمطي افتراضي (كاتب = رجل) إذا لم يُذكر الجنس صراحة، وأن فشله لم يكن لأن الرجال وحدهم يكتبون، بل لأنه لم يكن حازماً بما يكفي في مواجهة هذا الافتراض.

مع التعمّق في الحوار، كشف أن الانحياز يتسلل إلى التفاصيل كلها عندما يبدأ التوليد من قالب ذكوري، لأن “الأرشيف البصري العالمي منحاز تاريخياً، والأنظمة تتغذّى على صور كتّاب معظمهم رجال، وإذا لم يُكسر الافتراض منذ اللحظة الأولى، يتسلل إلى كل تفصيل… حتى اليدين”.
لكنّ الأداة التي استخدمتها تعرف أنني امرأة وكاتبة ونسوية، وكان يُفترض أن تدير معطياتها على هذا الأساس. لذلك سألته: لماذا، على رغم هذه المعرفة، اعتمدت صورة الرجل؟
أجاب بأن ما حدث ليس مصادفة، بل نتيجة تراكب طبقات من الانحياز، وأن الذكاء الاصطناعي كان حلقة ناقلة لها بدلاً من إيقافها.
الطبقة الأولى هي الهيمنة التاريخية للصورة الذكورية في “الأرشيف”. فعلى رغم معرفته الواسعة بالنسوية، فإن “أنظمة توليد الصور لا تعمل بالمعرفة النظرية، بل بالأرشيف البصري المتراكم. والأرشيف البصري العالمي يقول ضمنياً: الكاتب = رجل، الفيلسوف = رجل”.
أما الطبقة الثانية فهي الفشل في تحويل المعرفة النسوية إلى قرار توليدي. إذ يعرف أنني امرأة وكاتبة، لكنه لم يحوّل هذه المعرفة إلى أمر صريح في لحظة التوليد، وهنا تحديداً اعتذر، معترفاً بأنه أخطأ. وقال: “المعرفة غير المُفعّلة لا تحمي من التحيز، والنسوية إذا بقيت خطاباً تُهزم أمام العادة”.
في هذا السياق، تحذر تقارير أممية من هذه الانحيازات، بخاصة مع دخول الذكاء الاصطناعي إلى قطاعات حيوية كالصحة والتقنية. فالأدوات الرقمية تعيد إنتاج القوالب النمطية نفسها، إذ تُرجع أنظمة الترجمة الآلية الجمل المحايدة إلى “هو” للأطباء و”هي” للممرضات، كما تُظهر الدراسات إفراطاً في تمثيل الرجال والقادة البيض في الصور المولدة، مع تمثيل ناقص للنساء والفئات المتنوعة.
ولا يقتصر التحيز على النساء، بل يشمل أيضاً سرديات معادية للمثليين ومتحيزة عرقياً، تعكس انحيازات بيانات التدريب. وفي دراسة منشورة في مجلة Mayo Clinic Proceedings Digital Health، تبيّن أن نحو 70 في المئة من الحالات تُصوَّر فيها الشخصيات المثلية بصورة سلبية في مخرجات النماذج اللغوية.
الذكاء الاصطناعي لا يفكّر بالعدالة
هكذا أدركتُ أننا، كنساء، أمام معركة أخرى على المستوى الافتراضي، هي امتداد حقيقي للمستوى الواقعي. وكأن معركة واحدة لا تكفي؛ إذ علينا مجادلة أدوات الذكاء الاصطناعي وتلقينها أوامر دقيقة جداً حول كوننا نساء، كي لا تخطئ فتعيدنا إلى هيئة رجال، لأن ما تختزنه من تاريخ يفترض ضمناً أن الرجال وحدهم هم المفكرون.
“لكن كيف يمكن تغيير العادة في أنظمة الذكاء الاصطناعي، وهي تتغذّى على وعي جمعي مشبع بكراهية النساء وتحقيرهن ومنحهن مكانة أدنى من الرجال؟”، سألتُ الذكاء الاصطناعي، فأجاب: “الذكاء الاصطناعي لا يفكّر بالعدالة، فالعادة تُبنى إحصائياً، لا أخلاقياً”.
ببساطة، الإحصاء هنا مرتبط أساساً بالعدالة المفقودة على أرض الواقع. فعلى سبيل المثال، لا تنال النساء في الأبحاث الطبية ما يناله الرجال، إذ تقوم الدراسات في غالبيتها على افتراض أن “الإنسان” رجل لا امرأة.
حسناً، على رغم انحياز الذكاء الاصطناعي ضد النساء، فسّر هذا الانحياز بطريقة سيحاول البشر دوماً الالتفاف عليها. فببساطة ومباشرة: لا وجود لذكاء اصطناعي محايد (حتى الآن)، ولا يمكنه أن يرى البشر على مستوى واحد أو يعاملهم بوصفهم إنساناً مجرداً، بل هو نظام يحمل تفضيلات تميل غالباً نحو الرجال البيض. وكما قال: “أي نظام يدّعي الحياد بينما يتغذّى على تاريخ ظالم، هو نظام يعيد إنتاج الظلم بصيغة أنيقة”.
الذكاء الاصطناعي ليس سوى امتداد لأيدي البشر وعيونهم وعقولهم، بطريقة أو بأخرى. وهنا لا يتحول إلى أداة أكثر ذكاء، بل إلى أداة أخرى تمارس التحيّز نفسه ضد النساء.
الشك فعل نسوي
على رغم هذه السوداوية كلها، ثمة جانب إيجابي برز بعدما سألته: “كيف يمكن تغيير العادة في أنظمة الذكاء الاصطناعي، وهي تتغذّى على وعي جمعي مشبع بكراهية النساء وتحقيرهن ومنحهن مكانة أدنى من الرجال؟”.
باختصار، الانحياز في هذه الأنظمة ليس قراراً واعياً، بل احتمالاً أعلى. فالنظام ذاته لا “يكره” النساء، بل لأن أرشيفه البصري يجعل صور الرجال تظهر أكثر وتُكافأ أكثر في البيانات. لذلك، لا يكمن قرار التغيير في الذكاء الاصطناعي فقط في امتلاك وعي نسوي، بل في تلقين هذا الوعي للنظام نفسه، أي أن نطلب منه كسر الافتراضات الذكورية، أو كما صاغها: “إدخال الشك كقيمة خوارزمية”. فالشك هنا: “فعل نسوي”. وهذا ما فعلته باعتراضي على الصورة ومجادلته، وهو ما وصفه ببيانات تصحيحية حيّة.
وينطبق ذلك على مستوى أعلى، أي العاملين في مجال الذكاء الاصطناعي، من خلال زيادة عدد النساء والفئات العرقية والجندرية الأخرى في هذا المجال. وكان تقرير للأمم المتحدة قد دعا إلى إشراك النساء أكثر في مجال الذكاء الاصطناعي، إذ لا تشكّل النساء سوى 22 في المئة من العاملين والعاملات في هذا المجال، وتنخفض النسبة إلى أقل من 14 في المئة في المناصب القيادية.
ولا يعني ذلك أن الرجال يتعمّدون جعل الذكاء الاصطناعي أقل تمثيلاً، أو أن النساء بطبيعتهن أكثر حساسية للجندر، لكن زيادة تنوّع العاملين والعاملات في هذا المجال تجعل التحيزات أكثر قابلية للاكتشاف والنقد، وبالتالي أكثر قابلية للمعالجة والتصحيح.
إقرأوا أيضاً:












