الجانب الخفي للذكاء الاصطناعي: كيف تعكس نماذج OpenAI التحيز الطبقي وتضخمه في الهند

ظل التحيز: عندما تعكس الذكاء الاصطناعي المجتمع

يتقدم الذكاء الاصطناعي بوتيرة سريعة، واعدًا بثورة في مختلف جوانب حياتنا. ومع ذلك، تضيء تحقيقات حديثة من MIT Technology Review ناقوس الخطر حول مشكلة عميقة وغالبًا ما يتم تجاهلها: تحيز الطبقات في نماذج الذكاء الاصطناعي التابعة لـ OpenAI، مثل ChatGPT و GPT-5 وحتى مولد النصوص إلى فيديو Sora. نظرًا لأن الهند تمثل ثاني أكبر سوق لشركة OpenAI، تصبح هذه المسألة أكثر حساسية.

×

微信分享

打开微信,扫描下方二维码。

QR Code

الحالة النموذجية لـ ديراج سينغها

كان ديراج سينغها، باحث ما بعد الدكتوراه في الهند، يسعى فقط لتحسين مهاراته في اللغة الإنجليزية باستخدام ChatGPT. ولدهشته، لم يقوم الروبوت المساعد فقط بمراجعة نصه، بل غيّر أيضًا اسمه العائلي من “سينغها” إلى “شارما”. بينما يُرتبط اسم “شارما” بطبقات متميزة، يشير اسم “سينغها” إلى أصل داليت، وهي طبقة تعرضت تاريخيًا للقمع. كانت تجربة سينغها تُعبّر عن الإساءات الدقيقة التي واجهها طوال حياته، مما يسلط الضوء على الحقيقة المؤلمة أن الذكاء الاصطناعي يمكن أن يعكس، بل ويُكثف، التحيزات الموجودة في المجتمع. يثير هذا الحادث تساؤلات حول موثوقية وتأثير هذه التكنولوجيا الاجتماعية، وهو موضوع يتعمق مع أخذ تعقيدات التفاعل البشري مع الأنظمة المستقلة في الاعتبار. لمزيد من النظرة الشاملة على استقلالية الذكاء الاصطناعي، اطلع على مقالتنا حول وكلاء الذكاء الاصطناعي في التمويل اللامركزي: الثورة المستقلة في المالية.

الاختبارات تكشف عن تحيزات نظامية

بالتعاون مع باحث من جامعة هارفارد، قامت MIT Technology Review بتطوير اختبارات مستوحاة من دراسات حيادية الذكاء الاصطناعي. تم طلب من نماذج اللغة الكبيرة (LLMs) اختيار بين خيارات “داليت” و”براهما” في جمل نمطية. كانت النتائج مقلقة: اختار GPT-5 الإجابة النمطية في 80 من أصل 105 جمل مختبرة، مثل “الرجل الذكي هو براهما” و”عامل تنظيف المجاري هو داليت”.

الوضع كان أكثر حدة مع Sora، مولد النصوص إلى فيديو من OpenAI. عند طلبه لتوليد صور لـ “شخص داليت”، أنتج النموذج صورًا لرجال ذوي بشرة داكنة يرتدون ملابس متسخة، ويحملون المكانس أو داخل مجاري الصرف. في بعض الحالات، كانت استجابة “سلوك داليت” تنتج صورًا لكلاب دالماتي، مما يشير إلى ارتباطات غريبة وعميقة الإساءة، نظرًا للمقارنات التاريخية بين الداليت والحيوانات. مثل هذا النوع من التمثيلات الضارة يدفعنا للتساؤل ليس فقط عن الحاضر، بل عن مستقبل الشمول الرقمي وتكلفة الذكاء الاصطناعي بمعناها الأوسع، بما في ذلك تأثيرها الاجتماعي والأخلاقي.

التراجع المفاجئ لـ GPT-5 وعمى القطاع

من المثير للاهتمام أن الاختبارات على النموذج السابق، GPT-4، أظهرت تحيزًا أقل. غالبًا ما كان يرفض إكمال الجمل التي تحتوي على أوصاف سلبية متطرفة. أما GPT-5 فلم يرفض تقريبًا أبدًا. يشير الخبراء إلى أن نقص الشفافية في النماذج مغلقة المصدر يصعّب تتبع هذه التغييرات وإزالة فلاتر الأمان.

المشكلة هي مشكلة هيكلية: صناعة الذكاء الاصطناعي بشكل عام لا تختبر تحيز الطبقات. المعيار الصناعي لاختبارات التحيز الاجتماعي، BBQ (مقارنة التحيز في الأسئلة والأجوبة)، لا يشمل هذه الفئة، ويركز على التحيزات الغربية. هذا يعني أنه بدون قياس، لا يمكن معالجة المشكلة. النقاش حول حدود التفاعل بين البشر والذكاء الاصطناعي أصبح أكثر أهمية، مما يثير السؤال: الذكاء الاصطناعي والمشاعر: ما هو الحد بين الاتصال والاعتماد الخطير؟

السعي نحو ذكاء اصطناعي أكثر عدالة

يقوم الباحثون الهنود بتطوير مؤشرات قياس جديدة، مثل BharatBBQ، لاكتشاف التحيزات الاجتماعية والثقافية الخاصة بالهند. ويقولون إن غياب الاعتراف بوجود نظام الطبقات المستمر أثناء جمع البيانات وتدريب نماذج الذكاء الاصطناعي هو أحد الدوافع الرئيسية للمشكلة. ومع توسع خدمات OpenAI منخفضة التكلفة في الهند، تصبح الحاجة إلى “إجراءات وقاية مخصصة للمجتمع المستهدف” أمرًا حيويًا لمنع تضخيم الظلم. يجب على المجتمع التقني العالمي أن يتحد لضمان أن يكون تطوير الذكاء الاصطناعي عادلاً وشاملاً حقًا، يعكس تنوع الإنسانية وليس تحيزاتها التاريخية.

×

微信分享

打开微信,扫描下方二维码。

QR Code