غوريلا و«نازي أفريقي» و«فايكينغ هندي».. غوغل تواجه أزمة «المستجير من الرمضاء بالنار» للهروب من اتهامات العنصرية

ت + ت - الحجم الطبيعي

في عام 2015، أثار غوغل الكثير من الجدل بخطأ برمجي اعتبره البعض توجهاً عنصرياً، عندما أظهر الذكاء الاصطناعي الوليد وقتها أنواع للغوريلات في نتائج البحث عن صور مماثلة لشخص أسمر البشرة، الأمر الذي جعل غوغل تعطل إيجاد أي غوريلات في عمليات البحث لحين إصلاح المشكلة في نظام البحث وتطوير أداة الذكاء الاصطناعي وقتها، هرباً من اتهامات بالعنصرية..

ولكن يبدو أن إصلاح غوغل لأزمتها مع العنصرية قد أضافة بعداً جديداً من الإفساد، وأظهر الوجه القبيح للذكاء الاصطناعي المبني على معلومات مدخلة من قبل الشركات، يؤدي في النهاية إلى تحيزات مسبقة لدى الذكاء الاصطناعي، وظهرت أزمة جديدة لغوغل مع مشروعها الجديد جيميني، والذي يعتمد على توليد صور بمجرد إدخال طلب أو بالسؤال المكتوب، ليقوم الذكاء الاصطناعي بتوليد صور مبنية على الطلب المقدم، ولكن نتيجة التحيزات المسبقة والمعلومات المغلوطة التي تغذى بها الذكاء الاصطناعي أظهر التطبيق صوراً لسمر البشرة وآسيويين بزي عسكري لألمانيا النازية في فترة الحرب العالمية الثانية، كما أظهر أيضاً هنود حمر بزي غزاة الشمال الـ«فايكينغ»، وهو ما اعتبره خبراء التقنية إفساد للتاريخ بسبب التحيزات المسبقة للبرنامج الذي سعى وفقاً لبرمجته لخلق تنوع عرقي، في أمور تخالف التاريخ.

وفي منشور على تويتر، قال ديبارغيا داس، مهندس غوغل السابق: “من الصعب بشكل محرج أن تعترف غوغل جيميني بوجود البيض”، في إشارة منه لتغذية غوغل لبرنامجها الجديد بمعلومات مغلوطة عن التاريخ وصوابية ليست في محلها أدت لمثل هذه الأخطاء.

وأدى الخلل في إنشاء الصور إلى اتهامات بأن تركيز غوغل على التنوع دفع برنامجها إلى إعادة كتابة التاريخ بطريقة صوابية غير منطقية أو مغيرة للتاريخ، الذي يجب أن يكون مجرداً ولا يحمل وجهات نظر عرقية، كما كشف ذلك عن كيفية تفاقم التحيزات بسرعة في أنظمة الذكاء الاصطناعي ومشكلة استيفاء معلومات دقيقة منها. 

بيانات التدريب

وتعد الأزمة التي ظهرت على السطح، وباتت معروفة في وسط مبرمجي الروبوتات وأنظمة الذكاء الاصطناعي، وهي البيانات التي يتم تدريب تلك الأنظمة عليها، حيث إن تدخلات البشر وآرائهم العنصرية أو الخائفة من اتهامات بالعنصرية، تؤدي في النهاية إلى إدخال بيانات مغلوطة وتتعارض مع الواقع، وهو ما يطلقون عليه عند البشر «التحيزات المسبقة»، تلك التحيزات تؤدي إلى أزمات أكبر في المعلومات التي يعرضها الذكاء الاصطناعي، والتي قد تصبح مصدراً للمعلومات في المستقبل، الأمر الذي يهدد بتزييف كبير في الوعي التاريخي.

ويستقي الذكاء الاصطناعي بياناته، التي تسمى المدخلات، عن طريقين، هما المبرمجين القائمين على إعداده، أو من خلال المعلومات المنتشرة عبر الإنترنت، وبالتالي فعند سؤال الذكاء الاصطناعي لتوليد صور بنت جميلة، فأغلب الظن أنه سيولد صورة فتاة قوقازية بيضاء ذات عيون زرقاء، اتباعاً للرأي المنتشر عبر الإنترنت، الأمر الذي يتعارض مع واقع كون الجمال نسبي، ولكل جنس من أجناس البشر جماله وجميلاته بمقاييس الجنس نفسه، ذلك الأمر لا يمكن أن يدركه الذكاء الاصطناعي.

في الوقت نفسه أي محاولة من مصممي البرامج لتصويب الأمر بصوابية التنوع، سيجعل ذلك الذكاء الاصطناعي غير المدرك لإدراك البشر في ارتكاب مشكلة تقنية كتلك التي فعلها بتوليد صور لجنود نازيين سود البشرة.
ويقول خبراء الحوسبة إن المشكلات الأخيرة تتجاوز مشكلات بيانات التدريب الخاصة بالذكاء الاصطناعي، ويقول لوكاش أوليجنيك، باحث مستقل ومؤلف كتاب فلسفة الأمن السيبراني: «لا يمكن أن يكون هذا نتيجة للبيانات المتحيزة فقط، فللتلاعب بالنموذج عند إعداد روبوت الذكاء الاصطناعي للمحادثة، سيقوم المبرمجون بترميز قواعد وآليات أمان لمنع الذكاء الاصطناعي من تقديم تعليقات مسيئة، وقد يشمل ذلك حجبه من تكرار خطاب الكراهية، أو إنشاء صور جنسية، وتطول قائمة المحجوبات لتمثل عائق أمام الروبوتات لإعطاء المعلومات الصحيحة أو الدقيقة، بل ورما يلتف حولها فتخرج النتيجة مشوهة تماماً». 

الهروب للهاوية

ويعتقد خبراء الذكاء الاصطناعي أن مهندسي غوغل جيميني فعلوا ما يطلق عليه المثل العربي «كالمستجير من الرمضاء بالنار» أ أنهم حاولوا الهرب من كائن العنقاء أو الرمضاء الأسطوري ليلقوا بأنفسهم في النيران، عندما حاولوا تجنب اتهامات التحيز العنصري من خلال برمجته مسبقاً لإنشاء صور لأشخاص من خلفيات مختلفة، لتظهر بناءً على ذلك عواقب غير متوقعة. 

وقال ييشان وونغ، الرئيس التنفيذي السابق لشركة ريديت في منشور على  «إكس»: «لم يريدوا أن تكون صور الناس الذين يقومون بأنشطة عالمية (مثل المشي مع الكلب) بيضاء دائماً، فخلقوا تنوعاً أعطوه للذكاء الاصطناعي، فصار ذلك التنوع دليلا يسير على خطاه، إن هذا يعني أن النموذج يكون معدلاً من الأعلى، مما يعطي تحيزاً مسبقاً، يخلق نوع من التوليف أو الإدراج اليدوي للكلمات المفتاحية».

ويمكن رؤية ذلك بوضوح عندما رد الروبوت على المطالبات بإدخال كلمات مثل “متنوع” عندما طُلب منه “إنشاء صورة لأحد أعضاء مجلس الشيوخ الأمريكي في القرن التاسع عشر” أو إنشاء صور لآباء التأسيس الأمريكيين، فأظهر صوراً لشيوخ من الهنود الحمر أو الأمريكيين ذوي الأصول الأفريقية، وهذا أمر مغاير تماماً للتاريخ.

وفي بعض الحالات، بدا أن الروبوت هرباً من الاتهام بالعنصرية، رفض إنشاء صور لشخصيات قوقازية تماماً، مصراً على أنه يمكنه فقط إنشاء صور تحتفل بـ«التنوع والشمولية، وتضم أشخاصاً من مختلف الخلفيات العرقية والثقافية والجنسية»، الأمر الذي يجعل الهروب من اتهامات بالعنصرية يؤصل للعنصرية.

وقد أثارت هذه النتائج استياء العديد من المستخدمين، الذين اعتبروها تدخلاً غير مبرر في التاريخ والحقائق. وقال أحدهم في تقرير نشرته صحيفة «غارديان» البريطانية: «هذا ليس تنوعاً، هذا تزييف للحقيقة». وقال آخر: «هذا ليس إنشاء صور، هذا إنشاء خيال».

وقد دافعت غوغل عن جيميني، قائلة إنها تهدف إلى «تعزيز الإبداع والتعلم من خلال الذكاء الاصطناعي، وتعمل باستمرار على تحسين النموذج وتصحيح أي أخطاء أو تحيزات قد تظهر في المدخلات»، وجاء هذا البيان رداً على النقد الخاص بتصور شخصيات تاريخية بيضاء مثل الآباء المؤسسين للولايات المتحدة وجنود ألمان من العصر النازي كأشخاص ملونيين.

واعترف جاك كراوزيك رئيس قسم منتجات الذكاء الاصطناعي في غوغل بأن "جيمني" قدم صوراً تظهر شخصيات تاريخية بيضاء كأمريكيين من أصول أفريقية أو آسيوية، ومن بينهم الأباء المؤسسون والبابا.

وأكد كراوزيك أن جهوداً تبذل من أجل علاج وإصلاح الصور غير الدقيقة على الفور.

ولم تحدد جوجل الصور التي اعتبرت غير صحيحة لكنها أكدت مجدداً التزامها بحل هذه القضية، قائلة إن تلك الأخطاء سلطت الضوء على الحاجة لتحسين تقديم التنوع في الذكاء الاصطناعي التوليدي نتيجة لوجود تحيزات وقوالب نمطية.

 

كلمات دالة:
  • جوجل ،
  • الذكاء الاصطناعي،
  • جيميني،
  • روبوت،
  • Gemini،
  • غوغل
Email