المملكة المتحدة تسعى إلى كشف أغوار الذكاء الاصطناعي لتقييم المخاطر

ت + ت - الحجم الطبيعي

المسؤولون الحكوميون حريصون على فهم التكنولوجيا سريعة التطور قبل القمة العالمية

تضغط المملكة المتحدة على الشركات، بما في ذلك OpenAI وDeepMind التابعة لشركة جوجل، للحصول على أسرار التقنية الخاصة بنماذج الذكاء الاصطناعي التي يقدمونها، بينما يستعد مقر الحكومة البريطانية لاستضافة قمة عالمية رائدة في الذكاء الاصطناعي.

ويتفاوض المسؤولون في المملكة المتحدة للحصول على إذن لفحص المكونات الداخلية للنماذج اللغوية الكبيرة التي أسستها شركة جوجل عبر DeepMind وشركتي Anthropic وOpenAI، وفقاً لأطراف عدة على علم بما يدور بتلك المباحثات.

وأكد هؤلاء أن الشركات تتردد في الإفصاح عن التفاصيل الداخلية حول نماذج الذكاء الاصطناعي الخاصة بها، وهي الأنظمة التي يقوم عليها منتج مثل ChatGPT لما في ذلك من خطورة الكشف عن تفاصيل الملكية الفكرية، أو يجعلها عرضة للهجمات الإلكترونية. ويعد اكتشاف جوهر هذه النماذج أمراً أساسياً لفهم كيف تعمل التقنية والتنبؤ بالمخاطر المحتملة. ومن بين الأمثلة على ذلك الإفصاح عن «أوزان النموذج»، والتي تعد جزءاً رئيساً من مخططات عمل نماذج اللغات الكبيرة.

والحقيقة أن شركات الذكاء الاصطناعي غير مطالبة بالإفصاح عن هذه التفاصيل في الوقت الراهن، على الرغم من الدعوات المتتالية لمزيد من التنظيم والشفافية لهذه التقنية الجديدة والقوية.

وإذا نجحت المملكة المتحدة، التي تستضيف أول قمة في العالم حول سلامة الذكاء الاصطناعي في بليتشلي بارك خلال نوفمبر، في إقناع الشركات بمنحها المعلومات التي تريدها فستكون هذه هي المرة الأولى التي تكشف فيها شركات الذكاء الاصطناعي عن المكونات الداخلية لتقنيتها لأي حكومة في العالم.

وجدير بالذكر أن شركات DeepMind وOpenAI وAnthropic كانت قد اتفقت في يونيو الماضي على مشاركة نماذجها مع الحكومة البريطانية لأغراض البحث والسلامة ورغم ذلك، لم يتم الاتفاق على القدر المتاح من هذه التفاصيل.

وذكرت Anthropic أنها قد ناقشت الإطلاع على وزن النموذج مع الحكومة، لكن مشاركة الأوزان لها تداعيات أمنية كبيرة، في الوقت الذي تدرس فيه بديلاً لذلك بتقديم النموذج عبر واجهة برمجة التطبيقات، ومعرفة ما إذا كان هذا يمكنه إرضاء كلا الطرفين، حيث تتيح واجهة برمجة التطبيقات، أو API، نظرة محدودة حول كيفية عمل النموذج وهي مشابهة لما يتمتع به عملاء الشركة.

بينما ذكر مراقبون أن الحكومة تطالب بمستوى أعمق من الرقابة.وصرح أحد المقربين من DeepMind بأن إتاحة الإطلاع على النماذج لأبحاث السلامة سيكون أمراً أساسياً لفهم المخاطر، ولكن لابد من تحديد تفاصيل النماذج التي يمكن كشفها وكيف سيؤثر ذلك على الممارسة العملية. في حين، لم ترد OpenAI على الفور على طلب التعليق.

وقال شخص مطلع على المناقشات: «هذه الشركات لا تتعمد العرقلة، لكنها قضية صعبة بشكل عام ولديها مخاوف منطقية». وأضاف إنه لا يمكن لهذه الشركات إتاحة المطلوب بكبسة زر وحسب.

هذه أسئلة بحثية مفتوحة وليس لها إجابة بعد. وتأمل الحكومة البريطانية في التوصل إلى الاتفاق قبل قمة الذكاء الاصطناعي العالمية، المقرر عقدها في باكينجهامشاير الريفية والذي اتخذها علماء فك الشفرة، مثل آلان تورينج، مقراً لهم في أثناء الحرب العالمية الثانية.

وتخطط الحكومة باستضافة تلك الفعالية على بُعد حوالي 50 ميلاً عن لندن، لحشد قادة العالم وشركات الذكاء الاصطناعي لمناقشة مخاطر التكنولوجيا سريعة التطور، لا سيما فيما يتعلق بالأمن السيبراني واستخدام المجرمين لها في تصميم الأسلحة البيولوجية.

وكانت فكرة القمة قد جاءت من دعوات لتنظيم التكنولوجيا في ضوء التقدم البارز في الذكاء الاصطناعي بقيادة منتجات مثل ChatGPT والتحسينات في شرائح المعالجة التي تشغلها، وسيتم أيضاً دعوة بعض الأكاديميين وأعضاء المجتمع المدني. وذكر اثنان من المطلعين على المناقشات أن الحكومة البريطانية تعمل على التوصل إلى اتفاق مع الشركات سيعلن عنه في القمة. وقالت وزارة العلوم والابتكار والتكنولوجيا إنها أنشأت جبهة مختصة بالذكاء الاصطناعي مع التركيز على سلامة الذكاء الاصطناعي واستعانت بخبراء لتأمين السيطرة على هذه التكنولوجيا.

وأضافت: «أعلنا أخيراً أن شركات الذكاء الاصطناعي الرائدة التزمت بمشاركة نماذجها لدعم أبحاث الذكاء الاصطناعي مع الجبهة الجديدة، لا سيما فيما يتعلق بالسلامة ومن ثم بدأ فريق العمل في التعاون مع هذه الشركات للمضي قدماً في ذلك».

Email