منذ أن فرضت تكنولوجيا الذكاء الاصطناعي نفسها باعتبارها محدداً مهماً ورئيسياً للتطور البشري في المجالات كافة.
والحديث لا يتوقف عن أهمية تقنين هذه التكنولوجيا، ووضع التشريعات والضوابط القانونية التي تمنع التوظيف السلبي لها، وتواجه كل صور الجرائم المرتبطة بها، والتحديات الخطيرة التي تفرضها.
وقد بُذلت بالفعل العديد من المحاولات الجادة في هذا الصدد، آخرها وأبرزها موافقة وزراء الاتحاد الأوروبي بشكل نهائي هذا الأسبوع على «قانون الذكاء الاصطناعي»، الذي ينظم استخدام التكنولوجيا التحويلي في الحالات «الشديدة الخطورة»، مثل إنفاذ القانون والتوظيف.
هذا القانون الأوروبي الجديد يكتسب أهمية خاصة، ليس باعتباره أول تشريع دولي يضع معايير وقواعد صارمة للذكاء الاصطناعي في وقت مبكر نسبياً من تطوير هذه التكنولوجيا، تتعامل مع ما تثيره من مخاوف تتعلق بالشفافية والمصداقية والأمن السيبراني ودقة البيانات.
ولكن أيضاً لأنه يضع أساساً يمكن للمجتمع الدولي التحرك على أساسه في وضع التشريعات القانونية الدولية التي تنظم استخدامات هذه التكنولوجيا. وعلى الرغم من أن هذه الخطوة سبقها إصدار الرئيس الأمريكي جو بايدن في أكتوبر 2023 أمراً تنفيذياً يضع معايير للسلامة وحماية الخصوصية في ما يتعلق بالذكاء الاصطناعي.
فإن هذا الأمر التنفيذي يعتمد على التزامات طوعية من بعض شركات التكنولوجيا الرائدة بشأن التطوير الآمن والمضمون للذكاء الاصطناعي ولا يتضمن قواعد قانونية صارمة لضبط استخدام وإنتاج هذه التكنولوجيا.
إن التحرك الدولي في هذا المسار يعتبر أمراً مهماً وحاسماً، ولا سيما في ظل التنافس الدولي المحتدم لتطوير تكنولوجيات الذكاء الاصطناعي التي غزت كل مجالات التطور البشري، وفي مقدمتها المجال الاقتصادي.
حيث تعول الحكومات والشركات على هذه التكنولوجيات في سعيها لبناء اقتصاد مستدام في المستقبل، وتعزيز جهودها في مجال الخدمات التي تقدمها للمواطنين والتغلب على نقص القوى العاملة وتحليل كميات هائلة من البيانات من أجل تحسين التنبؤات الاقتصادية ورصد المخاطر.
كأي تكنولوجيا حديثة لديها جانبان، إيجابي وسلبي، والمهم هو العمل على تعزيز الجوانب الإيجابية التي تخدم التطور البشري، والحد من الجوانب السلبية وما تحمله من مخاطر.
ومع التطور المذهل الذي نشهده في هذه التكنولوجيا والانتقال من الذكاء الاصطناعي التقليدي إلى الذكاء الاصطناعي التوليدي، تتزايد المخاوف من الاستخدامات السلبية لهذه التكنولوجيات، سواء في مجالات التسليح العسكري، أو في المجالات المتعلقة بمحاولات اختراق الأمن السيبراني والمجتمعي والخصوصية الفردية.
ومع ظهور التحديات المرتبطة بما يعرف بالتزييف العميق من خلال نشر القصص الملفقة والمعلومات المغلوطة والصور المركبة أو مقاطع الفيديو المزيفة التي يصعب اكتشاف تزييفها أحياناً، فإن مخرجات الذكاء الاصطناعي التوليدي يمكن أن تشكل خطراً يهدد استقرار النظم الاقتصادية والاجتماعية والسياسية بشكل غير مسبوق.
بينما أشارت تقارير دولية أخرى إلى أن هناك مخاوف خاصة داخل مختبرات الذكاء الاصطناعي من أنها قد «تفقد السيطرة» في مرحلة ما على الأنظمة ذاتها التي تعمل على تطويرها، مع «عواقب مدمرة محتملة يمكن أن تنشأ عن ذلك»، بما في ذلك احتمالات انقراض الجنس البشري ذاته.
إن المسار العالمي في مجال تطوير الذكاء الاصطناعي لن يتوقف، فهذا المجال يحمل في جانبه الإيجابي إمكانات مهولة للتطور الإنساني في المجالات كافة، ومن سيتخلف عن ركب التطور في هذا المجال فسيفقد موقعه في خريطة القوى المتطورة مستقبلاً، لكن المسار الموازي لوضع الأطر القانونية والتشريعية لضبط هذه التكنولوجيا وتقنينها يجب أن يتواصل بالقوة ذاتها من أجل حماية المستقبل البشري.