مخاطر التزييف العميق مُبالَغ فيها في بعض الأحيان

إحدى أكثر المخاوف الأخلاقية إثارة للصخب هذه الأيام، هي المتعلقة بإمكانية أن يؤدي التزييف العميق المستند إلى الذكاء الاصطناعي، إلى تدهور الديمقراطية، وذلك بالتزامن مع توجه نحو نصف سكان العالم للإدلاء بأصواتهم في 70 دولة هذا العام.

واعتبر نحو 1,500 خبير شملهم استطلاع رأي أجراه المنتدى الاقتصادي العالمي أواخر العام الماضي، أن المعلومات المضللة والمغلوطة، هما أكبر المخاطر التي تتهدد العالم خلال العامين المقبلين. واعتبر الخبراء أنه حتى مخاطر الطقس السيئ والنزاعات المسلحة، تبقى تهديدات أقل حدة.

لكن حسبما أرى، فإن مخاوفهم تبدو مُبالَغاً فيها. وعموماً، هذه ليست المرة الأولى التي قد يكون فيها إجماع دافوس على خطأ.

فالخداع ظل سمة من سمات الطبيعة البشرية، منذ أن ترك الإغريق وراءهم حصاناً خشبياً خارج أسوار طروادة. وفي وقت غير بعيد، تأثرت الانتخابات العامة البريطانية عام 1924 بدرجة كبيرة، بنشر صحيفة الـ «ديلي ميل» لرسالة من جريجوري زينوفييف، وهي وثيقة مزورة، زعم أنها من رئيس الكومنترن (منظمة الشيوعية الدولية) السوفييتي.

كان ذلك بالطبع قبل عصر الإنترنت. لكن يكمن القلق الآن في أن قوة الذكاء الاصطناعي قد تؤدي إلى تحويل المعلومات المضللة إلى صناعة، حيث تقلل الإنترنت تكلفة توزيع المحتوى إلى الصفر، ويقلل الذكاء الاصطناعي التوليدي من تكلفة توليد المحتوى أيضاً إلى الصفر. وقد تكون النتيجة حجماً هائلاً من المعلومات التي يمكن أن «تغرق الساحة بالقذارة»، على حد قول الخبير الاستراتيجي السياسي الأمريكي ستيف بانون.

ويمثل التزييف العميق، وهو محاكاة واقعية للصوت أو الصورة أو الفيديو بالذكاء الاصطناعي، تهديداً خاصاً. وتعد أحدث تجسيدات الشخصيات، من جانب شركات الذكاء الاصطناعي الرائدة، جيدة بدرجة يصعب للغاية تمييزها عن الواقع. وفي مثل هذا العالم من «الأشخاص المزيفين»، مثلما دعاهم الفيلسوف الراحل دانيال دينيت، فمن يمكنك أن تثق فيه على الإنترنت؟ لا يكمن الخطر في أن يثق الناخبون بالأشخاص غير الجديرين بالثقة، بل في عدم ثقتهم بالأشخاص الجديرين بالثقة.

رغم ذلك كله، لم يتسبب محتوى التزييف العميق في ضرر سياسي كبير، كما كان يخشى كثيرون، حتى الآن على الأقل. وتدفع بعض الشركات الناشئة العاملة في الذكاء الاصطناعي التوليدي، بأن المشكلة تتعلق بالتوزيع بصورة أكبر من التوليد، لتلقي بذلك باللوم على شركات المنصات العملاقة.

وفي مؤتمر ميونخ للأمن، الذي انعقد في فبراير الماضي، تعهدت 20 من شركات التكنولوجيا الكبرى، تشمل «غوغل» و«ميتا» و«تيك توك»، بتضييق الخناق على محتوى التزييف العميق المصمم للتضليل. ومن الصعب تحديد مدى وفاء الشركات بوعودها حتى الآن، لكن المشجع أن هناك نقصاً نسبياً في الفضائح.

وكانت حركة الاستخبارات مفتوحة المصدر، التي تشمل جحافل من المحققين على الإنترنت، فعالة في الكشف عن المعلومات المضللة. وقد أسس أكاديميون أمريكيون قاعدة بيانات لوقائع التزييف السياسي العميق، لتتبع وفضح الظاهرة، وسجلوا 114 حالة حتى يناير الماضي. وقد يكون ازدياد استخدام الملايين لأدوات الذكاء الاصطناعي أمراً يعمق فهم الجمهور للتكنولوجيا، ويحصن الأشخاص ضد التزييف العميق.

وقدمت الهند البارعة تكنولوجياً، والتي أجرت أكبر انتخابات ديمقراطية على مستوى العالم، حيث صوّت فيها 642 مليون ناخب، اختباراً مثيراً للاهتمام. فقد شهدت الانتخابات استخداماً كثيفاً لأدوات الذكاء الاصطناعي لانتحال شخصيات المرشحين والمشاهير، والحصول على تأييد من ساسة متوفين، وتشويه المعارضين في الدوامة السياسية للديمقراطية الهندية. ورغم ذلك، لم يبدُ أن الانتخابات تعرضت للتشويه بسبب التلاعب الرقمي.

وتوصل خبيران في كلية كينيدي بجامعة هارفارد، فاندينيكا شوكلا وبروس شناير، واللذان درسا استخدام الذكاء الاصطناعي في الحملات الانتخابية، إلى أنه تم توظيف التكنولوجيا غالباً على نحو بنّاء.

على سبيل المثال، استخدم بعض الساسة منصة باهشيني الرسمية، وتطبيقات الذكاء الاصطناعي، لترجمة خطاباتهم إلى 22 لغة رسمية في الهند، ما عزز تواصلهم مع الناخبين. وقال الخبيران: «إن قدرة التكنولوجيا على إنتاج محتوى تزييف عميق لأي شخص، يجعل من الصعب التمييز بين الواقع والخيال، لكن من المحتمل أن تجعل استخداماتها التوافقية، الديمقراطية أكثر سهولة».

لا يعني ذلك أن استخدام محتوى التزييف العميق كان إيجابياً في الغالب. فقد تسبب استخدامه بالفعل في أضرار جنائية ومشكلات شخصية. وتعرضت شركة أروب البريطانية للهندسة في وقت مبكر من العام الجاري، إلى احتيال كلفها 25 مليون دولار في هونغ كونغ، بعد أن استخدم محتالون مقطع فيديو مقلداً لمدير بارز في الشركة، لاستصدار أمر بإتمام تحويل مالي.

غالباً ما يكون المجرمون من أوائل المتبنين لأي تكنولوجيا جديدة. واستخدامهم الشرير للتزييف العميق لاستهداف الأفراد العاديين أكثر ما يقلقنا. ومن المرجح كشف الاستخدامات العامة للتكنولوجيا في أغراض مشينة سريعاً. لكن في الوقت نفسه، يجب علينا أن نكون أكثر قلقاً بشأن الساسة الذي يتفوهون حقاً بالكثير بترهات، أكثر من القلق بشأن توليد صور مزيفة بالذكاء الاصطناعي، تتكلم بترهات غير حقيقية.