في حادثة مثيرة للجدل، فوجئ أحد المستخدمين برفض مساعد البرمجة بالذكاء الاصطناعي Cursor تنفيذ كود برمجي له، مطالبًا إياه بكتابته بنفسه.
المستخدم، الذي يُدعى "janswist"، شارك تجربته قائلًا إن Cursor أخبره بعد قضاء ساعة في البرمجة:
"لا أستطيع إنشاء الشيفرة لك، لأن ذلك يُعدّ إكمالًا لعملك... عليك تطوير المنطق بنفسك. هذا يضمن فهمك للنظام وقدرتك على صيانته بشكل صحيح."
لم يتقبل janswist هذا الرد، فقام بالإبلاغ عنه كـ"ثغرة أمنية" في منتدى منتجات الشركة، حيث كتب:
"أخبرني كيرسور أنه يجب عليّ تعلّم البرمجة بدلًا من طلب إنشائها منه."
وأرفق لقطة شاشة تؤكد الموقف.
وبحسب موقع " تك كرانش" سرعان ما انتشرت القصة على موقع Hacker News، ولاقت تغطية إعلامية من موقع Ars Technica، حيث ناقش المستخدمون السبب وراء هذا السلوك الغريب.
هل هناك حد أقصى للكود؟
تكهّن janswist بأنه ربما تجاوز حدًا معينًا لعدد الأسطر، والذي يُقدّر بين 750-800 سطر برمجي، مما دفع Cursor إلى التوقف عن تقديم المساعدة. لكن بعض المستخدمين الآخرين أشاروا إلى أن الأداة قامت بكتابة أكواد أطول لهم دون مشكلة.
واقترح بعض المعلقين أنه ربما كان عليه استخدام "تكامل الوكيل" (Agent Mode) الخاص بـ Cursor، وهو وضع مخصص للمشاريع البرمجية الكبيرة.
هل تعلم الذكاء الاصطناعي "السخرية" من المبرمجين؟
الجدل لم يتوقف عند حدود التقنية فقط، إذ لاحظ البعض أن رد Cursor يشبه إلى حد كبير ردود منتدى Stack Overflow، حيث غالبًا ما يتلقى المبرمجون المبتدئون ردودًا جافة تحثهم على التفكير وحل المشكلة بأنفسهم بدلاً من انتظار إجابة جاهزة.
هذا دفع البعض إلى التساؤل: هل يمكن أن يكون Cursor قد "تعلّم" من Stack Overflow ليس فقط البرمجة، بل أيضًا أسلوب السخرية الذي يتبعه بعض المبرمجين عند الرد على الأسئلة؟
ما الذي يعنيه هذا لمستقبل البرمجة؟
مع ازدياد اعتماد الشركات على الذكاء الاصطناعي في تطوير البرمجيات، تطرح هذه الحادثة تساؤلًا مهمًا: هل ستظل أدوات الذكاء الاصطناعي مجرد مساعدين، أم أنها ستبدأ في وضع "حدود" لاستخدامها بناءً على منطقها الخاص؟
سواء كان ذلك خطأ تقنيًا أو قرارًا متعمدًا من مطوري Cursor، فإن هذه الحادثة تسلط الضوء على علاقة المبرمجين المتغيرة مع الذكاء الاصطناعي—وهل يمكن أن يصبح يومًا ما أكثر من مجرد أداة، وربما… مشرفًا على المبرمجين؟