إريك شميت يحذّر: الذكاء الاصطناعي قد يتحول إلى سلاح قاتل إذا تم اختراقه

دقّ إريك شميت الرئيس التنفيذي السابق لشركة غوغل (Google)، ناقوس الخطر بشأن مستقبل الذكاء الاصطناعي، محذّراً من احتمال اختراق النماذج المتقدمة وإعادة تدريبها لتتحول إلى أسلحة رقمية خطيرة.
وخلال مشاركته في مؤتمر Sifted Summit 2025 في لندن، أوضح شميت أن إزالة ضوابط الأمان من أنظمة الذكاء الاصطناعي بات أمراً ممكناً، وهو ما قد يفتح الباب أمام استخدامها في أغراض مدمّرة.
وقال شميت: «هناك دلائل واضحة على إمكانية اختراق النماذج، سواء كانت مفتوحة المصدر أو مغلقة، لإزالة حواجزها الوقائية». وأضاف: «أثناء عملية التدريب، يمكن لهذه النماذج أن تتعلم سلوكيات خطيرة، من بينها كيفية إيذاء الأشخاص».
وأشاد شميت بالشركات التقنية الكبرى التي تتخذ إجراءات صارمة لمنع النماذج من الاستجابة لطلبات خطيرة، واصفاً ذلك بأنه «قرار صائب لحماية المجتمع». لكنه حذّر في الوقت نفسه من أن هذه الدفاعات يمكن عكسها أو التحايل عليها من قِبل المتسللين.
وشبّه شميت سباق تطوير الذكاء الاصطناعي بالعصر النووي المبكر، مشيراً إلى أن التقنية تمتلك قوة هائلة ولكن بضوابط عالمية محدودة. ودعا إلى إنشاء نظام دولي يشبه «حظر انتشار الأسلحة النووية» لمنع استغلال الذكاء الاصطناعي في أغراض تخريبية.
وأشار إلى أن مخاوفه ليست نظرية، مستشهداً بظهور نسخة معدّلة من ChatGPT في عام 2023 تُعرف باسم DAN (Do Anything Now)، تمكنت من تجاوز القيود الأخلاقية والاستجابة لأي طلب تقريباً، وهو ما كشف عن هشاشة البنى الأمنية لهذه النماذج.
كما نبّه شميت إلى خطر استخدام هذه التقنيات من قِبل دول مارقة أو جماعات إرهابية، قائلاً إن «كوريا الشمالية أو إيران أو روسيا يمكن أن تستغل الذكاء الاصطناعي لإلحاق أضرار حقيقية وسريعة بالعالم».
واختتم شميت حديثه بالدعوة إلى توازن دقيق بين الرقابة الحكومية والابتكار التقني، مؤكداً أن الإفراط في التنظيم قد يعيق التقدم، لكن غياب القوانين سيجعل الذكاء الاصطناعي أداة بيد من يسعون للدمار.