جوجل تحبط أول هجوم 'صفر اليوم' طُوّر بالكامل بواسطة الذكاء الاصطناعي

فريق جلتش
١٢ مايو ٢٠٢٦0 مشاهدة4 دقائق
جوجل تحبط أول هجوم 'صفر اليوم' طُوّر بالكامل بواسطة الذكاء الاصطناعي

"في سابقة تقنية، جوجل تحبط أول هجوم سيبراني من نوع 'صفر اليوم' تم تطويره بواسطة الذكاء الاصطناعي، مستهدفاً أنظمة المصادقة الثنائية عبر ثغرات منطقية معقدة."

مقدمة تحليلية

في تحول مفصلي يشهده تاريخ الأمن السيبراني، أعلنت مجموعة Google Threat Intelligence Group (GTIG) عن رصد وإحباط أول هجوم من نوع 'ثغرة اليوم الصفر' (Zero-day exploit) تم تطويره بمساعدة تقنيات الذكاء الاصطناعي التوليدي. هذا الاكتشاف لا يمثل مجرد حادثة أمنية عابرة، بل هو إعلان رسمي عن دخولنا عصر 'الحرب السيبرانية المؤتمتة'، حيث لم تعد النماذج اللغوية الكبيرة (LLMs) مجرد أدوات للمساعدة في كتابة الأكواد، بل أصبحت شريكاً تقنياً في ابتكار أسلحة رقمية معقدة قادرة على تجاوز أنظمة الدفاع التقليدية.

الخبر الصادم ليس في وجود الهجوم بحد ذاته، بل في الكفاءة التي أظهرها المهاجمون في استخدام الذكاء الاصطناعي لاكتشاف ثغرات منطقية معقدة في أنظمة المصادقة ثنائية العامل (2FA). إن قدرة المهاجمين على تطويع النماذج اللغوية لإنتاج سكريبتات Python خبيثة تتسم بالدقة العالية، تضع الشركات والمؤسسات التقنية أمام تحدٍ وجودي يتطلب إعادة ابتكار استراتيجيات الدفاع السيبراني لتواكب سرعة التهديدات المدعومة بالذكاء الاصطناعي.

التحليل التقني

كشف التقرير الفني الصادر عن جوجل عن تفاصيل دقيقة تشير بوضوح إلى بصمة الذكاء الاصطناعي في الكود البرمجي المستخدم للهجوم. الثغرة كانت تستهدف أداة إدارة أنظمة مفتوحة المصدر (Open-source system administration tool) تعتمد على الويب، حيث ركز الهجوم على تجاوز نظام المصادقة الثنائية عبر استغلال 'خلل منطقي عالي المستوى' (High-level semantic logic flaw).

المؤشرات الحيوية لاستخدام AI في تطوير الهجوم:

  • درجة CVSS وهمية (Hallucinated Score): أحد أبرز الأدلة كان وجود درجة تقييم خطورة (CVSS score) داخل الكود البرمجي، وهي درجة 'مهلوسة' لا تتطابق مع المعايير الواقعية، وهو سلوك نمطي معروف في النماذج اللغوية الكبيرة عندما تحاول ابتكار بيانات إحصائية تبدو مقنعة ولكنها غير صحيحة.
  • التنسيق الأكاديمي المثالي: الكود البرمجي كان منظماً بطريقة 'كتابية' (Textbook formatting)، تشبه إلى حد كبير البيانات التي تُستخدم في تدريب النماذج البرمجية، وهو ما يفتقر إليه عادةً الكود الذي يكتبه المبرمجون البشر في ظروف الهجمات الواقعية.
  • استغلال الافتراضات الصلبة (Hardcoded Trust): نجح الهجوم في تحديد نقطة ضعف في نظام 2FA حيث كان المطور قد برمج 'افتراض ثقة' ثابتاً، مما سمح للمهاجمين بالالتفاف على طبقة الأمان الإضافية والدخول للنظام بصلاحيات كاملة.

علاوة على ذلك، أشار التقرير إلى استخدام المهاجمين لتقنيات 'Persona-driven jailbreaking'، وهي محاولات لخداع نماذج الذكاء الاصطناعي عبر إقناعها بتقمص شخصية 'خبير أمني' لتوليد ثغرات أمنية دون تفعيل فلاتر الأمان الخاصة بالنموذج. كما تم رصد استخدام أداة OpenClaw لتحسين حمولات الهجمات (Payloads) في بيئات محكومة لزيادة موثوقية الاستغلال قبل إطلاقه الفعلي.

السياق وتأثير السوق

يأتي هذا الهجوم بعد أسابيع قليلة من الجدل الواسع حول قدرات نماذج الذكاء الاصطناعي المتخصصة في الأمن السيبراني، مثل نموذج Mythos من شركة Anthropic، والدي أعاد إشعال المخاوف حول كيفية حماية هذه النماذج من الاستغلال السيئ. كما يرتبط هذا السياق باكتشاف ثغرة Linux الأخيرة (CVE-2026-3141) التي تم رصدها أيضاً بمساعدة أدوات الذكاء الاصطناعي.

تأثير هذا الخبر على السوق سيكون هائلاً؛ حيث من المتوقع أن يرتفع الطلب بشكل جنوني على حلول 'الأمن السيبراني المعزز بالذكاء الاصطناعي' (AI-powered Cybersecurity). لم يعد بإمكان المدافعين الاعتماد على القواعد الثابتة (Signature-based detection)، بل أصبحوا بحاجة إلى نماذج ذكاء اصطناعي دفاعية يمكنها التنبؤ بالهجمات وتحليل الأكواد المشبوهة لحظياً. جوجل، من جانبها، أكدت أن نموذجها Gemini لم يُستخدم في هذا الهجوم، مما يفتح الباب للتساؤلات حول النماذج مفتوحة المصدر أو النماذج 'المظلمة' التي قد تكون قيد التطوير في الأوساط الإجرامية.

رؤية Glitch4Techs

في Glitch4Techs، نرى أن هذه الحادثة هي نقطة اللاعودة. نحن الآن ننتقل من مرحلة 'الذكاء الاصطناعي كأداة إنتاجية' إلى 'الذكاء الاصطناعي كعامل تهديد استراتيجي'. المشكلة الحقيقية لا تكمن فقط في قدرة AI على كتابة الكود، بل في قدرته على تحليل ملايين الأسطر من الأكواد المفتوحة المصدر في ثوانٍ لاكتشاف ثغرات منطقية قد تغيب عن العين البشرية لعقود.

توقعاتنا للمرحلة القادمة:

  • استهداف مكونات AI: كما ذكر تقرير جوجل، سيبدأ المهاجمون باستهداف 'المكونات المتكاملة' لأنظمة الذكاء الاصطناعي نفسها، مثل الموصلات المخصصة للبيانات (Data Connectors) لسرقة المعلومات الحساسة.
  • صراع النماذج: ستصبح الحروب السيبرانية عبارة عن صراع بين LLM دفاعي يحاول سد الثغرات و LLM هجومي يحاول اختراقها، مما يقلل التدخل البشري إلى أدنى مستوياته.
  • أزمة المصادر المفتوحة: الأدوات المفتوحة المصدر ستكون الأكثر عرضة للخطر، لأن أكوادها متاحة للنماذج اللغوية للتحليل والدراسة المستمرة، مما يتطلب معايير أمان جديدة كلياً للمشاريع البرمجية العامة.

الخلاصة: ما حققته جوجل بإيقاف هذا الهجوم هو نصر مؤقت في حرب طويلة الأمد. الأسلحة الرقمية القادمة لن تُكتب بالأيدي، بل ستُولد عبر الأوامر النصية (Prompts)، ومن يمتلك النموذج الأذكى هو من سيحسم المعركة في النهاية.

أعجبك المقال؟ شاركه

النشرة البريدية

كن أول من يعرف بمستقبل التقنية

أهم الأخبار والتحليلات التقنية مباشرة في بريدك.