اختراق بوابات الذكاء الاصطناعي: ثغرة LiteLLM الحرجة تفتح الأبواب لتسريب البيانات الحساسة

فريق جلتش
٢٩ أبريل ٢٠٢٦0 مشاهدة4 دقائق
اختراق بوابات الذكاء الاصطناعي: ثغرة LiteLLM الحرجة تفتح الأبواب لتسريب البيانات الحساسة

"كشف تقرير أمني عن ثغرة SQLi حرجة (CVE-2026-42208) في بوابة LiteLLM تتيح للمهاجمين سرقة مفاتيح API وبيانات حساسة دون الحاجة لمصادقة. يجب على المؤسسات تحديث أنظمتها فوراً لتجنب تسريب بيانات محادثات الذكاء الاصطناعي."

مقدمة تحليلية

في تطور مقلق يعكس هشاشة البنية التحتية المحيطة بأنظمة الذكاء الاصطناعي، تم الكشف عن استغلال نشط لثغرة أمنية حرجة في LiteLLM، وهو أحد أشهر الحلول مفتوحة المصدر المستخدمة كبوابة (Gateway) لإدارة نماذج اللغة الكبيرة. الثغرة التي تم تتبعها تحت الرمز CVE-2026-42208، تمثل تهديداً مباشراً للمؤسسات التي تعتمد على هذا الوسيط لربط تطبيقاتها بمزودي خدمات الذكاء الاصطناعي مثل OpenAI وAnthropic وGoogle Gemini. ما يجعل هذا التهديد استثنائياً هو طبيعة الثغرة التي تندرج تحت فئة حقن SQL (SQL Injection) في مرحلة ما قبل المصادقة (Pre-authentication)، مما يعني أن المهاجم لا يحتاج إلى أي صلاحيات وصول أو حسابات صالحة لبدء الهجوم.

تكمن الخطورة القصوى هنا في أن LiteLLM لا يعمل كجهاز توجيه بسيط فحسب، بل يقوم بتخزين سجلات الاستخدام، ومفاتيح API، وبيانات المستخدمين، وإحصائيات الاستهلاك في قواعد بيانات داخلية. وبمجرد نجاح عملية الحقن، يتمكن المهاجم من استخراج هذه البيانات الحساسة بالكامل، مما يمنحه القدرة على انتحال هوية المؤسسة، وسرقة أرصدة الـ API، والوصول إلى محادثات الذكاء الاصطناعي السرية التي قد تحتوي على أسرار تجارية أو بيانات شخصية. هذا الهجوم يسلط الضوء على فجوة أمنية في "سلسلة توريد البرمجيات" الخاصة بالذكاء الاصطناعي، حيث يتم التركيز غالباً على أمن النموذج نفسه مع إهمال أمن الأدوات الوسيطة.

التحليل التقني

من الناحية التقنية، تقع الثغرة CVE-2026-42208 في طبقة معالجة الطلبات الواردة التي تسبق التحقق من الهوية. يعتمد LiteLLM في بنيته التحتية على لغة Python وإطارات عمل تتعامل مع قواعد بيانات SQL لتخزين بيانات التكوين والتبعيات. الخلل يكمن في عدم تعقيم (Sanitization) المدخلات بشكل كافٍ في إحدى نهايات الـ API (Endpoints) المسؤولة عن معالجة طلبات معينة قبل أن يتم تمريرها إلى استعلام SQL.

ميكانيكية الهجوم وتفاصيل الثغرة:

  • نوع الثغرة: SQL Injection (SQLi) - تتيح التلاعب باستعلامات قاعدة البيانات الأساسية.
  • موقع الخلل: في مسار معالجة البيانات التعريفية (Metadata) للطلبات قبل تفعيل وحدة المصادقة.
  • التأثير: تجاوز كامل لآليات الحماية (Authentication Bypass) والوصول المباشر للجداول الحساسة.
  • قاعدة البيانات المتأثرة: تشمل الإعدادات الافتراضية لقواعد البيانات المدعومة من LiteLLM مثل PostgreSQL وSQLite.

المهاجمون يستخدمون أدوات آلية لمسح الإنترنت بحثاً عن بوابات LiteLLM المكشوفة، ثم يقومون بإرسال طلبات HTTP مصممة خصيصاً تحتوي على شيفرات SQL خبيثة في ترويسات الطلب (Headers) أو في معلمات الـ URL. نظراً لأن الثغرة تحدث قبل المصادقة، فإن نظام الدفاع في LiteLLM يفشل في حظر الطلب، ويقوم بتنفيذ الشيفرة مباشرة في قاعدة البيانات. النتائج المترتبة على ذلك تشمل تسريب جداول 'request_logs' التي تحتوي على كل ما يتم إرساله للنماذج، وجدول 'users' الذي يحتوي على مفاتيح الوصول المشفرة وغير المشفرة.

السياق وتأثير السوق

لقد أصبح LiteLLM معياراً فعلياً (De facto standard) للعديد من الشركات الناشئة وحتى الشركات الكبيرة التي ترغب في توحيد واجهات برمجة التطبيقات لنماذج اللغة المتعددة. هذا الانتشار الواسع يجعل من CVE-2026-42208 "ثغرة ذهبية" للمهاجمين، تشبه في تأثيرها ثغرات Log4j التي ضربت تطبيقات Java سابقاً. في سوق الذكاء الاصطناعي الحالي، تُعد بوابات LLM هي "نقاط الاختناق" الأمنية؛ فإذا سقطت البوابة، سقطت منظومة الخصوصية بالكامل.

بالمقارنة مع المنافسين مثل LangChain أو بوابات الحوسبة السحابية الأصلية (مثل AWS Bedrock)، يوفر LiteLLM مرونة عالية جداً، ولكن هذه المرونة جاءت على حساب وتيرة التدقيق الأمني. السوق يتفاعل الآن بحذر؛ حيث بدأت فرق الـ DevSecOps في مراجعة كافة الأدوات مفتوحة المصدر التي تتوسط تدفق بيانات الذكاء الاصطناعي. الهجوم على LiteLLM يثبت أن المهاجمين انتقلوا من محاولة "كسر الحماية" (Jailbreaking) للنماذج إلى استهداف البنية التحتية التقليدية التي تشغل هذه النماذج.

رؤية Glitch4Techs

في Glitch4Techs، نرى أن ثغرة CVE-2026-42208 ليست مجرد خطأ برمجياً، بل هي جرس إنذار حقيقي. المشكلة ليست في LiteLLM بحد ذاته، بل في "ثقافة التسرع" لتبني أدوات الذكاء الاصطناعي دون إجراء اختبارات اختراق (Penetration Testing) شاملة. الاعتماد على أدوات مفتوحة المصدر لإدارة مفاتيح API تكلف آلاف الدولارات وتمر عبرها بيانات حساسة يتطلب وضعها خلف جدران حماية وتطبيقات (WAF) قوية، وعدم الاكتفاء بالمصادقة الداخلية للأداة.

نتوقع أن نرى موجة من التحديثات الأمنية الإلزامية في الأيام القادمة، وننصح مديري الأنظمة بالقيام بالآتي فوراً:

  • تحديث نسخة LiteLLM إلى أحدث إصدار متوفر فوراً.
  • عزل قاعدة بيانات البوابة في شبكة داخلية لا يمكن الوصول إليها من الإنترنت مباشرة.
  • استخدام حلول WAF لتصفية محاولات حقن SQL قبل وصولها للبوابة.
  • تغيير كافة مفاتيح API الخاصة بـ OpenAI/Anthropic التي تم تخزينها في LiteLLM قبل هذا التاريخ.
المستقبل سيتطلب "أمناً متخصصاً للذكاء الاصطناعي" لا يهتم فقط بما يقوله النموذج، بل بكيفية وصول البيانات إليه ومن يملك السيطرة على المسار.

أعجبك المقال؟ شاركه

النشرة البريدية

كن أول من يعرف بمستقبل التقنية

أهم الأخبار والتحليلات التقنية مباشرة في بريدك.