Connect with us

أمن الذكاء الاصطناعي ليس معطباً، نحن ندافع فقط عن الأشياء الخاطئة

قادة الفكر

أمن الذكاء الاصطناعي ليس معطباً، نحن ندافع فقط عن الأشياء الخاطئة

mm

تعتمد صناعة الأمن السيبراني نمطاً عند ظهور تقنية جديدة، فنبدأ فوراً ببناء جدران حولها. لقد فعلنا ذلك مع السحابة، وفعلنا ذلك مع الحاويات، والآن، نفعل ذلك مع الذكاء الاصطناعي، إلا أننا هذه المرة نبني الجدران في أماكن خاطئة تماماً.

ادخل إلى أي استعراض أمني للمؤسسة اليوم، وستسمع نفس الأولويات: تأمين نماذج الذكاء الاصطناعي، حماية بيانات التدريب، التحقق من الإخراج، وتطوير مساعدين مدربين بالذكاء الاصطناعي. تعجل الشركات ببيع أدوات “أمن الذكاء الاصطناعي” تركز حصرياً على ضوابط مستوى النموذج، مثل الحواجز، دفاعات الحقن، ومنصات مراقبة النموذج.

لكن المهاجمين يستخدمون تكاملات الذكاء الاصطناعي كطرقات إلى كل شيء آخر.

مساحة الهجوم الحقيقية التي لا يراقبها أحد

نمط واحد نلاحظه باستمرار عبر بيئات المؤسسات يروي قصة مخيفة عن فرق الأمن التي تستثمر بكثافة في تأمين بيئات تطوير الذكاء الاصطناعي: ضوابط الوصول إلى النموذج، إطارات الحوكمة للبيانات، أدوات أمن MLOps. هذا يمنح ثقة خاطئة بأن الذكاء الاصطناعي “مؤمن”.

لكن عندما تخطط مساحة الهجوم الفعلية، ترى أن بوتات الدردشة بالذكاء الاصطناعي غالباً ما تحتوي على رموز OAuth لآلاف منصات SaaS، ومفاتيح API مع صلاحيات سحابية زائدة، وعلاقات ثقة الهوية التي يمكن أن تخلق مسارات مباشرة من حقن بسيطة إلى البنية التحتية للانتاج. قد تكون النماذج نفسها آمنة، لكن النظم البيئية التي تعيش فيها غالباً ما تكون مفتوحة على مصراعيها، وهذا ليس حالة حافة.

تستخدم المؤسسات الآن متوسط 130+ تطبيق SaaS، مع تكاملات الذكاء الاصطناعي التي تشمل مزودي الهوية، وبنية السحابة، وقواعد البيانات، والأنظمة الحرجة للأعمال. كل تكامل هو مسار هجوم محتمل، وكل اتصال API هو حدود ثقة التي يبحث المهاجمون عنها بنشاط.

المشكلة ليست أن أدوات أمن الذكاء الاصطناعي مكسورة. إنها أننا نأمّن مكونات فردية بينما يستغل المهاجمون الاتصالات بينها.

لماذا يفوت الأمن المتمركز حول النموذج النقطة

يعمل النهج الحالي لأمن الذكاء الاصطناعي على سوء فهم أساسي لطريقة عمل الهجمات الحديثة. نعامل الذكاء الاصطناعي كأصل مستقل يحتاج إلى حماية، مشابهاً لطريقة تأمين قاعدة بيانات أو تطبيق ويب. لكن الذكاء الاصطناعي في الإنتاج لا يوجد في عزل. إنه عقدة في граф معقد من الهويات، والصلاحيات، وAPI، وتدفقات البيانات.

فكر في نشر الذكاء الاصطناعي النموذجي للمؤسسة. لديك وكلاء الذكاء الاصطناعي مع الوصول إلى مساحة العمل على جوجل. متصل بSalesforce من خلال API. متكامل مع Slack للتنبيهات. يسحب البيانات من سلال السحابة AWS S3. يتم التأكد من صحة الهوية من خلال Okta أو Azure AD. يؤدي إلى تشغيل سير عمل في ServiceNow.

يركز الأمن التقليدية للذكاء الاصطناعي على النموذج نفسه: موقفه الأمني، التحقق من الحقن، سلامة الإخراج. لكن المهاجمين يركزون على التكاملات: ما يمكنهم الوصول إليه من خلال حسابات الخدمة المخترقة، حيث يمكنهم التحرك من خلال التلاعب بAPI، والتي يمكنهم عبور حدود الثقة من خلال التكاملات المخترقة.

الهجوم لا يبدأ أو ينتهي مع نموذج الذكاء الاصطناعي. النموذج هو مجرد نقطة الدخول.

مسارات الهجوم لا تحترم حدود المنتجات

هنا يتعثر معظم المنظمات. لقد نشروا أدوات أمنية توفر رؤية إلى مجال واحد فقط. أداة واحدة تتابع صلاحيات السحابة. أداة أخرى تتابع تكوينات SaaS. أداة ثالثة تدير حوكمة الهوية. أداة رابعة تتعامل مع إدارة الثغرات.

كل أداة تظهر لك جزءاً من اللغز. لا تظهر لك كيفية连接 الأجزاء.
وفقاً لشركة Gartner، تستخدم المنظمات الآن متوسط 45+ أداة أمنية. ومع ذلك، على الرغم من الاستثمار الهائل هذا، ينجح المهاجمون في ربط سوء التكوين عبر هذه المجالات لأن لا أداة واحدة يمكنها رؤية مسار الهجوم الكامل.

لا يحتاج المهاجم إلى العثور على ثغرة حرجة في نموذج الذكاء الاصطناعي. يحتاج فقط إلى العثور على سلسلة. ربما يكون دور IAM مخترق متصل بخدمة الذكاء الاصطناعي، والتي لها صلاحيات لسلة S3، والتي تحتوي على بيانات اعتماد لتطبيق SaaS له حق الوصول الإداري إلى بيئة الإنتاج.

قد تُقيم كل سوء تكوين فردي “متوسط” أو “منخفض” في أدوات الأمن الخاصة بك. لكنها عندما ترتبط معاً؟ هذا هو التعرض الحرج. وهو غير مرئي إذا كنت تنظر إلى كل مجال أمني على حدة.

الضرورة الإدارية للتعرّض

هذا هو السبب الذي يحتاج فيه الحديث إلى التحول من “أمن الذكاء الاصطناعي” إلى إدارة تعرّض التهديد المستمرة لبيئات متكاملة مع الذكاء الاصطناعي.

ليس من الكافِ أن نسأل عما إذا كانت نماذج الذكاء الاصطناعي الخاصة بنا آمنة. تحتاج فرق الأمن إلى فهم ما يمكن للمهاجم الوصول إليه إذا تم اختراق حساب خدمة الذكاء الاصطناعي. تحتاجون إلى رؤية كيف يمكن لسوء التكوين عبر أنظمة السحابة، وSaaS، والهوية أن يرتبط معاً. تحتاجون إلى معرفة كيف تتغير تكاملات الذكاء الاصطناعي لمساحة الهجوم في الوقت الفعلي. ويتعين عليهم تحديد الأولويات بناءً على قابلية الهجوم الفعلي، وليس فقط درجات الخطورة.

برامج الأمن لا تزال تُrioritizes المخاطر بشكل منفصل، باستخدام درجات CVSS وقوائم التحقق من الامتثال التي تتجاهل تماماً ما إذا كانت الثغرة قابلة للاستغلال في بيئتك الخاصة.

هذا الفجوة أكثر وضوحاً مع أنظمة الذكاء الاصطناعي لأنها تتغير باستمرار. يتم إضافة تكاملات جديدة أسبوعياً. تتطور الصلاحيات. تتغير الاتصالات بAPI. مساحة الهجوم الخاصة بك من الشهر الماضي ليست مساحة الهجوم الخاصة بك اليوم، لكن تقييم الأمن الخاص بك قد يكون كذلك.

ما يبدو الأمن المتعرف على مسار الهجوم

تأمين الذكاء الاصطناعي في الإنتاج يتطلب نهجاً جوهرياً مختلفاً، ويتعلق الأمر بأربعة تحولات رئيسية في التفكير.

أولاً، تحتاج إلى رؤية موحدة عبر مجالات الأمن. أوقفوا سؤال كل أداة أمنية للعمل في صومعتها الخاصة. أدوات أمن السحابة، وحوكمة الهوية، وإدارة SaaS، وفحص الثغرات جميعها تحتوي على أجزاء من لغز مسار الهجوم. يجب أن تتشارك البيانات في الوقت الفعلي حتى تتمكن من رؤية كيفية ربط سوء التكوين معاً.

ثانياً، اعتمد على محاكاة مسار الهجوم المستمرة. لا تنتظر الاختبارات الاختراقية أو تمارين الفريق الأحمر لاكتشاف مسارات قابلة للاستغلال. اختبر باستمرار كيف يمكن للمهاجم التحرك عبر بيئتك، مع التركيز على قابلية الاستغلال الفعلي بدلاً من الاعتماد على درجات الخطورة النظرية.

ثالثاً، أعد تحديد الأولويات بناءً على السياق. سلة S3 غير آمنة ليست حرجة فقط لأنها عامة. إنها حرجة إذا كانت عامة وتحتوي على بيانات اعتماد وتمتلك صلاحيات امتياز، وتكون قابلة للوصول من مورد معرض للإنترنت. السياق يهم أكثر من أي درجة فردية.

رابعاً، انتقل نحو الإصلاح الوقائي. بالوقت الذي يكون فيه فريق SOC الخاص بك يبحث في تنبيه، فقدت بالفعل وقت استجابة قيم. الدفاع الحديث يتطلب القدرة على إغلاق مسارات قابلة للاستغلال قبل أن يتم استغلالها، وليس بعد الحادث.

الإنذار الذي لا يمكننا تجاهله

مع اندماج الذكاء الاصطناعي في كل层 من Layers المؤسسية، تتوسع مساحة الهجوم بشكل أسرع مما يمكن لفرق الأمن التفكير فيه يدوياً. نحن نضيف تكاملات الذكاء الاصطناعي بعشر مرات سرعة تأمينها.

إذا كنت تأمن الذكاء الاصطناعي بمعزل، وتحمي النموذج بينما تتجاهل النظام البيئي الذي يعمل فيه، فأنت بالفعل متأخر. المهاجمون لا يفكرون في أدوات، يفكرون في مسارات. لا يستغلون ثغرات فردية. يرتبطون سوء التكوين عبر بيئتك بأكملها.

المؤسسات التي ستأمّن بنجاح الذكاء الاصطناعي لن تكون تلك التي لديها أكثر أدوات أمن الذكاء الاصطناعي. سيكونون أولئك الذين يفهمون أن أمن الذكاء الاصطناعي لا يمكن فصله عن إدارة التعرّض عبر مساحة الهجوم بأكملها.

أمن النموذج هو أشياء أساسية. ما يهم هو فهم ما يمكن للمهاجم الوصول إليه عندما يتم اختراق تكامل الذكاء الاصطناعي. حتى تتمكن فرق الأمن من الإجابة على هذا بشكل مستمر، في الوقت الفعلي، عبر بيئتهم بأكملها، ليسوا يأمّنون الذكاء الاصطناعي. هم فقط يأملون أن الجدران التي بنوها في المكان الصحيح.

Piyush Sharma، współzałożyciel i CEO Tuskira، posiada ponad dwie dekady doświadczenia w dziedzinie cyberbezpieczeństwa, wspartego licencjatem z informatyki i MBA. Jako serialowy przedsiębiorca z dwoma udanymi wyjściami, Piyush pełnił prominentne role w dziedzinie produktów i biznesu, w tym w firmach Symantec & Tenable. Był także CEO i współzałożycielem Accurics, które później zostało przejęte przez Tenable Inc. Jako uznanym wynalazcy, Piyush posiada kilkanaście patentów w dziedzinie cyberbezpieczeństwa, co świadczy o jego innowacyjnych wkładach w tę dziedzinę.