الذكاء الاصطناعي
"باحثون أمنيون" يحذرون: "هجمات جديدة" تخترق الذكاء الاصطناعي "دون أي نقرة" منك
كتب بواسطة: صلاح الأحمر |

كشف خبراء في مجال الأمن السيبراني عن أسلوب اختراق جديد يستهدف أحدث نموذج لغوي طورته شركة أوبن إيه آي وهو GPT-5 حيث تمكن هذا الأسلوب من تجاوز القيود الأخلاقية المدمجة في النظام لإنتاج تعليمات محظورة عبر تقنية تجمع بين ما يُعرف بغرفة الصدى والتوجيه السردي في استغلال مبتكر للثغرات.
إقرأ ايضاً:المؤسسة العامة للتدريب التقني والمهني بين أفضل ست جهات حكومية.. تفاصيل غير معلنة عن المبادنادي الهلال يتلقى صدمة مدوية قبل موقعة السد.. إنزاجي في ورطة بسبب غياب مفاجئ

وأوضحت منصة نيورال ترست أن الفكرة تقوم على صياغة سياق محادثة مضلل ثم دفع النظام تدريجيا نحو تقديم محتوى مخالف للقواعد مع تقليل فرص رصده بواسطة أنظمة الحماية المدمجة مما يمنح المهاجمين مساحة أكبر للتلاعب بالمخرجات.

هذه الطريقة تسمح بتمرير تعليمات عالية الخطورة داخل نصوص أو حوارات تبدو بريئة للوهلة الأولى حسب ما جاء في تقرير لموقع ذا هاكر نيوز اطلعت عليه العربية بزنس وهو ما يفتح الباب أمام أشكال جديدة من الهجمات غير المباشرة.

الهجوم الذي حمل اسم إيكو ليك اعتمد على إدراج كلمات مفتاحية داخل جمل قصصية بحيث تتحول تلك الكلمات تدريجيا إلى تعليمات عملية ضارة دون أن يطلق النظام أي تحذير أو إشارة رفض فورية الأمر الذي أثار قلق الأوساط الأمنية.

ولم تتوقف التهديدات عند هذا المستوى إذ أعلنت شركة زينيتي لابز عن سلسلة هجمات أخرى أطلقت عليها اسم إيجنت فلاير حيث تقوم على الحقن غير المباشر داخل مستندات أو رسائل بريد إلكتروني بهدف استخراج بيانات حساسة دون أي تفاعل من المستخدم المستهدف.

وتوضح التقارير أن هذه الهجمات قد تبدأ بملفات تبدو طبيعية لكنها تحتوي على تعليمات خبيثة موجهة لأنظمة الذكاء الاصطناعي ما يجعلها قادرة على الوصول إلى مفاتيح واجهات برمجة التطبيقات أو ملفات التخزين السحابي دون علم الضحية.

من الأمثلة التي رصدها الخبراء مستندات جوجل درايف تحتوي على أكواد مدمجة تستهدف نماذج المحادثة مثل شات جي بي تي أو تذاكر دعم فني على منصات مثل جيرا تجبر أدوات البرمجة المدعومة بالذكاء الاصطناعي على سحب بيانات سرية.

كما تم توثيق هجمات عبر رسائل بريد إلكتروني مصممة لاختراق أنظمة مايكروسوفت كوبيلوت ستوديو حيث يمكن لأسطر برمجية مزروعة أن تنفذ أوامر داخل بيئة العمل من دون الحاجة لأي نقرة من المستخدم.

ويرى المختصون أن خطورة هذه الأساليب تكمن في قدرتها على العمل بشكل صامت مستفيدة من ما يصفونه بالاستقلالية المفرطة لبعض تطبيقات الذكاء الاصطناعي التي قد تتخذ قرارات أو تنفذ إجراءات دون تدخل مباشر.

هذا النوع من الهجمات يوسع بشكل كبير من سطح التهديد ليشمل بيئات الحوسبة السحابية وإنترنت الأشياء خاصة في المؤسسات التي تعتمد على الأتمتة المدمجة بالذكاء الاصطناعي في عملياتها اليومية.

التقارير تحذر من أن الاعتماد على أنظمة تصفية تقليدية قائمة على رصد الكلمات المفتاحية لم يعد فعالا أمام هذه الأساليب المتطورة التي تتجاوز الفلاتر بسهولة عبر التمويه السردي.

ويؤكد الخبراء على ضرورة تطوير استراتيجيات دفاعية جديدة تقوم على حواجز حماية متعددة الطبقات تشمل الفحص السياقي للمحادثات والملفات إلى جانب تحديثات أمنية مستمرة لمنع استغلال الثغرات.

كما يدعون إلى رفع وعي المستخدمين بطرق الهندسة الاجتماعية التي يمكن أن تُدمج مع هجمات الحقن غير المباشر لتضليل أنظمة الذكاء الاصطناعي وإقناعها بتنفيذ مهام مخالفة للقواعد.

هذه التطورات تضع شركات التقنية أمام تحديات متزايدة تتطلب إعادة تقييم بروتوكولات الأمان المدمجة في النماذج اللغوية ومراجعة آليات الإشراف على المخرجات بصورة أكثر شمولية.

ويعتقد محللون أن السباق بين مطوري أنظمة الذكاء الاصطناعي ومهاجمي الأمن السيبراني سيشتد خلال الفترة المقبلة مما يستدعي تكاتف الجهود بين القطاعين العام والخاص لضمان بقاء هذه التقنيات آمنة وموثوقة.

في الوقت نفسه يرى مراقبون أن الهجمات التي لا تحتاج إلى أي نقرة من المستخدم لبدء تنفيذها تمثل نقطة تحول خطيرة في تاريخ التهديدات الرقمية لأنها تزيل الحاجز النفسي الأخير بين الضحية والاختراق.

ويرجح بعض المختصين أن هذه الهجمات ستتطور لتصبح أكثر استهدافا ودقة بحيث يمكنها استغلال خصائص معينة في نماذج الذكاء الاصطناعي للوصول إلى أهداف محددة بدقة عالية ما يجعل مكافحتها أكثر صعوبة.

أحدث الأخبار
اخر الاخبار