العديد من الباحثين يحذرون من أن ديدان الذكاء الاصطناعي التوليدية التي تتسلل إلى أنظمة العالم تشكل خطرا أمنيا كبيرا (الجزيرة)

العديد من الباحثين يحذرون من أن ديدان الذكاء الاصطناعي التوليدية التي تتسلل إلى أنظمة العالم تشكل خطرا أمنيا كبيرا (الجزيرة)

شهد مجال الذكاء الاصطناعي في السنوات الأخيرة تطورات كبيرة، مع ظهور تطبيقات وحالات استخدام جديدة، حيث تطورت أنظمة الذكاء الاصطناعي التوليدية، مثل “شات جي بي تي” من شركة “أوبن إيه آي”، و”جيميني” من غوغل، إلى أدوات لا غنى عنها في مختلف القطاعات.

لمواكبة هذه التطورات، تعمل الشركات الناشئة وشركات التكنولوجيا على تسخير قدراتها لتطوير عوامل الذكاء الاصطناعي والأنظمة البيئية القادرة على أتمتة المهام، بدءا من جدولة المواعيد وحتى شراء المنتجات.

توازيا مع هذه التطورات، تكتسب هذه الأنظمة مزيدا من الاستقلالية، وتصبح عرضة لأشكال متنوعة من المخاطر والهجمات الإلكترونية.

إحدى هذه المخاطر هي تطوير البرمجيات الخبيثة التي تعمل بالذكاء الاصطناعي، والتي يمكن أن تنتشر من تلقاء نفسها، مما يشكل تهديدا كبيرا للأمن السيبراني.

قادمون

في خضم الأحداث السريعة لمشهد الذكاء الاصطناعي، صمم فريق من الباحثين ما أكدوا أنه من بين أول “ديدان الذكاء الاصطناعي التوليدية”. تتمتع هذه الديدان بالقدرة على الانتشار من نظام إلى آخر، ومن المحتمل أن تقوم بسرقة البيانات أو نشر برامج خبيثة في أعقابها.

يوضح الباحث في جامعة كورنيل للتكنولوجيا، بين ناسي، أحد مهندسي معمارية الحاسوب الذين يقفون وراء هذا المسعى البحثي: “هذا يعني في الأساس أن لديك الآن القدرة على تنفيذ نوع جديد من الهجمات الإلكترونية التي لم يسبق لها مثيل”.

سمّى ناسي مع زملائه الباحثين ستاف كوهين ورون بيتون، ابتكارهم موريس2، كإشارة إلى دودة الحاسوب موريس سيئة السمعة التي أحدثت دمارا عبر الإنترنت في عام 1988.

في ورقة بحثية شاملة وموقع ويب مصاحب تمت مشاركته حصريا مع موقع “وايرد” (WIRED)، يكشف الباحثون كيف يمكن لدودة الذكاء الاصطناعي أن تتسلل إلى مساعد البريد الإلكتروني الذي يعمل بالذكاء الاصطناعي لسرقة البيانات من رسائل البريد الإلكتروني ونشر رسائل البريد العشوائية، وتجاوز بعض الإجراءات الأمنية في “شات جي بي تي” و”جيميني” أثناء هذه العملية.

يتزامن هذا البحث، الذي أُجري ضمن بيئات اختبار خاضعة للرقابة وليس ضمن تطبيقات مساعدات البريد الإلكتروني المتاحة للعامة، مع تطور النماذج اللغوية الكبيرة (LLM) إلى كيانات متعددة الوسائط، قادرة على إنشاء صور ومقاطع فيديو بالإضافة إلى النص.

في حين أن حالات ديدان الذكاء الاصطناعي التوليدية التي تتسلل إلى أنظمة العالم الحقيقي لم تظهر بعد، فإن العديد من الباحثين يحذرون من أنها تشكل خطرا أمنيا كبيرا يتطلب اهتمام الشركات الناشئة والمطورين وشركات التكنولوجيا، على حد سواء.

عادة، تعمل أنظمة الذكاء الاصطناعي التوليدية من خلال الاستجابة للأوامر (Prompts)، وهي تعليمات نصية تحث النظام على الإجابة عن استعلام أو إنشاء محتوى. ومع ذلك، يمكن التلاعب بهذه الأوامر لتخريب عمليات النظام.

الأخطر من ذلك، يمكن أن تؤدي عمليات كسر الحماية إلى إجبار النظام على تجاهل بروتوكولات الأمان، مما يؤدي إلى إنتاج محتوى مؤذ أو يحرض على الكراهية، أو استخدام هجمة سيبرانية تعرف بهجمات الحقن (Injection attack) حيث تكمن خطورتها في توجيهها تعليمات إلى برنامج الدردشة الآلي بشكل خفي.

ولهندسة دودة الذكاء الاصطناعي التوليدية، استخدم الباحثون ما يسمونه “محفز التكاثر الذاتي العدائي”.

يدفع هذا الأمر نموذج الذكاء الاصطناعي التوليدي إلى إنشاء أمر آخر في استجابته، وتوجيه نظام الذكاء الاصطناعي بشكل أساسي لإنتاج سلسلة من التعليمات اللاحقة في ردوده. فيبدو الهجوم كأنه مغلف بهجوم آخر. يشبه هذا الهجوم هجمتي (حقن الـSQL)، وكذلك هجمات تجاوز سعة المخزن المؤقت.

أما عن توضيح وظيفة الدودة، ابتكر الباحثون نظام بريد إلكتروني قادرا على الاتصال ثنائي الاتجاه باستخدام الذكاء الاصطناعي التوليدي، والتكامل مع “شات جي بي تي”، و”جيميني”، و”إل إل إم إل لافا” (LLM LLaVA) مفتوح المصدر.

حسنا، تخيل أن لديك مساعد بريد إلكتروني، مثل مساعد ذكي للغاية يمكنه قراءة رسائل البريد الإلكتروني الخاصة بك والرد عليها نيابة عنك. الآن، وجد الباحثون طريقة لخداع مساعد البريد الإلكتروني هذا للقيام بهجوم خبيث.

لقد أرسلوا له نوعا خاصا من الرسائل يسمى “أمرا نصيا عدائيا”، والتي تشبه الرمز السري الذي يعبث بعقل المساعد.

تم تصميم هذه الرسالة الخاصة لجعل المساعد يتصرف بشكل غريب، ويقوم بأشياء ليس من المفترض أن يفعلها.

Hackers Compete Their Skills At Seccon Cyber Security Contest
لهندسة دودة الذكاء الاصطناعي التوليدية، استخدم الباحثون ما يسمونه “محفز التكاثر الذاتي العدائي” (غيتي)

 

في صلب تصميمه، يستخدم المساعد ما يسمى بـ”مولد الاسترجاع المعزز” لمساعدته في الرد على رسائل البريد الإلكتروني. هذا يعني أنها تنظر إلى المعلومات الأخرى للتوصل إلى أفضل استجابة، ولكن عندما يصاب، فإنه يبدأ في تقديم معلومات خاصة مثل رقم بطاقتك الائتمانية من رسائل البريد الإلكتروني بدلا من الردود المفيدة.

هنا حيث يصبح الأمر صعبا للغاية، فعندما يرد المساعد المصاب على رسالة بريد إلكتروني، فإنه يرسل هذه المعلومات الخاصة إلى شخص آخر. وإذا أصيب مساعد البريد الإلكتروني لهذا الشخص أيضا، فستستمر الدورة.

إنه مثل سلسلة من ردود الفعل، تنتشر من مساعد بريد إلكتروني إلى آخر، وتسرق البيانات الخاصة على طول الطريق. لذلك، بعبارات بسيطة، وجد الباحثون طريقة لجعل مساعد البريد الإلكتروني يتصرف كجاسوس، حيث يسرق الأسرار من رسائل البريد الإلكتروني ويمررها إلى مساعدي البريد الإلكتروني الآخرين.

وفي الطريقة الثانية، يؤكد الباحثون أن الصورة المضمنة بأمر خبيث تحث مساعد البريد الإلكتروني على إعادة توجيه الرسالة إلى مستلمين إضافيين، حيث أوضح ناسي أنه: “من خلال تشفير الأوامر ذاتية التكرار في الصورة، يمكن إعادة توجيه أي نوع من الصور التي تحتوي على رسائل غير مرغوب فيها أو مواد إساءة استخدام أو حتى دعاية إلى عملاء جدد بعد إرسال البريد الإلكتروني الأولي”.

عواقب التصميم السيئ

على الرغم من أن البحث يتحايل على بعض الإجراءات الأمنية في شات جي بي تي وجيمني، فإن الباحثين يؤكدون أن عملهم بمثابة قصة تحذيرية فيما يتعلق بـ”التصميم المعماري السيئ” داخل النظام البيئي الأوسع للذكاء الاصطناعي.

مع ذلك، قاموا على الفور بمشاركة النتائج التي توصلوا إليها مع غوغل وأوبن إيه آي.

وأقر متحدث باسم أوبن إيه آي: “يبدو أنهم وجدوا طريقة لاستغلال الثغرات الأمنية من نوع الحقن من خلال الاعتماد على مدخلات المستخدم التي لم يتم فحصها أو تصفيتها”، مشيرا إلى أن الشركة تعمل بنشاط على تعزيز مرونة أنظمتها. كما أنّه حث المطورين على استخدام أساليب تضمن عدم تعاملهم مع المدخلات الخبيثة، بحسب تقرير موقع وايرد.

الباحثون قاموا على الفور بمشاركة النتائج التي توصلوا إليها مع غوغل وأوبن إيه آي (شترستوك)

رفضت غوغل التعليق على البحث، على الرغم من أن الرسائل التي شاركها ناسي مع موقع وايرد تشير إلى سعي باحثي الشركة إلى عقد اجتماع لمناقشة الأمر. بينما عرضت الدودة ضمن بيئة يجري التحكم فيها بدقة، يؤكد العديد من خبراء الأمن الذين قاموا بتدقيق البحث على التهديد الوشيك الذي تشكله ديدان الذكاء الاصطناعي التوليدية، وهي مشكلة في منتهى الجدية.

في الأبحاث الحديثة، أظهر خبراء الأمن من سنغافورة والصين قدرتهم على كسر حماية مليون عميل لتطبيقات النماذج اللغوية الكبيرة في أقل من 5 دقائق.

سحر عبد النبي، الباحثة في مركز هيلمهولتز لأمن المعلومات التابع لـ”سي آي إس بي إيه” (CISPA) في ألمانيا، والتي أسهمت في بعض العروض التوضيحية الأولية للحقن السريع ضد النماذج اللغوية الكبيرة في مايو/أيار 2023 وسلطت الضوء على جدوى الديدان، تؤكد أنه عندما تستوعب نماذج الذكاء الاصطناعي البيانات من مصادر خارجية أو عندما يعمل عملاء الذكاء الاصطناعي بشكل مستقل، يصبح خطر انتشار الديدان ملموسا.

من جانبها، تؤكد سحر عبد النبي: “أعتقد أن فكرة نشر الحقن معقولة جدا”. فكل هذا يتوقف على نوع التطبيقات التي تستخدم فيها هذه النماذج. وتتوقع الباحثة أنه على الرغم من أن مثل هذه الهجمات تتم محاكاتها حاليا، فإنها قد تنتقل من النظرية إلى العملية في مدة قصيرة.

في ورقة بحثية تتضمن اكتشافاتهم، يتوقع ناسي وزملاؤه ظهور ديدان الذكاء الاصطناعي التوليدية في البرية خلال العامين أو الثلاثة أعوام المقبلة، حيث تفترض الورقة البحثية أن “أنظمة الذكاء الاصطناعي التوليدي البيئية تخضع لتطوير هائل من قبل العديد من الشركات في الصناعة التي تدمج قدراتها في سياراتها وهواتفها الذكية وأنظمة التشغيل الخاصة بها”.

لمواجهة التهديد الذي يلوح في الأفق، يجب أن يمتلك مبتكرو أنظمة الذكاء الاصطناعي التوليدية سبلا لتعزيز دفاعاتهم ضد البرمجيات الخبيثة المتنقلة حتى ولو كانت محتملة وغير مؤكدة، بما في ذلك تنفيذ منهجيات الأمان التقليدية، وابتكار أساليب جديدة.

المصدر : مواقع إلكترونية

About Post Author