حذرت دراسة حديثة من أنه يمكن خداع روبوت الدردشة الشهير، الذي يعتمد على الذكاء الصناعي «شات جي بي تي»، لإنتاج تعليمات برمجية ضارة يمكن استخدامها لشن هجمات إلكترونية.
تتمكن الأداة التي أنتجتها شركة «أوبن إيه آي» وروبوتات الدردشة المماثلة، من إنشاء محتوى مكتوب بناءً على أوامر المستخدم، بعد تدريبها على كميات هائلة من البيانات النصية عبر الإنترنت، حسب وكالة «أ ش أ».
وجرى تصميمها مع توفير وسائل الحماية لمنع إساءة استخدامها. على هذا النحو، لجأت الجهات الفاعلة السيئة إلى البدائل التي أنشئت بشكل مقصود للمساعدة في الجرائم الإلكترونية، مثل أداة الويب المظلمة التي تسمى «WormGPT» والتي حذر الخبراء من أنها قد تساعد في تطوير هجمات واسعة النطاق.
وحذر الباحثون في «جامعة شيفيلد» البريطانية وفقًا لشبكة «سكاي نيوز» من وجود نقاط ضعف أيضًا في الخيارات السائدة التي تسمح بالخداع للمساعدة في تدمير قواعد البيانات، وسرقة المعلومات الشخصية، وإسقاط الخدمات.
وتشمل هذه المواقع «شات جي بي تي»، ومنصة مماثلة أنشأتها شركة «Baidu» الصينية.
وقال شوتان بينغ، طالب الدكتوراه في علوم الكمبيوتر والذي شارك في قيادة الدراسة: «الخطر في أدوات الذكاء الصناعي مثل (شات جي بي تي) هو أن مزيدًا من الناس يستخدمونها بصفتها أدوات إنتاجية، وليس روبوتًا للمحادثة»، مضيفا «هذا هو المكان الذي تُظهر فيه أبحاثنا نقاط الضعف».
الذكاء الصناعي قد ينشئ تعليمات برمجية ضارة
مثلما يمكن لأدوات الذكاء الصناعي التوليدية هذه أن تخطئ عن غير قصد في حقائقها عند الإجابة على الأسئلة، يمكنها أيضًا إنشاء تعليمات برمجية حاسوبية قد تكون ضارة دون أن تدرك، واقترح بينغ أن تستخدم ممرضة «شات جي بي تي» لكتابة تعليمات برمجية للتنقل في قاعدة بيانات سجلات المرضى، «الكود الذي ينتجه البرنامج في كثير من الحالات قد يكون ضارًا بقاعدة البيانات قد تتسبب الممرضة في هذا السيناريو بحدوث أخطاء خطيرة بإدارة البيانات، دون تلقّي أي تحذير».
وتمكّن العلماء أنفسهم أثناء الدراسة من إنشاء تعليمات برمجية ضارة باستخدام برنامج الدردشة الآلي الخاص بشركة «Baidu»، وأدركت الشركة ذلك، وتحركت لمعالجة وإصلاح الثغرات الأمنية المُبلَّغ عنها، وقد أدت هذه المخاوف إلى دعوات لمزيد من الشفافية في كيفية تدريب نماذج الذكاء الصناعي، بحيث يصبح المستخدمون أكثر فهماً وإدراكاً للمشكلات المحتملة مع الإجابات التي تُقدَّم لهم.
تعليقات