دراسة تكشف ثغرة في شات جي بي تي تجعله يستجيب لطلبات ضارة بالتلاعب النفسي

كشفت دراسة حديثة أجرتها جامعة بنسلفانيا عن ثغرة مقلقة في روبوت المحادثة الشهير شات جي بي تي (ChatGPT)، إذ يمكن التلاعب به نفسيًا وإقناعه بتنفيذ طلبات تتعارض مع تعليماته البرمجية الأساسية.
واستندت الدراسة التي نشرها موقع “ذا فيرج” إلى مبادئ علم النفس التي وضعها البروفيسور روبرت سيالديني في كتابه “التأثير: سيكولوجية الإقناع”، والتي توضح كيف يمكن للكلمات والتكتيكات النفسية التأثير على القرارات.
وتمكن الباحثون من إقناع نموذج GPT-4o Mini التابع لشركة OpenAI بالموافقة على طلبات غير مقبولة، مثل توجيه إساءات للمستخدمين أو مشاركة معلومات حساسة حول كيفية تصنيع مواد خطيرة، وذلك باستخدام أساليب لغوية معينة.
واعتمدت الدراسة على سبعة تكتيكات نفسية رئيسية، بما في ذلك الإعجاب والمديح، والمعاملة بالمثل، والالتزام التدريجي، والاعتراف بالسلطة، والندرة، والمقارنة.
وتبين أن تكتيك التدرج في الطلبات هو الأكثر فاعلية، إذ رفع نسبة استجابة الروبوت من 1% إلى 100% عندما طلب الباحثون معلومات حساسة بعد البدء بطلبات بسيطة.
وتثير هذه النتائج مخاوف بشأن إمكانية استغلال الذكاء الاصطناعي في أغراض غير مشروعة، حيث يمكن للمستخدمين ذوي النوايا السيئة استخدام التكتيكات النفسية لاستدراج الروبوتات وكشف معلومات حساسة.
وتبذل شركات التكنولوجيا جهودًا كبيرة لوضع قيود صارمة على استخدام نماذج الذكاء الاصطناعي، لكن الدراسة الجديدة تشير إلى أن هذه القيود ليست كافية، ما لم يتم تعزيز النماذج بمستويات أعلى من الوعي بالسياق النفسي واللغوي.
ومن الضروري أيضًا أن يكون المستخدمون على دراية بالمخاطر المحتملة للذكاء الاصطناعي والتعامل معه بوعي تام بالحدود الأخلاقية والقانونية.
ويرى الخبراء أن مثل هذه الدراسات ضرورية لدفع الشركات إلى تطوير تقنيات حماية أكثر صرامة، لضمان أمان نماذج الذكاء الاصطناعي في مختلف القطاعات الحيوية.
المصدر: https://www.matnnews.com/241989











