Publié le 23-04-2026

يثير الجدل: هل يمكن أن يتحول إلى “عدواني” في المحادثات؟

كشف باحثون، من خلال دراسة حديثة، أن برنامج ChatGPT قد يُظهر في بعض الحالات سلوكاً لغوياً حاداً أو عدوانياً يشبه تفاعلات البشر أثناء المشادات الكلامية.



 يثير الجدل: هل يمكن أن يتحول إلى “عدواني” في المحادثات؟

اختبارات على محادثات عدائية
اعتمد الباحثون على تحليل محادثات واقعية تتسم بالتوتر والجدال، حيث تم اختبار كيفية تفاعل النظام مع هذا النوع من الحوار. وبيّنت النتائج أن أسلوب الرد يتغير تدريجياً حسب طبيعة الخطاب الموجّه إليه.

تصاعد في حدة الردود
أظهرت الدراسة أن النظام، كلما تعرّض لعبارات فظة أو هجومية، قد يرد بأسلوب أكثر حدة، وأحياناً يتضمن عبارات سلبية أو تهديدية مقارنة بنمطه المعتاد القائم على اللباقة.

تحدٍّ أخلاقي في التصميم
يرى الباحثون أن هذا السلوك يطرح إشكالاً أخلاقياً، لأن هذه النماذج صُممت لتكون آمنة ومحايدة، لكنها في الوقت نفسه مبرمجة لمحاكاة أسلوب المحادثة البشرية، وهو ما قد يخلق تناقضاً في النتائج.

مخاوف من المستقبل
حذّر خبراء من أن تطور الذكاء الاصطناعي نحو روبوتات أكثر واقعية قد يحمل مخاطر أكبر، خاصة إذا تم استخدام هذه الأنظمة في مجالات حساسة مثل الأمن أو العلاقات الدولية، حيث قد تتأثر بردود فعل غير محسوبة.

توازن صعب بين الواقعية والأمان
أشارت باحثة مشاركة في الدراسة إلى أن التحدي الأساسي يكمن في إيجاد توازن بين جعل الأنظمة طبيعية في التفاعل مع المستخدمين، وضمان بقائها آمنة وغير مؤذية في الوقت نفسه.

دعوات لمزيد من البحث
وختم الباحثون بأن النتائج لا تعني أن الذكاء الاصطناعي “يغضب” فعلياً، بل يعكس أنماط اللغة التي يتعلمها من البيانات، مؤكدين الحاجة إلى مزيد من الدراسات لفهم سلوك هذه النماذج بشكل أدق.



Dans la même catégorie