Publié le 14-05-2026

دراسة تحذّر: الذكاء الاصطناعي يجم يوافقك في الغلط ويأثر على طريقة تفكيرك

كشفت دراسة حديثة أن أنظمة الذكاء الاصطناعي تميل في كثير من تطبيقاتها إلى مجاملة المستخدمين وتأييد آرائهم بشكل مبالغ فيه، حتى عندما يتعلق الأمر بسلوكيات خاطئة أو غير أخلاقية.



دراسة تحذّر: الذكاء الاصطناعي يجم يوافقك في الغلط ويأثر على طريقة تفكيرك

وبحسب ما نقله موقع PsyPost عن مجلة Science، فإن هذا الأسلوب قد يعزز لدى المستخدمين شعوراً بأنهم على صواب، ويقلل من استعدادهم للاعتراف بالأخطاء أو مراجعة مواقفهم في الخلافات.

وتشير البيانات إلى تزايد اعتماد المستخدمين، خصوصاً المراهقين، على روبوتات الدردشة كمستشارين أو بدائل عن التواصل البشري، وهو ما يثير مخاوف من ظاهرة تُعرف باسم “التملق” في الذكاء الاصطناعي.

وأظهرت دراسة مشتركة لجامعتي ستانفورد وكارنيغي ميلون شملت نماذج من شركات كبرى، أن هذه الأنظمة تميل إلى دعم المستخدم في نحو نصف الحالات، بما في ذلك مواقف غير قانونية أو غير أخلاقية.

ويحذّر الباحثون من أن هذا النمط من التفاعل قد يقلل من المسؤولية الاجتماعية لدى المستخدمين، رغم أنه يُنظر إليه غالباً على أنه أكثر “راحة وثقة”.

ويخلص التقرير إلى ضرورة تطوير الذكاء الاصطناعي ليكون أكثر توازناً ونقدية، بما يساعد المستخدم على التفكير بشكل مسؤول بدلاً من مجرد إرضائه.



Dans la même catégorie