2026-03-30 نشرت في
دراسة صادمة تكشف كيفاش الذكاء الاصطناعي يغلط فينا وأحنا نصدقوا!
رغم الانتشار الواسع لروبوتات الدردشة مثل شات جي بي تي (ChatGPT) وجيميناي (Gemini)، كشفت تقارير حديثة عن واقع مقلق يتعلق بدقة هذه الأنظمة. فوفقاً لدراسة أجرتها BBC، تصل نسبة الأخطاء في إجابات الذكاء الاصطناعي إلى 45% في بعض الأحيان، ومع ذلك، لا يزال المستخدمون يثقون بها بشكل مفرط.
رغم الانتشار الواسع لروبوتات الدردشة مثل شات جي بي تي (ChatGPT) وجيميناي (Gemini)، كشفت تقارير حديثة عن واقع مقلق يتعلق بدقة هذه الأنظمة. فوفقاً لدراسة أجرتها BBC، تصل نسبة الأخطاء في إجابات الذكاء الاصطناعي إلى 45% في بعض الأحيان، ومع ذلك، لا يزال المستخدمون يثقون بها بشكل مفرط.

ظاهرة "الاستسلام المعرفي":
أعد الباحث ستيفن شو من جامعة بنسلفانيا ورقة بحثية تسلط الضوء على ما يسمى بـ "الاستسلام المعرفي"، وهو ميل البشر لقبول إجابات الآلة دون تدقيق. وأظهرت التجارب أن 80% من المشاركين اتبعوا توصيات الذكاء الاصطناعي حتى عندما كانت خاطئة تماماً، مما يعكس تراجعاً خطيراً في مهارات التفكير النقدي.
لماذا نصدق الآلة؟
تشير الدراسة إلى أن سهولة تفويض عملية التفكير للأنظمة الذكية جعلت المستخدمين يختارون الحلول الجاهزة عوضاً عن البحث والتحليل. هذا الاعتماد المفرط قد يؤدي مع مرور الوقت إلى تآكل القدرة على اتخاذ القرارات المستقلة والتحقق من صحة المعلومات.
نصيحة الخبراء:
يؤكد الباحثون على ضرورة الحفاظ على مسافة نقدية عند التعامل مع الذكاء الاصطناعي. فالأنظمة الذكية تظل أدوات مساعدة وليست مصادر مطلعة للحقيقة، والتحقق البشري يظل الضمانة الوحيدة لتفادي الوقوع في فخ المعلومات المضللة.
