2025-11-04 نشرت في

بشرى غير سارة لمستخدمي ChatGPT: ممنوع من تقديم النصائح الطبية والقانونية!

أعلنت شركة OpenAI، المطوّرة لتطبيق الذكاء الاصطناعي ChatGPT، عن تحديث جديد لسياسة استخدام منتجاتها، يقضي بمنع تقديم أي استشارات طبية أو قانونية فردية للمستخدمين، وذلك في خطوة تهدف إلى تعزيز حماية المستخدمين وضمان دقة المعلومات.



بشرى غير سارة لمستخدمي ChatGPT: ممنوع من تقديم النصائح الطبية والقانونية!

وبحسب القواعد الجديدة، لن يتمكن ChatGPT من تقييم المخاطر القانونية في سيناريوهات محددة أو صياغة استراتيجيات دفاع قضائية أو إعداد وثائق إجرائية. كما تم حظر تشخيص الأمراض أو وصف الأدوية أو تحديد الجرعات، بالإضافة إلى تفسير الصور الطبية مثل الأشعة السينية، التصوير بالرنين المغناطيسي، أو الصور الجلدية.

وأوضحت الشركة أن التطبيق سيقتصر على تقديم معلومات عامة مرجعية في هذه المجالات، مع التوصية بالتواصل مع مختصين مرخّصين كالأطباء والمحامين، عند الحاجة إلى استشارة دقيقة.

وأكدت OpenAI أن هذه التعديلات تشمل جميع منتجاتها، بما في ذلك واجهة الدردشة وواجهة البرمجة (API)، في إطار جهودها لضمان الاستخدام الآمن والمسؤول للذكاء الاصطناعي.

من جهة أخرى، أعلنت الشركة أنها ستبدأ ابتداءً من شهر ديسمبر في تخفيف سياسة المحتوى الموجهة للجمهور البالغ، حيث سيتمكن المستخدمون الذين اجتازوا التحقق من العمر من الوصول إلى نسخة أقل رقابة من ChatGPT، قد تتضمن محتوى إيروتيكياً موجهاً للبالغين.

ويأتي هذا القرار بعد أن أضافت الشركة في سبتمبر الماضي ميزة الرقابة الأبوية داخل ChatGPT، والتي تسمح للآباء بربط حساباتهم بحسابات أبنائهم المراهقين وتحديد مستوى القيود العمرية المناسبة.

بهذه الخطوة، تسعى OpenAI إلى تحقيق توازن بين حرية الاستخدام وحماية الفئات الحساسة، مؤكدة التزامها المستمر بـضوابط أخلاقية صارمة في تطوير أدوات الذكاء الاصطناعي.


في نفس السياق