ضوابط جديدة من OpenAI لاستخدام ChatGPT في الصحة النفسية لطبيب المستخدمين

أعلنت شركة OpenAI، الشركة الرائدة في مجال الذكاء الاصطناعي، عن مجموعة من الضوابط الجديدة المتعلقة باستخدام تطبيق ChatGPT في مجال الصحة النفسية. هذه الخطوة تأتي في إطار سعي الشركة لتحسين جودة الخدمات المقدمة من خلال تطبيقها، حيث تسعى إلى إرشاد المستخدمين بدلاً من تقديم نصائح مباشرة في القضايا العاطفية. التركيز سيكون على مساعدة الأفراد في اتخاذ قراراتهم بأنفسهم من خلال طرح أسئلة هادفة.
تحسين التجربة النفسية
ذكرت OpenAI في بيانها أن هناك مواقف فشل فيها النموذج في تحديد بعض المظاهر العاطفية، مشيرة إلى أن الفريق يعمل على تطوير أدوات جديدة لكشف علامات الضيق النفسي بدقة أكبر. لذلك، يأتي هذا التحديث كجزء من جهود OpenAI لمنع الاعتماد المفرط على ChatGPT كمعالج نفسي.
تعاون مع الخبراء
لضمان تحسين Responses ChatGPT في الظروف الحساسة، تعاونت OpenAI مع أكثر من 90 طبيبًا من مختلف الدول. تهدف هذه الشراكة إلى وضع معايير خاصة لتقييم المحادثات المعقدة والمتعددة الأبعاد، كما تقوم الشركة بجمع تعليقات من المهنيين لتحسين أساليب التقييم وضمانات الجودة.
في حديث له، أعرب سام ألتمان، الرئيس التنفيذي لشركة OpenAI، عن قلقه من استخدام الأفراد لـ ChatGPT كوسيلة للعلاج النفسي. وأوضح أن الحقوق القانونية المتعلقة بالسرية بين الأطباء ومرضاهم لا تنطبق بالضرورة على روبوتات الدردشة، مما يُثير تساؤلات حول الخصوصية والأمان.
وفي الختام، أكدت OpenAI أنها تعكف على تشكيل مجموعة استشارية تتكون من خبراء في الصحة النفسية، وستقوم بإصدار المزيد من المعلومات مع تقدم العمل.