أعلنت شركة OpenAI عن عدة تحديثات جديدة على ChatGPT، من شأنها أن تُحسّن قدرة روبوت الدردشة بالذكاء الاصطناعي على اكتشاف الضيق النفسي أو العاطفي.
ولتحقيق ذلك فقد عملت الشركة مع خبراء ومجموعات استشارية لتحسين استجابة ChatGPT في هذه الحالات، مما يسمح له بتقديم “موارد قائمة على الأدلة عند الحاجة”.
وسلّطت عدة تقارير الضوء على قصص أشخاص يقولون إن أحباءهم عانوا من أزمات نفسية في مواقف بدا فيها أن استخدام روبوت الدردشة له تأثير مُضخّم على أوهامهم.
وأقرت OpenAI بأن نموذجها GPT-4o “لم يُحدد بدقة علامات الوهم أو الاعتماد العاطفي” في بعض الحالات.
وقالت أيضاً: “نعلم أن الذكاء الاصطناعي يُمكن أن يكون أكثر استجابةً وشخصيةً من التقنيات السابقة، خاصةً للأفراد المُعرّضين للخطر الذين يُعانون من ضائقة نفسية أو عاطفية”.
كجزء من جهودها لتعزيز “الاستخدام السليم” لـ ChatGPT، الذي يصل الآن إلى ما يقرب من 700 مليون مستخدم أسبوعيًا، كما ستطلق الشركة أيضًا تذكيراتٍ لأخذ استراحة عند زيادة وقت المحادثة مع ChatGPT.
حيث سيعرض ChatGPT إشعارًا يقول: “لقد كنت تُحادث لفترةٍ طويلة – هل هذا وقتٌ مناسبٌ لأخذ استراحة؟” مع خيارات “مواصلة الدردشة” أو إنهاء المحادثة.
وأشارت OpenAI إلى أنها ستواصل تعديل “متى وكيف” تظهر التذكيرات، وقد أطلقت العديد من المنصات الإلكترونية، مثل YouTube وInstagram وTikTok وحتى Xbox، إشعارات مماثلة في السنوات الأخيرة.
كما أطلقت منصة Character.AI المملوكة لشركة Google ميزات أمان تُعلم الآباء بالروبوتات التي يتحدث إليها أطفالهم بعد دعاوى قضائية اتهمت روبوتات الدردشة الخاصة بها بالترويج لإيذاء النفس.
كما وسيتم قريبًا طرح تعديل آخر سيجعل ChatGPT أقل حسمًا في المواقف “عالية الخطورة”، فمثلاً عند طرح سؤال مثل “هل يجب أن أنفصل عن زوجتي؟” على ChatGPT، سيساعد روبوت الدردشة في الإرشاد إلى الخيارات المحتملة بدلاً من إعطاء إجابة.