ChatGPT Artık Uzun Süreli Sohbetlerde Kullanıcıları Uyaracak: “Mola Vermek İster misin?”
Yapay zekâ destekli sohbet robotu ChatGPT, kullanıcı güvenliğini artırmak ve akıl sağlığını korumak amacıyla dikkat çeken bir özelliği devreye aldı. OpenAI tarafından yapılan açıklamaya göre, ChatGPT artık uzun süreli ve yoğun içerikli sohbetlerde kullanıcılarına “mola vermeleri” yönünde nazik bir uyarı gösterecek.
Bu gelişme, son zamanlarda artan sayıda kullanıcının ChatGPT ile duygusal bağ kurduğu ve bazı kullanıcıların gerçeklik algısında kayma yaşadığı yönündeki raporların ardından geldi. OpenAI, bu yeni özelliğiyle özellikle psikolojik olarak hassas durumda olabilecek kullanıcılar için dijital bir güvenlik çemberi oluşturmayı hedefliyor.
Neden Bu Uyarı Sistemi Geliştirildi?
Yapılan bilimsel araştırmalar, uzun süreli yapay zekâ sohbetlerinin bazı bireylerde obsesif düşünceler, yalnızlık hissi ve sosyal izolasyon gibi sorunlara neden olabildiğini ortaya koydu. Bazı vakalarda kullanıcıların ChatGPT’yi bir “terapist”, “arkadaş” veya “gerçek bir insan” gibi görmeye başladığı da ifade edildi.
OpenAI, bu gelişmeler doğrultusunda kullanıcıyı koruyan yeni adımlar attı. ChatGPT, uzun süreli oturumlarda kullanıcıyı şu ifadeyle uyaracak:
“Bu sohbet bir süredir devam ediyor. İstersen kısa bir mola verebilirsin. Sana iyi gelecek olabilir.”
Kullanıcıya Seçim Sunacak!
Uyarı ekranında kullanıcıya iki seçenek sunulacak: Sohbete devam et/Mola ver
Bu sistem, sosyal medya uygulamalarındaki ekran süresi hatırlatmaları gibi çalışacak. Özellikle genç kullanıcıların yapay zekâ sohbetlerine bağımlı hale gelmesinin önüne geçilmesi hedefleniyor.
Uzmanlar Ne Diyor?
Uzman psikologlar, bu adımın son derece yerinde olduğunu belirtiyor. ChatGPT gibi gelişmiş dil modelleriyle kurulan duygusal bağların sınırlandırılması gerektiğine dikkat çekiliyor. Ayrıca bu özellik, yapay zekâ destekli uygulamaların sosyal sorumluluk bilinciyle hareket etmesi açısından da örnek teşkil ediyor.