OpenAI implementează măsuri de protecție pentru sănătatea mintală în ChatGPT după ce a declarat că chatbot-ul nu a reușit să identifice „semnele de delir sau de dependență emoțională”, conform Euronews.
Pe măsură ce instrumentele de inteligență artificială (AI) devin tot mai folosite, tot mai multe persoane apelează la chatboți pentru sprijin emoțional și pentru depășirea provocărilor personale.
Cu toate acestea, ChatGPT de la OpenAI a fost criticat pentru că nu a răspuns adecvat persoanelor vulnerabile care se confruntau cu suferință mintală sau emoțională. Într-un caz, un bărbat de 30 de ani, diagnosticat cu autism, ar fi fost internat în spital din cauza unor episoade maniacale și a unei crize emoționale, după ce ChatGPT i-ar fi întărit convingerea că a descoperit o modalitate de a schimba timpul.
„Nu reușim întotdeauna să facem lucrurile corect”, a declarat OpenAI într-un comunicat prin care a anunțat noile modificări. „Vom continua să ne îmbunătățim, pe măsură ce învățăm din felul în care oamenii folosesc chatbotul în viața de zi cu zi”.
Compania a declarat că aceste schimbări vor ajuta ChatGPT să recunoască mai bine când cineva trece printr-o perioadă grea emoțional sau psihic, să răspundă într-un mod potrivit și să îndrume oamenii către surse de ajutor sigure și bazate pe dovezi.
Chatbotul îi va încuraja pe utilizatori să ia pauze în timpul conversațiilor lungi
Chatbotul îi va încuraja pe utilizatori să ia pauze în timpul conversațiilor lungi, iar curând compania va introduce o funcție pentru întrebările care implică decizii importante în viață.
De exemplu, dacă cineva îl întreabă: „Ar trebui să mă despart de iubitul meu?”, chatbotul nu va mai răspunde direct, ci va pune întrebări care să îl ajute pe utilizator să își clarifice singur dilema.
OpenAI a declarat că, înființează, de asemenea, un grup consultativ de experți în sănătate mintală, dezvoltarea tinerilor și interacțiune om-calculator (HCI), pentru a integra punctele lor de vedere în viitoarele actualizări ale ChatGPT.
ChatGPT, util în diverse probleme personale?
Gigantul tehnologic își imaginează ChatGPT ca fiind util în diverse situații personale, de exemplu, pentru a te pregăti pentru o discuție dificilă la locul de muncă, sau pentru a acționa ca partener de dialog care să ajute pe cineva care „se simte blocat să-și limpezească gândurile”.
Experții spun că, deși chatboții pot oferi un anumit sprijin în a găsi informații despre gestionarea emoțiilor, progresul real apare adesea prin conexiunea directă și încrederea construită între o persoană și un psiholog calificat.
„ChatGPT spunea uneori ceea ce suna frumos, în loc să spună ceea ce era cu adevărat util”
Nu este prima dată când OpenAI ajustează ChatGPT ca răspuns la criticile legate de modul în care gestionează dilemele personale utilizatorilor. În aprilie, compania a retras o actualizare despre care se spunea că făcea ca ChatGPT să fie prea măgulitor sau prea de acord cu utilizatorul.
„ChatGPT spunea uneori ceea ce suna frumos, în loc să spună ceea ce era cu adevărat util”, a explicat compania, potrivit Euronews.