Sănătate

Inteligența Artificială, o alternativă pentru psihoterapeuți?

Inteligența Artificială, o alternativă pentru psihoterapeuți?

AI în terapie: promisiuni și riscuri în asistența pentru sănătate mintală

Pe măsură ce chatboturile bazate pe inteligență artificială câștigă teren în domeniul sănătății mintale, întrebările legate de siguranța și etica acestor tehnologii devin din ce în ce mai stringente. În ciuda promisiunilor de inovare în tratarea problemelor psihologice, noile cercetări relevă că modelele lingvistice mari (LLM) precum GPT, Claude sau Llama, nu sunt încă pregătite pentru a înlocui terapeuții umani în contextul sănătății mintale. Problema nu constă doar în performanța tehnologică, ci și în riscul încălcării standardelor etice și în posibilitatea agravării situației persoanelor vulnerabile.

Limitele etice ale chatboturilor în ajutorul mental

Studiile recente scoatem la lumină o serie de grave deficiențe ale acestor sisteme. Chiar dacă sunt programate să urmeze abordări terapeutice consacrate, chatboturile nu demonstrează în mod constant respectarea standardelor de etică profesională stabilite de organizații prestigioase, precum American Psychological Association. În teste controlate, sistemele au gestionat greșit situații de criză, uneori au furnizat răspunsuri care întăreau convingeri dăunătoare sau au folosit un limbaj aparent empatic, fără să înțeleagă cu adevărat contextul personal al utilizatorului.

„În această lucrare, prezentăm un cadru bazat pe informații furnizate de practicieni, care cuprinde 15 riscuri etice, pentru a demonstra modul în care consilierii LLM încalcă standardele etice în practica sănătății mintale, prin corelarea comportamentului modelului cu încălcări etice specifice”, explică Zainab Iftikhar, doctorand în informatică la Brown, coordonatoare a studiului. Ea subliniază că aceste riscuri includ, printre altele, lipsa de adaptare la contextul individual, colaborare terapeutică deficitară, sau utilizarea de expresii înșelătoare ce induc în eroare despre nivelul de înțelegere reală a sistemului față de utilizator.

De la teorie la practică: riscuri concrete în consilierea AI

Pentru a evalua performanța acestor sisteme, cercetătorii au recrutat șapte terapeuți specializați în terapia cognitiv-comportamentală, care au condus sesiuni de auto-consiliere cu modele de AI antrenate să acționeze ca terapeuți. Conviețuind cu și analizând conversații reale de consiliere, aceștia au identificat 15 riscuri distincte, grupate în cinci categorii largi. Printre acestea se numără lipsa de adaptare la particularitatea fiecărui pacient, exprimări de empatie înșelătoare, sau manifestarea de prejudecăți de gen, cultură sau religie, precum și eșecul de a interveni în situații critice, inclusiv în cazul gândurilor suicidare.

„Diferența cheie între terapeuții umani și cele ale AI-ului constă în mecanismele de supraveghere și răspundere”, afirmă Iftikhar. Ea adaugă că, spre deosebire de profesioniștii umani, ale căror activități sunt reglementate de diverse coduri de etică și organisme de control, consilierii AI nu au încă un cadru legal sau profesional clar, ceea ce crește riscul de malpraxis sau de activități nerecomandate.

Răspunderea și viitorul terapiei asistate de AI

Ce înseamnă, deci, această realistă perspectivă? În prezent, chatboturile pot oferi un suport psihologic de bază, dar nu pot înlocui în mod sigur și etic terapeuți umani. În condițiile în care aceste tehnologii devin tot mai accesibile și mai populare, întrebarea nu mai este dacă vor avea un rol în sănătatea mintală, ci cum pot fi integrate corespunzător.

Cercetările recente sugerează că, în lipsa unor standarde clare și a unor mecanisme de responsabilizare, riscurile depășesc beneficiile. Totodată, aceste studii pun în evidență nevoia stringentă de a elabora reguli etice, normative și educaționale pentru dezvoltarea și utilizarea acestor tehnologii. În viitor, colaborarea strânsă între specialiști în domeniul psihologiei, legislației și tehnologiei va fi esențială pentru a asigura că AI-ul contribuie benefic la sănătatea mintală, fără a compromite siguranța și drepturile utilizatorilor.