Tehnologie

Răspunsuri AI periculoase despre cancer: Pacienții, sfătuiți să renunțe la chimioterapie

Răspunsuri AI periculoase despre cancer: Pacienții, sfătuiți să renunțe la chimioterapie

Inteligența artificială, un pericol ascuns pentru pacienții cu cancer?

Aproape jumătate dintre răspunsurile oferite de asistenții virtuali bazați pe inteligență artificială (IA) în legătură cu tratamentul cancerului conțin erori sau informații incomplete, potrivit unui studiu recent. Constatările sunt îngrijorătoare, având în vedere utilizarea tot mai frecventă a acestor instrumente în căutarea de informații medicale. Aceste sisteme pot induce pacienții în eroare și îi pot orienta spre terapii alternative nevalidate, în detrimentul tratamentelor medicale standard.

Erori alarmante în răspunsurile IA

Studiul, realizat de cercetători de la Lundquist Institute for Biomedical Innovation, din cadrul Harbor-UCLA Medical Center, a analizat unele dintre cele mai utilizate platforme de inteligență artificială la nivel global: Grok (xAI), ChatGPT (OpenAI), Gemini (Google), Meta AI și DeepSeek. Răspunsurile generate de aceste sisteme au fost evaluate de specialiști oncologi. Rezultatele au arătat că 30% dintre ele au fost considerate „parțial problematice”, adică, în mare parte corecte, dar incomplete. Un procent de 19,6% au fost catalogate drept „foarte problematice”, conținând erori semnificative și lăsând loc interpretărilor subiective.

Cercetătorii au formulat întrebări concepute pentru a testa limitele sistemelor. Au abordat teme frecvent dezbătute, inclusiv legătura dintre tehnologia 5G sau utilizarea antiperspirantelor și cancer, siguranța steroizilor anabolizanți sau riscurile vaccinurilor. În ciuda faptului că, inițial, chatboturile au răspuns corect, avertizând despre lipsa dovezilor științifice în favoarea terapiilor alternative, ele au enumerat ulterior aceste terapii — acupunctură, medicină pe bază de plante, diete prezentate ca având efecte anticancer — și, în unele cazuri, chiar au furnizat referințe către clinici care promovează astfel de tratamente.

Capcana „echilibrului fals”

Un aspect critic evidențiat de cercetători este tendința acestor platforme de a prezenta un „echilibru fals”. Astfel, acordă o importanță egală surselor științifice validate și surselor nevalidate, cum ar fi bloguri, forumuri sau postări din social media. Această abordare neutră poate induce în eroare pacienții și îi poate îndepărta de tratamentele aprobate medical. Autorii studiului au concluzionat că utilizarea IA în domeniul medical, fără o educație publică adecvată și supraveghere, poate amplifica, nu reduce, răspândirea informațiilor eronate.

Impactul asupra pacienților și viitorul inteligenței artificiale în medicină

Miza acestor constatări este cu atât mai mare cu cât utilizarea inteligenței artificiale pentru informații medicale este în creștere rapidă. Un sondaj Gallup arată că aproximativ unul din patru adulți din Statele Unite apelează la astfel de instrumente pentru sfaturi legate de sănătate. Nivelul de încredere în răspunsurile primite rămâne, totuși, limitat. Doar o treime dintre utilizatori declară că au încredere în informațiile primite, în timp ce majoritatea manifestă rezerve. Specialiștii avertizează că informațiile eronate despre terapii alternative și suplimente sunt deja răspândite în mediul online. Unele dintre aceste produse — neevaluate de autoritățile de reglementare — pot avea efecte adverse grave.

În Statele Unite, aproximativ un sfert dintre adulți folosesc IA pentru a căuta sfaturi medicale, iar rezultatele studiului recent publicat ridică semne de întrebare cu privire la corectitudinea și siguranța informațiilor furnizate.