Chatboții medicali dau diagnostice greșite în peste 80% din cazuri
Modelele de inteligență artificială (AI), precum ChatGPT și Gemini, pot induce în eroare utilizatorii în domeniul medical, arată un studiu recent. Cercetarea, realizată de o instituție medicală din Massachusetts, subliniază limitele actuale ale acestor tehnologii, mai ales când vine vorba de informații incomplete.
Erori frecvente în diagnosticare
Studiul a testat 21 de modele lingvistice, inclusiv cele dezvoltate de companii precum OpenAI și Google, folosind 29 de cazuri medicale reale. Chatboții au fost expuși la informații medicale graduale, de la simptome inițiale până la rezultate de laborator. Rezultatele au arătat că, în situațiile în care nu aveau acces la informații complete, rata de eroare a depășit 80%.
Chiar și atunci când au avut acces la toate datele disponibile, performanța nu a fost perfectă. Rata de eroare a rămas peste 40%. În unele cazuri, anumite modele au reușit să ofere diagnostice corecte pentru până la 90% dintre pacienți. Aceste fluctuații sugerează o dependență puternică de cantitatea și calitatea informațiilor. Totuși, subliniază dificultatea în a asigura acuratețea constantă.
„Halucinațiile” inteligenței artificiale
Experții au remarcat o problemă majoră: „halucinațiile” modelelor lingvistice. Acesta este fenomenul prin care AI-ul „inventează” informații necesare pentru a da o interpretare atunci când nu are o soluție clară. Acest lucru poate duce la diagnostice eronate și la recomandări medicale incorecte.
Capacitatea AI-ului de a procesa și interpreta datele medicale este în continuă dezvoltare. Folosirea lor în medicină ridică importante întrebări etice și practice. Impactul lor potențial asupra sănătății publice necesită o analiză atentă și o abordare prudentă.
Dependența de date și implicații practice
Concluziile studiului subliniază importanța informațiilor complete, dar și necesitatea de a fi precauți chiar și atunci când acestea sunt disponibile. Utilizatorii trebuie să fie conștienți de riscurile asociate cu utilizarea chatboților medicali. Un diagnostic greșit poate avea consecințe grave pentru sănătate.
Studiul a demonstrat, încă o dată, fragilitatea modelelor actuale de AI în fața complexității medicale.