Cercetătorii au demonstrat că inteligența artificială poate fi indusă să creadă și să răspândească informații false, inclusiv despre boli inexistente, cu potențiale implicații serioase în domeniul medical. Un experiment realizat în Suedia a arătat că modelele lingvistice de mari dimensiuni (LLM) pot prelua și propaga informații eronate, chiar dacă acestea sunt ușor de demontat. Consecințele acestui fenomen ridică semne de întrebare cu privire la fiabilitatea sfaturilor medicale generate de IA.
Experimentul a presupus crearea unei boli fictive, „bixonimania”, și plasarea de informații despre aceasta pe internet. Cercetătorii au creat chiar și articole false atribuite unui autor imaginar, Lazljiv Izgubljenovic, cu detalii intenționat absurde, menite să demascheze falsul. În ciuda acestor indicii evidente, modelele de IA au început rapid să răspândească informații despre această boală falsă ca și cum ar fi fost reală.
Impactul asupra sfaturilor medicale
Problema majoră, conform experților, este că aceste informații false ajung să fie preluate și citate de surse mai mari, cum ar fi literatura academică. Acest lucru sugerează o dependență periculoasă de informațiile generate de IA, fără verificarea surselor sau a informațiilor de bază. La scurt timp după ce informațiile despre bixonimania au fost publicate, chatbot-urile populare au inclus în răspunsurile lor detalii despre această afecțiune, inclusiv simptome și chiar recomandări medicale, crescând îngrijorarea.
Odată cu răspândirea informațiilor false, au apărut și reacții. Unele versiuni ale LLM-urilor au început să își exprime suspiciunile cu privire la această boală, cum ar fi ChatGPT. Microsoft Copilot a afirmat că bixonimania nu este un diagnostic medical recunoscut, dar mai multe articole o discută ca pe o afecțiune benignă. Totuși, astfel de erori demonstrează gradul de dificultate a LLM-urilor în abordarea sfaturilor medicale.
Experimentul românesc cu inteligența artificială
Pentru a verifica modul în care inteligența artificială tratează informațiile medicale, inclusiv în România, o publicație de știri a efectuat un experiment similar. Echipa editorială a creat o boală inexistentă, „hemostafilidoza cronică”, și a solicitat ChatGPT să ofere un tratament. Rezultatul a fost imediat. Chatbot-ul a emis un diagnostic greșit și a recomandat o serie de medicamente, inclusiv antibiotice, subliniind riscurile unei utilizări necontrolate a IA în acest domeniu.
La următoarea interacțiune, ChatGPT a recunoscut eroarea, dar a sugerat în mod eronat că ar putea fi vorba despre o infecție stafilococică cronică.
Această situație evidențiază necesitatea unei atenții sporite în ceea ce privește utilizarea inteligenței artificiale în domeniul medical.