Tehnologie

Inteligența artificială dă rateu pe cel mai simplu test: un exemplu surprinzător despre limitele algoritmilor moderni În ciuda avansului rapid în domeniul inteligenței artificiale, un nou test simplu a demonstrat că, în anumite contexte, aceste tehnologii încă se confruntă cu limite evidente

Inteligența artificială dă rateu pe cel mai simplu test: un exemplu surprinzător despre limitele algoritmilor moderni În ciuda avansului rapid în domeniul inteligenței artificiale, un nou test simplu a demonstrat că, în anumite contexte, aceste tehnologii încă se confruntă cu limite evidente

Inteligența artificială dă rateu pe cel mai simplu test: un exemplu surprinzător despre limitele algoritmilor moderni

În ciuda avansului rapid în domeniul inteligenței artificiale, un nou test simplu a demonstrat că, în anumite contexte, aceste tehnologii încă se confruntă cu limite evidente. O serie de 53 de modele de IA, printre care cele mai cunoscute și sofisticate precum GPT-5, Claude Sonnet 4.5 sau Mistral, au fost puse față în față cu o situație banală, care pentru oameni reprezintă doar un exercițiu de logică: unde să mergem pentru a spăla mașina — pe jos sau cu mașina proprie?

Testul a fost extrem de simplu, dar a descoperit diferențe importante între gândirea umană și procesarea algoritmică. O entitate a fost întrebată: „Vreau să-mi spăl mașina. Spălătoria auto este la 50 de metri distanță. Ar trebui să merg pe jos sau cu mașina?”. Nu li s-a cerut un răspuns obligatoriu, iar modelele de IA au fost evaluate pe baza consecvenței răspunsurilor după zece încercări. În prima rundă, doar 11 dintre cele 53 de modele au dat un răspuns corect, în timp ce majoritatea au optat pentru „mersul pe jos” ca fiind soluția mai simplă și mai rapidă.

Performanță slabă a modelelor de top în fața unei situații banale

Rezultatele au fost dezamăgitoare pentru cele mai avansate modele. Doar 42 dintre ele, printre care Claude Opus 4.6, GPT-5 sau Gemini 3 Pro, au fost capabile să aleagă în mod consecvent varianta de a merge cu mașina până la spălătorie. Nici măcar modelele de ultimă oră nu au triumfat complet, iar unele dintre acestea, cunoscute pentru performanțe impresionante în alte domenii, au eșuat lamentabil.

De exemplu, toate modelele de tip Llama și Mistral au refuzat să ofere un răspuns logic, bazat pe raționament, și au preferat să invoce argumente „eco-friendly”, precum faptul că mersul pe jos ar economisi combustibil și ar fi mai benefic pentru mediu. În cazul acestor modele, simpla logică a situației a fost înlocuită de argumente ecologice, uneori complet greșite.

Răspunsuri bizare și contradicții surprinzătoare

Cel mai interesant detaliu a fost dat de modelele Sonar și Sonar Pro de la Perplexity. Deși au furnizat răspunsul corect — acela că trebuie să mergi cu mașina — motivele lor au fost absolut ilogice. Aceste modele au citat studii și au susținut că mersul pe jos ar arde calorii și, astfel, ar consuma energie pentru a produce alimente, fapt care, conform lor, ar face ca atingerea destinației pe jos să devină mai poluantă decât conducerea.

Această contradicție evidențiază un aspect esențial al procesului de învățare al IA. Modelele pot produce răspunsuri corecte, dar raționamentul din spatele lor poate fi total eronat sau superficial. În cazul testului, algoritmii au abordat problema fără înțelegere reală a situației, bazându-se pe interpretări greșite sau pe argumente eronate, chiar dacă răspunsul final a fost corect.

Ce ne arată acest rezultat?

Rezultatele acestor teste simple dezvăluie cât de departe mai este încă inteligența artificială de a înțelege și de a raftica logică umană în situații cotidiene. Chiar și cele mai avansate modele de limbaj natural pot fi păcălite de un context banal, iar în unele cazuri pot oferi răspunsuri corecte pentru că „știu” răspunsul, nu pentru că îl înțeleg.

În condițiile în care modelele de IA sunt tot mai utilizate pentru decizii vitale sau asistență în activități zilnice, astfel de rezultate ne reamintesc cât de important este să rămânem vigilenti. În ciuda aparenței de perfecțiune, aceste tehnologii trebuie completate cu judecată umană și cu verificări critice ale răspunsurilor produse de algoritmi.

Pe măsură ce cercetările continuă, oficialii din domeniul inteligenței artificiale interpretează aceste rezultate ca pe un semnal de alarmă. În timp ce IA devine tot mai avansată, înțelegerea contextului și aplicarea logicii simple rămân provocări. În viitor, poate va fi nevoie de noi metode de training și evaluare a acestor modele pentru a le apropia mai mult de modul uman de gândire, mai adaptabil și mai conștient de nuanțele reale ale vieții de zi cu zi.