De ce AI-ul nu poate funcționa autonom la scară largă, arată un studiu

Studiu recent zdruncină promisiunile industriei tech despre agenții AI autonomi

Un studiu recent, trecut aproape nerăsat în umbră în rândul mass-media, readuce în discuție una dintre cele mai importante și controversate promisiuni ale industriei tehnologice: capacitatea agenților AI de a lucra independent, fără intervenție umană. În timp ce companiile gigant din domeniu se laudă cu potențialul inteligenței artificiale de a automatiza și optimiza aproape orice – de la servicii clienți la gestionarea infrastructurilor critice – noile concluzii ale cercetătorilor întină sporadic optimismul.

Limitările matematicii și arhitectura AI: o realitate ignorată până acum

Cercetarea, efectuată de Vishal Sikka, fost CEO tehnologic la SAP, și de fiul său, Varin Sikka, aduce o perspectivă diferită asupra promisiunii agenților AI. Ei susțin că modelele lingvistice mari – pilonii actualei inteligențe artificiale – sunt constrânse de o limită fundamental matematică pe care nu o pot depăși. Aceste modele, concepute pentru a prezice secvențe de text în funcție de probabilități, nu de a înțelege cu adevărat contextul sau consecințele deciziilor lor.

„Sistemele noastre” afirmă autorii, „sunt create pentru a estima cât de probabil este ca următorul cuvânt sau frază să apară, nu pentru a avea o înțelegere profundă sau pentru a opera în mod fiabil în medii critice”. Concluzia scurtă și clară: modelele lingvistice nu pot fi niciodată fiabile în domenii în care deciziile trebuie să fie nu doar precise, ci și sigure. În prezent, industria evită această realitate, promovând ideea unui AI complet autonom, capabil să gestioneze infrastructuri nucleare sau sisteme de transport.

Însă, chiar dacă tehnologia avansează și combină modelele lingvistice cu componente software speciale pentru a reduce erorile, autorii studiului avertizează. „Un model pur lingvistic va rămâne întotdeauna limitat de arhitectura sa matematică de bază”, notează Vishal Sikka. Nu numai că atingerea unui nivel înalt de fiabilitate este improbabilă, dar construcția unor agenți complet autonomi, capabili să funcționeze în condiții extreme, rămâne, în esență, o țintă imposibil de realizat.

De la promisiuni comerciale la realitatea din teren

Industria tehnologică a fost, în ultimii ani, plină de entuziasm legat de potențialul agenților AI. Majoritatea companiilor au investit masiv în tehnologii menite să înlocuiască forța de muncă umană, promițând o automatizare totală și reducerea drastică a costurilor. În practică, imaginea a fost însă diferită și mult mai sumbră.

Mulți operatori au descoperit cu dezamăgire că agenții AI, deși grandios promițați, nu reușesc să ducă la bun sfârșit sarcini simple fără greșeli majore. Înlocuirea completă a angajaților cu astfel de sisteme pare, pentru moment, un obiectiv departe de atingere. Halucinațiile AI – situațiile în care modelele inventează informații și le prezintă ca fiind fapte – rămân o provocare majoră, iar lipsa de coerență în generarea răspunsurilor limitează utilizarea în domenii sensibile sau critique.

Chiar și specialiștii din industrie admit, totuși, că aceste limite pot fi parțial remediate prin integrarea unor sisteme de control extern, reguli riguroase și filtre de siguranță. Totuși, Vishal Sikka atrage atenția asupra faptului că, indiferent de combinații, un model lingvistic „pur” nu va putea depăși vreodată aceste constrângeri logico-matematice fundamentale. În această lumină, conceptul de agenți AI complet autonomi, capabili să funcționeze cu fiabilitate în contexte complexe, devine tot mai greu de justificat, atât din punct de vedere tehnic, cât și din punct de vedere etic.

Ce înseamnă pentru viitorul automatizării

Regăsindu-se în fața unei limite teorice clar stabilite, argumentele noilor cercetări amplifică dorința de a revizui valorile și promisiunile făcute public de liderii industriei. În timp ce marketingul agresiv insistă asupra potențialului fără precedent al inteligenței artificiale, în teren se observă o realitate diferită: agenții AI, deși pot fi utile pentru anumite sarcini simple sau pentru stipulare de reguli, nu pot și nu vor putea înlocui, pentru moment, complet înțelepciunea și deciziile umane în domenii critice.

Ce urmează? Dezvoltările recente indică un viitor în care AI rămâne, cel mult, un instrument puternic pentru sprijinirea oamenilor, nu pentru înlocuirea lor definitivă. Industria va fi nevoită să reconceptualizeze propriile promisiuni, iar utilizatorii, mai informați, vor privi cu mai mult scepticism deciziile automate care, dincolo de facade, încă stau sub semnul incertitudinii și al limitărilor fundamentale. Într-o eră a inovației rapide, recunoașterea acestor limite devine fermă, iar dezbaterile privind etica și siguranța AI vor deveni tot mai acute.

Gabriel Popa

Autor

Lasa un comentariu