Tehnologie

Un nou scandal de amploare zguduie industria globală a inteligenței artificiale, ridicând întrebări despre etica și securitatea utilizării tehnologiilor avansate în domeniu

Un nou scandal de amploare zguduie industria globală a inteligenței artificiale, ridicând întrebări despre etica și securitatea utilizării tehnologiilor avansate în domeniu

Un nou scandal de amploare zguduie industria globală a inteligenței artificiale, ridicând întrebări despre etica și securitatea utilizării tehnologiilor avansate în domeniu. Potrivit unor informații recente, compania americană Anthropic susține că mai multe companii chineze, printre care cea numită DeepSeek, ar fi utilizat modelul său de AI, Claude, într-un mod neautorizat pentru a-și îmbunătăți propriile sisteme, folosind o practică cunoscută sub numele de „distilare”. Această metodă, dacă este folosită în mod abuziv, poate avea consecințe grave pentru siguranța și integritatea sistemelor AI.

Distilarea AI și riscurile ascunse ale unei practici legitime

Distilarea este o tehnică uzuală în domeniul inteligenței artificiale, folosită pentru a crea versiuni mai eficiente și mai rapide ale modelelor complexe, folosind rezultatele generate de acestea. În condiții normale, această metodă permite dezvoltatorilor să optimizeze performanța sistemelor, reducând costurile și timpul pentru antrenament. Însă, în cazul acuzelor aduse de Anthropic, această tehnică pare să fi fost exploatată în mod intenționat pentru a „fura” capacitățile avansate ale modelului Claude.

Potrivit companiei americane, mai mult de 24.000 de conturi false au fost create pentru a genera peste 16 milioane de interacțiuni cu modelul Claude. Scopul acestor acțiuni nu a fost doar de a testa modelul în condiții variate, ci mai ales de a extrage și transfera capacitățile sale de raționament către sisteme dezvoltate independent. În mod specific, compania acuză DeepSeek că a generat peste 150.000 de schimburi de informații pentru a extrage mecanismele de funcționare ale modelului Claude, concentrându-se pe raționament și pe abilitatea de a manipula răspunsuri complexe.

Impactul asupra siguranței și implicațiile geopolitice

Un aspect alarmant adus în discuție de Anthropic este afirmatia că aceste practici pot compromite siguranța și controlul asupra modelelor AI. Potrivit companiei, „modelele distilate în mod ilicit” ar putea să nu rețină aceleași măsuri de siguranță ca și cele originale, ceea ce le face vulnerabile în fața unor utilizări rău intenționate sau a unor atacuri cibernetice sofisticate. De asemenea, există temeri privind utilizarea acestor sisteme în domenii militare sau de supraveghere, unde o astfel de tehnologie fără reguli clare poate fi extrem de periculoasă.

Această preocupare nu este una izolată. În ultima vreme, dialogul despre reglementarea AI a fost intensificat de către diferite entități din industrie și guverne. Într-un gest similar, OpenAI, creatorul ChatGPT, a transmis recent o scrisoare legislatorilor americani în care acuză compania chinezească DeepSeek de încercarea de a beneficia „gratuit” de cercetarea americană în domeniul AI. Astfel de acuzații intensifică tensiunile geopolitice legate de controlul asupra tehnologicii de ultimă generație, părând să deschidă o nouă etapă în rivalitatea globală privind dezvoltarea și reglementarea inteligenței artificiale.

În contextul amenințărilor emergente, Anthropic a convocat industria tehnologică, autoritățile și furnizorii de cloud să adopte măsuri concrete pentru restricționarea accesului la cipuri avansate și pentru limitarea posibilităților de distilare neautorizată. În prezent, specialiștii atrag atenția că, dacă astfel de practici nu vor fi contracarate la timp, riscă să apară sisteme AI necontrolate, capabile să fie folosite în scopuri malițioase sau să irumpe în infrastructuri critice, cu impact ireversibil.

Pe măsură ce aceste dezvăluiri devin tot mai frecvente, comunitatea internațională se confruntă cu o dilemă crucială: cum să reglementeze și să controleze dezvoltarea AI pentru a evita o cursă a înarmării tehnologice, în timp ce asigură beneficiile unei inovații responsabile. Întrebarea rămâne dacă, în fața acestor provocări, reglementările internaționale și colaborarea globală vor putea susține un echilibru între inovație și securitate.