Statele Unite amenință compania Anthropic cu pierderea contractului militar dacă nu renunță la restricțiile asupra AI-ului Claude
Departamentul de Apărare al Statelor Unite a transmis un ultimatum companiei americane Anthropic, specializată în dezvoltarea inteligenței artificiale, solicitând eliminarea restricțiilor impuse asupra modelului său de AI, Claude. Conform informațiilor obținute de presa internațională, secretarul american al Apărării, Pete Hegseth, a fixat termenul limită pentru această schimbare: vineri. În caz contrar, compania riscă să piardă un contract valoros de peste 200 de milioane de dolari, semnat cu Pentagonul, o relație de lungă durată, marcată de tensiuni legate de utilizarea AI în scopuri militare.
Restricții asupra AI-ului în disputa dintre Pentagon și Anthropic
De mai mult timp, Pentagonul și Anthropic se află în negocieri tensionate privind modul în care poate fi folosită tehnologia fondată pe inteligența artificială. Anthropic a impus restricții asupra modelului Claude, limitând utilizarea acestuia pentru „toate scopurile legale” și, prin urmare, refuzând să permită armatei americane un acces nelimitat. Pentru Pentagon, aceste limite constituie un obstacol major în dezvoltarea și implementarea rapidă a AI-ului în operațiuni militare și de securitate.
După ce au fost încercate toate variantele, oficialii militari americani, în frunte cu Pete Hegseth, au decis să fie mai fermici. Într-un mesaj clar, secretarul Apărării a anunțat că va folosi toate pârghiile legale disponibile, inclusiv Legea producerii de apărare, pentru a obliga Anthropic să furnizeze AI-ul fără restricții. Această lege permite statului să oblige companiile private să producă bunuri sau tehnologii esențiale pentru securitatea națională, indiferent de voința inițială a companiei.
Îngrijorări legate de utilizarea AI în armament și supraveghere
De partea cealaltă, compania Anthropic își menține poziția de precautie și îngrijorare față de implicarea AI în domenii sensibile precum armamentul și supravegherea în masă. Un reprezentant al acesteia a declarat pentru presă că firma nu vrea să renunțe la controalele stricte asupra utilizării AI-ului Claude. „Suntem preocupați de utilizarea armelor controlate de AI și de supravegherea în masă a cetățenilor americani. Considerăm că AI nu este încă suficient de fiabil pentru astfel de scopuri și există preocupări legate de reglementări inadecvate, care pot duce la abuzuri”, a explicat sursa.
Această poziție reflectă îngrijorările multor experți în domeniu, care susțin că tehnologia AI, deși extrem de promițătoare, trebuie utilizată cu responsabilitate, mai ales în contextul conflictelor armate și al supravegherii colective. În ultimele luni, discuțiile dintre Pentagon și companiile de profil s-au intensificat, pe fondul avansului rapid al AI-ului și a potențialelor riscuri legate de utilizarea sa în context militar.
De unde a pornit tensiunea
Relațiile dintre Pentagon și Anthropic s-au deteriorat după ce, recent, s-a aflat că autoritățile militare americane au folosit AI-ul Claude în timpul operațiunii de capturare a fostului lider venezuelean Nicolás Maduro. Potrivit unor surse, această utilizare a generat întrebări privind limitele și regulile de utilizare a AI-ului în misiuni cu potențial conflictual.
În același timp, se vehiculează că Pentagonul are în vedere să încheie definitiv colaborarea cu Anthropic, dacă firma nu va fi dispusă să renunțe la restricții. Analiștii susțin că această mișcare se aliniază cu o tendință globală de dezvoltare a tehnologiei militare autonome, însă ridică și semne de întrebare legate de echilibrul între inovație și responsabilitate.
Pe măsură ce termenul limită se apropie, nu este exclus ca decizia finală să fie una de forțare a companiei, în condițiile în care Pentagonul devine tot mai hotărât să beneficieze în totalitate de avantajele AI-ului pentru operațiunile militare și strategice ale SUA. În același timp, această situație reflectă o provocare globală: cum să menții controlul asupra unor tehnologii cu potențial distructiv, în timp ce le integrezi în sistemele de apărare națională.