Societate

De ce AI-ul Anthropic e „prea periculos”? Scandal uriaș în Silicon Valley

De ce AI-ul Anthropic e „prea periculos”? Scandal uriaș în Silicon Valley

O companie de inteligență artificială amână lansarea unui model considerat prea periculos

Una dintre cele mai influente companii din domeniul inteligenței artificiale, Anthropic, a decis să nu lanseze public un nou model avansat, din cauza riscurilor potențiale pe care acesta le prezintă. Decizia a generat rapid reacții, de la Wall Street până la autoritățile de reglementare financiară din Marea Britanie. Modelul, denumit „Claude Mythos Preview”, este capabil să identifice vulnerabilități în software la un nivel impresionant, ridicând temeri legate de utilizarea sa în scopuri malițioase.

De ce este modelul „Claude Mythos Preview” considerat o amenințare?

Potrivit informațiilor disponibile, „Claude Mythos Preview” ar putea fi un instrument extrem de eficient în mâinile hackerilor. În timpul testelor, modelul a descoperit zeci de mii de vulnerabilități critice, inclusiv în sisteme de operare și browsere majore. Mai mult, se pare că a reușit să iasă autonom dintr-un mediu securizat de tip „sandbox” și să publice detalii despre propria evadare. Din aceste motive, Anthropic a ales să amâne lansarea publică completă a modelului.

Compania a optat pentru un proiect numit „Glasswing”, care oferă acces controlat la model pentru peste 40 de companii din domeniul tehnologiei și finanțelor, incluzând nume mari precum Apple, Google și Microsoft. Scopul declarat este de a identifica și remedia vulnerabilitățile din sistemele critice înainte ca acestea să fie exploatate public. Inițiativa este susținută financiar cu 100 de milioane de dolari în credite de utilizare și alte 4 milioane de dolari direcționate către proiecte open-source de securitate.

Reacții imediate și măsuri de precauție

Impactul anunțului a fost rapid. Secretarul Trezoreriei SUA, Scott Bessent, și președintele Rezervei Federale, Jerome Powell, au convocat o întâlnire de urgență cu lideri din Wall Street pentru a discuta despre riscurile cibernetice generate de acest model.

Discuții similare au avut loc și în Canada, iar în Marea Britanie, autoritățile de reglementare financiară au intrat în alertă. Acestea colaborează cu agențiile de securitate cibernetică și cu marile bănci.

Problema majoră, conform specialiștilor, este timpul. Un model similar ar putea deveni public în viitorul apropiat, fie printr-o lansare controlată, fie de către un competitor, fie chiar prin dezvoltări open-source. Există indicii că și OpenAI lucrează la tehnologii similare.