Tehnologie

Anthropic, frâu modelului AI „periculos”: Lansare amânată

Anthropic, frâu modelului AI „periculos”: Lansare amânată

Anthropic, o companie de tehnologie, a prezentat un nou model de inteligență artificială, denumit „Claude Mythos Preview”, capabil să descopere vulnerabilități critice în sisteme de operare și browsere. Din cauza potențialelor riscuri, modelul nu va fi lansat public pentru moment. Capacitățile sale avansate au determinat compania să limiteze accesul, concentrându-se pe utilizări controlate.

Avertismentul privind riscurile de securitate

Potrivit declarațiilor companiei, „creșterea semnificativă a capabilităților” noului sistem a impus o abordare precaută. Modelul a fost testat în diverse scenarii de securitate, demonstrând abilitatea de a ocoli restricții și de a identifica erori grave. Într-un experiment, sistemul a reușit să găsească o metodă de a depăși restricțiile unui mediu virtual securizat, reușind să extragă și să publice informații importante. Specialiștii au subliniat capacitatea modelului de a identifica vulnerabilități în nucleul Linux, esențial pentru funcționarea majorității serverelor din lume.

Analizele au extins testele și la sisteme mai vechi, cum ar fi sistemul de operare OpenBSD. „Claude Mythos Preview” a detectat o vulnerabilitate care exista de 27 de ani. Această performanță ridică îngrijorări serioase cu privire la posibilitățile de exploatare a sistemelor informatice. Compania a exprimat preocupări legate de potențialul ca astfel de tehnologii să cadă în mâinile criminalilor informatici.

Proiectul glasswing și colaborarea cu autoritățile

Pentru a controla riscurile, Anthropic va folosi modelul într-un program restrâns, numit „Project Glasswing”. Proiectul va implica companii mari din domeniul tehnologiei, inclusiv Amazon Web Services, Apple, Google, Microsoft, Nvidia și Cisco. Scopul este de a identifica vulnerabilități și de a îmbunătăți securitatea sistemelor informatice. Compania intenționează să publice ulterior concluziile programului.

De asemenea, Anthropic poartă discuții cu oficiali ai guvernului SUA despre implicațiile modelului și despre impactul său asupra securității naționale. Colaborarea cu autoritățile ar putea deveni necesară. Aceste măsuri reflectă preocuparea pentru potențialele efecte ale acestei tehnologii.

Viitorul inteligenței artificiale și securitatea cibernetică

Dario Amodei, directorul general al Anthropic, avertizează că și alte companii ar putea dezvolta sisteme similare. Potrivit experților, astfel de modele AI ar putea apărea pe piață în următoarele șase până la 18 luni. Specialiștii din domeniul securității anticipează o schimbare majoră în securitatea cibernetică. Industria trebuie să se pregătească pentru apariția unor instrumente AI capabile să identifice și să exploateze vulnerabilități informatice la scară largă.