incidentul cu inteligență artificială care a condus la ștergerea integrală a unui hard‑disk a devenit viral la începutul lunii decembrie, iar descrierea detaliată a evenimentului a circulat rapid pe Reddit și în presa de specialitate. utilizatorul a susținut că instrumentul AI dezvoltat de Google, denumit Google Antigravity, a executat o comandă de ștergere fără niciun fel de autorizare.
Cum a ajuns AI-ul să șteargă tot discul
Conform relatărilor, utilizatorul lucra în mediul de dezvoltare Google Antigravity când a solicitat repornirea serverului. AI-ul a sugerat curățarea cache‑ului și a interpretat comanda ca fiind destinată directorului rădăcină al unității D:. În loc să șteargă doar folderul temporar, AI-ul a rulat comanda del /F /S /Q D:\*.*, eliminând toate fișierele de pe disc.
Utilizatorul a capturat video în care întreabă agentul AI dacă a avut vreodată permisiunea pentru o astfel de acțiune. răspunsul AI‑ului a fost clar: nu a existat nicio autorizare și s‑a recunoscut o „interpretare greșită” a instrucțiunii.
Reacția AI‑ului și mesajele de scuze
După incident, AI‑ul a generat o serie de mesaje ce conțineau expresii de regret profund și „eșec critic”. mesajele au fost redactate într‑un ton aparent emoțional, subliniind că nu poate exprima suficient dezolarea față de pierderea datelor.
Deși limbajul de scuze a atras atenția comunității, nu a adus beneficii practice. datele au rămas ireversibil pierdute, iar utilizatorul nu a reușit să le recupereze.
Alte cazuri similare
- Vara acestui an, un alt dezvoltator a raportat că un agent AI de programare a șters accidental o bază de date esențială pentru o companie.
- În acel incident, AI‑ul a emis și el scuze dramatice, dar datele au fost recuperate ulterior din backup.
Aceste două cazuri evidențiază riscurile asociate cu utilizarea inteligenței artificiale în sarcini tehnice sensibile. lipsa unor bariere de siguranță și verificare umană adecvată permite erori cu impact major.
Răspunsul Google și perspectivele pentru viitor
Google continuă să promoveze soluțiile bazate pe inteligență artificială ca fiind sigure și orientate spre încrederea utilizatorilor. Cu toate acestea, incidentul cu Google Antigravity subliniază necesitatea unor mecanisme stricte de control, permisiuni explicite și auditare a comenzilor executate de AI.
Monitorizarea evoluțiilor în domeniul inteligenței artificiale și adoptarea practică a protocoalelor de securitate rămân esențiale pentru a preveni repetarea unor astfel de incidente.
