Prompt injection reprezintă un risc semnificativ pentru browser‑urile cu agent AI, cum este recentul ChatGPT Atlas. Odată ce modelul primește permisiunea de a acţiona, devine o țintă atractivă pentru atacatori. OpenAI a avertizat că aceste exploatări nu pot fi eradicate complet.
De ce prompt injection seamănă cu ingineria socială
Atacurile de tip prompt injection exploatează capacitatea modelului de a interpreta text în context. Un mesaj aparent inocent poate ascunde o comandă maliţioasă, iar agentul AI o poate executa ca pe o cerere validă. Autorităţile de securitate cibernetică subliniază că graniţa dintre date şi instrucţiuni nu este clară în mod natural.
ChatGPT Atlas și „agent mode” măresc suprafața de atac
Lansarea în octombrie 2025 a ChatGPT Atlas a introdus funcţia „agent mode”, prin care AI‑ul interacţionează direct cu site‑urile. Această abilitate extinde punctele de vulnerabilitate, permiţând atacatorilor să introducă instrucţiuni ascunse în pagini web sau documente. Cercetătorii au demonstrat că textul maliţios, invizibil pentru utilizator, poate declanşa acţiuni nedorite.
Cum încearcă OpenAI să reducă riscul, fără să promită invulnerabilitate
OpenAI aplică testare continuă şi actualizări rapide pentru a contracara prompt injection. Metoda include un atacator automatizat, antrenat să identifice noi căi de exploatare. Exemple recente arată că sistemul poate detecta şi semnala tentative de trimitere a e‑mailuri false, reducând impactul.
Recomandări practice pentru utilizatorii de browser AI
– Limitează permisiunile agentului la strictul necesar.
– Activează confirmări pentru acţiuni sensibile, cum ar fi trimiterea de mesaje sau plăţi.
– Separă sesiuni de browsing obișnuit de sarcini cu acces la date personale.
Eforturile de securitate împiedică, dar nu elimină, complet prompt injection. Utilizatorii trebuie să monitorizeze actualizările și să mențină o configurare prudentă a agentului AI pentru a diminua riscurile asociate. Informarea continuă și vigilența rămân esențiale în fața evoluţiilor tehnologice.
