Tehnologie

Inteligența artificială a fost, până de curând, considerată un instrument promițător pentru creșterea eficienței și inovației digitale

Inteligența artificială a fost, până de curând, considerată un instrument promițător pentru creșterea eficienței și inovației digitale

Inteligența artificială a fost, până de curând, considerată un instrument promițător pentru creșterea eficienței și inovației digitale. Însă ultimele rapoarte din domeniu relevă o fațetă mai întunecată a acestei tehnologii, evidențiind modul în care AI, odată considerată un aliat al atacatorilor cibernetici, devine acum un coechipier și pentru grupările criminale și statele cu intenții ostile. Astfel, evoluția AI nu mai reprezintă doar o amenințare marginală, ci o realitate care extinde și îmbunătățește capabilitățile infracționalității digitale, contribuind aproape la toate etapele unui atac cibernetic.

Amplificarea rapidă a atacurilor tradiționale

Unul dintre cele mai importante conflicte din domeniul securității cibernetice îl reprezintă modul în care AI accelerează toate fazele unui atac. Actorii rău intenționați nu mai trebuie să cheltuiască timp și resurse considerabile pentru recunoaștere, cercetare tehnică sau dezvoltarea de malware; AI le oferă un „copilot” tehnic, capabil să preia rapid sarcini precum profilarea țintelor, crearea de mesaje de phishing personalizate sau testarea vulnerabilităților. Nu de puține ori, modelul Gemini este exploatat pentru a automatiza și eficientiza aceste procese, fiind utilizat de state precum China, Iran, Coreea de Nord sau Rusia pentru aproape întregul ciclu de lucru al unui atac.

Un exemplu elocvent îl reprezintă scenariile care, aparent, sunt exerciții teoretice, dar care indică clar intenția de a obține recomandări privind vulnerabilități precum execuția de cod la distanță, tehnici de ocolire a mecanismelor defensive sau interpretarea rapida a testelor de securitate. Mai mult, actorii rău intenționați utilizează AI și pentru sarcini mai „banale”, precum repararea codului sau clarificarea unor concepte tehnice, accelerează astfel procesul de cercetare și dezvoltare a uneltelor malițioase înainte ca acestea să fie puse în acțiune.

Noile direcții în dezvoltarea malware și înfometarea ecosistemului criminal

Pe lângă abuzurile în domeniul phishing-ului, AI pătrunde și în cercul în continuă extindere al dezvoltării malware. Exemple precum HonestCue și CoinBait ilustrează această tendință. Primul, un framework de tip proof-of-concept dezvoltat la sfârșitul anului trecut, folosește API-ul Gemini pentru a genera automat componente de malware în C# și le compilează în memorie, reducând drastic timpul și efortul necesar pentru crearea unor instrumente periculoase. În cazul CoinBait, un kit de phishing care imită o platformă de criptomonede, AI accelerază procesul de dezvoltare și personalizează mesajele pentru victime, sporind astfel rata de succes a atacurilor.

Această evoluție nu trebuie privită ca pe o excepție exotică, ci ca pe un semnal clar al unei tranziții în care inovația tehnologică se îndreaptă rapid spre mainstreamul infracțional. Actorii criminali nu mai trebuie să fie programatori ambițioși; pot folosi kituri și prototipuri preluate din ecosistemul ilicit, reducând bariera de intrare și mărind volumul atacurilor.

Intri în noii actori ai social engineering și al doilea nivel de luptă

În același timp, AI revoluționează modul în care se realizează campaniile de inginerie socială. Așa-numitele „ClickFix”—anunțuri și rezultate de căutare „specializate” care distribui malware—sunt acum mult mai convingătoare, cu texte fluide și traduceri calitative, astfel încât victimele să fie mai facilmente induse în eroare. În condițiile în care majoritatea utilizatorilor încă se bazează pe instinct și pe semnalele intuitive, aceste atacuri devin tot mai dificil de detectat și de evitat, mai ales dacă sunt însoțite de mesaje personalizate și adaptate la contextul victimei.

Pe de altă parte, riscurile legate de AI nu implică numai activități directe de atac. Cercetătorii din domeniul securității subliniază o amenințare subtilă și mai profundă: încercările de extragere și distilare a comportamentului modelelor GPT, pentru a crea replici personalizate sau pentru a fura proprietate intelectuală. Aceste practici, folosite de actorii care au acces la API-urile de inteligență artificială, pot avea consecințe grave pentru inovație și pentru avantajul competitiv în industrie, dar și pentru costurile și resursele allocabile de către companii.

Viitorul securității: între autoreglare și noile reguli de joc

În fața acestei evoluții, scenariul devine clar: continuarea integrării IA în toolset-urile atacatorilor, dar și consolidarea controlului de către furnizorii de tehnologii pentru a limita abuzurile. Pentru organizații, soluția nu mai poate fi doar evitarea unor greșeli elementare, ci adoptarea unor politici de securitate mai avansate, monitorizarea constantă a fluxurilor și simulări periodice de răspuns la incidente.

Cât despre utilizatorii obișnuiți, răspunsul rămâne simplu: verificarea sursei, scepticism față de urgențele tehnice și evitarea rulării commenzilor necunoscute sau a software-urilor suspecte. În final, diferența dintre un mediu digital sigur și vulnerabil ține mai mult de modul în care gestionează apropiați și companii responsabilitatea și disciplina în fața unei tehnologii care evoluează rapid, dar care, oricum, rămâne doar un instrument, fie pentru progres, fie pentru pericol.