OpenAI, compania din spatele chatbotului ChatGPT, se află în centrul unui scandal care amenință să-i altereze imaginea și să zguduie încrederea publicului în rolul tehnologiei AI. Totul a pornit de la anunțul despre încheierea unui acord cu Pentagonul, menit să permită utilizarea sistemelor de inteligență artificială în scopuri militare. Reacțiile atât în mediul online, cât și în spațiul public, au fost vehemente, iar nemulțumirea s-a transformat rapid într-o revoltă la scară largă, chiar până în stradă, în fața sediilor OpenAI.
Revolta utilizatorilor și migrația către alternative etice
Imediat după anunțul oficial, un val de critici a început să curgă din partea utilizatorilor ChatGPT, mulți dintre aceștia anunțând că renunță la platformă și se mută către alte soluții, precum Claude, chatbot dezvoltat de compania Anthropic. Această schimbare are, însă, și o dimensiune simbolică: Anthropic refuzase în trecut un acord similar cu Pentagonul, preferând să nu-și compromită poziția din motive etice, chiar dacă presiunile guvernului au fost intense. În consecință, Claudiu a urcat rapid în topurile aplicațiilor, în timp ce ChatGPT a înregistrat un val de dezinstalări, ceea ce indică o manifestare clară a nemulțumirii și a încă unui semnal de alarmă pentru conducerea OpenAI.
Aceasta nu mai este doar o controversă academică sau retorică, ci o demonstrație concretă a schimbării percepției publicului. Oamenii nu mai acceptă pasiv implicațiile etice sau de reglementare, ci părăsesc activ platformele, având în vedere potențialele consecințe negative ale colaborării cu sectorul militar sau de securitate. Nemulțumirile au trecut din mediul virtual în proteste în stradă, în San Francisco, unde zeci de activiști din mișcarea „QuitGPT” s-au adunat pentru a-și exprima dezacordul nu doar față de alianța cu armata, ci și față de impactul eco și social al tehnologiei AI. Protestatarii au vorbit despre presiuni asupra mediului, consumul excesiv de apă, costuri energetice ridicate, precum și despre efectele negative asupra locurilor de muncă și sectorului artistic.
Chiar și profesioniști din industria tech – persoane cu înțelepciunea și experiența de a analiza profund implicațiile inovației – au participat la aceste manifestații. Unul dintre ei a declarat deschis că „dezvoltarea unei tehnologii de supraveghere legală pentru guvern este pur și simplu nebunească”. Aceasta reflectă o schimbare de paradigmă, demonstrând că frica de utilizarea AI în scopuri militare și de supraveghere a depășit granițele simplei controverse etice, devenind o problemă de interes public major.
Manifestări internaționale și îngrijorări globale
Controversa nu s-a limitat la teritoriul american. La Londra, sute de activiști și profesioniști ai industriei tech s-au adunat în zona King’s Cross, un centru important pentru companiile de tehnologie, inclusiv Google DeepMind, Meta și chiar OpenAI. Mesajele au fost clare: oameni din întreaga lume contestă expansiunea necontrolată a AI și legăturile tot mai strânse dintre marile corporații și guvern. Protestele din cele două maluri ale Atlanticului reflectă o preocupare globală tot mai acută pentru modul în care evoluția tehnologică poate deveni un instrument de putere și control politic, cu atât mai mult cu cât aceasta tinde să fie integrată în infrastructurile militare și de securitate.
Această conștientizare globală adâncește îngrijorarea pe termen lung. În timp ce companiile promit inovație și progres, discursurile critice accentuează că, odată ce AI-ul se extinde în arene militare, supraveghere și armament, nu mai vorbim doar de beneficii personale sau economice, ci de un potențial de control total asupra societății. Frica devine aproape palpabilă: tehnologia, odată percepută ca un aliat pentru progres, nu riscă să devină un instrument de supremație și încălcare a drepturilor fundamental.
O încercare de calmare și alte dileme morale
Reacția conducerii OpenAI nu a întârziat. CEO-ul Sam Altman a recunoscut că decizia privind acordul cu Pentagonul a fost prea rapidă, exprimând chiar regret pentru modul în care s-a derulat anunțul. El a ținut o sesiune de întrebări și răspunsuri, în care a promis schimbări pentru a clarifica utilizările militare și de supraveghere, inclusiv interdicția explicită a utilizării AI-ului pentru supraveghere în masă și sisteme de armament autonome. În ciuda acestor măsuri, suspiciunile persistă, mai ales pentru că OpenAI a evitat să adopte o poziție fermă în privința armelor autonome, creând impresia că ușa rămâne totodată deschisă pentru utilizări potențial periculoase.
Ceface mai mult, aproape o mie de angajați ai OpenAI și Google au semnat o scrisoare deschisă în care solicită companiilor să refuze collaborările Pentagonului pentru utilizarea tehnologiei AI în domenii care pot duce la încălcări grave ale drepturilor omului, precum supravegherea în masă și armamentul autonom. Această opoziție internă indică faptul că tensiunea nu mai este doar externă, ci și internalizată de cei care construiesc aceste instrumente.
În ultimele săptămâni, acest scandal a tranșat o discuție urgentă și acută despre limitele etice ale inteligenței artificiale și responsabilitatea companiilor în dezvoltarea unui ecosistem tehnologic în care puterea, controlul și libertatea democratică trebuie să fie respectate cu strictețe. În timp ce OpenAI trage încet linia și încearcă să își reconstruiască imaginea, întrebarea rămâne: ce fel de societate ne dorim să construim în această eră a AI? Răspunsurile încă sunt în lucru, însă cert este că timpul pentru reflecție și reglementări stricte s-a scurtat considerabil.