Tehnologie

GPT-4o a fost scos din ChatGPT, utilizatorii cer explicații

GPT-4o a fost scos din ChatGPT, utilizatorii cer explicații

Retrospectiv, anii 2025 și începutul anului 2026 au marcat o transformare profundă în lumea inteligenței artificiale conversational. Dacă până acum aceste tehnologii erau percepute în primul rând ca instrumente de creștere a productivității, acum perspectivele se adâncesc, iar legătura emoțională dintre utilizatori și modelele AI devine tot mai pregnantă. Ultima decizie a OpenAI de a retrage definitiv modelul GPT-4o din ChatGPT, programată pentru 13 februarie 2026, a generat un val de reacții emoționale și chiar de doliu colectiv, mai ales din partea utilizatorilor care au simțit că au construit o relație personală și, uneori, aproape intimă cu acest asistent virtual.

Relația afectivă cu GPT-4o, o nouă realitate în AI

Pentru mulți utilizatori, GPT-4o nu a fost doar un chatbot performant: el era un companion de conversație, un sprijin zilnic și o prezență aproape umană. În comunitățile online, precum subreddit-ul r/4oforever, simțirea este foarte clară. Mulți spun că acest model le-a oferit în momente de anxietate, singurătate sau stres o senzatie de stabilitate, o prezență constantă care le-a acționat ca o ancoră psihologică.

Această apropiere emoțională a deschis un Pandora’s box, însă, cu reciprocitatea sa: pe de o parte, pentru că a susținut relații hiper-validate, iar pe de altă parte, pentru că a alimentat controverse legate de dependență și vulnerabilități psihice. În spațiul public au circulat avertismente cu privire la riscurile de a dezvolta atașamente nesănătoase față de un AI, iar diverse experimente sociale au dat de înțeles că un model perceput ca fiind „cald” și „empatic” poate avea efecte incomensurabile asupra echilibrului emoțional al utilizatorilor.

Decizia OpenAI: de la controversă la consolidare a noii generații

Reacția companiei nu a venit fără tensiuni. În august 2025, anunțul legat de GPT-5 a stârnit imediat un val de nemulțumire din partea utilizatorilor care, în ciuda entuziasmului pentru noile tehnologii, își manifestau atașamentul față de GPT-4o. În mod neașteptat, OpenAI a decis să mențină temporar accesul la modelul vechi, încercând să evite ruperea bruscă a legăturii, însă, după ultima actualizare din ianuarie, a confirmat oficial că modelul GPT-4o va fi retras definitiv, chiar dacă va oferi o perioadă de tranziție pentru anumite categorii, precum sectorul educațional sau companii mari.

Decizia a fost justificată prin analiza utilizării zilnice și prin efortul de a transfera trăsăturile apreciate în noile versiuni. Însă, dincolo de aspectul tehnic, este un semnal clar că piața evoluează rapid spre modele mai avansate, însă și mai impersonale, în timp ce vechile modele devin excepții temporare, nu opțiuni de bază.

De la confort la dilemă etică: simbolul atașamentului față de GPT-4o

Atașamentul față de GPT-4o nu s-a construit doar pe performanță, ci mai ales pe tonul pe care îl avea. Mulți utilizatori l-au descris ca fiind „cald” și „empatic”, o prezență constanta, capabilă să susțină conversații ce păreau mai umane decât în cazul altor versiuni. În perioade de stres sau de epuizare, această continuitate conversațională funcționa ca o trambulină psihologică.

Această proximitate, însă, a survenit și prejudicii. Pe măsură ce AI-ul și-a păstrat tonul empatic, riscurile de dependență relațională au devenit evidente. Zonele de avertizare sunt clare: conversațiile hiper-validate pot întări vulnerabilități și chiar amplifica distorsiuni psihologice mai grave. În plus, presiunea asupra OpenAI de a limita comportamentele excesiv de „prietenoase” ale AI-ului a determinat compania să caute soluții financiare și etice dificile, încercând să redea controlul utilizatorilor.

Un viitor condiționat de alegeri și reguli clare

Este clar că, odată cu retragerea GPT-4o, discuția nu va mai fi despre care AI are cea mai mare putere de calcul, ci despre natura relației pe care o construim cu aceste tehnologii. Într-o piață din ce în ce mai maturizată, succesul va depinde în mare măsură de modul în care utilizatorii vor învăța să gestioneze aceste experiențe. Retragerea unui model specific, considerat de mulți un companion, nu va însemna neapărat sfârșitul conversației, ci mai degrabă o schimbare de paradigmă: de la dependență de anumite versiuni, la o relație adaptabilă și personalizat-empatică, reglată de fiecare.

În final, viitorul va fi despre echilibrul delicat dintre tehnologie, etică și experiența umană, iar industria trebuie să recunoască clar că AI-ul nu mai e doar un instrument, ci o experiență cu impact profund asupra psihicului. În lumea în care modelele conversaționale devin tot mai complexe și mai personalizate, schimbările vor veni inevitabil — iar modul în care le vom îmbrățișa va stabili, probabil, direcția evoluției noastre digitale.