Diverse

Sam Altman ar putea decide viitorul nostru – poate fi de încredere?

Sam Altman ar putea decide viitorul nostru – poate fi de încredere?

Confruntarea cu realitatea riscurilor AI în cadrul OpenAI

OpenAI, compania cunoscută pentru dezvoltarea unor modele avansate de inteligență artificială, cunoaște un moment tensionat în procesul de echilibrare a promisiunilor legate de siguranță și realitățile interne ale procesului de cercetare. În timp ce fondatorii se laudă cu angajamentul lor față de siguranță, dovezile interne indică existența unor discrepanțe majore între declarații și resursele reale alocate acestor preocupări. În ultimii ani, discuțiile despre pericolul riscului existențial al AI au devenit tot mai acute în cadrul companiei, dar modul în care acestea sunt gestionate ridică semne de întrebare despre angajamentul concret al conducerii.

Resurse pseudo-alocate pentru securitatea AI

Un raport recent indică faptul că, deși oficial OpenAI susține că dedică 20% din resursele de calcul pentru cercetările legate de siguranță și alinierea AI, în realitate, aceste resurse sunt mult mai mici, între unu și două procente din total. Mai mult, sursele interne susțin că cea mai mare parte a acestor resurse este folosită pe hardware mai vechi și mai puțin performanțabil, ceea ce indică o prioritizare clară pentru profit în detrimentul preocupărilor de siguranță. În ciuda sesizărilor făcute de angajați, conducerea a negat aceste diferențe, susținând că planurile de alocare a fondurilor și resurselor nu au fost niciodată realiste.

Provocări etice și probleme de transparență în dezvoltarea GPT-4

Un alt aspect grav îl reprezintă lipsa de transparență în procesul de verificare și aprobare a noilor funcționalități ce urmează să fie integrate în modelele AI. În decembrie 2022, membrii consiliului de administrație au fost informați că anumite caracteristici ale GPT-4, inclusiv cele care permit personalizarea sau utilizarea ca asistent personal, au fost aprobate de un comitet de siguranță. Cu toate acestea, s-a dovedit ulterior că acestea nu au fost supuse unui proces formal de aprobare și că unele funcții critice au fost stealthy integrate în versiunea finală, fără o verificare adecvată. În plus, a existat o situație în care Microsoft a lansat o versiune a ChatGPT în India fără finalizarea unui control de siguranță, fapt tăinut din comunicarea oficială, ceea ce ridică serioase semne de întrebare legate de transparența și responsabilitatea companiei.

Schimbări interne și incertitudini legate de securitatea AI

Pe măsură ce temerile legate de iminența unei inteligențe generale artificiale (AGI) au crescut în sânul companiei, s-a observat o tendință tot mai evidentă de înverșunare față de aspectele de siguranță. Un fost angajat relatează că, în timpul unor întâlniri interne, Ilya Sutskever, unul dintre cofondatorii OpenAI, a subliniat necesitatea ca întreaga echipă să se concentreze pe siguranță, pentru a evita scenarii catastrofale. În ciuda acestui angajament, însă, proiectul dedicat superaliniamentului a fost abandonat în anul următor, înainte de a-și îndeplini misiunea. În același timp, unele informații interne indică faptul că deciziile și comunicările de la vârful companiei au fost croite astfel încât să minimieze riscurile de responsabilizare pentru eventuale erori publice sau incidente legate de siguranța AI. Într-un caz concret, în decembrie 2022, membrii consiliului au fost informați că anumite caracteristici ale GPT-4 au fost aprobate, fără a li se arăta documentația completă sau a le explica riscurile, chiar dacă unele dintre aceste caracteristici au fost puse în funcțiune fără un proces de validare adecvat.

Aceste dezvăluiri arată o preocupare tot mai concentrată asupra riscurilor reale și percepției publice, dar și lipsa de transparență din partea conducătorilor OpenAI, care gestionează în același timp cele mai avansate tehnologii în domeniu. În condițiile în care investițiile și resursele pentru AI devin tot mai mari, întrebarea dacă siguranța nu a fost, până acum, mai mult o strategie de imagine decât un obiectiv real persistă tot mai mult. În 15 februarie 2023, compania a anunțat că va lansa o actualizare importantă pentru GPT-4, însă detaliile despre procesul de control sau verificare rămân învăluite în mister.

Sursa: Newyorker.com