OpenAI nel caos: Sam Altman e l'IA della discordia, cosa è successo?

L'ultima settimana è stata una delle più difficili della storia di OpenAI: il CEO Sam Altman è stato licenziato e poi subito reintegrato, ma perché?

OpenAI nel caos: Sam Altman e l'IA della discordia, cosa è successo?
INFORMAZIONI SCHEDA
Articolo a cura di

OpenAI ha licenziato Sam Altman. Anzi, no: se l'è ripreso e gli ha pure chiesto scusa.
Quella appena terminata è stata una delle settimane più rocambolesche del mondo hi-tech degli ultimi anni e certamente la più concitata da quando l'IA è diventata un prodotto di uso comune. Il 17 novembre, il board di OpenAI ha dato il benservito al suo fondatore Sam Altman e al Presidente della startup Greg Brockman, che ha contribuito alla nascita della compagnia tanto quanto lo stesso Altman.
Nel giro di cinque giorni, però, Sam Altman è stato reintegrato a pieno titolo, tornando nel suo ruolo di CEO dell'azienda. In parallelo, gran parte del board si è dimessa, dopo una giravolta senza precedenti e che, agli occhi della stampa e dei dipendenti di OpenAI, ha avuto il sapore di una pugnalata alle spalle di una delle menti più brillanti della Silicon Valley.
Benché il Consiglio d'Amministrazione di OpenAI abbia fatto il possibile per minimizzare le tensioni, gli eventi dell'ultima settimana sono il prodotto di problemi che si stanno ormai accumulando da mesi dentro l'azienda e nel mondo dell'Intelligenza Artificiale in generale.

OpenAI: un'azienda o una fondazione?

Partiamo dalle basi: perché Sam Altman è stato licenziato? Se diamo retta alla risposta ufficiale di OpenAI, quella data ai dipendenti furiosi nei confronti dei dirigenti, si sarebbe trattato di un "problema di comunicazione".

Problema relativo alla trasparenza nelle modalità di gestione dell'azienda, specie in relazione al Developer Day di ChatGPT, durante il quale OpenAI ha annunciato il suo nuovo LLM, GPT-4 Turbo, e la possibilità per gli sviluppatori di creare dei modelli personalizzati sulla base del codice di ChatGPT. Non è una novità che gran parte del board di OpenAI sia molto critico nei confronti della velocità delle release delle nuove versioni del Chatbot più famoso del mondo: alcuni, specie tra i ricercatori, spingerebbero per dei test più approfonditi, anche a costo di rimanere indietro di qualche mese rispetto alla concorrenza (evitando però degli strafalcioni cognitivi come quelli di Google Bard).
La questione era già emersa poco dopo il lancio di GPT-4, che risultava di qualità inferiore a GPT-3.5, ed è tornata a galla con GPT-4 Turbo, che però non è ancora live per l'utenza, nemmeno per quella pagante. A peggiorare la questione vi sarebbe il fatto che il board di OpenAI non sarebbe stato informato degli annunci del Developer Day e ne sarebbe venuto a conoscenza solo a cose fatte.

Queste motivazioni, contenute in una lettera inviata ai dipendenti di OpenAI dal COO Brad Lightcamp, si concludono spiegando che "con il suo comportamento, Sam ha impedito al board di svolgere le sue funzioni di controllo e gestione della compagnia". Si tratta di una risposta istituzionale, molto probabilmente annacquata rispetto alle reali motivazioni che hanno portato a uno strappo così profondo come quello che si è consumato il 17 novembre. Però qualche informazione ce la danno.
Da una parte ci dicono che OpenAI è Sam Altman: i dipendenti dell'azienda hanno minacciato di dimettersi in massa dopo il licenziamento del loro Numero Uno - e sono stati convenientemente invitati da Microsoft ad aggiungersi al proprio organico.

Dall'altra, ci spiegano che dentro OpenAI esiste un durissimo scontro tra la componente "aziendale", quella votata al mercato e al profitto, che ha i suoi campioni in Sam Altman e Greg Brockman, e quella votata alla ricerca e al settore no-profit, che ha fatto gruppo attorno alle due figure di Ilya Sutskever (il Chief Scientist di OpenAI) e Mira Murati (Chief Technology Officer dell'azienda e, per qualche giorno, CEO ad interim in sostituzione di Altman).
Quello del 17 novembre, dunque, è stato un tentativo di colpo di mano da parte dei "ricercatori" ai danni degli "aziendalisti"? Probabilmente sì.

D'altro canto, le tensioni tra parte no-profit e for-profit di OpenAI sono connaturate nella struttura stessa della.... Compagnia? Azienda? Startup? Fondazione? Finora abbiamo usato questi termini per riferirci a OpenAI, ma definirne lo status giuridico in un solo termine è impossibile.

OpenAI Inc. è una fondazione no-profit, ed è la "testa" del conglomerato IA fondato da Sam Altman: è dove vengono prese le decisioni che contano, che - in teoria - dovrebbero ripudiare il profitto e focalizzarsi sullo sviluppo di un'IA "sicura e ricca di benefici per il mondo". Questa realtà è governata da un board, quello che ha defenestrato Sam Altman.
Ma poi c'è anche OpenAI Global LLC, di cui Altman è il CEO e che è tutta un'altra storia: quest'ultima è la parte for-profit di OpenAI, aperta in un secondo momento e che non disdegna affatto i guadagni, che d'altro canto sono essenziali per tenere a galla i progetti di ricerca e sviluppo legati a ChatGPT, i quali non possono sostenersi solo con i finanziamenti miliardari di Microsoft.
A proposito del colosso di Redmond: Microsoft è il maggior finanziatore di OpenAI, e si schiera risolutamente dalla parte degli "aziendalisti", ma non ha neanche un posto nel board della fondazione no-profit. Più la ricerca è rapida e più le release di nuovi modelli e LLM sono forsennate, più Microsoft guadagna terreno sulle grandi rivali - Meta e Google - in termini tecnologici. Non è un caso che Microsoft abbia assunto Sam Altman a soli tre giorni dalla sua cacciata da OpenAI.

L'Intelligenza Artificiale Generale e i suoi rischi

E proprio l'etica è la seconda questione alla base del periodo di caos in OpenAI. L'IA non è un prodotto come gli altri: non è un nuovo chip, non è un PC, non è uno smartphone.
È una tecnologia potenzialmente trasformativa in ogni ambito della vita: persino OpenAI aveva parlato dei rischi dell'IA e aveva spinto i policy-maker ad agire per una sua regolamentazione, qualche mese fa. Lo stesso Sam Altman si è seduto a cena un paio di volte con Joe Biden.
Di recente, però, sembra che OpenAI abbia sacrificato la sicurezza dell'IA all'altare del profitto.

O almeno questo è quello che sostengono i fautori di un approccio meno economicistico: secondo il New York Times, la goccia che ha fatto traboccare il vaso nel board di OpenAI sarebbe stato un paper del Center for Security and Emerging Technology della School of Foreign Services dell'Università di Georgetown, co-scritto e co-firmato da Helen Terrer, un altro membro del board della Fondazione.
Nel paper non viene solo richiesta una "rete di sicurezza" governativa sugli applicativi IA, ma viene anche proposto di demandare alle aziende il compito di testare meglio i propri prodotti e di non lanciarli prima che siano davvero pronti: uno step necessario per evitare che l'IA diventi un super-diffusore di disinformazione e fake news, oppure che le sue "sparate" finiscano per generare seri problemi agli utenti che la utilizzano.

Poi c'è la grossa questione dell'Intelligenza Artificiale Generale (AGI, Artificial General Intelligence). Negli scorsi giorni, è emerso che alcuni ricercatori di OpenAI avrebbero avanzato serie preoccupazioni sull'Intelligenza Artificiale Generale, su cui la startup starebbe sperimentando con un progetto super-segreto chiamato Q.

L'idea alla base di questa AGI è quella di creare un'IA capace di svolgere numerose operazioni diverse, tra cui lo sviluppo di altre intelligenze artificiali, incrementando ulteriormente le capacità trasformative dell'IA stessa nel panorama economico. Per ora al mondo non esiste nulla di simile: l'AGI è il "Sacro Graal" dell'IA, per molti ricercatori tanto desiderata quanto irraggiungibile. Secondo alcuni, però, un "cervello" simile potrebbe finire per imparare a ragionare alla stregua di un essere umano.
Si scende quasi nel fantascientifico, ma i timori sollevati dagli ingegneri di OpenAI ci fanno pensare che forse qualche primo passo verso una AGI sia già stato fatto: persino Elon Musk ha chiesto spiegazioni a OpenAI, arrivando a ipotizzare che l'azienda stia realizzando qualcosa di pericoloso per l'umanità. Fantascienza e allarmismi a parte, i timori più concreti riguardo all'AGI non sono relativi ad una sua improvvisa presa di coscienza ma al suo impatto sull'economia, sul mondo del lavoro e sulla società: se uno strumento simile rimanesse nelle mani di una sola azienda, senza un contributo o una regolazione da parte degli Stati e della comunità internazionale, le conseguenze sarebbero così rapide da risultare catastrofiche.

Anche nel campo dell'AGI, dunque, si sarebbe consumato uno scontro tra "aziendalisti" e ricercatori, con i primi che vorrebbero concentrare i lavori sull'Intelligenza Artificiale Generale e i secondi che vorrebbero invece adottare un approccio più cauto e votato al dialogo istituzionale.
La paura, probabilmente, è che l'AGI venga rilasciata secondo delle tempistiche dettate dal profitto, ovvero nell'ottica di "chi primo arriva, meglio alloggia".
Del resto, anche Google e Meta sono al lavoro sull'IA Generale, ed è ragionevole pensare che non siano troppo distanti da OpenAI e Microsoft: il primo che rilascerà la propria AGI sul mercato potrebbe garantirsi dei benefici enormi in termini commerciali. Da qui lo scontro tra le due anime della realtà fondata e diretta da Sam Altman.

In tutto questo, poi, potrebbe esserci lo zampino di Microsoft e Satya Nadella: il colosso di Redmond, d'altro canto, detiene il 49% di OpenAI e ha già investito 13 miliardi di Dollari nell'azienda, pur senza avere alcuna poltrona nel suo CDA. Non è un caso che la Big Tech nata dalla mente di Bill Gates abbia cercato di cooptare sia Sam Altman che i potenziali ingegneri fuggitivi di OpenAI: anche nel caso in cui la parte più "etica" della compagnia avesse preso il sopravvento, Microsoft avrebbe avuto i migliori ingegneri sulla piazza e avrebbe potuto sfruttare il loro know-how nella realizzazione di una AGI proprietaria in tempi brevi e senza le costrizioni a cui il board avrebbe sottoposto la "nuova" OpenAI.

Il ritorno di Sam Altman: un lieto fine?

A questo punto, però, sorge un altro interrogativo. Perché OpenAI ha reintegrato Sam Altman? Il ritorno dell'enfant prodige dell'IA - o quasi, con i suoi 38 anni - è passato per una auto-defenestrazione dell'intero board dei dirigenti.

Della direzione di OpenAI della settimana scorsa, infatti, oggi resta solo Adam D'Angelo, il CEO di Quora e la figura che ha concertato il ritorno di Sam Altman come CEO della startup, guidando le trattative per concretizzare una giravolta che normalmente avrebbe avuto del clamoroso. A questo punto, dunque, è normale chiedersi perché la parte no-profit di OpenAI abbia praticamente commesso un seppuku di fronte al CEO ripudiato poco prima.
Il motivo principale, con ogni probabilità, è che senza Altman OpenAI avrebbe smesso di esistere: il licenziamento del fondatore della startup è stato preso dai lavoratori come un colpo basso, se non altro perché nessuno del board si è preso la briga di spiegare ai dipendenti i motivi della mossa. Ancora peggio, pare che per almeno un paio di giorni il CDA di OpenAI si sia ritirato nel silenzio, un po' come farebbe chi sa di aver commesso un errore e deve trovare un modo per passarla liscia. Il risultato? 747 dei 770 lavoratori di OpenAI hanno minacciato le dimissioni al grido di "OpenAI non è nulla senza chi ci lavora".

Persino Mira Murati e Ilya Sutskever, che da tutta questa vicenda sono emersi come le due grandi nemesi di Sam Altman (e che, come ampiamente prevedibile, sono stati i primi due dirigenti le cui teste sono rotolate al ritorno dell'ex-CEO), hanno twittato rapidamente il loro supporto ad Altman, dopo avergli dato il benservito 48 ore prima. Dall'altra parte, è evidente che senza Microsoft il "ribaltone" non si sarebbe verificato: se il colosso di Redmond non avesse promesso ai quasi 800 dipendenti di OpenAI un posto di lavoro stabile e ben pagato, è assai improbabile che il 95% avrebbe minacciato di dimettersi solo per seguire un CEO che, per qualche ora, è parso come l'ennesimo visionario decaduto della Silicon Valley.

Difficile dire se la mossa di Satya Nadella e soci fosse parte di una precisa strategia per favorire il reintegro di Sam Altman o se fosse la risposta logica ad una ghiotta opportunità sul mercato del lavoro. Come già detto, però, la struttura di OpenAI - con un board che di fatto vigila a pieni poteri sulla parte for-profit dell'azienda, compreso il suo CEO - lascia a Sam Altman e al colosso di Redmond ben poco margine di autonomia e di controllo.
Insomma, il ritorno di Altman è stato anche e soprattutto una resa dei conti al vertice di OpenAI, che ha fatto capire al mondo chi comanda dentro la fondazione: Sam Altman, Microsoft e l'ala aziendalista. Un epilogo tutto sommato prevedibile. Un lieto fine? Per chi romanticizza la figura del CEO di OpenAI sì. Per chi nutre qualche (legittimo) dubbio sulla sicurezza a lungo termine dell'IA, forse no.