[da Progresso/IA/Ethical Research]

 

Non sappiamo bene cosa sia successo ai vertici di OpenAi, c’è la possibilità che sia stato un tentato “golpe” da parte dell’esecutivo, stando alle ultime indiscrezioni. Il conflitto sembra ruotare intorno alla velocità con la quale si stanno sviluppando alcuni brevetti ed alcune funzionalità che, secondo l’esecutivo, richiedono molta più analisi e cautela; Sam Altman non sembra essere d’accordo, seguito da circa il 90% del suo staff. In queste ultime due settimane, l’azienda IA più conosciuta al mondo sta facendo un turnover costante di CEOs e sta rivedendo ogni decisione ed affermazione recenti. Andiamo a schiarirci le idee su cosa sta succedendo davvero.

Stando a quel che è trapelato, la vicenda dovrebbe essersi svolta nel seguente ordine: il team di Ricerca e Sviluppo di OpenAi ha fatto qualche tipologia di progresso non meglio definita, e lo ha prontamente comunicato ad Altman, che a sua volta lo ha comunicato al direttivo esecutivo, che ha reagito in maniera estremamente discorde con l’intero processo decisionale dell’azienda e del CEO.

Sam Altman è stato dapprima allontanato da OpenAi, successivamente licenziato per “mancanza di sincerità e di trasparenza nei confronti del Direttivo Esecutivo“.

Il 90% dei dipendenti del colosso americano ha deciso di minacciare di dimissioni massive in caso questa decisione nei confronti di Altman non fosse stata ritrattata (cosa che è parzialmente avvenuta: la decisione è stata ritrattata ma non sono stati spiegati i motivi che hanno portato dapprima alla divisione e poi ai ferri corti i vertici di OpenAi). 

La possibilità più concreta è che il Direttivo Esecutivo non fosse contento dei tempestivi passi avanti compiuti da Altman nello sviluppo del sistema AGI( Artificial General Intelligence), un progetto che, come già evidenziato da molti esperti e da Altman stesso, potrebbe radicalmente modificare l’entità della vita umana sulla Terra, sia in positivo che in negativo. Si tratta di un’IA non meglio definita che raggiunge picchi intellettivi ben superiori a quelli umani. Non è noto lo scopo e la potenziale applicazione di AGI, ma è palese che ha diviso la leading company mondiale nel mondo dell’IA. I direttori esecutivi non volevano procedere a ritmi così spediti, Altman invece vorrebbe incrementarli perfino.

Non molti pareri sono trapelati da questi eventi, ma diverse figure di rilievo hanno recitato la loro parte e continuano a farlo: La CEO di Microsoft, Satya Nadella, ha espresso immediatamente interesse nell’assunzione di Altman, cosa che sembrava essersi ufficializzata ma, ad appena un paio di giorni dalla diffusione di questa notizia, gli equilibri si sono nuovamente scambiati, con una serie di incontri tra i vertici delle due compagnie, l’investitura a CEO OpenAi di Mira Murati (ex CTO della stessa compagnia), poi il cambio repentino di nominativo, con quello di Emmet Shear, che fino a quel momento amministrava la piattaforma Twitch)

Insomma, parrebbe che questa vicenda e le ragioni che l’hanno portata in scena fossero così imponenti da sbilanciare un team direttivo e di allarmare diversi capi di compagnie tutt’altro che irrilevanti sul panorama economico e tecnologico planetario.

In tutto questo caotico susseguirsi di notizie, cambi ai vertici, accuse, proteste e minacce, sembra essere chiara la spaccatura che divide la comunità scientifica negli ultimi tempi: l’IA non può essere un bene né un male assoluto, ma non può nemmeno ricevere il beneficio del dubbio, almeno non più. OpenAi sembra aver optato per la cautela, seguendo i ragionamenti contrastanti di Sam Altman e le precisazioni del Direttore Scientifico Ilya Sutskever; consultando la sezione dedicata alla tecnologia AGI sul loro sito ufficiale, possiamo appurare che neanche i creatori stessi sanno dare risposte unilaterali. Parafrasando alcune sezioni della pagina dedicata ad AGI, possiamo apprendere che

” se AGI verrà realizzato con successo, il bene che deriverà per l’intera specie umana sarà immenso, e cambierà radicalmente il nostro modo di concepire la vita, dandoci abbondanza, sovraccaricando il sistema economico globale e moltiplicando la forza e risorse della razza umana.

Comunque, AGI introdurrà al contempo un serio rischio di utilizzo fallace, incidenti drastici, e distruzione totale della società”

e ancora

” Sebbene non  siamo in grado di predire cosa accadrà, e siccome potremmo sbattere contro un muro, abbiamo delineato delle linee guida per tutti gli addetti ai lavori di AGI:

1- Vogliamo che AGI migliori l’umanità e che ci permetterà di fiorire al massimo livello universale. Non ci aspettiamo un futuro utopistico, ma vogliamo massimizzare il bene e minimizzare il male. AGI deve essere un amplificatore di umanità.

2- Vogliamo che i benefici e le proprietà di AGI siano unilateralmente accessibili e condivisibili.

3- Vogliamo districarci con successo tra rischi immensi. Quando messi di fronte a questi ultimi, sappiamo che ciò che funziona in teoria, potrebbe differire nella pratica, crediamo quindi che l’opzione migliore sia rilasciare versioni depotenziate e controllabili del progetto, così da minimizzare il numero di eventi in cui abbiamo una sola possibilità di azzeccarci.

 

 

In sintesi: nessuno sa davvero cosa stia succedendo sull’Olimpo della tecnologia moderna, e quei pochi che sono aggiornati sugli sviluppi non possono o non vogliono collaborare alla scoperta della verità. I dati che abbiamo possono far preoccupare: Una lotta ai massimi livelli di OpenAi per una questione etica che sembra potenzialmente immensa, inconclusa e indefinita. Interesse per la vicenda da parte degli altri colossi Big Tech e spiegazioni criptiche che sembrano evolversi dall’oggi al domani, e alcuni rumor parlano di un’altra ragione ancor più controversa per il licenziamento iniziale di Altman: si pensa che avesse addirittura iniziato le ricerche per un successore (o un clone) di AGI chiamato “Q*“, programma che, stando a quanto trapelato “sarà la ragione per la quale si realizzeranno i futuri distopici da fantascienza”.  Tutto ciò che possiamo fare da parte nostra, è documentarci e restare sempre aggiornati, così da poter formulare opinioni valide e non (inutilmente) allarmistiche, ma anche da poter capire a cosa andiamo incontro, qualora le previsioni catastrofiste dei più pessimisti si rivelassero più fondate.

Come sempre: buon lavoro.