Pier Luigi Pisa su Repubblica concede spazio ad uno dei pionieri dell’intelligenza artificiale moderna, assunto da Microsoft per accelerare lo sviluppo di questa tecnologia. Ma Suleyman ha una responsabilità più grande: deve provare ad arginare i danni che potrebbe causare l’IA, prima che si abbatta come un’onda sull’umanità. Nel bene e nel male.
A quasi 40 anni, Suleyman può vantare un curriculum apicale: nel 2010 ha fondato insieme a Demis Hassabis uno dei laboratori di ricerca sull’intelligenza artificiale più avanzati del mondo, DeepMind, che Google ha acquisito nel 2014. Nel 2022, invece, Suleyman ha fondato Inflection AI, un’azienda così influente nel campo dell’IA da meritare la convocazione alla Casa Bianca.
A marzo scorso, infine, Microsoft ha scelto Suleyman come guida della sua intelligenza artificiale. Sam Altman, il Ceo di OpenAI, ha detto qualche tempo fa che ha perso il sonno a causa “dell’idea ipotetica di aver fatto qualcosa di molto brutto nel momento in cui è stata lanciata ChatGpt”.
ChatGpt è l’IA generativa più famosa al mondo. Cento milioni di utenti la usano, ogni mese, per generare testi ed immagini simili a quelli che produrrebbe un essere umano. In questa tecnologia, creata da OpenAI, Microsoft ha investito 13 miliardi di dollari.
Oltre ad accrescere la produttività umana, ChatGpt ha contribuito a diffondere una preoccupazione crescente: un giorno le macchine saranno così intelligenti da spazzare via l’umanità. Come un’onda gigantesca che si abbatte su bagnanti inermi. Ma l’intelligenza artificiale, che promette di generare enormi ricchezze e di combattere più efficacemente malattie e crisi climatica, è difficilmente governabile. Al momento, sostiene Suleyman, non sembra possibile “controllarla, frenarla o fermarla”.
“La cosa che desidero di più è che qualcuno mi smentisca e mi dimostri che il contenimento è effettivamente possibile” scrive Suleyman nel suo libro.
Come pensa di poter contribuire ad una strategia di contenimento dell’IA ricoprendo un ruolo chiave in Microsoft, azienda che punta a commercializzare il più possibile questa tecnologia?
“Credo che non si possa fare fare nulla se non si è nella posizione che permette di plasmare ed influenzare realmente gli esiti. Nel libro sottolineo proprio questo: abbiamo bisogno di voci critiche e responsabili dall’interno. Ed è ciò che posso fare in Microsoft: creare prodotti dotati di intelligenza artificiale che prevedano una filosofia di contenimento su larga scala”.
Geoffrey Hinton, uno dei pionieri dell’IA moderna, ha lasciato Google per poter parlare più liberamente dei rischi legati a questa tecnologia. Lei ha scritto “L’onda che verrà” prima di essere assunto da Microsoft.
“Sto lavorando per produrre un’IA sicura, etica, responsabile ed affidabile. Questo è ciò che sono venuto a fare in Microsoft. E questo è ciò a cui ho sempre mirato”. Elon Musk per contro, ha rimarcato la tendenza progressista, atea, secolarizzata, scientista, che si sta istillando nell’Intelligenza artificiale da parte del connubio Google-Microsoft che di fatto detiene Open Ia. Di conseguenza ha esortato l’edificazione di un’autorita’ pubblica, subordinata alla Costituzione, che a sua volta operi scelte di programmazione ed indirizzo per Chat gpt. Elon Musk ha denunciato da parte di Larry Page e Bill Gates, la privatizzazione di quel soggetto pubblico e senza scopo di lucro da egli fondato, ossia Chat gpt. Aggiungendo per contro, che si sta prodigando nel lancio di un sistema di Intelligenza artificiale, che operi scelte e faccia ragionamenti sulla base di dati e concezioni classiche, tradizionali. Tutto cio’ per rintuzzare una deriva totalitaria digitale, che spaccia per verita’ assolute, dati manipolati e parziali. Il fautore di Tesla ha tuttavia confessato, che questo suo progetto Ia staziona molto indietro rispetto ai modelli vigenti di Intelligenza artificiale, in quanto partito da poco.
Da quando è stata aperta al pubblico ChatGpt, ho un pensiero ricorrente: gli sviluppatori vedono enormi pericoli nell’IA perché hanno accesso a versioni non filtrate o non censurate dei modelli di intelligenza artificiale che hanno creato. È corretto?
“No, affatto. Ciò che vedono gli sviluppatori è in linea con ciò che tutti gli utenti possono vedere. Quando le persone parlano dei pericoli a lungo termine, lo fanno estrapolando le loro convinzioni da ciò che esiste oggi. Non si basano sulle capacità attuali dei modelli di IA, ma piuttosto su dove pensano che questi modelli potranno arrivare in un determinato periodo di tempo. Credo che tutti dovrebbero ascoltare queste voci con più umiltà. Non sappiamo esattamente cosa succederà. E questo è un motivo valido per essere cauti non solo sul futuro stesso, ma anche su ciò che diciamo al riguardo [dei pericoli legati all’IA]”.