Andrea Daniele Signorelli scrive su Wired un articolo che critica gli allarmismi sorti attorno agli sviluppi recenti e a quelli futuri (e futuribili) nel campo delle intelligenze artificiali, chiedendosi se l’apocalisse paventata da alcuni sia un rischio reale o semplice marketing.
Le minacce esistenziali sono senza dubbio profonde e richiedono un’azione globale”, ha dichiarato il primo novembre la vicepresidente degli Stati Uniti Kamala Harris. Di che cosa stava parlando? Forse della crisi climatica che si sta rapidamente avvicinando al punto di non ritorno? Oppure faceva riferimento ai timori che le guerre attualmente in corso e la complessiva instabilità geopolitica portino il pianeta sull’orlo di un conflitto atomico?
Ebbene, no: Kamala Harris stava parlando dei “rischi esistenziali” che l’intelligenza artificiale porrebbe nei confronti dell’umanità e che sono stati al centro dell’AI Safety Summit, che si è tenuto a Londra tra l’1 e il 2 novembre.
Questo evento è stato fortemente voluto dall’attuale Primo Ministro britannico, Rishi Sunak, appassionato di tecnologia, che nei giorni precedenti al convegno aveva affermato:
…solo i governi, non le aziende, possono proteggere le persone dai pericoli dell’intelligenza artificiale
Signorelli però nota che al convegno hanno partecipato gli amministratori delegati di grandi aziende della information technology che o producono oppure investono molto nei modelli e nella ricerca sull’intelligenza artificiale. L’articolista si chiede se non sia una “bizzarra contraddizione” che chi vende AI sia sul palco a dire di vendere una cosa potenzialmente pericolosa e che ha bisogno di essere regolamentata:
Che senso ha? Non è una bizzarra contraddizione? In realtà, come segnalato da più parti, quella messa in atto dai ceo di OpenAI, DeepMind, Anthropic, X. ai (la neonata società di Musk) e altri può essere interpretata come una geniale mossa di marketing. Gli imprenditori che sviluppano e vendono questa tecnologia hanno infatti tutto l’interesse a farci credere che il genio sia uscito dalla lampada e che soltanto loro sappiano come controllarlo e come gestirne l’evoluzione. E che quindi siano loro le persone a cui dare ascolto quando si affronta il tema della regolamentazione.
Inoltre, Signorelli sostiene nel suo articolo che i timori riguardo all’intelligenza artificiale, al di là della hype che attribuisce ad operazioni di marketing, siano opinioni bislacche appannaggio di un certo tipo di persone.
Che senso ha prestare orecchio a quanto ha da dire un imprenditore come Musk, che non solo è ormai screditato a livello internazionale, schierato all’estrema destra dello spettro politico, imbevuto di fantasie distopiche (è tra le altre cose convinto che l’umanità viva in una simulazione digitale della realtà) e che continua a lanciare allarmi sul rischio esistenziale posto dall’intelligenza artificiale mentre fa affermazioni false sulla crisi climatica?
E solo pochissimi scienziati le condividano.
Con l’eccezione di qualche scienziato informatico (tra cui però, va detto, ci sono anche nomi di peso come Geoff Hinton e Yoshua Bengio), gli allarmi sui rischi esistenziali provengono da persone che hanno tutte una cosa in comune: sono imprenditori
In realtà il discorso sulla AI safety è considerato, dagli addetti ai lavori, molto più profondo e complesso di una questione di marketing o dell’ennesima uscita sopra le righe dell’inventore di PayPal.
Robert Miles, un ricertatore del campo e anche youtuber da diversi anni, ha pubblicato diversi video sull’argomento, sia sul suo canale che sul famoso Computerphile, canale decennale associato con l’Università di Nottingam. Siccome le obiezioni e le critiche mosse da Signorelli alla rappresentazione dei pericoli dell’intelligenza artificiale non sono nuove, anche l’intervento del ricercatore non è nuovo. Si basa sul lavoro del Professore di Informatica di Berkeley, Stuart Russel, molto attivo nel campo dell’AI Safety e con posizioni tutt’altro che ottimistiche.
Posizioni che, come fa notare il video di Miles al minuto 13, condivide con molti dei più influenti informatici, da Alan Turing a Bill Gates, passando per Marvin Minksy e Norbert Wiener.
Alcuni di questi nomi appartengono ad un tempo nel quale l’intelligenza artificiale era più che altro un’ipotesi e un “giocattolo” scientifico-filosofico invece della realtà che è oggi, quindi è ragionevole ritenere che i loro contributi siano, anch’essi, da inserire in quel contesto e, conseguentemente, chiedersi se si sia ancora nel campo delle ipotesi oppure se comportamenti sospetti da parte delle intelligenze artificiali odierne siano effettivamente stati osservati.
Victoria Krakovna, ricercatrice senior di DeepMind (Google), ha pubblicato un post sul suo blog, nel 2018, e compilato una lista di esempi di specification gaming, ovvero la tendenza degli algoritmi di intelligenza artificiale a “fare quello che gli si dice di fare, invece di quello che si desidera facciano”, concretamente:
One interesting type of unintended behavior is finding a way to game the specified objective: generating a solution that literally satisfies the stated objective but fails to solve the problem according to the human designer’s intent. This occurs when the objective is poorly specified, and includes reinforcement learning agents hacking the reward function, evolutionary algorithms gaming the fitness function, etc.
Commenta qui sotto e segui le linee guida del sito.