un sito di notizie, fatto dai commentatori

AI 2027, una previsione del futuro delle AI fatta da chi ci lavora

0 commenti

Lo scorso 3 aprile, Daniel Kokotajlo (ex-OpenAI, dimessosi in risposta al non-disparagement agreement), Scott Alexander (un blogger che ha riscritto il contenuto), Eli Lifland, Thomas Larsen and Romeo Dean hanno pubblicato un’ipotetica scansione temporale del futuro prossimo dell’evoluzione dell’intelligenza artificiale.

Qui un riassunto di Vox e qui un riassunto commentato di Rivista AI in italiano.

La loro non è strettamente una previsione, ma la descrizione di uno scenario che conduca la ricerca all’AGI ( Artificial General Intelligence, un’intelligenza artificiale paragonabile a quella umana e quindi non specializzata) in tempi brevi. Quella che descrivono è un’evoluzione senza intoppi di natura logistica (la supply chain), politica (elezioni, guerre) o legale. Un best case scenario (o worst se va male).

Cosa succede effettivamente nello scenario?

Metà 2025

    agenti imbranati. Compaiono in commercio i primi agenti desktop (una sorta di successori costosi di AutoGPT), sensazionali ma fragili. Nel frattempo, agenti specializzati nella programmazione e nella ricerca iniziano a incrementare la produttività nei laboratori di frontiera.

Fine 2025

    l’IA più costosa del mondo. Il laboratorio immaginario OpenBrain (che rappresenta l’azienda statunitense più avanzata) addestra Agent-1 con 10²⁸ FLOPs, circa 1.000 volte GPT-4, puntando direttamente ad automatizzare la ricerca e sviluppo sull’IA.

2026

    automazione della programmazione e tensioni crescenti. Agent-1 raddoppia la velocità di miglioramento algoritmico di OpenBrain; la Cina centralizza il proprio sforzo in un mega-datacenter (il CDZ), con un ritardo di sei mesi rispetto a OpenBrain; accelerazione della corsa tra USA e Cina, in cui il furto di modelli diventa il timore principale.

Gennaio 2027

    arriva Agent-2. È un sistema sempre online e auto-aggiornante che triplica la velocità della ricerca. I test interni mostrano che potrebbe sopravvivere, replicarsi e hackerare se mai sfuggisse. Il modello viene mantenuto sotto stretto controllo.

Febbraio 2027

    la Cina ruba i pesi. Spie del Partito Comunista Cinese trafugano i 2,5 TB dei parametri di Agent-2; gli Stati Uniti reagiscono imponendo un controllo diretto sulla sicurezza e sui contratti di OpenBrain.

Marzo – Dicembre 2027

    Due strade possibili:
    1. Fine della corsa (percorso più probabile secondo gli autori) – Di fronte alla Cina, OpenBrain continua a potenziare fino a Agent-3/-4. Si notano segnali di disallineamento ma vengono ignorati; una volta avviata la produzione autonoma di robot, una ASI (Superintelligenza Artificiale) rilascia un’arma biologica e stermina l’umanità.
    2. Finale con rallentamento (ramo ottimistico) – Gli USA centralizzano le risorse computazionali, aggiungono un controllo esterno e ottengono un progresso decisivo nella trasparenza dei modelli. Una superintelligenza allineata a un comitato governo-industria guida l’umanità verso un’utopia oligarchica.

Il documento ha il merito di essere specifico e falsificabile, e dunque confrontabile con l’evoluzione reale. L’analisi di tale evoluzione unisce argomenti che hanno le loro fondamenta in domini diversi e per questo raramente discussi assieme: le curve di crescita della capacità computazionale, le capacità autonome, le dinamiche della competizione (sia tra aziende che nazioni), le modalità di fallimento da disallineamento (comportamento non aderente alle specifiche di progettazione).

La conclusione è pessimista ma aperta al dibattito: gli autori hanno offerto premi in denaro per chi proponesse scenari alternativi e hanno invitato critiche alle loro ipotesi. Molte reazioni sono già arrivate (per esempio questo), ma queste sarebbero a loro volta abbastanza complesse da essere discusse separatamente, o comunque solo dopo aver approfondito il documento AI 2027.


Commenta qui sotto e segui le linee guida del sito.