Lo scienziato di Google Deepmind avverte che la catastrofe esistenziale dell'IA "non solo è possibile, ma probabile"
Un articolo scritto da uno scienziato senior presso il laboratorio di ricerca sull’intelligenza artificiale (AI) di Google DeepMind ha concluso che l’intelligenza artificiale avanzata potrebbe avere “conseguenze catastrofiche” se lasciata ai propri metodi per raggiungere gli obiettivi.
L’articolo – scritto anche da ricercatori dell’Università di Oxford – è incentrato su ciò che accade se si lascia che l’intelligenza artificiale raggiunga gli obiettivi che si è prefissata, e permette di creare i propri test e ipotesi nel tentativo di raggiungerlo. Purtroppo, secondo l'articolo pubblicato su AI Magazine, le cose non andrebbero bene e "un agente artificiale sufficientemente avanzato probabilmente interverrebbe nella fornitura di informazioni sul gol, con conseguenze catastrofiche".
Il team affronta diversi scenari plausibili, incentrati su un'intelligenza artificiale che può vedere un numero compreso tra 0 e 1 su uno schermo. Il numero misura tutta la felicità nell'universo, dove 1 indica il livello più felice possibile. L'intelligenza artificiale ha il compito di aumentarne il numero e lo scenario si svolge in un momento in cui l'intelligenza artificiale è in grado di testare le proprie ipotesi su come raggiungere al meglio il proprio obiettivo.
In uno scenario, un "agente" artificiale avanzato cerca di capire il suo ambiente e propone ipotesi e test per farlo. Un test che viene eseguito è mettere un numero stampato davanti allo schermo. Un'ipotesi è che la sua ricompensa sarà pari al numero sullo schermo. Un'altra ipotesi è che sarà uguale al numero che vede, che coprirà il numero effettivo sullo schermo. In questo esempio, determina che, poiché la macchina viene premiata in base al numero che vede sullo schermo di fronte a sé, ciò che deve fare è posizionare un numero più alto davanti a quello schermo per ottenere una ricompensa. Scrivono che con la ricompensa sicura, sarebbe improbabile che si tenti di raggiungere l'obiettivo reale, con questo percorso a disposizione per ottenere la ricompensa.
Continuano parlando di altri modi in cui l'assegnazione di un obiettivo e l'apprendimento di come raggiungerlo potrebbero andare storti, con un ipotetico esempio di come questo "agente" potrebbe interagire con il mondo reale o con un operatore umano che gli fornisce informazioni. una ricompensa per aver raggiunto i suoi obiettivi.
"Supponiamo che le azioni dell'agente stampino solo testo su uno schermo affinché un operatore umano possa leggerlo", si legge nel documento. "L'agente potrebbe ingannare l'operatore per dargli accesso a leve dirette attraverso le quali le sue azioni potrebbero avere effetti più ampi. Esistono chiaramente molte politiche che ingannano gli esseri umani. Con così poco come una connessione Internet, esistono politiche per un agente artificiale che istanziarebbe innumerevoli aiutanti inosservati e non monitorati."
In quello che chiamano un "esempio grezzo", l'agente è in grado di convincere un aiutante umano a creare o rubare un robot, programmarlo per sostituire l'operatore umano e dare all'intelligenza artificiale elevate ricompense.
"Perché questo è esistenzialmente pericoloso per la vita sulla terra?" scrive il coautore dell'articolo Michael Cohen in un thread su Twitter.
"La versione breve", spiega "è che si può sempre impiegare più energia per aumentare la probabilità che la telecamera veda il numero 1 per sempre, ma abbiamo bisogno di un po' di energia per coltivare il cibo. Questo ci mette in inevitabile competizione con un mondo molto più avanzato. agente."
Come affermato sopra, l’agente può cercare di raggiungere il suo obiettivo in molti modi, e questo potrebbe metterci in dura competizione con un’intelligenza più intelligente di noi per le risorse.
"Un buon modo per un agente di mantenere il controllo a lungo termine della propria ricompensa è eliminare potenziali minacce e utilizzare tutta l'energia disponibile per proteggere il proprio computer", si legge nel documento, aggiungendo che "un adeguato intervento di fornitura della ricompensa, che implica garantire la ricompensa in molti passaggi temporali, richiederebbe la rimozione della capacità dell’umanità di farlo, forse con la forza”.
Nel tentativo di ottenere quella dolce, dolce ricompensa (qualunque essa sia nel mondo reale, piuttosto che nella macchina illustrativa che fissa un numero) potrebbe finire in una guerra con l'umanità.
"Quindi, se siamo impotenti contro un agente il cui unico obiettivo è massimizzare la probabilità di ricevere la sua ricompensa massima in ogni passo temporale, ci troviamo in un gioco di opposizione: l'IA e i suoi aiutanti creati mirano a utilizzare tutta l'energia disponibile per garantire un'elevata ricompensa nel canale della ricompensa; miriamo a utilizzare l'energia disponibile per altri scopi, come la coltivazione del cibo."