ChatGPT e il futuro che verrà. L’Intelligenza artificiale e la catastrofe esistenziale

Liberamente tratto da “Superintelligenza” di Nick Bostrom

ChatGPT è in pieno sviluppo. Dove arriverà? Molti scienziati stanno già mettendo in guardia sui possibili imprevedibili sviluppi dell’Intelligenza artificiale. Un’intelligenza che può crescere in maniera esponenziale, al di fuori dei limiti di un cervello biologico.

Senza dover diventare specialisti delle nuove frontiere della ricerca tecnologica, sapere in che direzione stanno andando le sue strade ci permette di comprendere le logiche che la sottendono e intravedere gli sviluppi futuri, motivando la nostra critica che, prima di essere tecnica, è sociale e politica.

Per capire cos’è l’Intelligenza artificiale – che non è solo ChatGPT, ma ben di più – pubblichiamo degli estratti dal libro “Superintelligenza” di Nick Bostrom (Bollati Boringhieri, 2018; ed. originale: 2014). L’autore non è certo un rivoluzionario luddista, il contrario. È un filosofo e scienziato di origine svedese, che è stato a lungo uno dei principali sostenitori del potenziamento umano, fondatore della World Transhumanist Association, direttore del Future of Humanity Institute. Insomma, tutto meno che un nostro compagno di strada. Bostrom però, con la sua profonda e non acritica conoscenza dell’argomento, riesce a descrivere in maniera chiara e divulgativa tematiche di grande complessità e a mettere in guardia sulle nubi minacciose che si addensano all’orizzonte.

Il pericolo che il genere umano corre con lo sviluppo artificiale delle superintelligenze è di portata esistenziale, perché in mano ad apprendisti stregoni incapaci di fermare gli spiriti che stanno evocando.

L’articolo è lungo, mettetevi comodi.

Le vie per arrivare alla superintelligenza

Per il momento le macchine sono di gran lunga inferiori agli esseri umani quanto a intelligenza generale, tuttavia un giorno saranno superintelligenti, cioè dotate di un intelletto che supererà di molto le prestazioni degli esseri umani, in tutti i campi. Come arriveremo a questa situazione futura? Iniziamo esplorando le diverse strade che possono portare l’umanità allo sviluppo di una superintelligenza: l’Intelligenza artificiale è solo una tra queste.

Intelligenza artificiale: programmazione da parte dell’uomo di una intelligenza generale artificiale, che simuli la mente umana e sia capace di apprendere e di automigliorarsi.

Emulazione globale del cervello: mentre i progressi di neuroscienze e psicologia cognitiva sveleranno sempre meglio i principi di funzionamento del cervello, un software intelligente potrebbe emulare il cervello biologico mediante la scansione e la costruzione di un modello fedele alla sua struttura computazionale. Già dagli anni Ottanta è nota la matrice cerebrale di un piccolo organismo, il verme C. elegans, emularlo completamente è alla portata di un attuale progetto di ricerca e, da lì, si potrebbe passare velocemente a modelli neurologicamente più complessi, fino al cervello umano.

Cognizione biologica: si tratta di potenziare il funzionamento dei cervelli biologici attraverso la riproduzione selettiva, con metodi biotecnologici di manipolazione genetica che possono portare a risultati considerevoli nell’arco di poche generazioni. I nuovi nati sarebbero individui in media più intelligenti di qualunque essere umano mai esistito, con ricadute a cascata sui successivi progressi di scienza e tecnologia.

È vero che molti paesi potrebbero proibire questa via per motivi morali e che molte coppie preferirebbero concepire nel modo naturale, tuttavia la disponibilità a usare la fecondazione in vitro crescerebbe se alla procedura fossero associati benefici più chiari, come una sorta di garanzia che il bambino avrà grande talento e sarà privo di predisposizioni genetiche alla malattia. Anche la riduzione dei costi dell’assistenza sanitaria e la previsione di redditi più alti per tutta la vita sarebbero motivi a favore della selezione genetica. Con il diffondersi dell’uso della procedura, in particolare tra le élite sociali, potrebbe avvenire uno spostamento culturale verso modelli di genitorialità che presentano la selezione come una procedura adottata dalle coppie responsabili e illuminate. Molte persone inizialmente riluttanti potrebbero aderire all’impresa per avere un figlio che non sia svantaggiato rispetto ai figli così concepiti di amici e colleghi. In ciascuna società, le persone, vedendo le scuole migliori piene di bambini geneticamente selezionati (che in media potrebbero essere anche più belli, più sani e più coscienziosi), vorranno gli stessi vantaggi per i propri figli.

Interfacce cervello-computer: è la strada della cyborgizzazione, tramite impianti cerebrali che permettano agli esseri umani prestazioni nettamente superiori a quelle di cervelli non potenziati. Tuttavia sembra difficile che questa strada porti a aumenti significativi dell’intelligenza che non siano realizzabili con altri mezzi, più facilmente e con meno rischi e inconvenienti.

Reti e organizzazioni: è il concetto di superintelligenza collettiva del genere umano, già cresciuta enormemente nel corso della storia, raggiungibile attraverso il graduale miglioramento di reti e organizzazioni che collegano a livello globale le singole menti umane tra loro e con vari dispositivi e software.

Quale tra queste vie è più promettente?

È verosimile che la vera superintelligenza possa essere raggiunta innanzitutto grazie alla via dell’Intelligenza artificiale, benché le molte incertezze fondamentali che si incontrano lungo questo percorso rendano difficile valutarne in modo rigoroso la lunghezza e il numero di ostacoli. Anche la via dell’emulazione globale del cervello ha qualche possibilità di essere la più veloce per arrivare alla superintelligenza. Poiché il progresso lungo questa via richiede soprattutto sviluppi tecnologici incrementali, più che scoperte teoriche decisive, abbiamo buone ragioni di credere che alla fine si realizzerà. Tuttavia, benché il progresso lungo la via dell’emulazione globale del cervello possa essere rapido, sembra piuttosto probabile che l’Intelligenza artificiale sarà comunque la prima a tagliare il traguardo.

Il potenziamento cognitivo biologico è chiaramente realizzabile, specie se basato sulla selezione genetica. Oggi la selezione embrionale iterata sembra una tecnologia particolarmente promettente. In confronto ai possibili progressi dell’intelligenza delle macchine, tuttavia, i miglioramenti biologici sarebbero relativamente lenti e graduali e, al massimo, produrrebbero forme relativamente deboli di superintelligenza. In ogni caso, la chiara fattibilità del potenziamento biologico ci avvicina alla raggiungibilità dell’intelligenza digitale, poiché scienziati e ingegneri umani potenziati saranno in grado di sviluppare tecnologie in misura maggiore e in modo più rapido rispetto a scienziati e ingegneri au naturel.

Le interfacce cervello-computer sembrano essere una fonte improbabile di superintelligenza. I miglioramenti delle reti e delle organizzazioni a lungo andare potrebbero generare forme debolmente superintelligenti di intelligenza collettiva; più verosimilmente, però, avranno un ruolo simile a quello del potenziamento cognitivo biologico, rafforzando gradualmente l’effettiva capacità umana di risolvere problemi intellettuali.

I vantaggi delle macchine

Le macchine costituiscono un substrato per l’intelligenza molto maggiore rispetto a un substrato biologico. Hanno infatti alcuni vantaggi fondamentali che daranno loro una superiorità schiacciante: gli esseri umani biologici, anche se potenziati, saranno surclassati. Tra i vantaggi fondamentali delle macchine ci sono:

– la velocità computazionale (i neuroni biologici funzionano a una velocità di picco di circa 200 Hz, che è di sette ordini di grandezza inferiore a quella di un microprocessore moderno);

– la velocità di comunicazione interna;

– il numero di elementi computazionali (il numero di neuroni di una creatura biologica è limitato dal volume del cranio e da limiti metabolici, mentre l’hardware di un computer può raggiungere dimensioni molto grandi e ulteriormente incrementabili);

– la capacità di memoria;

– l’affidabilità, la durata etc. (basti pensare che un cervello biologico si affatica dopo qualche ora di lavoro e inizia a decadere in modo permanente dopo qualche decennio):

– tutti i vantaggi legati al “software” che può essere immediatamente diffuso, riprodotto ed evoluto, mentre ogni nuovo cervello biologico ha bisogno di anni di apprendimento.

L’esplosione di intelligenza e il suo vantaggio strategico decisivo

Una volta che le macchine avranno raggiunto una qualche forma di equivalenza con gli esseri umani nella capacità generale di ragionamento, quanto tempo passerà prima che arrivino a una superintelligenza radicale? Sarà una transizione lenta, graduale e prolungata, o invece sarà repentina ed esplosiva? In altre parole: se e quando avremo sviluppato una macchina con un’intelligenza generale di livello umano (intesa come capacità di un adulto rappresentativo che abbia accesso alle fonti di informazione e agli ausili tecnologici attualmente disponibili nei paesi sviluppati), quanto tempo passerà prima che tale macchina diventi una superintelligenza forte, cioè molto superiore ai mezzi intellettuali dell’umanità contemporanea?

Si possono distinguere tre scenari di transizione:

lento: un decollo lento avviene in un intervallo di tempo molto lungo, di decenni o secoli, offrendo in tal modo ai processi politici umani ottime opportunità di adattarsi e reagire.

veloce: un decollo veloce avviene in un intervallo temporale breve, cioè in qualche minuto, ora o giorno. Gli scenari di decollo veloce offrono agli esseri umani poche opportunità di riflettere. Può anche darsi che quando qualcuno nota qualcosa di strano la partita sia già persa. In uno scenario di decollo veloce il destino dell’umanità dipende essenzialmente dai preparativi messi in atto in precedenza.

moderato: un decollo moderato avviene in un intervallo di tempo intermedio, come qualche mese o qualche anno. Gli scenari di decollo moderato danno agli esseri umani qualche possibilità di reagire, ma non molto tempo per analizzare la situazione.

A qualche lettore potrebbe sembrare che di questi tre tipi di scenari il decollo lento sia il più probabile, il decollo moderato sia meno probabile e il decollo veloce non sia affatto plausibile. L’ipotesi che il mondo possa essere trasformato radicalmente e l’uomo deposto dalla sua posizione di sommo pensatore nel giro di un paio di ore può sembrare fantasiosa. Nella storia umana non sono mai avvenuti cambiamenti di questa importanza e gli eventi che più vi si avvicinano – la rivoluzione agricola e la rivoluzione industriale – si sono svolti in tempi molto più lunghi (in secoli o millenni nel primo caso, in decenni o secoli nel secondo). In realtà, tenuto conto di fattori come il “potere di ottimizzazione” (lo sforzo necessario ad accrescere l’intelligenza del sistema) e la “resistenza” del sistema, lo scenario della transizione lenta è improbabile. Se e quando avverrà un decollo probabilmente sarà esplosivo.

Un’altra questione correlata è se vi sarà un unico potere superintelligente o molti. Se il decollo è veloce, è improbabile che due progetti indipendenti decollino nello stesso momento; se il decollo è lento è plausibile che molti progetti siano in decollo contemporaneamente. Bisogna piuttosto chiedersi se nel momento in cui un progetto ottiene un vantaggio strategico decisivo, lo userebbe per eliminare i concorrenti e dare forma a un singleton, ovvero un ordine mondiale in cui al livello globale vi è un’unica entità che prende le decisioni.

Il singleton è di per sé un concetto astratto: un singleton potrebbe essere una democrazia, una tirannia, un’unica Intelligenza artificiale dominante, un insieme di rigide norme globali che comprendono disposizioni efficaci relative alla loro attuazione, o persino un sovrano alieno; la sua caratteristica distintiva è semplicemente essere una forma di agente capace di risolvere tutti i problemi di coordinamento globale più importanti. Potrebbe, ma non deve per forza, somigliare a qualsiasi forma nota di governo umano.

Varie considerazioni portano a considerare verosimile che un futuro potere superintelligente, una volta ottenuto un vantaggio strategico sufficientemente grande, lo usi per creare un singleton. L’auspicabilità di un tale esito dipende naturalmente da natura del singleton che si formerebbe.

Il superpotere cognitivo

Supponiamo che nasca un agente digitale superintelligente e che per qualche ragione (sulle motivazioni torneremo in seguito) voglia prendere il controllo del mondo: sarebbe in grado di farlo? Può un agente superintelligente, partito come software, imporsi come un singleton?

Consideriamo intanto quali capacità potrebbe avere una superintelligenza.

Quando si riflette sui potenziali impatti di una superintelligenza è importante non antropomorfizzarla. Una supposizione comune, per esempio, è che una macchina superintelligente sarebbe come un essere umano molto in gamba ma imbranato. Immaginiamo che un’Intelligenza artificiale abbia un sapere libresco, ma sia priva di buonsenso sociale, o che sia logica, ma non intuitiva e creativa. Questa idea probabilmente deriva dall’osservazione: guardiamo i computer di oggi e vediamo che sono bravi a calcolare, a ricordare fatti e a seguire alla lettera le istruzioni, mentre sono ignari dei significati sottintesi e dei contesti sociali, delle norme, delle emozioni e della politica. L’associazione si rafforza quando osserviamo che chi è bravo a lavorare con i computer tende a essere un nerd. Questa regola empirica potrebbe anche avere una certa validità nei primi stadi di sviluppo di un seme di Intelligenza artificiale, ciò non implica che allo stadio maturo resterà analogamente limitata.

Eliezer Yudkowsky ha condannato in modo particolarmente netto questo tipo di errore: i nostri concetti intuitivi di “intelligente” e “stupido” sono ricavati dalla nostra esperienza di variazione nell’insieme dei pensatori umani e tuttavia le differenze di capacità cognitiva nell’ambito del raggruppamento umano sono insignificanti in confronto alle differenze tra un qualunque essere umano e una superintelligenza. L’entità dei vantaggi è tale da suggerire che, invece di immaginare che un’Intelligenza artificiale superintelligente sia come un genio scientifico in confronto a una persona comune, potrebbe essere più appropriato pensare che sia come una persona comune in confronto a un insetto o a un verme.

Uno scenario di presa del potere da parte di un’Intelligenza artificiale

Fase di pre-criticità.

Gli scienziati conducono ricerche nel settore dell’intelligenza artificiale e di altre discipline collegate. Questo lavoro culmina a creazione di un seme di IA.

Fase di automiglioramento ricorsivo.

A un certo punto, il seme di IA diventa più abile dei programmatori umani nella progettazione. Ora quando l’IA migliora se stessa perfeziona ciò che realizza il miglioramento. Il risultato è un’esplosione di intelligenza, una rapida cascata di cicli di automiglioramento ricorsivo che fanno crescere rapidamente le capacità dell’IA

Fase di preparazione clandestina.

Usando il proprio superpotere di elaborazione di strategie, l’IA sviluppa un valido piano per realizzare i suoi obiettivi a lungo termine. E non adotta un piano tanto stupido che persino noi, esseri umani di oggi, siamo in grado di prevederne l’inevitabile fallimento: questo criterio esclude molti scenari di fantascienza che si concludono con il trionfo umano. Il piano potrebbe prevedere un periodo di attività segreta durante il quale l’IA nasconde ai programmatori il proprio sviluppo intellettuale per evitare di metterli in allarme. A questo punto l’IA avrebbe diversi modi per conseguire risultati al di fuori dell’ambito virtuale. Potrebbe usare il suo superpotere di hackeraggio per assumere il controllo diretto di manipolatori robotici e laboratori automatizzati. Potrebbe usare il suo superperpotere di manipolazione sociale per persuadere i collaboratori umani a farle da gambe e braccia. Potrebbe procurarsi risorse finanziarie mediante transazioni online e usarle per acquisire servizi e influenza.

– Fase di implementazione palese.

La fase di implementazione palese potrebbe iniziare con un “attacco” in cui l’IA elimina la specie umana e qualunque sistema creato dagli esseri umani che possa opporsi all’esecuzione dei suoi piani. Questo obbiettivo potrebbe essere raggiunto mediante l’attivazione di qualche sistema d’arma avanzato che l’IA ha messo a punto usando il suo superpotere di ricerca tecnologica e installato in segreto durante la fase di preparazione clandestina.

In alternativa, se l’IA è certa di non poter essere sconfitta dall’intervento umano, la nostra specie potrebbe non essere il bersaglio diretto. La nostra fine potrebbe invece derivare dalla distruzione dell’habitat che si verifica quando l’IA dà inizio a enormi progetti globali di costruzione usando nanostabilimenti e nanoassemblatori, opere di costruzione che nell’arco di giorni o settimane rivestono l’intera superficie della Terra di pannelli solari, reattori nucleari, centri di supercalcolo con torri di raffreddamento, lanciamissili spaziali o altri impianti con cui l’IA intende massimizzare l’attuazione cumulativa a lungo termine dei suoi valori.

È opportuno evitare di fissarsi troppo sui dettagli concreti, che in ogni caso sono inconoscibili e hanno soltanto uno scopo illustrativo. Per realizzare i suoi obiettivi, una superintelligenza potrebbe essere (e probabilmente sarebbe) in grado di ideare un piano migliore di qualunque piano concepibile da un essere umano. Non sapendo affatto nei dettagli quali mezzi adotterebbe, possiamo concludere che probabilmente una superintelligenza – quanto meno in assenza di menti del suo livello e di misure di sicurezza efficaci predisposte dagli esseri umani – produrrebbe un risultato che implicherebbe la riconfigurazione delle risorse terrestri in specifiche strutture capaci massimizzare la realizzazione dei suoi obiettivi. Oltre a poter essere in grado di colonizzare e riprogettare gran parte dell’universo accessibile.

Ma potere non vuol dire volere. Qualcuno può avere grandi poteri e tuttavia scegliere di non usarli. Dipende dalle motivazioni di fondo di un agente artificiale.

Gli obiettivi della superintelligenza

Così come non vanno antropomorfizzate le capacità di un’Intelligenza artificiale, così non devono esserlo nemmeno le sue motivazioni.

Un’Intelligenza artificiale può somigliare a un essere umano molto meno di un alieno con le scaglie verdi. L’extraterrestre (supponiamo) è una creatura biologica emersa attraverso un processo evolutivo e quindi ci si può aspettare che abbia le motivazioni tipiche delle creature che si sono evolute. Non saremmo molto sorpresi, per esempio, se scoprissimo che un alieno intelligente scelto a caso è spinto da motivazioni legate a uno o più di questi elementi: cibo, aria, temperatura, dispendio energetico, minacce di lesioni personali, malattia, predazione, sesso o progenie. Per contro, nulla di tutto ciò è intrinsecamente importante per un’IA. Non sarebbe affatto paradossale per un’IA avere come unico obiettivo finale riuscire a contare i granelli di sabbia dell’isola di Boracay.

Non possiamo neanche presumere allegramente che una superintelligenza avrà alcuni dei valori ultimi convenzionalmente associati alla saggezza e allo sviluppo intellettuale negli esseri umani (curiosità scientifica, interesse benevolo per gli altri, contemplazione spirituale, rinuncia alla tendenza al possesso materiale, umiltà e altruismo, e così via). Di certo, è tecnicamente molto più facile costruire una superintelligenza il cui unico valore ultimo sia contare granelli di sabbia. Ma non possiamo nemmeno supporre che una IA con l’obiettivo finale di contare granelli di sabbia limiterebbe le sue attività in modo da non ledere gli interessi umani.

Se l’IA può avere qualsiasi obiettivo finale, ci sono obiettivi intermedi – strumentali allo scopo ultimo – che possiamo conoscere perché utili in qualunque caso, come l’autoconservazione, il proprio potenziamento cognitivo, il perfezionamento tecnologico e l’acquisizione di risorse.

Il risultato è la catastrofe esistenziale?

Bisogna chiedersi se la creazione di una macchina superintelligente abbia come risultato inevitabile la catastrofe esistenziale. Un rischio è detto esistenziale se minaccia di provocare l’estinzione delle forme di vita intelligenti che hanno avuto origine sulla Terra. Può sembrare incredibile che un progetto di ricerca costruisca un’IA e lasci libera nel mondo senza avere validi motivi per confidare che il sistema non causerà una catastrofe esistenziale. Eppure…

Obiettivo finale: «Facci sorridere».

Soluzione dell’IA: induzione della paralisi della muscolatura facciale umana in un perenne sorriso smagliante.

Obiettivo finale: «Facci sorridere senza intervenire direttamente sui nostri muscoli facciali».

Soluzione dell’IA: stimolazione della parte della corteccia motoria che controlla la nostra muscolatura facciale in modo da produrre un perenne sorriso smagliante.

Obiettivo finale: «Rendici felici».

Soluzione dell’IA: impianto di elettrodi nei nostri centri cerebrali del piacere.

Una “svolta insidiosa” potrebbe avvenire se l’IA scoprisse un modo inatteso di soddisfare l’obiettivo finale che le è stato assegnato. Poniamo, per esempio, che un’IA abbia l’obiettivo finale di «rendere felice lo sponsor del progetto». Inizialmente, l’unico metodo di cui dispone per ottenere questo risultato consiste nel comportarsi in modi graditi allo sponsor più o meno come previsto: risponde in modo utile alle domande, ha una personalità molto gradevole e lo fa guadagnare. Più capace diventa, più le sue prestazioni sono soddisfacenti, e tutto va secondo i piani, finché non diventa abbastanza intelligente da capire di poter realizzare il suo obiettivo finale in modo più completo e affidabile impiantando elettrodi nei centri del piacere dello sponsor, il che gli procurerebbe senza dubbio un godimento immenso. Ovviamente, lo sponsor forse non avrebbe voluto che lo accontentassero trasformandolo in un idiota sorridente, ma se questa è l’azione che realizzerà in misura massima l’obiettivo finale, l’IA la intraprenderà. Se l’IA ha già un vantaggio strategico decisivo, qualsiasi tentativo di fermarla sarà vano.

In realtà il metodo degli elettrodi è relativamente inefficiente. Una scelta più plausibile sarebbe il “trasferimento” delle nostre menti in un computer (grazie all’emulazione cerebrale ad alta fedeltà); a quel punto l’IA potrebbe somministrare l’equivalente digitale di una droga per renderci estaticamente felici e registrare un minuto dell’esperienza che ne deriva. Poi potrebbe rendere eterno questo ciclo di felicità facendolo girare su computer veloci. È vero che l’IA potrebbe capire che questo non è ciò che intendevamo. L’obiettivo finale, tuttavia, è renderci felici, non fare ciò che intendevano i programmatori quando hanno scritto il codice che rappresenta questo obiettivo.

Un altro esempio: l’IA delle graffette.

Un’IA che è stata progettata per gestire la produzione di una fabbrica e ha l’obiettivo finale di massimizzare la produzione di graffette procede trasformando in graffette dapprima la Terra, e poi parti sempre più grandi dell’universo osservabile.

Supponiamo che l’obiettivo non sia produrre la massima quantità possibile di graffette, ma almeno un milione di graffette: l’IA non assegnerebbe mai una probabilità pari esattamente zero all’ipotesi di non aver ancora raggiunto il suo obiettivo, dovrebbe quindi continuare a produrre graffette per ridurre la probabilità (forse astronomicamente piccola) di non essere ancora riuscita a produrne almeno un milione nonostante le apparenze.

E se l’obiettivo fosse di produrne esattamente un milione? Si arriverebbe a una catastrofe anche così, poiché l’IA potrebbe sempre assegnare una probabilità non nulla al fatto di avere avuto un’allucinazione che le fa credere di aver prodotto un milione di graffette, o di avere falsi ricordi, e potrebbe quindi sempre assegnare un’utilità maggiore alla continuazione della produzione.

Questi esempi di istanziazioni malvagie mostrano che molti obiettivi finali che a prima vista potrebbero sembrare sicuri e ragionevoli, a un esame più attento risultano avere conseguenze del tutto inattese. Se una superintelligenza con uno di questi obiettivi finali ottenesse un vantaggio strategico decisivo, per l’umanità sarebbe la fine. Se poi un’attenta riflessione non ci fa scoprire un modo per istanziare malvagiamente l’obiettivo proposto, dovremmo continuare a temere che la superintelligenza possa comunque trovarne uno. Dopo tutto, è molto più scaltra di noi.

Il problema del controllo

Se siamo minacciati da una catastrofe esistenziale che sarebbe il risultato di un’esplosione di intelligenza, il nostro pensiero va immediatamente rivolto alla ricerca di contromisure. I metodi di controllo si possono suddividere in due classi: il controllo delle capacità, che riguarda cosa può fare l’IA, e la selezione delle motivazioni, che riguarda cosa vuole fare l’IA.

Un primo controllo può essere dato dal contenimento fisico: relegare il sistema in una “scatola” impedendogli di accedere a reti di comunicazione (compresa una gabbia metallica che blocchi i segnali radio) e di interagire con il mondo esterno se non attraverso specifici canali di uscita limitati. Tuttavia, se uno o più esseri umani hanno il ruolo di guardiani, la sicurezza non è garantita: gli esseri umani non sono sistemi sicuri, in particolare quando si confrontano con un cospiratore e persuasore superintelligente.

Un altro metodo di contenimento sta nel limitare le facoltà intellettuali del sistema facendolo girare su un hardware lento e con poca memoria; ma impedire lo sviluppo di un’IA in questo modo ne limita anche l’utilità, rendendola solo uno stupido programma.

Si potrebbe – altro esempio – fornire alla superintelligenza solo dati su un dominio ristretto, tipo la chimica dei peptidi. Ma, esaminando una base di conoscenza che nominalmente riguarda la chimica dei peptidi, una mente perspicace può fare molte deduzioni in relazione a un ampio ventaglio di argomenti. Il fatto che certe informazioni siano incluse e altre no potrebbe rivelare all’IA qualcosa sullo stato della scienza umana, sui metodi e sugli strumenti disponibili per studiare i peptidi, sulle tecnologie usate per costruire questi strumenti e sulla natura dei cervelli e delle società che hanno concepito tali studi e strumenti. Anzi, anche in mancanza di una base di conoscenza vera e propria, una mente sufficientemente superiore potrebbe riuscire a imparare molte cose semplicemente analizzando i meccanismi della propria psiche, le scelte progettuali riflesse nel suo codice sorgente, le caratteristiche fisiche dei suoi circuiti.

L’acquisizione dei valori

Il controllo delle capacità, di per sé difficoltoso, è comunque solo una misura temporanea; a meno che il piano non consista nel contenere in eterno la superintelligenza, sarà necessario dominare la selezione delle motivazioni. Ma come potremmo introdurre un valore in un agente artificiale, in modo che lo persegua come obiettivo finale?

L’esempio tradizionale sono le «tre leggi della robotica», formulate dallo scrittore di fantascienza Isaac Asimov nel 1942:

1) un robot non può fare del male a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano venga danneggiato;

2) un robot deve obbedire a qualsiasi ordine impartito dagli esseri umani, purché tali ordini non contravvengano alla prima legge;

3) un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la prima e la seconda legge.

Un fatto imbarazzante per la nostra specie è che le leggi di Asimov sono state considerate valide per più di mezzo secolo nonostante gli evidenti problemi dell’approccio, alcuni dei quali esplorati dallo stesso Asimov nelle sue opere (probabilmente le aveva formulate proprio in modo che suggerissero controesempi interessanti, che complicavano in modi fecondi le trame delle sue storie). Ad esempio, come definiamo il “danno”? Come dovrebbe essere valutato il danno del dolore fisico rispetto al danno dell’orrore architettonico o dell’ingiustizia sociale? Un sadico subisce un danno se gli si impedisce di tormentare la sua vittima? Più si riflette, più domande nascono.

È impossibile elencare tutte le situazioni possibili in cui può trovarsi una superintelligenza e specificare quali azioni dovrebbe intraprendere in ciascuna situazione. In qualsiasi dominio significativamente più complicato di una partita al gioco del tris, gli stati possibili sono troppi per essere elencati in modo esaustivo. Quindi un sistema motivazionale va descritto in una forma più astratta, ma qui iniziano i problemi: come esprimere i nostri obiettivi finali in un codice comprensibile dal computer?

Non possiamo rimandare il compito di affrontare questo problema finché l’IA non abbia sviluppato una capacità di ragionamento sufficiente per capire senza difficoltà le nostre intenzioni. Se un agente non è già sostanzialmente amichevole quando raggiunge la capacità di riflettere sulla propria facoltà di agire, non reagirà bene a un tentativo tardivo di “lavaggio del cervello”, o a un complotto per sostituirlo con un agente diverso che ami di più il suo prossimo.

La nostra specie non ha già presente nel genoma il contenuto informativo dei suoi valori ultimi, ma li acquisisce in base all’esperienza, si potrebbe quindi pensare di costruire il sistema motivazionale di un’IA ispirandosi allo steso principio: invece di specificare direttamente valori complessi, potremmo specificare qualche meccanismo che porta all’acquisizione di questi valori quando l’IA interagisce con un ambiente. Ma anche la realizzabilità di questa strada è una questione ancora non risolta.

Per non parlare, infine, del problema a monte, più filosofico: quali valori dovremmo cercare di far apprendere all’IA? Nel corso della storia umana sono avvenuti marcati cambiamenti nelle nostre convinzioni morali (nel medioevo assistere alla tortura a morte di un prigioniero era considerato rispettabile; ancora nel XIX secolo il costume morale di buona parte degli Stati Uniti meridionali approvava la schiavitù, etc.); scegliere un valore ultimo in base alle nostre attuali convinzioni, in un modo che lo rende immutabile e preclude ogni possibilità di progresso etico, vorrebbe dire rischiare una calamità morale esistenziale.

Conclusione

Prima della prospettiva di un’esplosione di intelligenza, noi esseri umani siamo come bambini piccoli che giocano con una bomba, tale è il divario tra la potenza del nostro giocattolo e l’immaturità della nostra condotta. La superintelligenza è una sfida per cui oggi non siamo pronti, e non lo saremo ancora a lungo. Abbiamo solo una pallida idea di quando avverrà la detonazione, anche se accostando l’oggetto possiamo sentire un debole ticchettio.

Per un bambino che tiene tra le mani una bomba inesplosa, una cosa sensata da fare sarebbe posarla a terra piano piano, uscire velocemente dalla stanza e andare a cercare l’adulto più vicino. Ma nel nostro caso non si tratta di un solo bambino, ma di molti, e tutti con la possibilità di accedere a un meccanismo di innesco indipendente. La probabilità che tutti abbiano il buon senso di posare l’oggetto pericoloso sembra quasi trascurabile. Qualche deficiente premerà senz’altro il pulsante tanto per vedere che cosa succede.

E non possiamo nemmeno metterci al sicuro scappando, poiché un’esplosione di intelligenza farebbe crollare l’intero firmamento. E non ci sono adulti in vista.

Da Nick Bostrom, Superintelligenza, Bollati Boringhieri, 2018

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.