Un'intelligenza artificiale ci seppellirà: e stavolta non è fiction
Superintelligenza è il saggio di Nick Bostrom che ha fatto spaventare Elon Musk e Stephen Hawking.Di Roberto Paura
26/01/2018
Alla fine del 2017 il leader mondiale dei processori grafici,
NVIDIA, ha rilasciato un algoritmo basato su un particolare tipo di reti neurali il cui risultato fa venire i brividi: se gli si dà in pasto il video di una strada durante una giornata d’estate, con il cielo terso, gli alberi folti e i prati verdi, è possibile trasformarlo ricreando la stessa strada ma coperta di neve, con gli alberi spogli e il cielo plumbeo; oppure, la ripresa di un ambiente di giorno può essere manipolata dall’algoritmo e ambientata di notte. Con un po’ di sforzo una simile manipolazione potrebbe essere realizzata su riprese in diretta:
l’algoritmo potrebbe così mostrarci una vera e propria manipolazione della realtà quotidiana.
courtesy Bollati Boringhieri
Uno scenario del genere rientra perfettamente nella casistica che Nick Bostrom presenta nel suo libro Superintelligenza. Tendenze, pericoli, strategie uscito finalmente in italiano per i tipi di Bollati Boringhieri dopo la sua prima apparizione nel 2014 con la Oxford University Press. Un libro, quello di Bostrom, tra i più influenti degli ultimi anni. Dopo averlo finito di leggere, il magnate della tecnologia Elon Musk decise di punto in bianco di donare dieci milioni di dollari a una fondazione che si occupasse di impedire la realizzazione degli scenari presentati nel libro, e il tema del “rischio esistenziale” rappresentato da un’ipotetica, futura superintelligenza artificiale ha iniziato ad assumere rilevanza mondiale.
Il libro di Bostrom si apre con una breve favola simile a quelle di Esopo: i passeri del quartiere si riuniscono e decidono di andare in cerca di un gufo, saggio e potente, che li guidi e garantisca loro sicurezza e abbondanza. Solo uno di loro cinguetta preoccupato sul rischio di un simile progetto: trovare un gufo prima di aver imparato ad “addomesticarlo” è un grosso rischio, che potrebbe rappresentare la fine dei passeri. Ma nessuno lo ascolta. È una favola senza finale, perché Bostrom non è di per sé pessimista: non sa se il gufo si rivelerà malvagio sfuggendo al controllo dei passeri, rendendoli schiavi o distruggendoli tutti, o se invece accetterà di assumerne la guida.
Il suo libro ha un altro obiettivo: quello di suggerire che, prima di correre a capofitto verso la realizzazione di un’intelligenza artificiale generale, in grado di superare le capacità cognitive umane, bisognerebbe affrontare il problema di come renderla sicura e inoffensiva.Dalla fantascienza alle graffettePrima di Bostrom, una simile preoccupazione figurava solo nei romanzi e nei film di fantascienza. Ma il filosofo di Oxford, fondatore nel 2005 del Future of Humanity Institute e primo teorico della nozione di “rischio esistenziale” – un rischio di natura prevalentemente antropogenica in grado di compromettere in via definitiva lo sviluppo della civiltà tecnologica – ha deciso di prenderlo sul serio. La superintelligenza potrebbe rivelarsi il più grande rischio esistenziale della storia umana, scrive; e gli esempi che ci offre sono più che persuasivi. Il concetto di fondo è infatti che una superintelligenza differirebbe inevitabilmente da quella che conosciamo e acquisirebbe motivazioni e obiettivi propri diversi da quelli della nostra specie.
L’esempio più inquietante è quello di una IA a cui viene chiesto di massimizzare la felicità umana. Dopo qualche tentativo, l’IA si convincerà che il metodo di ottimizzazione più agevole sia quello di impiantare elettrodi nel cervello per stimolare permanentemente i nostri centri del piacere. Se gli dicessimo “rendici felici, facci sorridere”, potrebbe trovare un modo per “indurre la paralisi della muscolatura facciale umana in un perenne sorriso smagliante”. Se gli si chiedesse di massimizzare la produzione di una fabbrica di graffette, potrebbe decidere di procedere “trasformando in graffette dapprima la Terra e poi parti sempre più grandi dell’universo osservabile”. Ancora più inquietante è l’idea che possa trovare il modo di massimizzare il lavoro in un’azienda realizzando delle emulazioni dei lavoratori, digitali o robotici, in grado di essere sostituiti ogni qualvolta – essendo emulazioni di esseri umani – la loro energia si esaurisse (sostituito vuol dire “spento” se si tratta di un’emulazione digitale; o rimpiazzato con un clone, per esempio: il film Moon proponeva uno splendido esempio di questo argomento).

courtesy Sony
Nel suo libro, Bostrom propone ragionamenti cinici, come quelli relativi al modo di realizzare una superintelligenza umana, attraverso la selezione genetica; o davvero diabolici, come quando immagina una superintelligenza artificiale che per sua natura scelga di ricompensare i suoi creatori e coloro che, anche in passato, ne hanno favorito la realizzazione, magari ricreandoli in una simulazione digitale: argomento che ha condotto alcuni nerd a elaborare l’argomento del “basilisco di Roko”, secondo cui una super-AI in futuro potrebbe punire tutti coloro che ne hanno ostacolato lo sviluppo o semplicemente non hanno fatto nulla per affrettarlo ricreando le loro coscienze in un inferno simulato senza fine (Bostrom in tal caso ricoprirebbe il ruolo riservato da Dante a Lucifero).
Ma queste argomentazioni, avanzate con un linguaggio volutamente arido, angoloso, formalizzato, spesso ricco di terminologie al limite della comprensibilità per chi non ha la sua stessa formazione filosofica – anche se il glossario parziale a fine volume e la buona traduzione Simonetta Frediani aiutano – sono esposte dall’autore perché il suo è un tentativo di ragionare come farebbe una superintelligenza, pensando out of the box, al di fuori dei tradizionali schemi umani. Solo così, avverte, potremmo iniziare a capire il modo di rendere la superintelligenza benefica e non maligna.
Le soluzioni? Non sono le leggi di Asimov, ma esistonoI detrattori delle argomentazioni presenti in Superintelligenza potrebbe sostenere che, tutto sommato, un’IA davvero intelligente comprenderebbe le motivazioni e gli obiettivi umani e non potrebbe mai finire per equivocarli o aggirarli. Ma Bostrom ci fa notare che, dopotutto, non c’è nessun motivo perché le cose vadano così. Dovremmo, al massimo, far sì che la superintelligenza “cresca” acquisendo i valori umani, ma come riuscirci? Come trasformare le Tre Leggi della Robotica asimoviane (ammesso che siano sufficienti, e non lo sono, come lo stesso Asimov dimostrava nelle sue storie) in formalismi in grado di essere inscritti nel codice di programmazione delle IA? Nessuno lo sa. Si tratta di mero wishful thinking.
Per non parlare di quali valori dovremmo far adottare a un’AI: poiché fino a qualche decennio fa il razzismo verso i neri era considerato normale, e fino a centocinquant’anni fa lo era lo schiavismo negli Stati Uniti, chi ci dice che le nostre convinzioni etiche e morali non siano superate in futuro? Far assumere a una superintelligenza i valori attuali si rivelerebbe in tal caso una scelta sbagliata. Probabilmente in futuro sarà considerato normale intervenire sulla linea germinale del nostro genoma per migliorare la specie umana; una superintelligenza che fosse addestrata per impedirlo potrebbe fermare l’evoluzione autodiretta della specie e sottrarci la libertà.

courtesy Mondadori
Soluzioni? Innanzitutto la collaborazione. La corsa alla bomba atomica ha dimostrato quali sono i rischi di una gara incontrollata da parte di più player nella costruzione di una nuova tecnologia. Se la ricerca della superintelligenza fosse promossa a livello di cooperazione internazionale, la possibilità che qualche paese o gruppo di ricerca sia tentato di bruciare le tappe e rimuovere alcuni ostacoli etici che ne rallentano i progressi sarebbe minore.
In secondo luogo, non minimizzare: anche se molti esperti di intelligenza artificiale hanno biasimato le tesi di Bostrom - e in generale i timori sulla superintelligenza espressi da Elon Musk, Bill Gates, Stephen Hawking e altri grandi nomi influenzati dalle tesi di questo libro - temendo una restrizione alla libertà di ricerca, il filosofo sostiene che la “via migliore verso lo sviluppo di una superintelligenza benefica è quella in cui gli sviluppatori dell’IA e i ricercatori che ne studiano la sicurezza stanno dalla stessa parte, in cui in realtà sono in larga parte le stesse persone”.
Infine, anche se per tutto il suo libro Bostrom sembra non alzare mai un sopracciglio di fronte all’inesorabile lucidità con cui ci presenta scenari cinici e inquietanti,
è necessario “evitare di perdere la nostra umanità, restare con i piedi per terra e mantenere il nostro buon senso e la nostra bonaria moralità anche di fronte al più innaturale e inumano dei problemi”. Può essere, dopo tutto, che la superintelligenza non sia davvero dietro l’angolo, o non sarà mai realizzata per ostacoli che non possiamo immaginare (ma Bostrom non lo crede).
Tuttavia, il rischio anche minimo che finisca per ridurci a batterie naturali incapsulate in bozzoli e imprigionate eternamente in una simulazione digitale indistinguibile dalla realtà – come promettono del resto i nuovi algoritmi di NVIDIA – è sufficiente a spingerci a prendere sul serio questo libro.Fonte