Perché lavorare alla Singolarità?


Se trovate un qualsiasi errore di traduzione in questo documento e volete correggerlo, oppure collaborare al Machine Intelligence Research Institute traducendo un altro nostro documento, scrivete a : jake@intelligence.org.

Traduttore: Michele Gianella

Se viaggiaste all'indietro nel tempo, osservando un momento critico nella scoperta della scienza, o la creazione della scrittura, o l'evoluzione dell'Homo Sapiens, o l'inizio della vita sulla Terra, nessun giudizio umano potrebbe davvero contemplare ogni futura conseguenza di quel momento – e tuttavia sentireste di essere al cospetto di una cosa degna di nota. I momenti più critici della Storia non sono le storie concluse, come l'inizio e la fine delle guerre, o la nascita e la caduta dei governi. La storia della vita intelligente sulla Terra è costituita da inizi.

L'inizio dell'intelligenza umana, o l'invenzione della scrittura, probabilmente furono apprezzate meno del dovuto dalle persone presenti sul posto. Ma i creatori di simili sviluppi non ne sono sempre inconsapevoli. Francis Bacon, una delle figure critiche nella scoperta del metodo scientifico, fece affermazioni forti sul potere e l'universalità del suo nuovo modo di ragionare e la sua capacità di migliorare la condizione umana – affermazioni che, dal punto di vista di un umano del 21esimo secolo, si rivelarono essere esattamente vere. Non tutte le buone azioni sono involontarie. A volte le vittorie dell'umanità non sono conseguite per caso ma da persone che fanno le scelte giuste per le giuste ragioni.

Perché la questione della Singolarità è importante? Il Singularity Institute for Artificial Intelligence non può davvero parlare per tutti coloro che hanno a cuore la Singolarità. Ma pensiamo di poter dire che molti sostenitori della Singolarità sentono di essere al cospetto di un momento critico nella Storia; di poter conquistare una vittoria importante per l'umanità.

Come uno spettatore all'alba dell'intelligenza umana, che cerchi di rispondere alla domanda “Perché la super-intelligenza è importante?”, si potrebbero dare una dozzina di risposte diverse contemporaneamente; ma ciò che conta è l'intero futuro che sorgerà da quell'inizio. Ma possiamo iniziare a rispondere tenendo presente l'aspetto principale: i possibili benefici, e i possibili rischi, per l'umanità.

Forse non è possibile stabilire un limite superiore al potenziale della super-intelligenza; qualunque limite superiore dato potrebbe essere aggirabile tramite una semplice scorciatoia che, a causa della nostra eccessiva giovinezza come civiltà, o della nostra insufficiente intelligenza come specie, potremmo non scorgere in anticipo. Possiamo provare a descrivere i limiti inferiori; se vediamo un problema sembra risolvibile con intelligenze tecnologiche (del tipo familiare agli umani, ma più potenti o rapide), allora quanto meno il problema è probabilmente risolvibile per le intelligenze davvero ultra-umane. Può darsi che il problema non possa risolversi col particolare metodo a cui stiamo pensando, o che si possa trattare come un caso particolare di una sfida più generale; ma possiamo ancora indicare il problema e dire: “Risolvere questo problema è una delle conseguenze della Singolarità.”

Se gli umani scopriranno mai una cura per il cancro, quella scoperta sarà in definitiva riconducibile alla nascita dell'intelligenza umana, quindi non è assurdo chiedersi se una super-intelligenza potrebbe fornire rapidamente una cura per il cancro. Semmai, è probabilmente irragionevole immaginarsi un'intelligenza ultra-umana in camice bianco, dentro un istituto medico tradizionale, a fare lo stesso tipo di ricerca che farebbe un umano per risolvere il problema specifico del cancro. Forse, invece, potrebbe vedere il cancro come un caso particolare del problema più generale: “Le cellule del corpo umano non sono programmabili dall'esterno.” Certo, una soluzione a questo problema richiederebbe una nanotecnologia completamente sviluppata, e altre tecnologie che oggi riteniamo inimmaginabili. Ma offrirebbe una cura sia al cancro che a molte altre malattie.

La creazione della superintelligenza, dunque, si potrebbe concepire come una continuazione degli sforzi di ricerca verso la cura del cancro. Ma anche per risolvere la fame, curare il morbo di Alzheimer, rendere volontarie le malattie e l'invecchiamento... Sarebbe insomma una tecnologia generale enormemente significativa, che si rivelerebbe di grande valore in molte aree della ricerca. E potremmo applicare la super-intelligenza non solo ai giganteschi problemi visibili, ma anche ai grandi problemi “silenti”. Se la società contemporanea tende a consumare l'energia vitale dai suoi abitanti, questo sarebbe un problema risolvibile. Come minimo, i cittadini di una civiltà post-Singolarità dovrebbero avere uno standard e una durata della vita enormemente maggiori di quelli attuali.

Quanto tempo impiegheremmo a risolvere quei problemi, dopo la Singolarità? Una versione prudente della Singolarità inizierebbe con la nascita dell'intelligenza ultra-umana, nella forma di umani potenziati con menti o cervelli potenziati con mezzi puramente biologici. Questo scenario è più “prudente” di una Singolarità che si accende con le interfacce cervello-macchina o l'Intelligenza Artificiale, perché tutto il pensiero avviene ancora su neuroni con una caratteristica velocità limitante di 200 operazioni al secondo; il progresso, quindi, avverrebbe ancora ad una velocità umanamente comprensibile. In questo caso, i primi benefici della Singolarità probabilmente assomiglierebbero ai benefici del tradizionale pensiero tecnologico umano, solo che sarebbero maggiori. Qualunque problema scientifico dato potrebbe beneficiare dall'avere qualche Einstein o Edison al lavoro su di esso, ma la ricerca, la manifattura, la commercializzazione e la distribuzione richiederebbero ancora tempo.

Il quadro “prudente”, ad ogni modo, non durerebbe a lungo. Alcune delle aree che più probabilmente riceverebbero attenzione prima delle altre sarebbero le tecnologie implicate in forme di super intelligenza più avanzate: interfacce cervello-macchina a banda larga, o un'Intelligenza Artificiale pienamente sviluppata. La dinamica di feedback positivo della Singolarità - menti più intelligenti che creano menti ancora più intelligenti- non dovrebbe aspettare un'AI in grado di riscriversi il codice sorgente; si applicherebbe anche a umani potenziati che creano la successiva generazione di tecnologie Singolaritarie.

Spesso, quando si parla di Singolarità, si affronta il fatto che finora, nella storia umana, le tappe principali sono state bruciate sempre più in fretta. La vita ha iniziato a emergere circa 3,5 miliardi di anni fa; la vita multicellulare è emersa solo 850 milioni di anni fa; la famiglia degli ominidi ha iniziato a distinguersi, all'interno dei primati, solo cinque milioni di anni fa; e meno di centomila anni fa Homo Sapiens Sapiens ha assunto le caratteristiche attuali. L'agricoltura è stata inventata diecimila anni fa; la stampa è stata inventata 500 anni fa, e il computer circa 60 anni fa. Non è possibile stabilire un limite di velocità al futuro osservando il ritmo dei cambiamenti passati, anche se sembrano ragionevoli nell'epoca in cui sono proposti; la Storia mostra che questo metodo produce previsioni molto inattendibili. Dal punto di vista evolutivo, è assurdo aspettarsi che avvengano cambiamenti principali in una manciata di secoli, ma i cambiamenti di oggi sono trainati dall'evoluzione culturale, che supera i limiti di velocità dell'evoluzione. Dovremmo diffidare da chi afferma senza ombra di dubbio che il transumanesimo sarà ancora limitato dal capitale di rischio, o che l'Intelligenza Artificiale sarà rallentata al tasso dei loro assistenti umani.

Non possiamo prevedere in anticipo il percorso tecnologico che la Singolarità seguirà. Ma è possibile prefigurare qualche scenario, tipo: ”In qualche ora, un'AI più intelligente di noi assorbirà tutta la potenza di calcolo inutilizzata dell'Internet attuale; userà questa potenza di calcolo e le sue abilità ultra-umane di progettazione per risolvere in qualche altra ora il problema del ripiegamento delle proteine artificiali: invierà per e-mail una serie di ordini urgenti a una dozzina di laboratori on-line di sintesi peptidica, e in due giorni riceverà via FedEx un set di proteine che, messe assieme, si auto-assembleranno in un nanodispositivo controllato acusticamente che potrà costruire nanotecnologia più avanzata.” Questa non è una soluzione ultra-umanamente intelligente; è un umano che immagina come indirizzare una abilità di progettazione umana ingrandita, e accelerata, al problema. Una mente super-veloce dovrebbe evidentemente affrontare alcune difficoltà iniziali, in un mondo di lenta tecnologia umana, ma cercherebbe pazientemente di risolverle.

La trasformazione della civiltà in un posto davvero piacevole in cui vivere potrebbe avvenire realmente, e non in un qualche futuro imperscrutabile, tra qualche milione di anni, ma nel corso delle nostre vite. Il prossimo balzo in avanti per la civiltà avverrà non a causa della lenta accumulazione della normale inventiva umana, ma perché ad un certo punto, nei prossimi decenni, otterremo la tecnologia per costruire menti più intelligenti che costruiranno menti ancora più intelligenti. Possiamo creare quel futuro e possiamo farne parte.

Se non riusciremo a realizzare i progressi che portano alla super-intelligenza in tempi ragionevolmente brevi, la specie umana correrà anche dei pericoli. Una volta Albert Einstein disse: “I problemi del mondo d'oggi non possono essere risolti con lo stesso modo di pensare che li ha creati.” Condividiamo la sua sensazione, anche se Einstein forse non aveva in mente questa particolare soluzione. Anche se mettiamo in evidenza che i pericoli esistono, il nostro intento non è quello di prevedere un futuro distopico; finora, ripetutamente i profeti di sventura sono stati regolarmente smentiti dalla Storia. Ma se dovessimo affrontare, con le nostre sole forze, sfide come laboratori nello scantinato che creano virus letali, o corse alle armi nanotecnologiche, potremmo effettivamente trovarci nei guai.

Per finire, è necessario salvaguardare l'integrità stessa della Singolarità. Molte AI convergeranno verso “sistemi ottimizzati”, nel senso che, dopo l'auto-modificazione, agiranno per massimizzare un qualche scopo. E a meno che tale scopo converga con gli interessi umani, l'AI vedrà in noi dei rivali nell'approvvigionamento di risorse necessarie. Se un'AI provocherà l'estinzione dell'umanità, ciò sarà probabilmente dovuto più a indifferenza che a ostilità.

Quella del pericolo è un'altra questione per affrontare la sfida della Singolarità in modo fermo e risoluto. Una “IA amichevole” non deve costituire un pericolo materiale o filosofico per l'umanità. Potrebbe invece mettere l'umanità in guardia dall'arrivo di altre menti superintelligenti, ma ostili. Il Singularity Institute oggi ritiene che questa sia l'unica soluzione realistica al problema dell'IA ostile. Se il potenziamento dell'intelligenza umana venisse pubblicamente bandito in tutto il mondo, questo porterebbe solo ad una ricerca sotterranea, clandestina. Possiamo salvaguardare al meglio l'integrità della Singolarità affrontandola intenzionalmente, e in piena consapevolezza delle responsabilità che ne seguono.

Cosa significa affrontare la Singolarità? Malgrado la sua enormità, “accendere” la Singolarità – creare la prima intelligenza più-che-umana e assicurarne l'innocuità – è un problema di scienza e tecnologia. Non è un modo filosofico di descrivere un qualcosa che inevitabilmente capiterà all'umanità; è un qualcosa che possiamo uscire là fuori e fare. “Accendere” la Singolarità non è diverso da una qualunque altra sfida – qualcuno deve farlo.

In questo momento storico, esiste un piccolo gruppo di persone che si rendono conto di quel che succede e stanno cercando di affrontarlo. Se siete abbastanza fortunati da essere una delle poche persone che al momento sanno cosa sia la Singolarità e vorrebbero vederla avvenire – anche se avete sentito parlare della Singolarità solo ora – il vostro aiuto è necessario, perché non ci sono molte persone come voi. Questo è il posto in cui i vostri sforzi possono fare la più grande differenza possibile -  non solo a causa dell'enormità della posta in gioco, ma perché, al momento, le persone coinvolte sono davvero poche.

Il Singularity Institute esiste per promuovere la missione di coloro che conoscono la Singolarità e tutelare gli interessi dell'umanità. Il nostro scopo è quello di assicurare l'arrivo di una Singolarità positiva, così da accelerarne i benefici umani; chiudere la “finestra di vulnerabilità” che esisterà finché l'umanità non potrà aumentare la sua intelligenza insieme alla sua tecnologia; e proteggere l'integrità della Singolarità assicurando che quei progetti che finalmente implementeranno  la Singolarità siano promossi in piena consapevolezza delle implicazioni e assunzione delle responsabilità implicate. È il nostro sogno. Che si avveri o no dipende da quante persone prenderanno la Singolarità abbastanza sul serio da impegnarsi in tal senso – se cioè l'umanità potrà raccogliere quella piccola frazione delle sue risorse necessarie ad affrontare il futuro intenzionalmente e con fermezza.

Possiamo fare di meglio. Il futuro non deve per forza essere la distopia promessa dai profeti di sventura. E nemmeno lo stupido ma luccicante mondo, tutto computer e cromature, del futurismo tradizionale. Possiamo diventare più intelligenti. Possiamo fare un passo oltre i millenari problemi creati dall'intelligenza umana. L'umanità può risolvere i suoi problemi – sia gli enormi, visibili problemi di cui parlano tutti che gli enormi, “silenti” problemi che abbiamo imparato a dare per scontati. Se la natura del mondo in cui viviamo ti disturba, puoi trovare soluzioni razionali. Con il tuo sostegno, possiamo fare di meglio.

Non stare a guardare la Singolarità. Puoi dirigere i tuoi sforzi nel punto di maggiore impatto: l’inizio.