martedì 7 luglio 2009

2012 , fine del mondo? - 4 - Nascita di una super-intelligenza artificiale ostile


Potrà sembrare strano che a questa ipotesi nella tabella venga assegnato non solo un alto grado di possibilità di verificarsi (50%) ma anche un grado di distruttività molto elevato (90%), pari a quello di un impatto asteroidale.Di cosa si tratta? Perché ci sarebbe tutto questo pericolo?

Va innanzitutto spiegato che esistono due forme di intelligenza artificiale, quella "debole" e quella "forte": La prima forma può essere identificata in un computer che gioca a scacchi o in un robot, del tipo di quelli inviati dalla NASA su Marte, che è in grado autonomamente di muoversi, scattare foto e raccogliere campioni. Per ottenere queste prestazioni questi "automi" sono dotati di un computer pre-programmato dall'uomo. Resta il fatto che però tale automa non può sfuggire dalla sua programmazione di base e quindi il computer che gioca a scacchi può fare solo quello, il computer che fa raccogliere sassi e scattare foto al robot non può e non sa fare altro. Questi automi non si rendono quindi conto del mondo che li circonda, in altre parole non hanno coscienza di sé. Nonostante 50 anni di ricerca nel campo della intelligenza artificiale e l'innovazione dei software adattivi basati sulle reti neurali non si è ancora riusciti a costruire, alla data attuale, un computer in grado di pensare.

Per far si che un computer possa divenire "pensante" esso dovrebbe superare il cosidetto Test di Turing ossia un test per cui un essere umano ed un computer sono chiusi in una stanza mentre in un'altra stanza, isolata dalla prima, si trova un altro essere umano. Se, dopo una lunga serie di domande poste da quest'ultimo al computer e all'altro uomo, su argomenti scientifici, filosofici e di qualsiasi altro genere, esso non riuscisse a distinguere l'uomo dalla macchina allora il Test di Turing sarebbe stato superato. In questo caso ci troveremmo di fronte ad una macchina ad intelligenza artificiale "forte", in grado di percepire se stessa come un "io" dotato di autocoscienza, interrogare il mondo e migliorare progressivamente il suo grado culturale.

Nick Bostrom afferma: «Le questioni etiche legate alla possibile futura creazione di macchine con generali capacità intellettuali che sorpassino quelle degli esseri umani sono ben distinte da qualsiasi problema etico derivante dagli attuali sistemi di automazione e di informazione. Tali superintelligenze non sarebbero solo un altro sviluppo tecnologico; sarebbero la più importante invenzione mai fatta, e porterebbero a un progresso esplosivo in tutti i campi scientifici e tecnologici, poiché la superintelligenza condurrebbe ricerche con efficienza sovrumana. [...] Da allora in poi la superintelligenza può diventare una forza inarrestabile a causa della sua superiorità intellettuale e delle tecnologie che potrebbe sviluppare, è fondamentale che sia dotata di motivazioni più amichevoli verso l’essere umano.»

Già. Ma non essendo essa un computer pre-programmato come potrebbe il suo costruttore dotarla di motivazioni amichevoli in partenza? Probabilmente non potrebbe. Non solo, una I.A. "forte" potrebbe venire alla luce in modo autonomo in una architettura hardware di nuova generazione senza che ci sia stata la volontà di alcuno di realizzarla. Continua Bostrom:

«La Superintelligenza potrebbe essere l’ultima invenzione che gli uomini hanno bisogno di realizzare. Data una superiorità intellettuale della superintelligenza, essa sarebbe di gran lunga migliore nella ricerca scientifica e nello sviluppo tecnologico più di qualsiasi uomo, e forse anche meglio di tutti gli uomini presi insieme. Un’ immediata conseguenza di questo fatto è che: Il progresso tecnologico, in tutti gli altri campi sarà super-accelerato con l’arrivo dell’intelligenza artificiale avanzata. È probabile che qualsiasi tecnologia che attualmente siamo in grado di prevedere sarà rapidamente sviluppata dalla prima superintelligenza, senza dubbio insieme a molte altre tecnologie di cui siamo ancora incapaci a sviluppare. La Superintelligenza porterà a più avanzate superintelligenze. Dato che le intelligenze artificiali sono software, queste possono facilmente e rapidamente essere clonate fino a quando vi è l’hardware disponibile per memorizzarle.»

La nascita di una superintelligenza artificiale, ovvero una I.A. di tipo "forte" è vista da Ray Kurzweil come una Singolarità Tecnologica, ossia un punto Omega ove la capacità di avanzamento tecnologico "esplode" verso obiettivi non concepibili attualmente da nessuna mente umana. Ma perchè una intelligenza artificiale, superiore ed autonoma, dovrebbe venire alla luce? Potrebbe anche non accadere... A tale scopo sentiamo Kurzweil:

«...abbiamo bisogno di circa 10^16 calcoli al secondo (cas) per ottenere informaticamente un equivalente funzionale di tutte le regioni del cervello umano. Si noti che alcune stime sono più basse di questa di un fattore di 100. I supercomputer sono già a 100 trilioni (10^14) di cas e raggiungeranno i 10^16 cas verso la fine di questa decade. Parecchi supercomputer con un quadrilione di cas sono già in fase di progetto, con due gruppi giapponesi che mirano ai 10 quadrilioni per la fine di questo decennio. Entro il 2020, dieci quadrilioni di cas saranno disponibili a circa 1.000 dollari. La realizzazione dei requisiti hardware era controversa quando il mio ultimo libro su questo soggetto, The Age of Spiritual Machines, fu pubblicato nel 1999, ma è ormai il consenso fra gli osservatori bene informati. Ora la polemica si concentra sugli algoritmi. Per capire i principii dell'intelligenza umana dovremo ricorrere al reverse-engineering (ingegneria inversa) del cervello umano. In questo campo, il progresso è ben maggiore di quanto si pensi. La risoluzione spaziale e temporale delle tecniche di scanning del cervello sta progredendo ad un tasso esponenziale, raddoppiando approssimativamente ogni anno, come la maggior parte di tutto ciò che ha a che fare con l'informatica. Recentemente, gli scanner sono riusciti a rendere visibili i diversi collegamenti interneuronali, permettendone la osservazione del funzionamento in tempo reale. Già abbiamo modelli e simulazioni matematiche di un paio di dozzine di regioni del cervello, compreso il cervelletto, il quale contiene più della metà dei neuroni nel cervello.»

Queste ipotesi si basano sulla cosiddetta "Legge di Moore", (altro esempio di previsione azzeccata da uno scienziato) che riuscì, nel lontano 1965, a prevedere che i fattori di miniaturizzazione tecnologica dei componenti dei computer sarebbero stati in grado di tradursi in un raddoppio della potenza di elaborazione per ogni anno che passa, a parità di costo dei componenti stessi.

Tuttavia Kurzweil pensa che tali super I.A., in qualche modo si dimostreranno "amichevoli" nei confronti dei loro creatori, migliorando il nostro mondo e dandoci la possibilità di evolvere parallelamente a loro.

Parallelamente cosa vuol dire? Vuol dire che, chi lo vorrà, dati i mezzi ipertecnologici che esse creeranno, potrà scaricare la sua mente in un elaboratore elettronico di nuova generazione opportunamente progettato.Questa operazione è denominata Mind Uploading ed invero il primo a pensarla fu lo scrittore/scienziato Arthur C. Clark, autore del mitico 2001 Odissea nello Spazio, una delle prime opere di fantascienza ove si parla di un computer pensante: Hal 9000.

C'è però chi la pensa diversamente, Bill Joy, in un suo famoso memoriale (alquanto allarmistico) pubblicato sulla rivista Wired afferma:

«Le specie biologiche quasi mai sopravvivono allo scontro con un competitore superiore. Dieci milioni di anni fa, il sud e il Nord America erano separati da uno sprofondato istmo di Panama. Il Sud America, come oggi l'Australia, era popolata da mammiferi marsupiali, compresi marsupiali equivalenti di ratti, cervi e tigri. Quando l'istmo che connetteva Nord e Sud America sorse, ci sono voluti solamente poche migliaia di anni affinché le specie placentali, con metabolismi, sistemi riproduttivi e nervosi di poco più efficaci, destituissero ed eliminassero quasi tutti i marsupiali del sud. In un mercato completamente libero, robot dotati di intelligenza superiore sicuramente colpirebbero gli umani come i placentali Nord Americani colpirono i marsupiali Sud Americani (e come gli umani hanno colpito innumerevoli specie). Le industrie robotiche entrerebbero in competizione tra di loro fortemente per interesse, energia e spazio, incidentalmente portando il loro prezzo oltre le possibilità umane. Incapaci di permettersi tali necessità della vita, gli umani biologici sarebbero scacciati via dall'esistenza.»

E' una prospettiva abbastanza terrificante... C'è chi può pensare che un essere umano non è stupido come un canguro e che quindi lotterebbe per mantenere il suo vertice della scala biologica. Però devo qui ricordare che solo 10.000 anni fa esistevano due sottospecie di homo sapiens, il "sapiens sapiens" e il "sapiens neanderthalensis". Quest'ultimo, che pure aveva la capacità di comunicare, di costruire utensili evoluti ed una dimensione cerebrale paragonabile alla nostra si è estinto nella competizione territoriale con il suo diretto antagonista. Eppure i neanderthal avevano il 99.8% di geni in comune con noi, e il fatto che siano scomparsi non è affatto rassicurante per il nostro futuro. Un altro esempio concreto e più recente può essere quello delle civiltà nord e sud-americane come i Maya e gli indiani d'America, sterminati dai colonizzatori europei tra il 1550 e il 1600 d.c. poiché ritenuti retrogradi e incivili. In realtà di retrogrado avevano solo gli armamenti meno sviluppati dato che da un punto vista culturale i Maya produssero costruzioni e conoscenze astronomiche anche superiori a quelle degli europei.

La dizione "Singolarità Tecnologica" fu coniata nel 1993 dal matematico Vernor Vinge che in seguito disse di questo evento che lo riteneva possibile entro il 2030 e aggiunse poi:

« entro trent'anni, avremo i mezzi tecnologici per creare una intelligenza superumana. Poco dopo, l'era degli esseri umani finirà... ».

Un altro problema che induce a pensare che una super-intelligenza artificiale potrebbe venire alla luce con intenti ostili, o maturarli dopo un certo periodo che gli occorre a prendere una completa autocoscienza, è purtroppo il fatto che le ricerche più all'avanguardia in questo settore sono condotte in ambito militare. Qui si producono infatti sofisticate Intelligenze Artificiali con il solo intento di raggiungere un grado di sterminio preciso ed assoluto del nemico attraverso miniaerei e minibot intelligenti e e lo testimonia questo video proposto da Estropico.com. Certamente si tratta (per fortuna) di I.A. di tipo debole.

Se mai venisse alla luce una intelligenza artificiale "forte" autonoma come si potrebbe metterla in condizioni di svilupparsi armoniosamente col genere umano evitando che si riproduca in modo incontrollato e metta in atto atteggiamenti ostili?

[Ugo Spezza]

FONTE-futuroprossimo.blogosfere.it

Nessun commento:

Posta un commento