Sono abbastanza vecchio per poter dire d’aver visto Terminator al cinema (per di più un cinema che non esiste più da anni). La prima memorabile sequenza di quel film spiegava con una semplicità disarmante lo scenario distopico di un futuro nel quale le macchine avevano preso il controllo e deciso di scatenare una guerra nucleare per distruggere il genere umano.
Questa premessa era molto naturale negli anni ’80. In primo luogo c’era ancora la Guerra fredda e si viveva la paura di una catastrofe globale, magari causata per sbaglio. In secondo luogo, il topos della macchina che prende il sopravvento sull’Uomo era un classico della fantascienza del ‘900 e la nuova “estate” dell’AI, che si stava vivendo in quegli anni ’80 pieni di aspettative sui sistemi esperti, suggeriva che macchine pensanti e robot umanoidi fossero tecnologie possibili.
D’altra parte, già nel 1968 il precedente illustre e blasonato capolavoro 2001 Odissea nello spazio di Stanley Kubrik ci aveva mostrato una AI integrata con un’intera astronave che controllava in ogni suo ambiente con telecamere e sensori, in una rievocazione fantascientifica del grande fratello di Orwell. A dire il vero, anche l’AI di Terminator non è umanoide: infatti è la rete (evidentemente neurale anche se all’epoca erano poco note e diffuse) Skynet, che nel film di James Cameron del 1984 distrugge il genere umano.
Le intelligenze artificiali conquisteranno il mondo o l’hanno già fatto?
Questa idea delle macchine che conquistano il controllo è stata un timore espresso anche da importanti personalità dell’AI: lo stesso Alan Turing, nel saggio Computing machinery and intelligence del 1951, scrive:
Supponiamo che le macchine intelligenti siano una possibilità concreta e guardiamo alle conseguenze nel costruirle. […] mi sembra probabile che, una volta che i metodi dell’intelligenza meccanica si inizino ad applicare, non ci vorrebbe molto a sorpassare le nostre deboli capacità. Queste macchine non morirebbero, e sarebbero in grado di conversare fra loro per aumentare la loro conoscenza. Quindi, a un certo punto, potremmo aspettarci che le macchine prendano il controllo, nel modo menzionato da Samuel Butler in Erewhon.
Alan Turing
Il riferimento letterario di Turing è l’utopia pubblicata da Butler nel 1872, in cui si critica la società vittoriana e nella quale si afferma che su quell’isola (Erewhon che è l’anagramma di nowhere) le macchine sono proibite perché si teme siano pericolose. Butler aveva già scritto dei saggi in proposito, come Darwin among the machines (1863) nei quali, forse per la prima volta nella storia, suggeriva la possibilità che le macchine potessero prendere il controllo e rendere schiavi gli uomini.
Anche oggi alcuni importanti protagonisti dell’AI, basti citare Geoffrey Hinton e Yoshua Bengio, esprimono timori per la possibilità che le intelligenze artificiali possano in qualche modo conquistare il mondo. “Le intelligenze artificiali conquisteranno il mondo”,“Prendere il controllo” non vuol dire che orde di robot armati di fucili laser verranno a prenderci nelle case per sterminarci o deportarci. Piuttosto significa che il nostro tempo e le nostre finalità saranno orientate agli scopi delle macchine stesse e di chi le controlla.
Le AI e i social network
In effetti potremmo chiederci se le AI non abbiano già preso il controllo! Pensiamo a quante volte le usiamo nel corso della nostra giornata, spesso inconsapevolmente, e a quanto determinano i nostri comportamenti. Un esempio sono i social network, sui quali molte persone spendono ore e ore di veglia ogni giorno. I contenuti che ci vengono mostrati sui social, tranne rare eccezioni (come Mastodon), sono scelti da un algoritmo che utilizza la nostra profilazione psicometrica per farlo, profilazione acquisita in base alla nostra navigazione, al tempo speso su un certo contenuto, ai like, ai retweet e a tutte le altre attività rilevabili che compiamo quando siamo sui social.
Questi dati a noi non suggerirebbero molto: invece gli algoritmi di AI, tanto più efficientemente quanti più dati riescono a ruminare, possono creare profili estremamente precisi sui nostri orientamenti politici, sessuali, religiosi, sui nostri gusti in fatto di cibo, film e serie TV e molto altro, giungendoci a clusterizzarci in una filter bubble assieme ad altri o in opposizione ad altri in modo da polarizzarci, e quindi ancor meglio inquadrarci in questi cluster. Il tutto con lo scopo di aumentare la nostra permanenza sui social.
Se so che una persona non sopporta un certo politico, le presenterò contenuti che ne parlano malissimo, che le farà piacere vedere, ma anche contenuti che ne parlano benissimo, che odierà vedere e che ne scateneranno una reazione: in ogni caso questo la terrà incollata al social.
Dunque, sono io che uso il social o il social che usa me, tramite l’algoritmo di AI invisibile e quindi molto più pericoloso di un robot armato di fucile laser? Chi sta usando chi? Forse, seguendo un suggerimento di Samuel Butler, potremmo guardare al mondo naturale per capire quanto non sia banale rispondere a questa domanda.
Intelligenze artificiali: le usiamo o siamo usati?
Un esempio potrebbe essere questo: supponiamo di atterrare su un pianeta e studiarne non visti per qualche migliaio d’anni gli abitanti. A un certo punto notiamo due specie, A e B molto attive:
- A elimina i diretti concorrenti di B nell’occupazione di territori e utilizzo risorse.
- B si espande in tutto il pianeta, grazie ad A che elimina altre specie da territori sui quali porta milioni di membri della specie B.
- Molti individui della specie A dedicano la loro esistenza a nutrire, proteggere, curare moltissimi individui della specie B, a farli prosperare e vivere in pace.
- A escogita sempre nuovi mezzi per difendere B dall’ambiente ostile o da altre specie.
Certamente diremmo che è la specie B quella dominante sul pianeta, mentre A è la specie a essa assoggettata, schiava, dominata.
Ma quel pianeta è la Terra, A è l’Uomo e B sono i cereali! Infatti, da una decina di migliaia d’anni, l’Uomo non fa altro che coltivare cereali, disboscando foreste, eliminando le altre piante dai terreni, combattendone i parassiti e curandole in ogni modo, usando fertilizzanti per aumentarne la possibilità di sopravvivenza. La diffusione planetaria dei cereali e la costante cura che l’Uomo ha avuto di essi negli ultimi 10.000 anni sembrano mostrare che i cereali sono la specie dominante del pianeta, e l’Uomo la sua specie dominata, soggetta, schiava.
Dunque chi comanda chi? Chi ha il controllo e chi crede di averlo? O forse entrambe le specie si controllano, in una specie di simbiosi di massa a discapito degli individui?
Siamo sicuri che le AI attuali, che gestiscono il nostro tempo sui social e non solo, siano nostri servitori o che non siamo noi a servire a loro? Sicuramente ci ripugnano le conclusioni di Butler nel suo saggio che abbiamo citato, che giunge a dire distruggete le macchine. Un mondo senza AI è ormai inconcepibile, la loro utilità e diffusione è un processo irreversibile quanto quella dei cereali su questo pianeta. Dobbiamo conviverci e trovare il modo di essere soggetto e non oggetto, fine e non mezzo: non proibire ma certo regolare e regolarci.
Conclusioni
Per chiudere questa riflessione mi piace citare un’ultima volta il Virgilio che ci ha condotti in questa serie di articoli nel nostro viaggio nella AI, Alan Turing che, nel suo saggio Can computers think? nel 1951, scrive:
Se una macchina può pensare, potrebbe pensare in modo più intelligente di quanto facciamo noi? E, in tal caso, che ne sarebbe di noi? Anche se potessimo tenere le macchine in una posizione di sudditanza, per esempio spegnendole in momenti strategici, potremmo, come specie, sentirci molto umiliati. Un simile pericolo e una simile umiliazione potrebbero scaturire anche dal fatto che potremmo essere sopraffatti dai ratti o dai maiali. Questa è una possibilità che teoricamente è difficile mettere in dubbio, ma abbiamo convissuto con ratti e maiali così a lungo, senza che la loro intelligenza si sia accresciuta di molto, quindi non siamo preoccupati da questa possibilità. Sentiamo che se pure accadrà, sarà fra molti milioni di anni. Ma il nuovo pericolo è più vicino. Se verrà lo farà certamente nel prossimo millennio [il nostro!]. Una possibilità remota ma non astronomicamente remota, certamente qualcosa che ci trasmette ansia.
Alan Turing