Il paradosso di Moravec: quando le macchine si perdono in un bicchier d’acqua
Qualche riflessione sul paradosso di Moravec, la datificazione dell'umano e il piano che ancora non abbiamo.
Il paradosso di Moravec è una di quelle affermazioni che ti vengono in mente mentre accadono delle cose intorno a te. Nel mio caso in ufficio ho potuto stringere tra le mani due fasi nettamente opposte derivanti dall’introduzione delle Intelligenze Artificiali a supporto dei processi lavorativi: prima un forte entusiasmo, dopo la ripetizione di questo mantra “facevo prima a farmelo da solo”.
In realtà nel mio ufficio anche l’argomento “crisi energetica, stretto di Hormuz e chissa se ci sono i voli per andare in ferie” va per la maggiore. Essendo in procinto di partire per l’Irlanda parleremo anche di questo tra qualche Lettera nella crisi climatica ma non volevo lasciarti senza la nostra conversazione questa settimana.
E quindi eccoci qui a parlare del paradosso di Moravec, un paradosso che prende il nome da Hans Moravec, austriaco di nascita e statunitense di adozione, che si è dedicato alla robotica, alle intelligenze artificiali e all’impatto della tecnologia. Ne parliamo anche perchè Moravec utilizza i Futures Studies per approfondire il tema del Transumanesimo.
Il paradosso di Moravec e il futuro dell’umanità
Il paradosso di Moravec è stato introdotto nei primi anni ‘80 notando la discrepanza tra le abilità che gli esseri umani considerano difficili o banali mettendole a paragone con le abilità dei robot.
In particolare è nel libro “Mind Children: The Future of Robot and Human Intelligence” del 1988 che Hans Moravec scrive:
“… con il moltiplicarsi delle dimostrazioni, è diventato chiaro che è relativamente facile far sì che i computer raggiungano prestazioni pari a quelle di un essere umano adulto nel risolvere problemi nei test di intelligenza o nel giocare a dama, mentre è difficile, se non impossibile, dotarli delle capacità di un bambino di un anno in termini di percezione e mobilità.”
L’idea alla base del paradosso di Moravec è che le macchine possono fare calcoli difficili, vincere contro i campioni di scacchi e tradurre in tutte le lingue del mondo ma non possono versarsi un bicchiere d’acqua, correre o allacciarsi le scarpe. Le macchine falliscono in diverse azioni che per l’essere umano sono pura quotidianità.
Sviluppato nei modi opportuni il paradosso di Moravec mette in luce, ad esempio, la differenza tra Google Maps che può fornire un percorso ottimizzato per arrivare in un luogo e le difficoltà di un’auto a guida autonoma a comprendere se un vigile urbano gli sta facendo cenno di rallentare.
Il paradosso di Moravec sembra giocare sul confronto forse mai risolto tra naturale e artificiale. Su questo Hans Moravec ha affermato che, sfortunatamente per i robot antropomorfi, i computer danno il peggio di sé quando cercano di fare le cose più naturali. Hai mai visto i numerosi ruzzoloni dei robot di Tesla durante le dimostrazioni?
Moravec trova una risposta a questo paradosso cercando di mappare l’evoluzione della mente umana. Per Moravec le abilità che consideriamo un sinonimo di “intelligenza” sono spesso quelle che abbiamo acquisito solo di recente, nella piccolissima parte finale della storia dell’umanità. Al contrario abilità come camminare eretti, riconoscere i volti e comunicare con i propri simili sono il frutto di un percorso durato milioni di anni.
Detto in un altro modo, le abilità logiche e matematiche sono state sviluppate in una frazione più piccola della nostra storia e, aggiungo, hanno assunto un valore culturale centrale solo di recente (maledetto positivismo!!!). Forse è per questo che tentiamo ossessivamente di insegnare queste abilità alle macchine. Penso che sia un aspetto culturale non da poco che trova un momento simbolico nella sfida tra lo scacchista Garry Kasparov e il computer IBM Deep Blue.
IBM Deep Blue contro Garry Kasparov, il match simbolo dell’epoca della datificazione
Tra il 1996 e il 1997, circa trent’anni fa, lo scacchista campione del mondo Garry Kasparov giocò due sfide contro il supercomputer “Deep Blue” sviluppato da IBM. La prima sfida si disputò a Filadelfia a partire dal 10 febbraio 1996 e il supercomputer vinse due partite su cinque. Nonostante la vittoria di Kasparov, destò stupore la prima vittoria di un computer su un umano, e per giunta non uno qualsiasi ma il campione di scacchi.
Non contenti, IBM tornò al lavoro su Deep Blue e sfidò nuovamente Kasparov nel maggio del 1997. Quella volta il campione del mondo di scacchi affrontò una versione aggiornata del super computer e, pur vincendo il primo scambio, perse complessivamente il match contro Deep Blue. Su 6 scambi, Deep Blue ottenne tre pareggi, una sconfitta e due vittorie. L’ultima in 19 mosse.
Garry Kasparov, davanti a quella che definì la peggiore sconfitta della propria carriera, accusò IBM di aver barato perchè l’aumento di abilità durante la partita era spiegabile solamente con l’aiuto di un abile giocatore umano.
Ad insospettire Kasparov vi era il fatto che Deep Blue non si trovasse nella sala di gioco ma in un ufficio della IBM, con un essere umano (Feng-Hsiung Hsu) che spostava i pezzi sulla scacchiera seguendo le istruzioni del computer. Per Kasparov, alcune mosse erano “troppo umane” per essere state generate da una macchina: sospettava che un grande maestro stesse intervenendo sulle scelte di Deep Blue. A rafforzare i suoi dubbi, il rifiuto di IBM di consegnargli i tabulati dell’elaboratore e di organizzare la rivincita prevista dal contratto

Il gioco di Deep Blue venne definito da Kasparov come “troppo umano” ed è questa una delle più grandi eredità che ci portiamo dietro da quell’incontro: le macchine sono infallibili e possono somigliare a noi. Ma è davvero così? Purtroppo per Kasparov, ma anche per molti di noi che la pensano come lui, la realtà è ben diversa.
Quello che hanno fatto in IBM è stato datificare, trasformare in dati, tutto quello che faceva Kasparov e altri scacchisti. Sostanzialmente Deep Blue è stata addestrata e nella partita applicava rigidamente le regole logiche che aveva imparato. Immaginati un “aggeggio” in grado di memorizzare e analizzare 200 milioni di mosse al secondo e prevedere fino a 40 possibili mosse.
Però c’è un aspetto più umano in questa storia, l’emotività. Kasparov dopo aver vinto la prima partita potrebbe aver perso i nervi alla successiva sconfitta e ai tre pareggi consecutivi prima della disfatta finale. In fondo ci spaventa che una macchina possa essere migliore di noi, anche solo se di fatto ci sta copiando.
Da quel match a oggi, la stessa logica si è estesa ben oltre la scacchiera: la datificazione si è infiltrata in ogni aspetto della società, dalle ricerche scientifiche alle pubblicità che ci scorrono davanti. . La struttura di Deep Blue, con i suoi processori generici che controllano chip personalizzati, è stata la base dei moderni sistemi di calcolo e di machine learning. Ovviamente però non è stato il primo e forse dovremmo ogni tanto fermarci a riflettere perchè abbiamo intrapreso come umanità questa traiettoria. E qui torniamo al paradosso di Moravec.
Le Intelligenze Artificiali e il paradosso di Moravec
Per molti anni il paradosso di Moravec è stato al centro delle riflessioni nel campo delle Intelligenze Artificiali e della robotica, influenzando lo sviluppo di questi strumenti. Anche per questo molta della ricerca sul campo delle Intelligenze Artificiali si è concentrata sul riprodurre i sensi dell’essere umano per poi convertirli in dati da frullare nella potenza di calcolo. Poi il problema è sempre quello, cosa ce ne facciamo? A cosa serve il riconoscimento facciale? Per sbloccare un cellulare o per sorvegliare le persone?
L’osservazione centrale del paradosso di Moravec oggi è che tutto quello che per gli umani è semplice, per le macchine sono un consumo sempre più grande di risorse computazionali e, per noi, di risorse energetiche ed idriche. Nella realtà poi le macchine riescono a fare “bene” compiti molto specifici ma hanno difficoltà a gestire consapevolmente e coerentemente più compiti. In prospettiva ciò significa un consumo sempre più alto di risorse per poter riprodurre l’essere umano anche se vi saranno attività sempre più ottimizzate.
Recentemente il professore di informatica all’Università di Princeton, Arvind Narayanan, ha fatto un vero e proprio fact checking del paradosso di Moravec, dimostrando che il problema principale è che il paradosso non è mai stato testato empiricamente o provato dai dati.
Come per le Intelligenze Artificiali, la percezione di Moravec è il risultato di una distorsione da “selezione” ossia che ci concentriamo solo su delle informazioni trascurandone altre. Il paradosso di Moravec sembra vero ma nella realtà ci sono infinite attività che sono facili sia per gli esseri umani, sia per le Intelligenze Artificiali ma nessuno le studia perchè sembrano ovvie. Ma, allo stesso modo, ci sono attività difficili per entrambi di cui nessuno parla perchè sembrano impossibili. Sarebbe poi interessante concentrarsi su ciò che sembra facile per i computer ma non per gli esseri umani e viceversa.
Se il paradosso di Moravec non è una legge ma una distorsione percettiva, allora trattarlo come una mappa affidabile del futuro porta conseguenze concrete: allarmismo da una parte, false speranze e aree di comfort pericolose dall’altra. E un bombardamento di stimoli che ci distoglie da un’unica verità: ad oggi non abbiamo un piano reale per affrontare la rivoluzione che sta arrivando.
Uscire dal paradosso di Moravec
Il paradosso di Moravec è nato per prevedere una certa idea di futuro che, alla fine, non è del tutto sbagliata e porta con sé un altro paradosso che suona come “potevo farcela da solo”.
Sì, il paradosso nel paradosso è che vogliamo usare le Intelligenze Artificiali per diminuire il nostro lavoro ma nella realtà aumentiamo le cose da fare mentre noi non abbiamo la capacità mentale per starci dietro. Spesso poi, ci perdiamo in interazioni infinite perchè più utilizziamo queste tecnologie e più qualcuno guadagna. Per uscire dal paradosso forse dobbiamo concentrarci sul fattore umano dietro alle intelligenze artificiali, chiedendoci: chi guadagna da questa rivoluzione? Come reagiamo davanti alle nuove tecnologie? Cosa stiamo perdendo, e a che costo?
I cosiddetti breakthrough tecnologici hanno bisogno di decenni per essere attuati davvero, ma il processo è già iniziato… soltanto che non ce ne siamo accorti. La vera sfida è quella di prepararsi socialmente e politicamente a quello che sta per arrivare ricordandoci cosa vuol dire essere umani. Davanti a dei chip abbiamo il dovere, etico e morale, di dare ascolto alle nostre emozioni, ansie e desideri di futuro per non delegare ad altri la scelta sul mondo che vogliamo abitare.
Ogni cuoricino, condivisione e segnalazione ad un amica o un amico permette a questo progetto di crescere. Per migliorare il mio lavoro e creare un vera community non dimenticare di compilare questo questionario!




