2021: odissea tra gli spazi

 


Esempio di interpolazione multidimensionale realizzata da un modello di machine learning.
Immagine dalla rete



Come ho avuto modo di suggerire in una risposta su Twitter, potrebbe esserci una correlazione tra questo grafico


che mostra il decremento dell'intelligenza media dagli anni '70 (il cosiddetto "effetto Flynn inverso", fonte Emergenza smartphone di Manfred Spitzer, Corbaccio 2019; qui lo studio relativo a un campione norvegese), e questo grafico piuttosto famoso (almeno tra chi si è occupato di macroeconomia)


che rappresenta la divaricazione su un campione nordamericano (sempre dagli anni settanta del Novecento) tra crescita della produttività e aumenti salariali dei lavoratori non dirigenti.

Che cosa è successo a partire dal decennio di piombo, in cui è stato coniato anche il termine "silicon valley"? Ci sono ovviamente molti fattori in gioco (non analizzabili in questa sede; ad esempio il grafico americano non considera i benefit, come il contributo dei datori di lavoro alle assicurazioni sanitarie), ma certamente è significativo che mentre cresce di molto la produttività generale i salari dei lavoratori restino sostanzialmente invariati e diminuisca la loro intelligenza. Considerando gli sviluppi tecnologi dagli anni '70, possiamo affermare che, all'aumentare dell'importanza per le aziende e i loro bilanci dell'automazione robotica e dell'intelligenza artificiale, sembrerebbe corrispondere una diminuzione del peso specifico dei lavoratori e del valore attribuito all'intelligenza umana.

Attribuito da chi? Ad esempio da chi decideva l'ammontare e la destinazione dei fondi per le scuole e l'università, o degli investimenti all'interno delle aziende, ma anche da quegli operai a cui in fondo andava bene la routine alla catena di montaggio e da quei dipendenti intelligenti che però nel tempo libero preferivano sistematicamente divertirsi piuttosto che leggere un saggio o un manuale tecnico per acquisire nuove competenze, e che non hanno mai ben capito il concetto espresso nel titolo dello spettacolo di Dario Fo del 1969: "L'operaio conosce 300 parole, il padrone 1000: per questo è lui il padrone".

Insomma, i "padroni" e i dirigenti politici che potevano sviluppare l'intelligenza delle nuove generazioni non l'hanno fatto perché non era più molto importante per loro, dato che l'aumento della produttività era garantito dalle macchine sempre più automatiche, e parallelamente i lavoratori che avevano ottenuto tante conquiste hanno fatto ben poco per difenderle e tutelare il proprio potenziale mentale e il prezioso know-how professionale, delegando agli strumenti elettronici come la televisione, le cassette magnetiche e i personal computer sempre più funzioni della propria memoria, fantasia e intelligenza. 


Di fronte allo scenario attuale, per molti spaventoso e desolante, in quanto mostrerebbe un declino del genere umano a favore delle macchine, come dovremmo reagire? Sarebbero accettabili misure neo-luddiste volte a limitare per legge la diffusione dell'informatica e dell'intelligenza artificiale (non potendo distruggere fisicamente il "cloud" come i telai meccanici e le macchine a vapore dell'800)? Sono ipotizzabili "quote umane" da riservare all'interno delle varie aziende a persone in carne ed ossa? Oppure al contrario dovremmo arrenderci passivamente alle previsioni più cupe (e inverosimili) riguardo al prossimo "sorpasso" delle macchine e accettare di sopravvivere e continuare ad acquistare i beni di consumo da loro prodotti attraverso un reddito di base universale? 

Non sembra questa la direzione da prendere, anche se alcune delle misure indicate potrebbero avere una certa agibilità politica in futuro. Sicuramente, un ruolo significativo lo avrà il "reddito di cittadinanza", già diffuso in diversi paesi con vari nomi, anche per la possibilità di controllo dell'opinione pubblica e gestione del dissenso che offre ai governanti. Milioni di persone tagliate fuori dall'industria 4.0, tra cui molti colletti bianchi come analisti, avvocati, consulenti e dirigenti, potrebbero essere facilmente placate e addomesticate con una piccola mancia mensile sufficiente al sostentamento. 

La soluzione più auspicabile sembra però essere quella di un'integrazione graduale e armonica tra esseri umani e intelligenza artificiale, che per altro nella sua forma più avanzata (indicata da formule ancora un po' misteriose come "machine learning" e "deep learning") è già incorporata in modo discreto in moltissime applicazioni digitali utilizzate da tutti, come i navigatori satellitari, i motori di ricerca e i social media. Ovviamente però, come ho sottolineato nel precedente articolo, affinché questo processo sia a vantaggio di tutti servirebbero un forte controllo di organismi regolatori indipendenti e un'accresciuta consapevolezza dell'opinione pubblica. Infatti, l'intelligenza artificiale, se supportata da un metodo valido, potrebbe portare i maggiori benefici proprio alla gente comune, secondo quanto affermato dalla "legge di Kasparov", così formulata dal campione di scacchi sconfitto nel 1997 dal computer Deep Blue, in base alle sue successive esperienze come ricercatore e insegnante:

"Un essere umano [giocatore] debole + macchina + un miglior processo è superiore a un forte computer da solo e, cosa ancor più significativa, superiore a un forte essere umano + macchina + processo inferiore."


A mio parere, per essere all'altezza di quest'epoca in cui le macchine e la loro AI ("artificial intelligence") sono sempre più importanti, vale a dire non solo per sopravviverci ma per esprimerne appieno il potenziale, dobbiamo imparare a muoverci tra lo spazio degli esseri umani, con le sue proprie leggi e norme millenarie, e quello delle macchine create da noi, dove esistono regole specifiche e peculiari. Comprendere queste leggi è importante non solo per poterci interfacciare correttamente col mondo dei computer (così come per indagare il mondo subatomico dobbiamo conoscere un po' di meccanica quantistica e per capire quello delle galassie il ruolo della materia e dell'energia oscure), ma anche perché il modo di ragionare e di affrontare i problemi delle macchine può insegnarci qualcosa su di noi e migliorare i nostri processi cognitivi. 

La logica rigorosa con cui sono scritti i software costringe chi si cimenta con la programmazione a disciplinare i propri pensieri e a ricondurli ad algoritmi (o flussi di ragionamento) più funzionali. Si tratta ovviamente di miglioramenti parziali, perché anche per esperti ingegneri informatici la parte principale dello sviluppo di un'applicazione consiste non nel scrivere il codice ma nel trovarne gli errori ("debugging"), che sono quasi sempre più logici che sintattici. Ad ogni modo, nel mondo dell'AI, a fianco dei programmi che insegnano ai computer a risolvere problemi partendo da esempi ("machine learning") ce ne sono altri ispirati al funzionamento del nostro cervello e delle sue complesse reti neurali ("deep learning"). Il riferimento insomma siamo sempre noi e la nostra logica di base, sviluppata però fino alle sue estreme potenzialità. Per fare un esempio, l'immagine riportata all'inizio dell'articolo mostra un piano che interpola vari punti per classificare degli elementi in tre dimensioni, ma i programmi di machine learning sono in grado di generare "classificatori" che si sviluppano come "iperpiani" su molteplici dimensioni: qualcosa che noi difficilmente riusciamo a immaginare. 

Non è necessario che si insegni a tutti fin dalle elementari la programmazione, anche se non sarebbe una cattiva idea, come sarebbe utile spiegare in ogni scuola le basi dell'economia (leggere un bilancio, costruire un business plan...), che dopo l'inglese è il linguaggio più importante del mondo d'oggi. Indubbiamente, conoscere il funzionamento di base dell'AI e saper scrivere qualche riga di codice potrebbe essere utile a vari livelli, in particolare nell'alta direzione aziendale, anche per difendersi dalle insidie di questi programmi, come i bias cognitivi già noti alla psicologia, i pregiudizi razzisti o sessisti basati sulle serie storiche, gli errori in cui possono indurci per testare nuove soluzioni (come a volte fanno i navigatori) o la falsa raffinatezza di alcuni modelli, che arrivano ai risultati giusti per i motivi sbagliati. Il discorso ovviamente meriterebbe un approfondito, in particolare a proposito dei risvolti inquietanti degli algoritmi "predittivi" e sempre più apertamente manipolatori dei social media e dei motori di ricerca. 

Di fatto, allo stato attuale conoscere un po' la robotica e l'intelligenza artificiale ci porta a scoprire, con un significativo stupore, la meravigliosa complessità dell'essere umano rispetto a cui le macchine evidenziano enormi limiti. Ad esempio, vedendo uno degli spot dell'azienda Boston Dynamics è impossibile non restare impressionati dalla grande abilità di movimento dei loro robot, che però in realtà hanno pochi sensori e seguono percorsi predefiniti. Dove invece vengono spinti i limiti del software, come all'università di Waterloo in Canada, emergono miseramente i difetti dei robot nel coordinarsi con gli umani e svolgere autonomamente compiti solo apparentemente semplici come quelli che noi eseguiamo ogni istante senza accorgercene.  

Al contrario dell'informatica e dei sui recenti sviluppi, la scienza che studia l'uomo e il suo rapporto col cosmo è antichissima. Anch'essa, comunque, senza bisogno di conoscere gli "iperpiani" visualizzabili dai computer, ci suggerisce che esistono più dimensioni ed è possibile spostarsi fra di esse, a livello sottile, spirituale, o con la ragione aperta alla trascendenza. Pertanto, per navigare efficacemente in quest'epoca turbolenta, dovremmo imparare a muoverci, fisicamente o col pensiero, nei vari spazi abitati, abitabili o concepibili da uomini e macchine, ma anche tra passato e futuro, recuperando (come ho cercato di fare su questo blog) le scoperte e la saggezza spesso dimenticate di chi ci ha preceduto e adattandole per le sfide e i problemi di oggi e domani. 

Secondo me non esistono scorciatoie o facili soluzioni, tipo diventare, grazie a strani contatti, superuomini dall'intelligenza luciferina, come suggerito da Kubrick nel suo famoso film ambientato nel 2001, o superare magicamente i nostri limiti biologici fondendoci alla tecnologia in una condizione trans-umana. Possiamo invece riscoprire ciò che ci rende così speciali, tanto diversi dalle macchine, e sviluppare queste caratteristiche con umiltà e costanza. Solo se decideremo di impegnarci per migliorare a livello psicologico, relazionale e spirituale, potremo utilizzare le macchine per creare reale valore condiviso. In caso contrario, l'automazione industriale e l'intelligenza artificiale non faranno che amplificare nei prossimi anni la crescente disuguaglianza tra ricchi (sempre più ricchi di denaro, informazioni e possibilità) e poveri (sempre più poveri di bellezza, ideali e speranze: sempre più simili alle macchine).  






Commenti

  1. A integrazione dell'articolo, vorrei fornire altre due considerazioni sulle implicazioni dell'AI che meriterebbero specifici approfondimenti, a proposito della raccolta dei “big data” e del loro uso nella finanza.
    ***
    A differenza del nostro computer mentale che lavora (alimentato da semplici zuccheri) principalmente per sottrazione, “euristiche” o scorciatoie del pensiero che permettono di risparmiare preziose risorse cognitive, l'intelligenza artificiale funziona tanto meglio quanti più dati le vengono forniti. Gli algoritmi di machine learning infatti hanno bisogno di essere addestrati con numerosi esempi, e come principio generale maggiore è l'addestramento migliori sono i risultati predittivi. Questi dati non crescono spontaneamente sugli alberi di Internet, ma vanno raccolti qua e là, spesso carpiti anche senza il consenso degli interessati, selezionati e ripuliti prima di essere dati in pasto agli script dei computer. Questo tema ovviamente è connesso a quello più ampio e complesso della privacy su Internet, ma a mio parere bisogna almeno sapere che sono in corso delle guerre non solo tra grandi aziende ma anche tra superpotenze dei dati per accaparrarsene sempre di più e addestrare sempre meglio i propri software. Gli Stati Uniti sono partiti prima nella conquista del cyberspazio, ma la Cina grazie al supporto del partito unico al governo e alla minore sensibilità per le libertà individuali ha rapidamente colmato il gap e ora se la gioca alla pari con gli USA. La differenza più evidente tra i due modelli di raccolta dei dati è che mentre in Cina lo stato cattura le immagini e i comportamenti dei cittadini principalmente dalle apparecchiature elettroniche nelle strade (telecamere intelligenti, lettori di codici QR...), negli USA e in occidente sono le persone a fornire queste informazioni agli strumenti tecnologici che si mettono in casa o in tasca (smartphone con applicazioni che non funzionano senza attivare il microfono, assistenti vocali...).
    ***
    Avendo parlato di produttività generale e ricchezza nazionale, è significativo notare che, negli anni in cui scoppiava la crisi dei mutui subprime, il settore finanziario negli USA rappresentava il 7% del PIL ma assorbiva il 29% dei profitti. Come è possibile? Anche in questo caso il discorso è complesso, ma principalmente perché la finanza, invece di tutelare e sostenere l'economia reale come dovrebbe e potrebbe, ne estrae in parte la ricchezza (generando rendimenti che non a caso sono quasi sempre superiori alla crescita del PIL). Da diversi anni ciò avviene anche attraverso i computer e software dedicati, che individuano i trend in corso e speculano sui titoli comprandoli e rivendendoli spesso in frazioni di secondo. Ecco perché le aziende di Wall Street, invece dei tradizionali laureati in economia, stanno assumendo sempre più informatici e matematici. Attualmente più di due terzi delle transazioni effettuate alla borsa di New York vengono gestite da computer senza alcun intervento umano. Da noi le cose non sono molto diverse: secondo una stima della Consob, nel 2017 quasi un terzo degli scambi sul mercato telematico azionario di Borsa Italiana sono stati effettuati da operatori attivi nell'high frequency trading, perlopiù stranieri. Ciò ovviamente inficia all'origine il mito ancora tanto diffuso dei “mercati” efficienti, in grado di auto regolarsi: al contrario questa massiccia diffusione dell'AI nella finanza genera sistematicamente previsioni che si auto avverano, costanti bolle speculative e frequenti scoppi, anche generalizzati come il “flash crash” di Wall Street del 6 maggio 2010.

    RispondiElimina

Posta un commento

Post popolari in questo blog

La Ragione dell'Occidente

Dal capitalismo liberale al capitalismo illiberale?

Lettera al futuro