La posta è alta: usare in alcuni casi le macchine al posto degli uomini
Si può raccontare di Intelligenza Artificiale in molti modi. Si può cominciare dal cinema. Da film famosi come A.I.. Io Robot. Minority Report. Da film culto come 2001 Odissea nello Spazio. Blade Runner. Matrix. Si può cominciare dalla letteratura. Da Isaac Asimov. Fredric Brown. Philip K. Dick. Dean R. Koontz. Dan Simmons. Si può cominciare dalla leggenda. Dal rabbino Jehuda Löw ben Bezalel. Dalla Praga del XVI secolo. Dal Golem che si anima se gli si scrive emet (verità) sulla fronte. Che si spegne cancellando la e (met in ebraico vuol dire morte).
Si può. Viene persino naturale. Facile il gioco di parole. Emet/Met. On/Off. Zero/Uno. Linguaggio binario. Calcolatore. Intelligenza Artificiale.
E invece no. Decisamente no. E non per malcelato spirito di contraddizione. Né per picca, per ripicca e per puntiglio come la furba Bice di “Uomo e Galantuomo” di Eduardo De Filippo. Ma perché questa è una storia che va raccontata dal principio. E al principio non ci sono il cinema. La letteratura. La leggenda. Ma la voglia dell’uomo di pensare l’inpensabile. Di raggiungere l’irraggiungibile. Fino a farlo diventare realtà. Grazie al genio. Alla tecnologia. All’innovazione. Al lavoro.
Genio. Tecnologia. Innovazione. Lavoro. Parole del futuro. Parole antiche come le montagne. Parole che ci hanno fatto incontrare il fuoco. La ruota. La leva. Il telaio. La locomotiva. L’automobile. Il DNA. Il computer.
È importante non perdere di vista questa Storia. Collocare gli eventi nella giusta cornice. Perché ci aiuta a comprendere, spiegare, attribuire significati. A definire l’approccio, la metodologia, che ci fanno accorgere che quella determinata idea, quel particolare fatto o evento sono destinati a cambiare i nostri modi di vivere, studiare, lavorare, divertirci. A riconoscere l’innovazione. In un mondo che ama troppo la velocità e troppo poco la profondità. Troppo la precarietà e troppo poco la creatività. Troppo il denaro e troppo poco la cultura. Un mondo che vale la pena cercare di migliorare almeno un po’. Con pazienza e lavoro.
Dentro questa Storia ha senso raccontare di intelligenza artificiale, narrare storie che vantano già protagonisti importanti, anche nel nostro Paese.
Le donne e gli uomini che nella campagna veneta fabbricano avatar (termine sanscrito che definisce l’assunzione di un corpo fisico da parte di un dio e che è diventato nel linguaggio di internet sinonimo di rappresentazione virtuale di una persona reale) sono tra questi. Così come Matteo Loddo e Alessandro Ciaralli, che lo scorso 21 novembre si sono laureati alla Facoltà di Architettura dell’Università La Sapienza animando e facendo parlare al loro posto due avatar rigorosamente in 3D (sistema che usa tecniche come la prospettiva e l’ombreggiatura per rappresentare a tre dimensioni immagini che in realtà sono a due dimensioni).
Molte cose sono dunque accadute da quando, nel 1956, a Dartmouth, Marvin Minsky, Nathaniel Rochester, Claude Shannon e John Mc Carthy promossero il seminario che diede alla luce il concetto di Intelligenza Artificiale. L’obiettivo? Lo stesso che un po’ di anni prima era stato dichiarato da Alan Turing: “costruire una macchina che si comporti in modi che sarebbero considerati intelligenti se un essere umano si comportasse in quel modo”.
Gli esiti, come sempre in questi casi, sono stati talvolta incoraggianti (come la volta che Deep Blue, il calcolatore progettato e realizzato dalla IBM, ha vinto la sua sfida con Garry Kasparov, campione mondiale di scacchi), altre volte meno. Ma in ogni caso quella dell’Intelligenza Artificiale rimane una sfida doppia. Che mira da un lato a ingegnerizzare “macchine” sempre più sofisticate e dall’altro a riprodurre caratteristiche e capacità cognitive tipiche dell’uomo.
Gli obiettivi? Organizzare, catalogare, gestire, il linguaggio matematico. Rappresentare le conoscenze nei database in maniera intelligente. Costruire robot sempre più “umani”. Creare interfacce web sempre più intelligenti, in grado, a seconda delle cose che gli vengono chieste, di “farsi un’idea”, di definire un profilo di chi ha di fronte, di fornirgli “soltanto” le informazioni che davvero gli servono.
Facciamo un esempio? Immaginiamo di dover realizzare le pagine web di un sito archeologico come Pompei, e che esso sia stato strutturato con una dote assai ricca di database, informazioni, percorsi, notizie.
Una possibilità è quella di finire vittime del paradosso reso celebre da Jean Braudillard, secondo il quale l’inflazione delle informazioni produce la deflazione del senso (una mole potenzialmente infinita di informazioni disponibili può avere come effetto una sostanziale impossibilità di selezionarle, di gestirle e dunque di utilizzarle). Un’alternativa possibile è quella di realizzare l’ipertesto in questione in maniera tale che esso comprenda, grazie alla intelligenza artificiale di cui è stato dotato, chi è la persona che lo sta interrogando e quali informazioni vuole da lui.
Per rimanere all’esempio in questione il sistema dovrebbe poter capire se colui che ha di fronte è un esperto archeologo, uno studente che deve fare una ricerca, un turista curioso che vuole semplicemente qualche indicazione utile per decidere se fermarsi lì o spostarsi di qualche chilometro e visitare gli scavi di Ercolano. Dato che ciascuna di queste persone avrà degli interessi specifici, il sistema si rivelerà tanto più intelligente quanto più sarà in grado, sulla base delle richieste che gli vengono fatte, di selezionare il profilo di chi lo interroga e rendere disponibili, tra le tantissime informazioni di cui dispone, le risorse più appropriate per ciascuna persona.
Genio. Tecnologia. Innovazione. Lavoro. Mai come questa volta le connessioni tra le quattro venerande parole si presentano ambigue. Mai come questa volta le domande, le perplessità, le riserve appaiono ampie. Profonde. Difficili da sciogliere. Anche perché questa volta la posta in gioco non riguarda la possibilità di usare una macchina al posto di un’altra, ma quella di usare una macchina al posto di un uomo.
Ci saranno meno o più occupati? Il lavoro sarà più o meno “buono”? A guadagnarci saranno solo i soliti noti o davvero questa volta ci saranno maggiori opportunità per un numero più consistente di persone?
Davvero difficile immaginarlo. Non basta pensare, come Miles e Snow, che stiamo entrando nella quarta ondata della storia industriale (la prima è quella relativa all’industrializzazione originaria; la seconda quella fordista; la terza quella postfordista), caratterizzata dal versante delle strutture dalla diffusione delle organizzazioni minimali (sferiche, cellulari), dalla crisi della gerarchia, dall’individuazione e dallo sviluppo delle competenze essenziali (core competence) e delle professioni necessarie, dal governo delle carriere; dal versante delle persone dalla capacità di svolgere più iniziative e ricoprire più ruoli, di migliorare attraverso processi di competizione -collaborazione, di investire su se stessi puntando su conoscenza e responsabilità, di ampliare le proprie capacità professionali, di definire in maniera autonoma la propria carriera, di connettersi in ogni momento con qualunque anello della catena di creazione del valore. Non basta neanche sapersi nani sulle spalle di giganti. O gettare lo sguardo oltre l’orizzonte.
Lo sforzo è encomiabile. L’approccio suggestivo. Ma le risposte rimangono necessariamente troppo vaghe e ambigue per essere considerate risolutive. Davvero troppo alta è la possibilità di finire vittima della “fallacia della centralità”, di sottovalutare e contrastare ciò che accade perché si sovrastima la probabilità che, se esso avesse una reale consistenza, se ne sarebbe certamente a conoscenza.
Che fare, dunque?
Ancora una volta potrebbe essere utile guardare a ciò che abbiamo alle spalle. Ad esempio alle rivoluzioni industriali e alla forza con la quale hanno scompaginato assetti sociali, economici, politici, preesistenti. Alle condizioni della classe operaia inglese della prima metà dell’ottocento. Allo sviluppo del lavoro industriale nell’Italia di inizio novecento. Alla crisi del modello sociale fordista nella seconda metà del secolo breve. Alle metamorfosi di città come Genova, Milano, Napoli, Torino. O come Barcellona, Berlino, Liverpool.
Ogni volta grandi sconvolgimenti. Ogni volta vincenti e perdenti sociali.
Quella dell’innovazione continua insomma ad essere una partita doppia. Al tempo dell’intelligenza artificiale così come al tempo della macchina a vapore.
Gli apocalittici (in ogni caso meno pericolosi dei loro antenati luddisti) e gli integrati continueranno a darsi battaglia a colpi di argomenti, idee, scomuniche. Lavori tradizionali scompariranno. Altri si trasformeranno. Nuovi lavori avranno le luci della ribalta. Conquistare più tempo per le persone e per le loro attività sociali, dare più qualità alla prestazione lavorativa saranno probabilmente tra le sfide più impegnative per il mondo del lavoro e per il sindacato, che quel mondo del lavoro intenderà continuare a rappresentare.
In maniera solo in parte provocatoria si potrebbe dire che anche nell’era dell’intelligenza artificiale non c’è nulla di completamente nuovo, almeno sul fronte occidentale. E che esserne consapevoli può essere un primo passo nella giusta direzione per coloro che intendono gestire, nei casi più fortunati dirigere, i processi di innovazione.
Anche in questo mondo in incessante trasformazione, mentre i 15 minuti di celebrità pronosticatici da Andy Warhol sono già diventati 15 secondi, è insomma importante non perdere di vista ciò che già è accaduto. Leggere la Storia aiuta a leggere il futuro. A trovare le parole, le decisioni, le scelte, le azioni capaci di dare voce ai diritti delle persone, quelle più giovani in primo luogo, e al loro bisogno di rappresentanza, mentre si ritrovano, disorientate, a fare i conti con i mille sentieri che si biforcano del cambiamento sociale.