Norberto Patrignani — ph Davide Aichino
“Credo che il computer si sia sbagliato”

È stato calcolato che nel 2018 abbiamo generato tanti dati quanti in tutta la storia fino al 2017. In un solo anno sono stati prodotti tanti dati (mille miliardi di Giga-byte) quanti ne erano stati prodotti in tutta la storia precedente.

Frame 1

Gennaio 2020. Sono circa le 17. Robert Williams sta lavorando nel suo ufficio in un’impresa del Michigan. Sta per chiudere la sua giornata quando riceve una telefonata dal Detroit Police Department che gli chiede di recarsi immediatamente alla stazione di polizia più vicina. Robert pensa ad uno scherzo e non dà alcun peso alla chiamata.

Esce dall’edificio, sale sulla sua auto e si dirige verso la periferia di Detroit, dove vive. Parcheggia come ogni sera di fronte alla sua abitazione.

Appena imbocca il vialetto è improvvisamente bloccato da due guardie che lo ammanettano senza dare troppe spiegazioni, mostrandogli solo un mandato di arresto per furto con sopra, in bella vista, la sua foto.

La moglie e le figlie assistono alla scena terrorizzate, non capendo cosa stia succedendo. Robert viene portato in un centro di detenzione e — dopo foto segnaletica, rilevamento delle impronte digitali e campioni del DNA — passa tutta la notte in prigione. Il giorno dopo due ispettori lo portano in una stanza per l’interrogatorio.

– “Quando è stata l’ultima volta che sai stato alla galleria di negozi Shinola?”

Robert, incredulo:

– “Sono andato solo una volta, con mia moglie, quando hanno aperto nel 2014.”

– “Questo sei tu?”

Gli mostrano una foto presa da una videocamera di sorveglianza il giorno in cui alla galleria erano stati rubati orologi per 3.800 dollari. Si vede un uomo corpulento appostato di fronte al negozio di orologi, di spalle. E poi una seconda foto, un primo piano un po’ sfocato.

– “No, quell’uomo non sono io.”

Uno dei due agenti avvicina la foto al viso di Robert. Bastano pochi secondi per rivolgersi all’altro con sicurezza:

– “Credo che il computer si sia sbagliato.”


Nel Settembre del 1840 il giovane ingegnere e ufficiale sabaudo Luigi Federico Menabrea parte dal Forte di Bard, dove segue i lavori di fortificazione e passa a cavallo da Ivrea verso Torino. Appassionato di meccanica, non può mancare all’evento storico: al Congresso Nazionale degli Scienziati Italiani all’Accademia delle Scienze di Torino in Piazza Carignano, l’inventore inglese Charles Babbage presenta in anteprima la sua “Macchina analitica”, il primo computer a ingranaggi meccanici della storia, completo di sequenze, salti e cicli, programmabile tramite schede perforate. Menabrea, durante la presentazione di Babbage, prende ottimi appunti in francese che diventeranno, a tutti gli effetti, il primo testo di informatica.

Quando Ada Byron — figlia del poeta George Byron e della matematica Anne Milbanke — lo tradurrà in inglese intuirà la distinzione tra operazioni (istruzioni) e oggetti (i dati): soprattutto, che i dati possono rappresentare qualsiasi entità, non solo numeri. In una semplice “nota della traduttrice” descriverà di fatto il primo esempio di algoritmo diventando la prima programmatrice della storia dell’informatica. È il 1842.

Nel 1925 a Murray Hill, nel New Jersey, la American Telephone and Telegraph (AT&T) fonda i Bell Labs che, anche grazie ai finanziamenti del governo degli Stati Uniti, diventano il più grande laboratorio di ricerca nel mondo dell’elettronica, sfornando ben sette premi Nobel per la Fisica. Proprio qui, nel 1942, Robert Stibitz, uno dei ricercatori che contribuirà alla nascita dei primi computer, propone di introdurre il termine digital per indicare i sistemi che usano i numeri per rappresentare le grandezze fisiche, per distinguerli dai sistemi analogici che invece usano segnali elettrici continui. Inizia il passaggio dal mondo analogico al mondo digitale. Di lì a poco un suo collega, John Tuckey, propone di introdurre un nuovo termine: bit (binary digit) per indicare una cifra binaria, 0 e 1. Da allora i numeri dei sistemi digitali vengono rappresentati con i bit.

Attorno al 1943 l’idea di computer di Babbage e Byron viene dunque ripresa e nasce il computer moderno, grazie ai contributi scientifici di Alan Turing, Norbert Wiener, John Von Neumann e Claude Shannon e al colossale finanziamento del governo degli Stati Uniti. Fra i protagonisti di quella storia vi è anche il fisico italiano Enrico Fermi che nel 1949 suggerisce ad Adriano Olivetti di inaugurare un nuovo filone di attività industriali nel campo dell’elettronica: dieci anni dopo, nel 1959, nascerà l’Olivetti ELEA 9003, il primo mainframe a transistor.

È cominciata la prima era dell’informatica: i dati, ormai in formato digitale, vengono memorizzati usando il silicio come supporto, hardware, ed elaborati grazie alle istruzioni in memoria, software. Come scrive Italo Calvino nelle sue Lezioni americane, “è il software che comanda, che agisce sul mondo esterno e sulle macchine, le quali esistono solo in funzione del software. Le macchine di ferro ci sono sempre, ma obbediscono ai bits senza peso”.

Frame 2

Robert Williams è sicuro di non aver commesso alcun reato. Quello che non sa, in quella stanza usata per gli interrogatori, è che il suo passerà probabilmente alla storia come il primo caso di un arresto causato da un algoritmo per il riconoscimento facciale. Un algoritmo che ha confrontato un fotogramma ripreso dalla videocamera di sorveglianza del negozio rapinato con il database delle foto di tutte le patenti di guida degli Stati Uniti: decidendo che la persona immortalata nel fotogramma e quella della sua patente sono la stessa. Nessuna indagine ulteriore pare essere stata fatta, nessuna testimonianza raccolta da persone presenti al fatto, nessuna verifica della posizione del suo cellulare il giorno del furto. A distanza di trenta ore dall’arresto Robert viene finalmente rilasciato. L’associazione statunitense per la difesa dei diritti civili e le libertà individuali — American Civil Liberties Union, ACLU — chiede alle autorità il proscioglimento, le scuse ufficiali e la riabilitazione completa.


All’inizio degli anni Sessanta il mondo è attraversato da grandi voglie di rinnovamento che favoriscono anche la nascita di una nuova visione delle tecnologie digitali: in molti credono che sia giunto il momento di superare l’architettura centralizzata dei mainframe per immaginare tecnologie decentrate. La visione: mettere tutte le componenti fondamentali del computer — input, memoria, elaborazione e output — nelle mani degli utilizzatori.

Attorno a questa idea la Olivetti di Ivrea avvia la seconda stagione dell’informatica: con la “Programma 101” del 1965 è iniziata l’era del personal computer. Pier Giorgio Perotto, suo progettista, sarà il nostro responsabile alla Ricerca e Sviluppo Olivetti fino al 1978. In quegli anni il personal computer è un sistema socio-tecnico nelle mani della persona e ne aumenta l’autonomia computazionale.

Dal 1980 Apple, IBM, HP entrano in campo e l’industria informatica diventa globale. Il computer esce dagli uffici e dai laboratori per entrare nelle case e diventa simbolo di libertà. Per fare un esempio, nel 1984 la Apple investe oltre due milioni di dollari in uno spot pubblicitario di 59 secondi che deve lanciare il MacIntosh, con un esplicito riferimento al romanzo 1984 di George Orwell: il personal computer, con la sua carica libertaria, rappresenta la fine dell’era dei mainframe (Big Brother) come tecnologia gerarchica centralizzata. Con la nascita del Web, nel 1989, la trasformazione digitale aumenta a una velocità esponenziale.

Frame 3

Il caso di Robert Williams suscita riflessioni in tutto il mondo, all’interno di un dibattito sempre più vivo circa il rapporto fra tecnica ed etica. Nello specifico, il software per il riconoscimento facciale è sempre stato una tecnologia molto controversa. I metodi più sofisticati usano le cosiddette “reti neurali”, così chiamate perché si ispirano vagamente alla morfologia delle reti di neuroni biologici. Le reti neurali artificiali sono modelli matematici che collegano tra di loro un grande numero di componenti. Il comportamento del modello varia a seconda dei pesi dei collegamenti e la calibrazione di questi pesi avviene allenando la rete, sottoponendola cioè a molti dati in ingresso. Facendo leggere alla rete milioni di volti memorizzati in enormi database di immagini, la rete apprende dai dati stessi, apprende, insomma, dall’esperienza. Questo processo non è ovviamente neutrale: se i dati contengono discriminazioni in base al colore della pelle o al genere di appartenenza, questi verranno appresi dall’algoritmo. Come diceva Jorge Luis Borges, ”non si è ciò che si è per quello che si scrive, ma per quello che si è letto”.


Dopo l’era dei mainframe e del personal computer, attorno al 2005 inizia la terza era dell’informatica, quella del cloud computing, grazie all’accessibilità del Web. Con una semplice interfaccia ognuno può accedere a immense capacità di memoria ed elaborazione. Diversamente dal sogno iniziato negli anni Sessanta, tuttavia, esse non sono più nelle mani degli utilizzatori: sono offerte come servizi online, applicazioni facili da usare che trasformano i dati degli utenti in quello che è stato definito “il petrolio del XXI secolo”. Il cloud computing in quanto sistema socio-tecnico diventa uno strumento centralizzato: se agli utilizzatori resta solo input e output, memoria ed elaborazione vengono di nuovo centralizzate nei giganteschi datacenter dei fornitori di servizi. La persona perde così la sua autonomia computazionale.

Nel maggio 2020 è stato calcolato che 4,6 miliardi di esseri umani sono connessi. Siamo nell’infosfera, lo spazio virtuale dove buona parte dell’umanità vive quotidianamente. Tra le dieci più grandi imprese del pianeta, ben sette sono imprese del digitale con dimensioni titaniche: Alibaba, Amazon, Apple, Facebook, Google, Microsoft, Tencent. Con le loro potenze di calcolo estraggono valore da montagne di dati: profilando molto accuratamente i navigatori del Web per poi rivendere sul mercato queste informazioni. Offrono servizi gratuiti ma in cambio vogliono i dati.

Eppure esistono altre visioni del Web. Ad esempio, quella del fondatore Tim Berners-Lee: il Web deve essere libero, per comunicare e per accedere alla conoscenza. Oppure quella della direttrice del CERN Fabiola Gianotti e della virologa Ilaria Capua: il Web come strumento per l’intelligenza collettiva a disposizione di gruppi di ricerca interdisciplinare.

Ormai gli archivi analogici rappresentano un ricordo del passato: se nel 1986 il 99% degli archivi erano ancora in formato analogico, nel 2007 sono rimasti solo il 6%. Tutto il resto è digitale. È stato calcolato che nel 2018 abbiamo generato tanti dati quanti in tutta la storia fino al 2017. In un solo anno sono stati prodotti tanti dati (mille miliardi di Giga-byte) quanti ne erano stati prodotti in tutta la storia precedente. La pandemia del 2020 ha accelerato ulteriormente questa trasformazione.

Frame 4

Oggi nella vita di Robert Williams e della sua famiglia quanto di paradossale è accaduto nel gennaio di quest’anno è probabilmente soltanto un brutto ricordo. Il caso va quindi letto dentro un contesto più generale, che solleva un motivo di attenzione in più sugli effetti che la gestione centralizzata dei dati digitali delle persone (per le attività più eterogenee: siano esse di ordine pubblico, di condizionamento d’opinione, di persuasione commerciale) può avere sul nostro presente e sul nostro futuro. Alcuni esempi? Facendo una ricerca in rete, digitando la parolina “CEO” (Chief Executive Officer, amministratore delegato), si nota come le immagini restituite contengano, nel 99% dei casi, maschi bianchi. Ancora, molti software per il riconoscimento facciale classificano le persone con gli occhi socchiusi come asiatiche: i rischi di abusi o usi impropri sono altissimi. Il Consiglio d’Europa ha recentemente messo in guardia dai rischi di “discriminazione sociale” causata dall’uso sommario degli algoritmi. Per tutti questi motivi, le grandi imprese dell’informatica stanno disinvestendo in questo settore e chiedono una regolamentazione molto restrittiva. La più grande associazione di computer professional del mondo — la Association for Computing Machinery, ACM — chiede una “sospensione immediata” dell’uso privato e governativo delle tecnologie di riconoscimento facciale per “motivi tecnici ed etici”.


A cura di FabLab Ivrea
Norberto Patrignani, Docente di Computer Ethics al Politecnico di Torino