de fr it

Dati

I dati risultano dall’interazione, registrata e calcolata, di strumenti di misura e metodi di osservazione; tale interazione ha per obiettivo la produzione di informazioni codificate (quindi di valori di riferimento stabili) che restituiscono la realtà (naturale, tecnica o sociale) al centro dell’operazione di misurazione e osservazione. I dati vengono raccolti ed elaborati in base a regole derivate dall’osservazione, definite a livello istituzionale. La loro promessa di oggettività e la loro stabilità nel tempo e nello spazio consentono l’interpretazione affidabile delle relazioni esistenti fra cose o persone, rafforzano la loro stessa autorità e aumentano il potere d’interpretazione di chi li possiede. Attualmente per dati si intendono entità informatiche prodotte e gestite da computer, server e reti, che le memorizzano, le trasformano e le trasmettono. I dati assumono la forma di testi o immagini e possono essere ordinati, combinati e manipolati. La storia dei dati viene qui ripercorsa analizzando la trasformazione dei rapporti di produzione e di utilizzazione dei dati.

Le prime raccolte scientifiche di dati (fino al 1900 ca.)

Inchiesta sugli alloggi del comune di Aussersihl. Scheda dello stabile con appartamenti in affitto della Zweierstrasse 38, 1892 (Stadtarchiv Zürich, Gemeinde Aussersihl Wohnungsenquete 1892, Kreis 1-14, VI.AS.D.22).
Inchiesta sugli alloggi del comune di Aussersihl. Scheda dello stabile con appartamenti in affitto della Zweierstrasse 38, 1892 (Stadtarchiv Zürich, Gemeinde Aussersihl Wohnungsenquete 1892, Kreis 1-14, VI.AS.D.22). […]
Stabile con appartamenti in affitto sulla Zweierstrasse 38. Fotografia, 1920 ca. (Baugeschichtliches Archiv der Stadt Zürich, DMP 068772.tif).
Stabile con appartamenti in affitto sulla Zweierstrasse 38. Fotografia, 1920 ca. (Baugeschichtliches Archiv der Stadt Zürich, DMP 068772.tif). […]

In tempi moderni il concetto di dati è stato sorprendentemente poco usato nell’ambito tecnico, delle scienze naturali, politiche ed economiche. Fino a XIX secolo inoltrato si prediligeva l’uso di termini con una valenza oggettivante o che descrivevano un processo: nell’astronomia circolavano "osservazioni" e "calcolazioni", i tecnici si scambiavano informazioni sulle "proprietà" di materiali (ad esempio i coefficienti di dilatazione o il peso specifico di metalli) e negli studi demografici ed economici relativi a uno Stato gli statistici registravano "nascite" o "prodotti". Anche il materiale raccolto nel corso di progetti di misurazione promossi dalle autorità politiche veniva descritto come calcolazione, indicazione, valore di misurazione, angolo, riduzione, azimut o risultato. Il concetto di dati era riservato a valori numerici consistenti, risultanti da ripetute rielaborazioni, che godevano pertanto di una particolare legittimazione scientifica. Non si trattava mai di valori in sé ("dati grezzi"); per essere utilizzabili dovevano essere stati rilevati in modo empirico e poi organizzati. Dalla seconda metà del XIX secolo si erano creati i presupposti per concepire i dati come prodotti di una catena più o meno lunga di trasmissione di informazioni. In una successione di passaggi che richiedevano una formattazione sempre più sofisticata, circostanze naturali o inerenti a uno Stato venivano registrate su carta, per poi essere affidate a depositi della conoscenza chiamati istituto, archivio o ufficio (statistica, cartografia). L’organizzazione e i procedimenti che caratterizzavano questa modalità di raccolta dei dati rescindevano gradualmente (ad ogni tappa intermedia di trasmissione) la relazione diretta con il singolo oggetto preso in esame. I valori o i dati ottenuti da questo procedimento di registrazione scritta perdevano dunque il riferimento diretto con la realtà osservata e misurata e acquisivano un’elevata autorità (scientifica). Il ruolo di riferimento si spostava così dall’oggetto osservato all’istanza che osserva e alla sua autorevolezza organizzativa e amministrativa, fondata su procedure e apparecchiature.

Dati amministrativi e commerciali nella società di massa (dal 1900 ca. al 1960 ca.)

Perforatrice del sistema Hollerith della IBM. Fotografia, 1945 (Museo della comunicazione, Berna, FB 000112).
Perforatrice del sistema Hollerith della IBM. Fotografia, 1945 (Museo della comunicazione, Berna, FB 000112). […]

All’inizio del XX secolo i dati divennero centrali anche al di fuori dell’ambito scientifico. In seguito al potenziamento degli apparati burocratici statali e di quelli di gestione nelle imprese, assunsero un significato anche sul piano amministrativo. Le imprese di servizi con notevoli quantità di clienti e prestazioni (banche, assicurazioni), i reparti amministrativi di aziende con grandi volumi di transazioni dello stesso tipo (conteggi di stipendi) e gli uffici statali addetti ai censimenti fecero da apripista a questa evoluzione ed ebbero un effetto normativo sul piano formale. Economie domestiche, dipendenti e clienti venivano dapprima registrati su formulari, poi su schede e infine, dopo l’introduzione delle macchine di Hollerith a cavallo tra XIX e XX secolo, su schede perforate. Per riferirsi a condizioni sociali, transazioni e routine amministrative si ricorse a un numero limitato di descrittori, sufficiente però a garantire un rapporto soddisfacente tra la qualità dei dati raccolti e il lavoro formalizzato necessario per la loro gestione. Allo stesso tempo, registri e schedari (registrazioni contabili, tabulati, schede perforate delle amministrazioni) conferivano alle informazioni accumulate una concretezza materiale, rafforzando il potere di chi ne fruiva. Ciò era dovuto in primo luogo all’accresciuta resa delle operazioni di ordinamento e di selezione, ottenuta grazie all’uso delle macchine di Hollerith nei processi amministrativi. La superiorità tecnica dell’organizzazione burocratica (Max Weber) consentì lo svolgimento rapido, preciso e univoco di grandi quantità di compiti amministrativi (burocrazia), ma non solo. Il punto di forza della produzione e fruizione burocratica dei dati risiedeva, infatti, piuttosto nella sincronicità di due elementi: la loro standardizzazione e la possibilità stessa di disporre di questi dati.  

Elaboratori centrali e requisiti di formattazione (1950-1970)

Nel magazzino della Landis und Gyr a Zugo un collaboratore prepara un invio sulla base di dati registrati su schede perforate. I pezzi ordinati vengono poi spediti con un impianto teleferico. Fotografia, 1957 (ETH Zürich, Archiv für Zeitgeschichte, IB LG-Audiovisuals / FA.10214).
Nel magazzino della Landis und Gyr a Zugo un collaboratore prepara un invio sulla base di dati registrati su schede perforate. I pezzi ordinati vengono poi spediti con un impianto teleferico. Fotografia, 1957 (ETH Zürich, Archiv für Zeitgeschichte, IB LG-Audiovisuals / FA.10214). […]

Nella sua evoluzione la tecnologia informatica ha conosciuto diversi momenti critici. Con lo sviluppo di calcolatori per uso commerciale attorno alla metà del XX secolo, in pochi anni le strettoie tecnologiche si sono spostate dal calcolo, all’ordinamento fino alla programmazione e infine alla formattazione dell’input. In numerosi campi d’applicazione quantità enormi di rilevazioni, strutturate e non, di sensori (temperatura, pressione, movimento), di rapporti (vendita, prenotazione, ordinazione, consegna, produzione) e di procedure amministrative (pagamenti, contratti, sondaggi, premi, stipendi) vennero salvati sui supporti più disparati, rendendoli così teoricamente adatti ad essere elaborati da veloci calcolatori. Il problema pratico nella gestione di questa massa di dati prima dell’immissione nel computer consisteva nell’elaborazione di un formato sufficientemente attendibile e omogeneo da garantire l'analisi dei dati di input. I rigidi requisiti formali che i dati dovevano soddisfare per poter essere letti dai computer spostarono i problemi operativi a reparti per l’elaborazione preliminare dei dati. A loro volta dotati di macchinari, si occupavano della trasformazione dei dati rilevati da sensori analogici, formulari e procedure in modo tale che la macchina di calcolo e di ordinamento programmabile, ossia il "computer", potesse elaborarli. Negli anni 1960 utilizzatori e produttori di computer iniziarono a riflettere su un’elaborazione dei dati antecedente la trasformazione dei dati vera e propria, introducendo l’idea di dati grezzi, per i quali era necessario sviluppare un’apposita logistica con un’architettura di memorizzazione differenziata. Per far fronte a questo flusso di dati, i centri di calcolo dovevano mettere a disposizione spazio sufficiente per l’archiviazione e l’immagazzinamento dei dati in attesa di trasformazione. I dati venivano quindi contemporaneamente accatastati su schede perforate, registrati su nastri magnetici, conservati per l’elaborazione successiva su memorie a tamburo e dischi rigidi e amministrati con sistemi di gestione per banche dati.  

Relazionalità, ri-combinabilità e riflessività (dal 1970 ca.)

I dati già disponibili in un formato leggibile dalle macchine non richiedevano ulteriori formattazioni per poter essere riutilizzati. Il loro reimpiego diretto era però ostacolato dal fatto di essere legati a indirizzi di memoria fisici. Per questo motivo ogni nuova utilizzazione di dati esistenti doveva essere programmata in una nuova banca dati, un lavoro di programmazione che non poteva essere svolto da persone senza formazione informatica desiderose di rielaborare i propri dati. Queste ultime dipendevano quindi dall’aiuto di programmatori, che fungevano da navigatori (Charles W. Bachman). Negli anni 1970 furono sviluppate le banche dati relazionali che consentivano di liberarsi completamente del riferimento all’oggetto come pure di ricombinare i dati (Edgar F. Codd). Le banche dati relazionali si rivelarono però molto dispendiose, dato che necessitavano di modelli teorici complessi, anche nei dettagli, e richiedevano inoltre lo sviluppo di un linguaggio d'interrogazione facilmente comprensibile (Structured Query Language, SQL). Memorizzando i dati in tabelle collegabili a volontà con uno sforzo di programmazione minimo, i dati acquisirono però una imprevista mobilità e indipendenza (data independence). Non erano più legati a un modello di rappresentazione (programma) fisso e la loro utilizzazione non dipendeva da indirizzi di memoria fisici. I dati si emanciparono inoltre dal riferimento preciso a oggetti realmente esistenti e potevano in compenso entrare in qualsivoglia relazione con altri dati. I sistemi di gestione di database relazionali resero possibili una ri-combinabilità dei dati teoricamente illimitata e un’accresciuta user independence, ossia una più grande libertà delle loro utilizzatrici e dei loro utilizzatori (non professionisti). Alla fine del ventennio 1960-1980, l’ampliamento delle opportunità di utilizzo potenzialmente offerto dalla combinazione di dati scatenò un acceso dibattito sullo Stato poliziesco e sulla necessità di una legislazione in materia di protezione dei dati, che doveva garantire alla cittadinanza un diritto all’autodeterminazione informatica, limitando la libera circolazione dei dati.

"Buongiorno, piccolo hacker! Ti consiglio di cambiare subito il tuo programma, sono quello della protezione dei dati". Caricatura di Eckhard Lange, pubblicata nel Nebelspalter, 1985, n. 36, p. 22 (ETH-Bibliothek Zürich, e-periodica).
"Buongiorno, piccolo hacker! Ti consiglio di cambiare subito il tuo programma, sono quello della protezione dei dati". Caricatura di Eckhard Lange, pubblicata nel Nebelspalter, 1985, n. 36, p. 22 (ETH-Bibliothek Zürich, e-periodica). […]

Verso la fine del XX secolo la mobilità dei dati fu ancora una volta potenziata in maniera drastica. Partendo da dati alfanumerici, le informazioni potevano da un lato essere nuovamente combinate in forma di ipertesto tramite localizzatori unici della risorsa (Uniform Resource Locators, URL). Contemporaneamente i dati venivano indicizzati da robot (web crawler), permettendo ricerche semplici senza particolari conoscenze tecniche in tutto l’archivio di dati del web (internet). All’inizio del XXI secolo ne è nata un’industria di data mining altamente specializzata, che attraverso analisi computerizzate e basate sulla rete ha scandagliato archivi di dati molto eterogenei in cerca di modelli di dati riconoscibili, decontestualizzandoli radicalmente. Dall’altro lato, il ruolo epistemico ed economico degli archivi di dati in continua crescita è cambiato, dato che i dati sono stati impiegati anche per l’apprendimento automatico (differenziazione di algoritmi). Definiti nel discorso politico-economico come la "materia prima del futuro", i dati determinano lo sviluppo e il funzionamento degli stessi strumenti con cui sono stati elaborati, rispettivamente analizzati. Il concetto di dati come riferimenti stabili a oggetti concreti e relazioni al di fuori della realtà digitale è stato soppiantato da quello di una molteplicità di riferimenti con una grande autonomia algoritmica. Computer, reti e programmi elaborano le informazioni sulla base di dati da loro stessi generati, per ricavarne nuovi dati nonché informazioni su modelli per la loro elaborazione. La parola chiave Big Data ha così sostituito il discorso sul "grande fratello". La quantità massiccia di dati (auto)generati ha accentuato la riflessività dei dati, portando a una nuova immagine che la società ha di se stessa e a nuove forme di interazione sociale indotte dai dati (data driven), la cosiddetta società digitale.

Riferimenti bibliografici

  • Codd, Edgar F.: "A Relational Model of Data for Large Shared Data Banks", in: Communications of the ACM, 13 (6), 1970, pp. 377-387.
  • De Chadarevian, Soraya: "Die 'Methode der Kurven' in der Physiologie zwischen 1850 und 1900", in: Rheinberger, Hans-Jörg;  Hagner, Michael (a cura di): Die Experimentalisierung des Lebens. Experimentalsysteme in den biologischen Wissenschaften 1850/1950, 1993, pp. 28-49.
  • Lenoir, Timothy (a cura di): Inscribing Science. Scientific Texts and the Materiality of Communication, 1998.
  • Gugerli, David; Speich, Daniel: Topografien der Nation. Politik, kartografische Ordnung und Landschaft im 19. Jahrhundert, 2002.
  • Hoffmann, Christoph: Unter Beobachtung. Naturforschung in der Zeit der Sinnesapparate, 2006.
  • Daston, Lorraine; Galison, Peter: Objectivity, 2007.
  • Krajewski, Markus: "In Formation. Aufstieg und Fall der Tabelle als Paradigma der Datenverarbeitung", in: Nach Feierabend. Zürcher Jahrbuch für Wissensgeschichte, 3, 2007, pp. 37-56.
  • Yates, JoAnne: Structuring the Information Age. Life Insurance and Technology in the Twentieth Century, 2008.
  • Heide, Lars: Punched-Card Systems and the Early Information Explosion 1880-1945, 2009.
  • Mayer-Schönberger, Victor; Cukier, Kenneth: Big Data. Una rivoluzione che trasformerà il nostro modo di vivere e già minaccia la nostra libertà, 2013 (inglese 2013).
  • Gugerli, David: Wie die Welt in den Computer kam. Zur Entstehung digitaler Wirklichkeit, 2018.