Internet moltiplica le possibilità di registrare, raccogliere ed elaborare enormi quantità di dati. E questo genera un doppio fenomeno: da un lato, la dinamica economica produce una visione, brandizzata Big Data, secondo la quale la grande quantità di informazioni crea nuove opportunità imprenditoriali; dall’altro lato, un movimento socio-culturale si attiva per sostenere la trasparenza dei dati originati dalla pubblica amministrazione, chiamandola Open Data. Intanto, tutto questo alimenta le preoccupazioni delle persone sensibili ai temi legati alla libertà individuale e alla privacy.
Alla Giornata italiana della statistica, organizzata dall’Istat a Roma, questi temi sono emersi nella loro complessità. Con un taglio problematico originale: come si studiano queste enormi quantità di dati? Con le tecniche della statistica o facendo girare grandi computer dotati di appositi algoritmi? Il dilemma è stato esplorato in una brillante discussione condotta, tra gli altri, da Bruno Scarpa, statistico dell’università di Padova, e da Dino Pedreschi, scienziato del data mining dell’università di Pisa.
La statistica tradizionale si confrontava non con l’abbondanza, ma con la scarsità di dati. Ai costosi sistemi per produrre numeri abbinava straordinarie tecniche per inferire regolarità, probabilità, previsioni. Big Data, invece, non scarseggia di numeri: casomai di modi per leggerli e interpretarli. Sarà scontro o integrazione?
Big Data può mostrare la mappa dei movimenti di milioni di persone, aggregando i dati sulla localizzazione dei loro cellulari. Serve per monitorare il traffico. Ma se le domande sono di ordine urbanistico, occorreranno filtri consapevoli. E anche se i numeri abbondano, la consapevolezza resta scarsa. Si può scommettere che la profonda cultura statistica e l’innovazione informatica alla fine collaboreranno.