1. #GGD8Bologna [camp]: Chi ha paura della rete? - 13 novembre 2010
Computer assisted reporting, tra censura e analisi delle fonti
aperte disponibili in rete
di Antonella Beccaria <antonella@beccaria.org>
C'è chi dice che espressioni come “giornalismo investigativo” e
“giornalismo di precisione” non esistono perché per sua natura il
giornalismo deve investigare con metodologie scientifiche nel
modo più neutrale possibile. Attraverso questo processo ne deve
dunque derivare una “realtà” oggettiva - che qualcuno chiama
anche “verità” - inconfutabile. Una “realtà” che deve essere una
verifica rigorosa per lo più delle affermazioni del “potere”, in base
alle quali spesso la “realtà” viene modificata per far pendere la
bilancia verso uno schieramento politico, partitico o lobbystico
specifico. Dunque il giornalista per sua natura deve essere il “cane
da guardia” a tutela della collettività contro le deformazioni del
potere (di qualunque genere esso sia).
L'altra sera Armando Spataro, magistrato antiterrorismo e
procuratore aggiunto a Milano, presentando il suo libro “Ne
valeva la pena” che ruota intorno al rapimento dell'iman Abu
Omar, ha raccontato un episodio: si trovava negli Stati Uniti e
parlando con un collega procuratore, di nomina politico-elettorale
e non concorsuale, gli ha chiesto: “Ma voi come fate a garantire ai
cittadini di gestire i loro interessi e non quelli della lobby politica
a cui appartenete?” La risposta è stata: “Da noi c'è la stampa”.
Certo un po' troppo idealistica (e forse interessata), come risposta.
Ma sempre da un punto di vista ideale rispecchia bene quale
dovrebbe essere il ruolo del cosiddetto “quarto potere”. Adesso vi
risparmio le regole fondamentali del “quarto potere” (sia quelle
tecniche che deontologiche, sulle quali credo che ci sia già una
1
2. #GGD8Bologna [camp]: Chi ha paura della rete? - 13 novembre 2010
discreta conoscenza) e passo a parlare del nocciolo di questa
professione, che ancor prima di diventare notizia si chiama
“fonte”. Le fonti si possono suddividere in varie tipologie, che in
sostanza, si possono distinguere in:
• la fonte umana: alla prima si applicano metodologie derivate
più dalla psicologia sociale
• la fonte documentale: alla seconda si può applicare il
cosiddetto computer assisted reporting
La prima ha un valore relativo, dal punto di vista strettamente
giornalistico, senza la seconda: può costituire un punto di partenza
di una “pista”, ma non fa “realtà” di per sé. Mentre la seconda può
esistere indipendentemente dalla prima (anche se spesso occorre
sempre una fonte umana che produca una fonte documentale). Le
fonti documentali si possono suddividere a loro volta
sostanzialmente in due categorie:
• la fonte aperta (articoli di giornale, bilanci delle società,
redditi dei cittadini, sentenze di tribunale, atti giudiziari dopo
l'avviso di fine indagine)
• la fonte chiusa o riservata (gli atti giudiziari prima dell'avviso
di fine indagine, informative di forze dell'ordine o di servizi
segreti, piani militari, documentazione – governativa,
aziendale, dell'esercito – a uso solo interno)
Per esempio, chi si ricorda dei “documenti di Halloween”? Erano
una serie di memorandum interni di Microsoft in cui l'azienda
sosteneva senza mezzi termini di considerare GNU/Linux una
minaccia al mercato (soprattutto al proprio) e di volervisi opporre
con ogni mezzo (anche illecito). Questi sono stati “fonti chiuse”
fino a quando, alla fine dell'ottobre 1998 (da qui il nome di
2
3. #GGD8Bologna [camp]: Chi ha paura della rete? - 13 novembre 2010
Halloween), qualcuno non li fece uscire da Microsoft e li
consegnò ad Eric Raymond, prima esponente di spiccio del mondo
del software libero e poi fondatore della Open Source Initiative,
che li divulgò via Internet rendendo palesi gli intenti bellicosi (e
gangsteristici) di Microsoft.
L'esempio oggi più eclatante di fonte documentale che da riservata
trasforma una fonte in aperta è Wikileaks, che sta cambiando le
regole del gioco giornalistico sotto molti punti di vista:
• trattamento della fonte umana: il rapporto è intermediato
dall'anonimato garantito dalla tecnologia. Il giovane militare
arrestato per aver fornito i primi 90 mila documenti
dell'esercito statunitense, è stato individuato perché lui stesso
ha parlato del ruolo che ha avuto, non per una falla nel
“sistema di protezione” della fonte umana
• coinvolgimento della comunità giornalistica: al di là delle
sinergie create con “organi di informazione tradizionale” (con
cui viene concordata la data di uscita di documenti e articoli
per molteplici ragioni), la verificabilità della fonte avviene
attraverso l'analisi condotta da team nazionali che
individuano la plausibilità o meno della fonte documentale
• la pubblicazione senza intermediazione: i documenti vengono
messi a disposizione dei cittadini senza alcuna forma di
censura (anche sulle parti più delicate, come i nomi dei locali
che collaborano a vario titolo con l'esercito statunitense) e
sono consultabili attraverso sistemi sempre più affinati
(motori di ricerca e sistemi di classificazione). Non c'è
commento o interpretazione, che viene lasciata ai media
tradizionali
Che Julian Assange sia o meno un agente di un qualche servizio
3
4. #GGD8Bologna [camp]: Chi ha paura della rete? - 13 novembre 2010
segreto (da non escludere) o tralasciando in questo caso le
polemiche innescate con Reporter Senza Frontiere ed Emergency
sulla pubblicazione dei nomi dei collaboranti in Iraq e
Afghanistan, rimaniamo asetticamente sul discorso della fonte
documentale, che da riservata è diventata pubblica. A questo
punto, su questa fonte, anzi, su questa mole di fonti, si possono
applicare tecniche del cosiddetto computer assisted reporting (o
CAR), che viene definito da due connotazioni:
1. ricerca e verifica delle informazioni online
2. analisi informatica delle banche dati offline
La nascita del CAR (e del collegato e per certi versi integrato
concetto di “database journalism”) viene fatto risalire agli anni
Cinquanta, anche se è diventato (quasi) un fenomeno di massa tra
gli addetti ai lavori (sempre troppo pochi, però) da vent'anni scarsi
e cioè con l'avvento di Internet, nel 1991. La sua prima
applicazione concreta è del 1952 quando, per la prima volta, la
CSB utilizzò un sistema di calcolo – un UNIVAC 1 – per
analizzati i dati elettorali delle presidenziali statunitensi. Ma il
CAR si consolidò in due occasioni successive:
• durante la rivolta di Detroit del 1967 (che provocò 43 morti)
dopo che a Newark la popolazione nera si ribellò allo stato di
assoggettamento a cui era sottoposta dai bianchi; la rivolta si
estese in 64 città degli Stati Uniti, un giornalista del Detroit
Free Press", Philip Meyer, pubblicò un'inchiesta in cui
dimostrava – dati alla mano, dopo averli incrociati e
analizzati secondo un sistema scientifico e statistico – un
fattore: alle rivolte parteciparono persone tra le quali non
c'erano marcate differenze di ceto, etnia e scolarizzazione
pregressa (dai gradi elementari fino all'università, compreso
4
5. #GGD8Bologna [camp]: Chi ha paura della rete? - 13 novembre 2010
il dato dell'abbandono scolastico)
• prima dell'omicidio di Martin Luther King (avvenuto a
Memphis il 4 aprile 1968), il Miami Herald aveva pubblicato
un'inchiesta sulla vita – abitudini e comportamenti – della
popolazione nera della Florida. Dopo la morte di King, poté
dimostrare, riprendendo ed estendendo l'inchiesta precedente,
che quell'omicidio non aveva scalfito le istanze politiche e
sociali del movimento a sostegno della popolazione di colore,
ma anzi le aveva consolidate e rafforzate
Il lavoro di Meyer, il giornalista dei moti di Detroit, gli darà lo
spunto per un libro successivo, uscito in prima edizione nel 1969 e
poi continuamente ripubblicato, che si intitola Precision
Journalism (titolo italiano: Giornalismo e metodo scientifico.
Ovvero il giornalismo di precisione). La tesi di fondo è la
seguente: tra il mestiere del giornalista e quello dello scienziato vi
sono più punti di contatto di quanto di primo acchito si possa
ipotizzare. Un'anteprima del libro si trova:
http://books.google.com/books?
id=fTvJ2hpCjM0C&printsec=frontcover&dq=%22Philip+Meyer
%22+Giornalismo+e+metodo+scientifico&source=bl&ots=lvh9iT
HMhK&sig=9fLpBfEnDzvLZYigvh5cZk4Y8pY&hl=it&ei=DmH
eTL_FEZDpOcKchOMO&sa=X&oi=book_result&ct=result&res
num=1&sqi=2&ved=0CBkQ6AEwAA#v=onepage&q&f=false
Venendo a esempi più recenti, va citata l'inchiesta del Stephen
Gray sulle extraordinary rendition: per cercare di dimostrare
l'esistenza e per trarre anche un dato quantitativo verosimile sui
rapimenti effettuati dalla Cia di presunti terroristi a scopo di
tortura, Gray si avvalse della Rete e trovò l'elenco dei voli civili
(privati e di linea) in un database pubblico. Incrociando questi dati
5
6. #GGD8Bologna [camp]: Chi ha paura della rete? - 13 novembre 2010
con piani di volo, rotte e scopi dei viaggi, riuscì a estrarne un
ristretto numero che poteva corrispondere a quelli utilizzati per le
extraordinary rendition. Verifiche ulteriori confermarono
l'attendibilità del dato individuato. Tutto ciò venne fatto usando in
questo caso usando solo fonti aperte e snidando così un'attività di
intelligence che in genere viene coperta da forme varie di
classificazione.
Sofia Basso, poi, ha potuto dimostrare, in argomento del tutto
diverso ma con un procedimento analogo l'esistenza sulla rete
viaria italiana di strade più pericolose di altre per realizzazione,
mantenimento del manto stradale o altre attività di manutenzione.
Ma gli esempi possono essere molteplici e altri possono essere
rintracciati sulla pagina di Wikipedia che parla del database
journalism <http://en.wikipedia.org/wiki/Database_journalism>
con relative note e link di approfondimento.
Il CAR predica una forma di giornalismo assolutamente asettica,
che lavori solo in base al metodo scientifico e abbia un'interazione
con le fonti umane quanto più limitata possibile. Personalmente
sono convinta che l'elemento umano e il “consumare le scarpe” a
forza di camminare dietro una notizia, rimangono elementi
imprescindibili, al pari dell'analisi statistico-matematica dei dati.
Sta di fatto che oggi, comunque, è diventato più semplice fare
CAR grazie ai motori di ricerca, ai database online, al citizen
journalism o a quella che negli anni Settanta si chiamava
“controinformazione” (sono molti i cittadini che pubblicano atti
giudiziari per esempio su nodi importanti della storia italiana,
come nel caso delle stragi della strategia della tensione). Ma anche
grazie ai social network che, tra i loro punti negativi, ne
presentano due in particolare:
6
7. #GGD8Bologna [camp]: Chi ha paura della rete? - 13 novembre 2010
• scarsa consapevolezza degli utenti della propria privacy e
tendenza a condividere anche fatti molto riservati della
propria vita (ignorando il fatto che “la rete non dimentica
niente”)
• sfruttamento da parte di alcuni social network (Facebook in
primis) di questa scarsa consapevolezza, coniugata
parallelamente a una disinvoltura nella gestione della privacy
dei propri utenti
Questo dà vita a un importante bacino di informazioni a cui i
giornalisti possono attingere (spesso malamente, se non in modo
sciagurato: si veda per tutto il caso Scazzi). Ma così come a questi
dati possono attingere i giornalisti, altrettanto possono fare le forze
dell'ordine e gli analisti di apparati di intelligence demandanti allo
studio delle fonti aperte. Dunque, ben prima della domanda “ma è
vero che su Facebook ci sono i servizi segreti?” o di eventuali
accordi tra governi e polizia, è il cittadino che deve preoccuparsi
della propria tutela. Ma questo è un altro discorso.
I contenuti di questo articolo sono rilasciati con Licenza Creative Commons Attribuzione-Non
commerciale-Condividi allo stesso modo 2.5 Italia <http://creativecommons.org/licenses/by-nc-
sa/2.5/it/>
7