SlideShare ist ein Scribd-Unternehmen logo
1 von 69
Downloaden Sie, um offline zu lesen
LA NARRAZIONE DELLA SICUREZZA
NELL’ERA DELLA POST TRUTH SOCIETy
Definizione di Post Truth Society
L’Oxford English Dictionary, nel 2016,
ha eletto parola dell’anno “Post-Truth”,
post-verità.
La Post Truth Society è una società
in cui la verità è relativa a circostanze
in cui i fatti oggettivi sono meno
influenti nel formare l’opinione pubblica
del ricorso alle emozioni e alle credenze
personali.
Credulità collettiva
Già a fine degli anni Trenta, il
radiodramma della Guerra dei Mondi di
Orson Wells, dimostrò la credulità
collettiva e l’ingenuità del pubblico.
Nel secolo di Internet, della società
aperta, del flusso di informazioni h24,
la possibilità di accedere senza
mediazioni a qualsiasi contenuto aumenta
in modo esponenziale i rischi di
condizionamento dell’opinione pubblica.
La fruizione autonoma dei contenuti
e l’accesso alle informazioni, svincolato
dalla logica top-down e dalle logiche
di intermediazione del passato, ha
comportato una evoluzione dei meccanismi
di influenza sociale e ha generato
comportamenti, da parte degli utenti,
sempre più funzionali alle logiche
di personalizzazione, basata su codici
e algoritmi di tracciamento destinati
ad accertare i precedenti e le preferenze
di ogni utente.
Internet e l’accelerazione
verso la disintermediazione TOTALE
NETWORK SOCIETY
Per Castells (La nascita della società in
rete, 2002) le reti costituiscono la nuova
morfologia sociale delle nostre società e
la diffusione della logica di rete
modifica le operazioni e i risultati dei
processi di produzione, esperienza, potere
e cultura.
Internet è la trama delle nostre vite.
Viviamo in un mondo strettamente connesso
in una molteplicità di reti di cui
Internet non è che la manifestazione più
evidente.
TRANSMEDIALITÀ
MULTIMEDIA CROSSMEDIA TRANSMEDIA
TRANSMEDIA > lo spazio di convergenza tra ambienti mediali.
E' qui che si generano l'infosfera e la semiosfera, entro cui si collocano
i tempi e i luoghi delle narrazioni contemporanee.
Uno spazio in cui si fonde l'esperienza tra autore e fruitore, dove produzione
e consumo scambiano i propri ruoli, generando immaginari interconnessi.
MASS SELF COMMUNICATION
L’utente è al centro dell’infosfera;
si orienta con disinvoltura negli
ambienti mediatici; attinge da questi
sulla base delle proprie esperienze;
compone i propri palinsesti personali;
sceglie i contenuti sulla base
del proprio interesse; produce nuovi
e inediti contenuti da veicolare
costruendo narrazioni interconnesse.
(Castells “Comunicazione e Potere –
2009)
CRITICITÀ DELLA RETE
► Polarizzazione e frammentazione
► Information Overload
► Emotional sharing e contagio emotivo
POLARIZZAZIONE E FRAMMENTAZIONE
Internet è un terreno per le opinioni
polarizzate e utenti tendenti
all’estremo.
Le discussioni on line tendono
a svolgersi in camere di risonanza
(echo chambers), dove accedono quasi
esclusivamente individui con le stesse
opinioni che, consapevolmente o meno,
si sottraggono al confronto con chi la
pensa in modo diverso.
INFORMATION OVERLOAD
L’Information overload non è solo
l’effetto della moltiplicazione
dei messaggi, ma anche la conseguenza
del fallimento dei filtri
dell’informazione.
L’informazione consuma attenzione.
Passaggio dall’era dell’Informazione
all’era dell’accumulo.
Emotional sharing e contagio emotivo
L’emotional sharing (la condivisione
emotiva) determina lo spazio pubblico
trasformato in opinione emotiva.
L’opinione pubblica lascia il passo
all’opinione emotiva, generata
da immaginari a loro volta derivati
dalla polarizzazione del sentimento
(mi piace / non mi piace).
MAPPA DELL’INFLUENZA SOCIALE
INFLUENZA
SOCIALE
INFLUENCERS
MODELLO
PILASTRI
TREND IN ATTO
MASS SELF COMMUNICATION
MASS MEDIA
SOCIAL
MEDIA
INTERAZIONI PERSONALI
RETI DI PARI
GIORNALISTI
ANALISTI
BLOGGERS
TWITTERS
ESPERTI
CELEBRITÀ
GRANDEZZA
NETWORK
CAPACITÀ DI REACH
RILEVANZA/
AMPLIFICAZIONE
FIDUCIA
CREDIBILITÀ
SALIENZA
MEME DESIGN
COMPETENZA
PERTINENZA
FEDELTÀ
NARRATIVA
PADRONEGGIARE
L’AGENDA
CONVOCARE
INTERSSARE
ABBREVIARE
LEGITTIMARE
INFERIRE
CREDIBILIZZARE
FACILITARE
MOLLARE LA PRESA
MECCANISMI
RADIO
TV
gIORNALI
RETI DI PARI
MAIL
PHONE
CHAT/MSG APP
SOCIAL
NETWORKBLOG
MOTORI
DI RICERCA
SOCIAL
DISINTERMEDIAZIONE
POLARIZZAZIONE
FIDUCIA NEI PARI
ECHO CHAMBER
FRAMMENTAZIONE
DECLINO IMPATTO DELLA PUBBLICITÀ
Conspiracy Theories
La Rete è stato il vettore più potente
per la diffusione delle teorie
cospirazioniste, perché incoraggia
alla superficialità di analisi,
inibisce la critica, raccoglie e convoglia
dati in modo indiscriminato, propaga
notizie innescando una ripetizione
che è in se stessa persuasiva, sfruttando
il meccanismo dell’ipse dixit,
ed è un terreno fertile per tutte
le tecniche di distorsione della verità
messe a disposizione dal linguaggio.
Misinformation
Il World Economic Forum, nel 2013,
ha inserito la disinformazione digitale
nella lista dei “rischi globali”:
capace di avere risvolti politici,
geopolitici e, perfino, terroristici.
I social network sono il terreno
di coltura e di diffusione perfetta
del virus della disinformazione,
con conseguenze che vanno ben al di là
del recinto del mondo digitale.
Iperrealtà
Le nuove tecnologie rendono
intercambiabili falso e vero, almeno
a livello percettivo.
L’inflazione di una apparente verità
frutto di simulazione priva la verità
del suo aspetto sacrale.
Oggi la comunicazione può essere
contraddittoria, senza per questo
scandalizzare il suo uditorio.
La nostra attenzione è liquida ed essa
funziona anche come forma di censura
e rimozione.
SLEEPER EFFECT E CONSENSO SOCIALE
Tuttavia, anche fonti inaffidabili possono
influenzare le persone, soprattutto perché
nel tempo può affermarsi il
cosiddetto sleeper effect.
Ovvero: si ricorda l'informazione, ma si
dimentica la fonte dalla quale proveniva.
conta anche il consenso sociale che si
crea attorno a una notizia. Così, se la
maggioranza dubita, allora i meccanismi
cognitivi di critica e valutazione
scattano.
Il debunking funziona?
I risultati dello studio "Science vs
Conspiracy" dell'Università di Lucca,
mostrano l’esistenza di una relazione
tra “beliefs in conspiracy theories
and the need for cognitive closure”
ovvero i complottisti sono più propensi
a credere solo a quello che sanno già
e che conferma il loro modo molto
semplice e manicheo di vedere la realtà
circostante.
Ad essere diffuse continuano a essere
le bufale e non il debunking.
Come è stato rilevato fin dagli esordi
della rivoluzione digitale, i nuovi media
possono facilitare un vasto insieme
di attività, incluse quelle
di propaganda, influenza, deception
e guerra informativa.
Propaganda, influenza, deception
e guerra informativa
SOFT power e social media
Gli ambienti mediatici sono ambienti
narratologici. L'architettura peculiare
di ogni ambiente mediatico produce
una proprio vettore narrativo al cui
interno agiscono i propri algoritmi.
È qui che si produce il softpower:
la capacità di influenzare, persuadere
ed indirizzare gli utenti che quelli
ambienti popolano, facendogli credere
di poter scegliere liberamente
senza alcuna costrizione apparente.
La riflessione in merito all’impatto
delle nuove tecnologie sulle attività
di IO/IW ha riscontrato come le
possibilità di manipolazione informativa
e psicologica siano destinate a crescere
parallelamente al perfezionamento
e alla diffusione dei media interattivi.
I social network e i social media
come strumenti efficaci di IO/IW
Trolling, botnet e astroturfing
Il recente ricorso al termine trolling
introduce il paragone ad altre dinamiche,
tecnologie e concetti, quali i bot o
l’astroturfing. Il primo consiste in
sistemi automatizzati che replicano le
azioni umane nel cyberspazio, il secondo
nella simulazione di un diffuso supporto
pubblico per un prodotto, un personaggio,
una politica creando una realtà fittizia
che influisce sulla comprensione di
contesti e avvenimenti.
Colonizzare l’immaginario di qualcuno
significa intervenire sui processi
della sua immaginazione al fine
di renderli compatibili con quelli che
caratterizzano l’immaginario istituito
del soggetto colonizzatore attraverso
la cancellazione della memoria, i sistemi
dei segni, i patrimoni di significati,
di stereotipi rappresentativi di immagini,
sia del presente che del passato
e l’imposizione di nuovi segni, di nuove
immagini e di una nuova lingua.
Colonizzazione/decolonizzazione
dell’immaginario
Dispositivi di attrazione
Quattro sono i dispositivi di attrazione:
- il mito della trasparenza;
- la realtà aumentata;
- l’espansione di sociabilità;
- l’attrazione della gratuità.
Dispositivi di distrazione
Due sono i dispositivi di distrazione:
- l’incanto: associazione ad immagini
rinforzanti positive, cancellazione delle
immagini negative;
-la successione dei modelli, ovvero la
catena delle attese (desiderio alienato).
Sorveglianza strategica
La sorveglianza strategica significa
monitorare e intercettare tutti.
Ma la tecnologia è intrinsecamente tanto
complessa e il suo uso pratico tanto
segreto che non potrà mai esserci una
significativa supervisione.
ESEMPIO
Fotografia
Sorveglianza SPECIFICA
La sorveglianza ha un obiettivo
circoscritto e il suo scopo consiste nel
mettere a nudo ogni possibile connessione
con persone, gruppi o istituzioni,
e intervenire per disarticolarlo.
Aspetti della sorveglianza specifica sono
i leaks, ovvero la diffusione
di documenti secretati, e il whisteblower,
ovvero la pratica di “spifferare”,
denunciare condotte sociali rimanendo
protetti da dispositivi informatici
che garantiscono l’anonimato virtuale.
ESEMPIO
Fotografia
Filtraggio e censura
Ispezionare e monitorare le informazioni
che circolano sui siti interni e
stranieri (filtraggio) e rifiutare
l’accesso ai siti web che diffondevano
informazioni pericolose e tutelare gli
utenti dagli effetti negativi di tali
informazioni (censura) sono due
implicazioni della sorveglianza operativa
sulle informazioni che circolano in Rete.
ESEMPIO
Fotografia
Information operations basate sul web
I social network possono rivelarsi
efficaci strumenti di IO/IW e sono ormai
entrati nel bagaglio degli attrezzi
impiegati dalle forze armate accanto
ai tradizionali strumenti per le attività
di propaganda, influenza e deception.
Possiamo classificare le information
operations basate sul Web:
-dalla dissuasione alla protezione,
-dalla prevenzione alla negazione,
-dalla divulgazione alla manipolazione.
Diminish
Definizione: fare in modo che notizia appaia
meno importante o che abbia meno visibilità.
Ridurre l’efficacia di un’attività (azione)
(Questa modalità è simile al degradare, senza
gravi implicazioni).
Una modalità tradizionale per sminuire
l’impatto dell’informazione che raggiunge
l’interesse di qualcuno è diffondere “smentite”
e denigrazioni nel web.
ESEMPI
§ Diffondere smentite e denigrazioni attraverso
il web per diminuire l'impatto delle
informazioni che minacciano i propri
interessi.
§ Uso dei social media per diminuire
l’importanza e la portata degli eventi.
Expose
Definizione: far conoscere o rendere visibile
al pubblico. Rendere visibile, rivelare
qualcosa di indesiderabile o ingiurioso.
L’esposizione al pubblico non ha bisogno di
essere accurata per diffondersi e produrre un
effetto. False immagini o immagini manipolate
possono essere diffuse in Internet.
Scambio di email o altra corrispondenza
(captata illegalmente) è stata fatta trapelare
per screditare leaders dell’opposizione.
ESEMPI
§ Immagini false o manipolate possono essere
diffuse su Internet, per esempio prendendo i
corpi dei soldati uccisi e riorganizzandoli
da far sembrare civili massacrati.
§ Pubblicazione dello scambio di e-mail e di
altra corrispondenza privata (raccolta
illegalmente) nelle elezioni Duma 2011 ed Usa
2016. Caso del mese di marzo 2017, operazione
“white elmets” in Siria per screditare Assad.
Influence
Definizione: causare un cambiamento nel
carattere, nel pensiero, nell’azione di una
particolare entità.
L’avvento dei social media apre nuove strade
alla creazione di influenza.
Quando le attività di influenza sono coordinate
o organizzate in larga scala danno la falsa
impressione che un ampio e radicato movimento
stia dietro ad alcune opinioni. L’influenza
tramite i sociale media si può anche ottenere
utilizzando fake users denominati sock puppetry
(calzino fantoccio) .
ESEMPI – PARTE 1
§ Le "discussioni guidate" nelle chat, nei
servizi di messaggistica istantanea e nei
forum sono progettate per influenzare i
cittadini.
§ L’astroturfing sui social media attraverso
socket puppets e botnet per la gestione della
percezione nelle conversazioni e nelle
interazioni.
ESEMPI – PARTE 2
§ La propaganda non sofisticata può
incoraggiare i propri seguaci. Es. Assad e i
suoi sostenitori, durante il conflitto, hanno
diffuso video su Youtube in cui annunciano
che Al Jazeera è sconfitta.
§ La distribuzione di messaggi con un ambigue
(grigie) o addirittura false (nere)fonti è un
modo per influenzare opinioni.
§ I "siti web civetta" unbranded sono un modo
per fare propaganda più efficace.
Inform
Definizione: impartire (diffondere) informazione
o conoscenza.
L’informazione può essere diffusa tramite siti
appositi o Twitter. I social media, inclusi
Facebook, Twitter per aumentano la capacità di
comunicazione di emergenza di un Governo in un
prestabilito dominio.
Youtube è un altro vettore per l’informazione
governativa. In molti Paesi i Governi stanno
utilizzando gli open data per promuovere
trasparenza, innovazione ed efficienza, tramite
numerosi dataset ottenibili (visibili) online.
ESEMPI
§ Per la lotta al terrorismo possono essere
utilizzati siti web dedicati e Twitter
(Dipartimento di Stato USA).Facebook,
Twitter, ecc. possono essere migliorati
per migliorare la comunicazione di emergenza
dei Governi ad esempio in caso di naturali
disastri è un'area di ricerca istituito.
§ YouTube è un altro vettore di informazione
del Governo, utilizzato per ad esempio da
parte dell'Ufficio degli Stati Uniti National
Drug Control Policy (ONDCP), per la guerra
contro il traffico di droga.
Prevent
Definizione: Privare della speranza o del
potere di avere successo.
I governi, in particolari quelli autoritari,
hanno a loro disposizione diversi strumenti per
imporre ostacoli all’accesso, incluse barriere
economiche e infrastrutturali all’accesso alla
rete; o bloccare specifiche applicazioni e
tecnologie; o imporre norme e controlli sugli
ISP. Un altro modo, conosciuto come Belarus è
di rendere lenta la connessione Internet in
modo da rendere difficile o impossibile
l’utilizzo.
ESEMPI – PARTE 1
§ L'utilizzo degli user-feedback attraverso cui
vengono segnalati contenuti come offensivi
per ottenere di liberarsi di materiale
indesiderato. Una variante del meccanismo
degli user-feedback è la segnalazione dei
siti a Google come infettati da malware.
§ L'infiltrazione nelle mailing list, nei forum
e nei gruppi di discussione dei dissidenti e
degli antagonisti per inviare falsi messaggi,
diffondere disinformazione e creazione di
conflitti tra i gruppi (trolling).
ESEMPI – PARTE 2
§ Gli user-feedback sono utilizzati
per segnalare i contenuti di interesse come
offensivi ottenendo la rimozione del
materiale indesiderato. Una variante è la
segnalazione dei siti a Google come infettati
da malware.
§ L'infiltrazione nelle mailing list, nei forum
e nei gruppi di discussione dei dissidenti e
degli antagonisti per inviare falsi messaggi,
diffondere disinformazione e creazione di
conflitti tra i gruppi (trolling).
Protect, Safeguard
Definizione: coprire o difendere dalla
propaganda (esposizione), danni o distruzione.
Tenere al sicuro da attacchi, aggressioni o
sfruttamento. Mantenere lo stato di integrità.
Compiere un’azione di salvaguardia contro lo
spionaggio o la fuga di materiale o
informazioni sensibili. Un modo che i governi
hanno per mantenere lo status quo di
superiorità informativa è quello di immettere e
aumentare la quantità di “voci” alternative per
aumentare il livello di “rumore”
(chiacchiericcio, disturbo).
ESEMPI
§ I lealisti di Assad hanno applicato una
simile tattica inondando e riempiendo i
Facebookwalls dei ribelli denigrandoli e
commentandoli negativamente. Con l'utilizzo
di bot hanno inondato l'hashtag Twitter
#Syria con informazioni irrilevanti e
tagliare fuori l'opposizione.
Negate, Neutralize
Definizione: rendere inefficace, non valida, non
utilizzabile una particolare task o funzione.
Contrastare l’attività o l’effetto di.
Molti governi nel mondo sono deprecati per
imporre limiti ai contenuti, bloccare o filtrare
i siti e altre forme di censura, inclusa
l’autocensura e la manipolazione.
Le opinione indesiderate possono essere
contrastate anche in Internet. L’hackeraggio è
uno dei modi più efficaci per contrastare
i contenuti indesiderati.
ESEMPI – PARTE 1
§ Diversi Governi di tutto il mondo sono
diventati tristemente noti per l'imposizione
di quella che Freedom House chiama limite sul
contenuto, ovvero: filtraggio e blocco IP di
siti web, autocensura e la manipolazione dei
contenuti. Un esempio semplice è il blocco
che la Corea del Sud ha imposto ai siti web
della Corea del Nord, tra cui l’account
istituzionale Twitter.
ESEMPI – PARTE 2
§ Tale controllo dei contenuti può avvenire su
quattro diversi livelli: (1) la spina dorsale
di Internet, (2) il fornitore del servizio
Internet (ISP), (3) il livello istituzionale
(università, agenzie governative, scuole,
ecc) e (4) il computer dell'utente finale
mediante programmi di filtraggio.
§ Un’altra strategia più diretta è quella di
bloccare gli indirizzi IP URL.
Shape
Definizione: determinare o dirigere il corso
degli eventi. Modificare il comportamento in
funzione dei cambiamenti che si vogliono
ottenere per indirizzarli verso una direzione.
Fare in modo di conformarsi (adeguarsi) a una
particolare forma o modello. Un’importante
modalità di dare forma alle percezioni (e così
al comportamento) è la manipolazione dei
risultati di ricerca. Un modo simile di
influenzare la conoscenza delle persone è l’uso
strategico dell’editing su Wikipedia.
ESEMPI
§ Ad es. in Cina i fornitori dei motori
di ricerca sono costretti a registrare
i risultati della ricerca in base al criteri
fissati dal Governo.
§ Un modo più grezzo per condizionare le
ricerche su certi argomenti è il filtraggio
in base alle parole del URL. Anche i Governi
meno autoritari si preoccuparsi
dell’ottimizzazione dei motori di ricerca
(SEO).
Detect Definition
Definizione: scoprire e capire l’esistenza o
eventi di intrusione nei sistemi di
informazione.
Il phishing di usernames e password agli utenti
di diversi social media sono stati
denunciati/rilevati in Siria e Iran, così come
metodi più sofisticati che riguardano
la falsificazione di certificati SSL.
ESEMPI
§ Casi di phishing, per rubare nomi utente e
password per i social media sono stati
segnalati in Siria e Iran, così come metodi
più sofisticati che coinvolgono certificati
SSL falsi.
§ I funzionari della sicurezza tunisina, sotto
il regime di Ben Ali, facevano regolarmente
irruzione nell’e-mail e negli account social
media degli attivisti dell'opposizione.
Il Governo cinese utilizza una potente
combinazione di phishing e malware
per tracciare l'opposizione tibetana.
Deter
Definizione: mettere in disparte,
scoraggiare, o prevenire un avversario
potenziale o reale o un altro target
di audience che può compiere azioni minacciano
gli interessi della coalizione (collettivi).
E-mail criptate con chiave privata possono
essere usate per scoraggiare alcune azioni.
Un incentivo all’autocensura
è la responsabilità diretta degli ISP
o dei proprietari dei website sui contenuti
pubblicati, anche quelli inseriti da altri.
ESEMPI
§ Nel conflitto del 2012 tra Israele e Hamas,
l'IDF ha usato Twitter, per recapitare i
messaggi sia ai leader di Hamas che ai
giornalisti. Le agenzie governative hanno
messo sotto pressione gli ISP per far
chiudere i siti web 'volontariamente' al fine
di fermare il finanziamento del terrorismo.
L’incentivazione all’autocensura, in cui gli
ISP sono responsabili per tutti i contenuti
compresi quelli scritti da altri, è un’arma
usata da molti Governi.
Promote
Definizione: contribuire alla crescita e al
progresso di, incoraggiare. I media elettronici
possono essere utilizzati per promuovere la
linea politica.
ESEMPI
§ Ideotainment è un termine coniato
da Lagerkvist per descrivere gli sforzi
del Governo cinese per rendere l'ideologia
ufficiale 'cool' agli occhi della nuove
generazioni. Questa ideologia utilizza un
intreccio di immagini, design, musica della
cultura digitale con costrutti, simboli e
messaggi nazionalistici.
McLuhan sostenne che l'architettura del
medium è più importante del contenuto
stesso (messaggio/informazione).
La diffusione di false informazioni è un
problema che si può affrontare soltanto
progettando qualcosa di nuovo.
Occorre un progetto per il discernimento
che serva a valorizzare la qualità.
Elementi di un framework
per la narrazione della sicurezza
Le qualità di un sistema per aiutare le persone
a discernere le notizie documentate e quelle
che informano male sono:
-un design che aiuta a colpo d’occhio a vedere
che cosa è importante e che cosa non lo è;
-un design che aiuta a comprendere quando le
notizie importanti sono finite e non occorre
dedicare altro tempo alle notizie;
-un design che abitua a leggere criticamente
sottolineando i documenti e le fonti delle
notizie;
-un processo metodologicamente noto e condiviso
per il factchecking.
Elementi di un framework
per la sicurezza DELL’INFORMAZIONE
Gestire i fenomeni complessi
Non dobbiamo considerare la complessità
come un ostacolo ma riuscire a trarre
vantaggio dal sistema complesso
che è il framework sicurezza per poterla
gestire al meglio.
Cerchiamo quindi di utilizzare
la complessità come valore e non come
limite.
Si tratta quindi frequentemente di capire
come funziona il sistema e, sulla base
di conoscenza ed esperienza, prendere
decisioni conseguenti.
NON POSSIAMO PIÙ TORNARE INDIETRO
Abbiamo capito che la diffusione di false
informazioni è un problema che si può
affrontare soltanto progettando qualcosa
di nuovo. Nel senso che non si torna
indietro, si può solo andare avanti:
in una società nella quale la classe
dirigente tradizionale e le autorità
culturali tradizionali hanno perso
credibilità, ma in una società nella quale
le nuove piattaforme sono troppo
“algoritmiche” e generano relazioni e
informazioni indistinte e indistinguibili.
BONIFICARE l’ecosistema di informazione
Occorre un progetto per il discernimento
che serva a valorizzare la qualità.
Occorre una teoria, una narrazione, una
forma di sperimentazione per arrivare a
realizzare la prossima grande innovazione.
E occorre la disponibilità a rimettersi
in gioco molte volte fino a che non si
sia riusciti a trovare una soluzione
accettabile. Un progetto per il
discernimento, per la qualità che migliori
la conoscenza, contro la quantità che
genera idee indistinte e indistinguibili.
Quando l’io perde l’opportunità del noi,
tutta la società diventa più debole
e vulnerabile.
Un pensiero ecologico è necessario
ma non potrà mai essere sano
se non accetta la propria follia.*
*Edgard Morin
EDUCARE A un pensiero collettivo complesso,
analitiCo e consapevole
Far uscire le persone dalle Echo Chambers
Oltre allo sforzo educativo di attrezzare
le persone a uscire dalle bolle, ci sarà
bisogno anche di una schiera di rompi-
bolle pazienti e umani che si dedichino
costantemente ricordare la totale
inutilità delle barriere.
Il rompi-bolle è il contrario di un troll
o di un hater.
I rompi-bolle sanno infrangere ciò che
compromette la conversazione (pregiudizi,
categorie preconcette, barriere mentali)
per mantenerla in salute e valorizzarla.
Re-intermediare la conoscenza
Sulle piattaforme sociali, il contenuto
è la relazione: vale la gratificazione
di connettersi e piacersi con il network
di persone simili che ci si trovano
facilmente.
Sulle piattaforme civiche, il valore
è nel metodo con il quale si selezionano
le informazioni: vale l’utilità delle
notizie che vi si diffondono in relazione
a una realtà da conoscere empiricamente.
L’autorevolezza da riconquistare
L’autorevolezza è come il ”coraggio”
del Manzoni: se non ce l’hai nessuno te
la può dare, almeno dal punto di vista
dell’apparire.
Spesso, sono i luoghi lontani dai
riflettori, dove ci sono problemi
da risolvere, battaglie da affrontare,
diritti da difendere, deboli da
soccorrere. Nei luoghi della fragilità
e della sofferenza o nello studio, nella
applicazione costante, nell’esercizio
onesto di una funzione pubblica.
LA NARRAZIONE DELLA SICUREZZA NELL’ERA DELLA POST TRUTH SOCIETY
RIFERIMENTI:
► RICERCA INFOSFERA ITALIANA 2016, UNIVERSITÀ SUOR ORSOLA BENINCASA // CENTRO STUDI DEMOCRAZIE
DIGITALI
► U. Franke, Information operations on the Internet. A catalog of modi operandi, Swedish Defence
Research Agency (FOI), March 2013.
► World Economic Forum, Global Risks 2013 Report, Cologny/Geneva, 2013, p. 47, pp. 25-26.
► K. Giles, Russia’s ‘New’ Tools for Confronting the West Continuity and Innovation in Moscow’s
Exercise of Power, Chatham House, March 2016, p. 46.
► T. E. Nissen, The Weaponization of Social Media. Characteristics of Contemporary Conflicts, Danish
Defence College, March 2015.
► W. Quattrociocchi , A. Vicini, Misinformation. Guida alla società dell'informazione e della
credulità, Neo - Franco Angeli, 2016

Weitere ähnliche Inhalte

Was ist angesagt?

The Big Conversation
The Big ConversationThe Big Conversation
The Big Conversationeugenio iorio
 
Agire influenza nella società delle reti
Agire influenza nella società delle reti Agire influenza nella società delle reti
Agire influenza nella società delle reti eugenio iorio
 
Infosfera italiana 2016
Infosfera italiana 2016Infosfera italiana 2016
Infosfera italiana 2016eugenio iorio
 
SNA e Scienza delle Reti
SNA e Scienza delle RetiSNA e Scienza delle Reti
SNA e Scienza delle Retieugenio iorio
 
Teoria dei frame, i facts e i luoghi comuni
Teoria dei frame, i facts e i luoghi comuniTeoria dei frame, i facts e i luoghi comuni
Teoria dei frame, i facts e i luoghi comunieugenio iorio
 
Costruire immaginari
Costruire immaginariCostruire immaginari
Costruire immaginarieugenio iorio
 
Frame analysis e analisi delle fonti
Frame analysis e analisi delle fontiFrame analysis e analisi delle fonti
Frame analysis e analisi delle fontieugenio iorio
 
01 Antropologia Digitale.pptx
01 Antropologia Digitale.pptx01 Antropologia Digitale.pptx
01 Antropologia Digitale.pptxpattypatalina
 
Technological Determinism
Technological DeterminismTechnological Determinism
Technological DeterminismYasmin Hussain
 
Les Fake News, nouveau visage de la desinformation
Les Fake News, nouveau visage de la desinformationLes Fake News, nouveau visage de la desinformation
Les Fake News, nouveau visage de la desinformationwallace04
 
Reseaux-sociaux-et-strategies-de-communication-des-annonceurs vf3
 Reseaux-sociaux-et-strategies-de-communication-des-annonceurs vf3 Reseaux-sociaux-et-strategies-de-communication-des-annonceurs vf3
Reseaux-sociaux-et-strategies-de-communication-des-annonceurs vf3maussas
 
La construcción del acontecimiento
La construcción del acontecimientoLa construcción del acontecimiento
La construcción del acontecimientoDaniela Escobar
 
Spiral of silence
Spiral of silenceSpiral of silence
Spiral of silenceAmeeza Zia
 
Los nuevos medios, según lev manovich
Los nuevos medios, según lev manovichLos nuevos medios, según lev manovich
Los nuevos medios, según lev manovichFrancisco Máiquez
 
Spiral of silence tip
Spiral of silence tipSpiral of silence tip
Spiral of silence tipcahillk2
 
The Wave of the Future: Understanding Marshall McLuhan
The Wave of the Future: Understanding Marshall McLuhanThe Wave of the Future: Understanding Marshall McLuhan
The Wave of the Future: Understanding Marshall McLuhanPaul Schumann
 
Cours #3 Théorie liés aux réseaux sociaux et modèles économiques de l'Internet
Cours #3 Théorie liés aux réseaux sociaux et modèles économiques de l'InternetCours #3 Théorie liés aux réseaux sociaux et modèles économiques de l'Internet
Cours #3 Théorie liés aux réseaux sociaux et modèles économiques de l'InternetAlexandre Moussier
 

Was ist angesagt? (20)

The Big Conversation
The Big ConversationThe Big Conversation
The Big Conversation
 
Agire influenza nella società delle reti
Agire influenza nella società delle reti Agire influenza nella società delle reti
Agire influenza nella società delle reti
 
Influenza sociale
Influenza socialeInfluenza sociale
Influenza sociale
 
Infosfera italiana 2016
Infosfera italiana 2016Infosfera italiana 2016
Infosfera italiana 2016
 
SNA e Scienza delle Reti
SNA e Scienza delle RetiSNA e Scienza delle Reti
SNA e Scienza delle Reti
 
Teoria dei frame, i facts e i luoghi comuni
Teoria dei frame, i facts e i luoghi comuniTeoria dei frame, i facts e i luoghi comuni
Teoria dei frame, i facts e i luoghi comuni
 
Costruire immaginari
Costruire immaginariCostruire immaginari
Costruire immaginari
 
Frame analysis e analisi delle fonti
Frame analysis e analisi delle fontiFrame analysis e analisi delle fonti
Frame analysis e analisi delle fonti
 
01 Antropologia Digitale.pptx
01 Antropologia Digitale.pptx01 Antropologia Digitale.pptx
01 Antropologia Digitale.pptx
 
Teoria de la comunicacion
Teoria de la comunicacionTeoria de la comunicacion
Teoria de la comunicacion
 
Technological Determinism
Technological DeterminismTechnological Determinism
Technological Determinism
 
Les Fake News, nouveau visage de la desinformation
Les Fake News, nouveau visage de la desinformationLes Fake News, nouveau visage de la desinformation
Les Fake News, nouveau visage de la desinformation
 
Reseaux-sociaux-et-strategies-de-communication-des-annonceurs vf3
 Reseaux-sociaux-et-strategies-de-communication-des-annonceurs vf3 Reseaux-sociaux-et-strategies-de-communication-des-annonceurs vf3
Reseaux-sociaux-et-strategies-de-communication-des-annonceurs vf3
 
Spiral of Silence
Spiral of SilenceSpiral of Silence
Spiral of Silence
 
La construcción del acontecimiento
La construcción del acontecimientoLa construcción del acontecimiento
La construcción del acontecimiento
 
Spiral of silence
Spiral of silenceSpiral of silence
Spiral of silence
 
Los nuevos medios, según lev manovich
Los nuevos medios, según lev manovichLos nuevos medios, según lev manovich
Los nuevos medios, según lev manovich
 
Spiral of silence tip
Spiral of silence tipSpiral of silence tip
Spiral of silence tip
 
The Wave of the Future: Understanding Marshall McLuhan
The Wave of the Future: Understanding Marshall McLuhanThe Wave of the Future: Understanding Marshall McLuhan
The Wave of the Future: Understanding Marshall McLuhan
 
Cours #3 Théorie liés aux réseaux sociaux et modèles économiques de l'Internet
Cours #3 Théorie liés aux réseaux sociaux et modèles économiques de l'InternetCours #3 Théorie liés aux réseaux sociaux et modèles économiques de l'Internet
Cours #3 Théorie liés aux réseaux sociaux et modèles économiques de l'Internet
 

Andere mochten auch

Astroturfing
AstroturfingAstroturfing
Astroturfingjkly88
 
Elementi di comunicazione di base
Elementi di comunicazione di baseElementi di comunicazione di base
Elementi di comunicazione di baseeugenio iorio
 
Costruire immaginari
Costruire immaginariCostruire immaginari
Costruire immaginarieugenio iorio
 
Storia della comunicazione pubblica in Italia
Storia della comunicazione pubblica in ItaliaStoria della comunicazione pubblica in Italia
Storia della comunicazione pubblica in Italiaeugenio iorio
 
You never use this shampoo. Deception, emotional sharing e influenza sociale.
You never use this shampoo. Deception, emotional sharing e influenza sociale.You never use this shampoo. Deception, emotional sharing e influenza sociale.
You never use this shampoo. Deception, emotional sharing e influenza sociale.eugenio iorio
 
Gestire la reputazione online e creare un network di professionisti
Gestire la reputazione online e creare un network di professionistiGestire la reputazione online e creare un network di professionisti
Gestire la reputazione online e creare un network di professionistieugenio iorio
 
Analisi del potere di narrazione con la frame analysis
Analisi del potere di narrazione con la frame analysisAnalisi del potere di narrazione con la frame analysis
Analisi del potere di narrazione con la frame analysiseugenio iorio
 
Smart Cities e il diritto alla sicurezza e alla privacy
Smart Cities e il diritto alla sicurezza e alla privacySmart Cities e il diritto alla sicurezza e alla privacy
Smart Cities e il diritto alla sicurezza e alla privacyeugenio iorio
 

Andere mochten auch (9)

Astroturfing
AstroturfingAstroturfing
Astroturfing
 
Elementi di comunicazione di base
Elementi di comunicazione di baseElementi di comunicazione di base
Elementi di comunicazione di base
 
Costruire immaginari
Costruire immaginariCostruire immaginari
Costruire immaginari
 
Storia della comunicazione pubblica in Italia
Storia della comunicazione pubblica in ItaliaStoria della comunicazione pubblica in Italia
Storia della comunicazione pubblica in Italia
 
You never use this shampoo. Deception, emotional sharing e influenza sociale.
You never use this shampoo. Deception, emotional sharing e influenza sociale.You never use this shampoo. Deception, emotional sharing e influenza sociale.
You never use this shampoo. Deception, emotional sharing e influenza sociale.
 
Tu sei brand
Tu sei brandTu sei brand
Tu sei brand
 
Gestire la reputazione online e creare un network di professionisti
Gestire la reputazione online e creare un network di professionistiGestire la reputazione online e creare un network di professionisti
Gestire la reputazione online e creare un network di professionisti
 
Analisi del potere di narrazione con la frame analysis
Analisi del potere di narrazione con la frame analysisAnalisi del potere di narrazione con la frame analysis
Analisi del potere di narrazione con la frame analysis
 
Smart Cities e il diritto alla sicurezza e alla privacy
Smart Cities e il diritto alla sicurezza e alla privacySmart Cities e il diritto alla sicurezza e alla privacy
Smart Cities e il diritto alla sicurezza e alla privacy
 

Ähnlich wie La narrazione della sicurezza nell'era della post truth society

Informazione nell'era digitale
Informazione nell'era digitaleInformazione nell'era digitale
Informazione nell'era digitaleAlessandra Rucci
 
Cybercultura
CyberculturaCybercultura
Cyberculturafiloan
 
Larivoluzionedigitaleiulmferri 090317041052 Phpapp02
Larivoluzionedigitaleiulmferri 090317041052 Phpapp02Larivoluzionedigitaleiulmferri 090317041052 Phpapp02
Larivoluzionedigitaleiulmferri 090317041052 Phpapp02Universita' di Bari
 
La Rivoluzione Digitale - IULM - Paolo Ferri
La Rivoluzione Digitale - IULM - Paolo FerriLa Rivoluzione Digitale - IULM - Paolo Ferri
La Rivoluzione Digitale - IULM - Paolo FerriSocial Media Lab
 
Sociologia dei media presentazione
Sociologia dei media   presentazioneSociologia dei media   presentazione
Sociologia dei media presentazioneDario Del Vecchio
 
Fonti informative digitali 2014
Fonti informative digitali 2014Fonti informative digitali 2014
Fonti informative digitali 2014Giovanni Ferretti
 
Ha ancora senso parlare di pubblico?
Ha ancora senso parlare di pubblico?Ha ancora senso parlare di pubblico?
Ha ancora senso parlare di pubblico?sociologianuovimedia
 
Tec media michelerinaldi
Tec media michelerinaldiTec media michelerinaldi
Tec media michelerinaldiMichele Rinaldi
 
Tec Media Michele Rinaldi
Tec Media Michele RinaldiTec Media Michele Rinaldi
Tec Media Michele RinaldiMichele Rinaldi
 
Quando informarsi non basta: Fatti e opinioni all'epoca della complessità
Quando informarsi non basta: Fatti e opinioni all'epoca della complessitàQuando informarsi non basta: Fatti e opinioni all'epoca della complessità
Quando informarsi non basta: Fatti e opinioni all'epoca della complessitàAnna Galluzzi
 
Jannis.Identità in rete
Jannis.Identità in reteJannis.Identità in rete
Jannis.Identità in reteGiorgio Jannis
 
Cultura convergente_ H.Jenkins
Cultura convergente_ H.JenkinsCultura convergente_ H.Jenkins
Cultura convergente_ H.Jenkinsalessandra bianca
 
“Comunita' Virtuali”, Internet come nuovo mass-media e metodo maieutico
“Comunita' Virtuali”, Internet come nuovo mass-media e metodo maieutico“Comunita' Virtuali”, Internet come nuovo mass-media e metodo maieutico
“Comunita' Virtuali”, Internet come nuovo mass-media e metodo maieuticoCarlo Gubitosa
 
R. Villano - Aspetti filosofici, morali ed esistenziali delle nuove tecnologi...
R. Villano - Aspetti filosofici, morali ed esistenziali delle nuove tecnologi...R. Villano - Aspetti filosofici, morali ed esistenziali delle nuove tecnologi...
R. Villano - Aspetti filosofici, morali ed esistenziali delle nuove tecnologi...Raimondo Villano
 
Manuale di didattica multimediale
Manuale di didattica multimedialeManuale di didattica multimediale
Manuale di didattica multimedialeAlessandro Capra
 

Ähnlich wie La narrazione della sicurezza nell'era della post truth society (20)

Informazione nell'era digitale
Informazione nell'era digitaleInformazione nell'era digitale
Informazione nell'era digitale
 
Cybercultura
CyberculturaCybercultura
Cybercultura
 
Larivoluzionedigitaleiulmferri 090317041052 Phpapp02
Larivoluzionedigitaleiulmferri 090317041052 Phpapp02Larivoluzionedigitaleiulmferri 090317041052 Phpapp02
Larivoluzionedigitaleiulmferri 090317041052 Phpapp02
 
La Rivoluzione Digitale - IULM - Paolo Ferri
La Rivoluzione Digitale - IULM - Paolo FerriLa Rivoluzione Digitale - IULM - Paolo Ferri
La Rivoluzione Digitale - IULM - Paolo Ferri
 
Opinioni 2.0
Opinioni 2.0Opinioni 2.0
Opinioni 2.0
 
Sociologia dei media presentazione
Sociologia dei media   presentazioneSociologia dei media   presentazione
Sociologia dei media presentazione
 
L'era delle psicotecnologie
L'era delle psicotecnologieL'era delle psicotecnologie
L'era delle psicotecnologie
 
Fonti informative digitali 2014
Fonti informative digitali 2014Fonti informative digitali 2014
Fonti informative digitali 2014
 
Le bugie hanno le gambe corte
Le bugie hanno le gambe corteLe bugie hanno le gambe corte
Le bugie hanno le gambe corte
 
Le bugie hanno le gambe corte
Le bugie hanno le gambe corteLe bugie hanno le gambe corte
Le bugie hanno le gambe corte
 
Ha ancora senso parlare di pubblico?
Ha ancora senso parlare di pubblico?Ha ancora senso parlare di pubblico?
Ha ancora senso parlare di pubblico?
 
Tec media michelerinaldi
Tec media michelerinaldiTec media michelerinaldi
Tec media michelerinaldi
 
Tec Media Michele Rinaldi
Tec Media Michele RinaldiTec Media Michele Rinaldi
Tec Media Michele Rinaldi
 
Quando informarsi non basta: Fatti e opinioni all'epoca della complessità
Quando informarsi non basta: Fatti e opinioni all'epoca della complessitàQuando informarsi non basta: Fatti e opinioni all'epoca della complessità
Quando informarsi non basta: Fatti e opinioni all'epoca della complessità
 
Jannis.Identità in rete
Jannis.Identità in reteJannis.Identità in rete
Jannis.Identità in rete
 
Jenkins
JenkinsJenkins
Jenkins
 
Cultura convergente_ H.Jenkins
Cultura convergente_ H.JenkinsCultura convergente_ H.Jenkins
Cultura convergente_ H.Jenkins
 
“Comunita' Virtuali”, Internet come nuovo mass-media e metodo maieutico
“Comunita' Virtuali”, Internet come nuovo mass-media e metodo maieutico“Comunita' Virtuali”, Internet come nuovo mass-media e metodo maieutico
“Comunita' Virtuali”, Internet come nuovo mass-media e metodo maieutico
 
R. Villano - Aspetti filosofici, morali ed esistenziali delle nuove tecnologi...
R. Villano - Aspetti filosofici, morali ed esistenziali delle nuove tecnologi...R. Villano - Aspetti filosofici, morali ed esistenziali delle nuove tecnologi...
R. Villano - Aspetti filosofici, morali ed esistenziali delle nuove tecnologi...
 
Manuale di didattica multimediale
Manuale di didattica multimedialeManuale di didattica multimediale
Manuale di didattica multimediale
 

Mehr von eugenio iorio

La reputazione e la gestione della percezione nell'era della condivisione emo...
La reputazione e la gestione della percezione nell'era della condivisione emo...La reputazione e la gestione della percezione nell'era della condivisione emo...
La reputazione e la gestione della percezione nell'era della condivisione emo...eugenio iorio
 
Corporate reputation e influenza sociale nel Social Media Pharma
Corporate reputation e influenza sociale nel Social Media PharmaCorporate reputation e influenza sociale nel Social Media Pharma
Corporate reputation e influenza sociale nel Social Media Pharmaeugenio iorio
 
Nessun tempo.nessunluogo
Nessun tempo.nessunluogoNessun tempo.nessunluogo
Nessun tempo.nessunluogoeugenio iorio
 
Piano di marketing / Piano di comunicazione
Piano di marketing / Piano di comunicazionePiano di marketing / Piano di comunicazione
Piano di marketing / Piano di comunicazioneeugenio iorio
 

Mehr von eugenio iorio (7)

La reputazione e la gestione della percezione nell'era della condivisione emo...
La reputazione e la gestione della percezione nell'era della condivisione emo...La reputazione e la gestione della percezione nell'era della condivisione emo...
La reputazione e la gestione della percezione nell'era della condivisione emo...
 
Corporate reputation e influenza sociale nel Social Media Pharma
Corporate reputation e influenza sociale nel Social Media PharmaCorporate reputation e influenza sociale nel Social Media Pharma
Corporate reputation e influenza sociale nel Social Media Pharma
 
Storytelling
StorytellingStorytelling
Storytelling
 
Nessun tempo.nessunluogo
Nessun tempo.nessunluogoNessun tempo.nessunluogo
Nessun tempo.nessunluogo
 
Piano di marketing / Piano di comunicazione
Piano di marketing / Piano di comunicazionePiano di marketing / Piano di comunicazione
Piano di marketing / Piano di comunicazione
 
Infowar game 2.0
Infowar game 2.0Infowar game 2.0
Infowar game 2.0
 
Newsjacking
NewsjackingNewsjacking
Newsjacking
 

La narrazione della sicurezza nell'era della post truth society

  • 1. LA NARRAZIONE DELLA SICUREZZA NELL’ERA DELLA POST TRUTH SOCIETy
  • 2. Definizione di Post Truth Society L’Oxford English Dictionary, nel 2016, ha eletto parola dell’anno “Post-Truth”, post-verità. La Post Truth Society è una società in cui la verità è relativa a circostanze in cui i fatti oggettivi sono meno influenti nel formare l’opinione pubblica del ricorso alle emozioni e alle credenze personali.
  • 3. Credulità collettiva Già a fine degli anni Trenta, il radiodramma della Guerra dei Mondi di Orson Wells, dimostrò la credulità collettiva e l’ingenuità del pubblico. Nel secolo di Internet, della società aperta, del flusso di informazioni h24, la possibilità di accedere senza mediazioni a qualsiasi contenuto aumenta in modo esponenziale i rischi di condizionamento dell’opinione pubblica.
  • 4. La fruizione autonoma dei contenuti e l’accesso alle informazioni, svincolato dalla logica top-down e dalle logiche di intermediazione del passato, ha comportato una evoluzione dei meccanismi di influenza sociale e ha generato comportamenti, da parte degli utenti, sempre più funzionali alle logiche di personalizzazione, basata su codici e algoritmi di tracciamento destinati ad accertare i precedenti e le preferenze di ogni utente. Internet e l’accelerazione verso la disintermediazione TOTALE
  • 5. NETWORK SOCIETY Per Castells (La nascita della società in rete, 2002) le reti costituiscono la nuova morfologia sociale delle nostre società e la diffusione della logica di rete modifica le operazioni e i risultati dei processi di produzione, esperienza, potere e cultura. Internet è la trama delle nostre vite. Viviamo in un mondo strettamente connesso in una molteplicità di reti di cui Internet non è che la manifestazione più evidente.
  • 6.
  • 7.
  • 8. TRANSMEDIALITÀ MULTIMEDIA CROSSMEDIA TRANSMEDIA TRANSMEDIA > lo spazio di convergenza tra ambienti mediali. E' qui che si generano l'infosfera e la semiosfera, entro cui si collocano i tempi e i luoghi delle narrazioni contemporanee. Uno spazio in cui si fonde l'esperienza tra autore e fruitore, dove produzione e consumo scambiano i propri ruoli, generando immaginari interconnessi.
  • 9. MASS SELF COMMUNICATION L’utente è al centro dell’infosfera; si orienta con disinvoltura negli ambienti mediatici; attinge da questi sulla base delle proprie esperienze; compone i propri palinsesti personali; sceglie i contenuti sulla base del proprio interesse; produce nuovi e inediti contenuti da veicolare costruendo narrazioni interconnesse. (Castells “Comunicazione e Potere – 2009)
  • 10. CRITICITÀ DELLA RETE ► Polarizzazione e frammentazione ► Information Overload ► Emotional sharing e contagio emotivo
  • 11. POLARIZZAZIONE E FRAMMENTAZIONE Internet è un terreno per le opinioni polarizzate e utenti tendenti all’estremo. Le discussioni on line tendono a svolgersi in camere di risonanza (echo chambers), dove accedono quasi esclusivamente individui con le stesse opinioni che, consapevolmente o meno, si sottraggono al confronto con chi la pensa in modo diverso.
  • 12. INFORMATION OVERLOAD L’Information overload non è solo l’effetto della moltiplicazione dei messaggi, ma anche la conseguenza del fallimento dei filtri dell’informazione. L’informazione consuma attenzione. Passaggio dall’era dell’Informazione all’era dell’accumulo.
  • 13. Emotional sharing e contagio emotivo L’emotional sharing (la condivisione emotiva) determina lo spazio pubblico trasformato in opinione emotiva. L’opinione pubblica lascia il passo all’opinione emotiva, generata da immaginari a loro volta derivati dalla polarizzazione del sentimento (mi piace / non mi piace).
  • 14. MAPPA DELL’INFLUENZA SOCIALE INFLUENZA SOCIALE INFLUENCERS MODELLO PILASTRI TREND IN ATTO MASS SELF COMMUNICATION MASS MEDIA SOCIAL MEDIA INTERAZIONI PERSONALI RETI DI PARI GIORNALISTI ANALISTI BLOGGERS TWITTERS ESPERTI CELEBRITÀ GRANDEZZA NETWORK CAPACITÀ DI REACH RILEVANZA/ AMPLIFICAZIONE FIDUCIA CREDIBILITÀ SALIENZA MEME DESIGN COMPETENZA PERTINENZA FEDELTÀ NARRATIVA PADRONEGGIARE L’AGENDA CONVOCARE INTERSSARE ABBREVIARE LEGITTIMARE INFERIRE CREDIBILIZZARE FACILITARE MOLLARE LA PRESA MECCANISMI RADIO TV gIORNALI RETI DI PARI MAIL PHONE CHAT/MSG APP SOCIAL NETWORKBLOG MOTORI DI RICERCA SOCIAL DISINTERMEDIAZIONE POLARIZZAZIONE FIDUCIA NEI PARI ECHO CHAMBER FRAMMENTAZIONE DECLINO IMPATTO DELLA PUBBLICITÀ
  • 15.
  • 16. Conspiracy Theories La Rete è stato il vettore più potente per la diffusione delle teorie cospirazioniste, perché incoraggia alla superficialità di analisi, inibisce la critica, raccoglie e convoglia dati in modo indiscriminato, propaga notizie innescando una ripetizione che è in se stessa persuasiva, sfruttando il meccanismo dell’ipse dixit, ed è un terreno fertile per tutte le tecniche di distorsione della verità messe a disposizione dal linguaggio.
  • 17. Misinformation Il World Economic Forum, nel 2013, ha inserito la disinformazione digitale nella lista dei “rischi globali”: capace di avere risvolti politici, geopolitici e, perfino, terroristici. I social network sono il terreno di coltura e di diffusione perfetta del virus della disinformazione, con conseguenze che vanno ben al di là del recinto del mondo digitale.
  • 18. Iperrealtà Le nuove tecnologie rendono intercambiabili falso e vero, almeno a livello percettivo. L’inflazione di una apparente verità frutto di simulazione priva la verità del suo aspetto sacrale. Oggi la comunicazione può essere contraddittoria, senza per questo scandalizzare il suo uditorio. La nostra attenzione è liquida ed essa funziona anche come forma di censura e rimozione.
  • 19. SLEEPER EFFECT E CONSENSO SOCIALE Tuttavia, anche fonti inaffidabili possono influenzare le persone, soprattutto perché nel tempo può affermarsi il cosiddetto sleeper effect. Ovvero: si ricorda l'informazione, ma si dimentica la fonte dalla quale proveniva. conta anche il consenso sociale che si crea attorno a una notizia. Così, se la maggioranza dubita, allora i meccanismi cognitivi di critica e valutazione scattano.
  • 20. Il debunking funziona? I risultati dello studio "Science vs Conspiracy" dell'Università di Lucca, mostrano l’esistenza di una relazione tra “beliefs in conspiracy theories and the need for cognitive closure” ovvero i complottisti sono più propensi a credere solo a quello che sanno già e che conferma il loro modo molto semplice e manicheo di vedere la realtà circostante. Ad essere diffuse continuano a essere le bufale e non il debunking.
  • 21. Come è stato rilevato fin dagli esordi della rivoluzione digitale, i nuovi media possono facilitare un vasto insieme di attività, incluse quelle di propaganda, influenza, deception e guerra informativa. Propaganda, influenza, deception e guerra informativa
  • 22. SOFT power e social media Gli ambienti mediatici sono ambienti narratologici. L'architettura peculiare di ogni ambiente mediatico produce una proprio vettore narrativo al cui interno agiscono i propri algoritmi. È qui che si produce il softpower: la capacità di influenzare, persuadere ed indirizzare gli utenti che quelli ambienti popolano, facendogli credere di poter scegliere liberamente senza alcuna costrizione apparente.
  • 23. La riflessione in merito all’impatto delle nuove tecnologie sulle attività di IO/IW ha riscontrato come le possibilità di manipolazione informativa e psicologica siano destinate a crescere parallelamente al perfezionamento e alla diffusione dei media interattivi. I social network e i social media come strumenti efficaci di IO/IW
  • 24. Trolling, botnet e astroturfing Il recente ricorso al termine trolling introduce il paragone ad altre dinamiche, tecnologie e concetti, quali i bot o l’astroturfing. Il primo consiste in sistemi automatizzati che replicano le azioni umane nel cyberspazio, il secondo nella simulazione di un diffuso supporto pubblico per un prodotto, un personaggio, una politica creando una realtà fittizia che influisce sulla comprensione di contesti e avvenimenti.
  • 25. Colonizzare l’immaginario di qualcuno significa intervenire sui processi della sua immaginazione al fine di renderli compatibili con quelli che caratterizzano l’immaginario istituito del soggetto colonizzatore attraverso la cancellazione della memoria, i sistemi dei segni, i patrimoni di significati, di stereotipi rappresentativi di immagini, sia del presente che del passato e l’imposizione di nuovi segni, di nuove immagini e di una nuova lingua. Colonizzazione/decolonizzazione dell’immaginario
  • 26. Dispositivi di attrazione Quattro sono i dispositivi di attrazione: - il mito della trasparenza; - la realtà aumentata; - l’espansione di sociabilità; - l’attrazione della gratuità.
  • 27. Dispositivi di distrazione Due sono i dispositivi di distrazione: - l’incanto: associazione ad immagini rinforzanti positive, cancellazione delle immagini negative; -la successione dei modelli, ovvero la catena delle attese (desiderio alienato).
  • 28. Sorveglianza strategica La sorveglianza strategica significa monitorare e intercettare tutti. Ma la tecnologia è intrinsecamente tanto complessa e il suo uso pratico tanto segreto che non potrà mai esserci una significativa supervisione.
  • 30. Sorveglianza SPECIFICA La sorveglianza ha un obiettivo circoscritto e il suo scopo consiste nel mettere a nudo ogni possibile connessione con persone, gruppi o istituzioni, e intervenire per disarticolarlo. Aspetti della sorveglianza specifica sono i leaks, ovvero la diffusione di documenti secretati, e il whisteblower, ovvero la pratica di “spifferare”, denunciare condotte sociali rimanendo protetti da dispositivi informatici che garantiscono l’anonimato virtuale.
  • 32. Filtraggio e censura Ispezionare e monitorare le informazioni che circolano sui siti interni e stranieri (filtraggio) e rifiutare l’accesso ai siti web che diffondevano informazioni pericolose e tutelare gli utenti dagli effetti negativi di tali informazioni (censura) sono due implicazioni della sorveglianza operativa sulle informazioni che circolano in Rete.
  • 34. Information operations basate sul web I social network possono rivelarsi efficaci strumenti di IO/IW e sono ormai entrati nel bagaglio degli attrezzi impiegati dalle forze armate accanto ai tradizionali strumenti per le attività di propaganda, influenza e deception. Possiamo classificare le information operations basate sul Web: -dalla dissuasione alla protezione, -dalla prevenzione alla negazione, -dalla divulgazione alla manipolazione.
  • 35. Diminish Definizione: fare in modo che notizia appaia meno importante o che abbia meno visibilità. Ridurre l’efficacia di un’attività (azione) (Questa modalità è simile al degradare, senza gravi implicazioni). Una modalità tradizionale per sminuire l’impatto dell’informazione che raggiunge l’interesse di qualcuno è diffondere “smentite” e denigrazioni nel web.
  • 36. ESEMPI § Diffondere smentite e denigrazioni attraverso il web per diminuire l'impatto delle informazioni che minacciano i propri interessi. § Uso dei social media per diminuire l’importanza e la portata degli eventi.
  • 37. Expose Definizione: far conoscere o rendere visibile al pubblico. Rendere visibile, rivelare qualcosa di indesiderabile o ingiurioso. L’esposizione al pubblico non ha bisogno di essere accurata per diffondersi e produrre un effetto. False immagini o immagini manipolate possono essere diffuse in Internet. Scambio di email o altra corrispondenza (captata illegalmente) è stata fatta trapelare per screditare leaders dell’opposizione.
  • 38. ESEMPI § Immagini false o manipolate possono essere diffuse su Internet, per esempio prendendo i corpi dei soldati uccisi e riorganizzandoli da far sembrare civili massacrati. § Pubblicazione dello scambio di e-mail e di altra corrispondenza privata (raccolta illegalmente) nelle elezioni Duma 2011 ed Usa 2016. Caso del mese di marzo 2017, operazione “white elmets” in Siria per screditare Assad.
  • 39. Influence Definizione: causare un cambiamento nel carattere, nel pensiero, nell’azione di una particolare entità. L’avvento dei social media apre nuove strade alla creazione di influenza. Quando le attività di influenza sono coordinate o organizzate in larga scala danno la falsa impressione che un ampio e radicato movimento stia dietro ad alcune opinioni. L’influenza tramite i sociale media si può anche ottenere utilizzando fake users denominati sock puppetry (calzino fantoccio) .
  • 40. ESEMPI – PARTE 1 § Le "discussioni guidate" nelle chat, nei servizi di messaggistica istantanea e nei forum sono progettate per influenzare i cittadini. § L’astroturfing sui social media attraverso socket puppets e botnet per la gestione della percezione nelle conversazioni e nelle interazioni.
  • 41. ESEMPI – PARTE 2 § La propaganda non sofisticata può incoraggiare i propri seguaci. Es. Assad e i suoi sostenitori, durante il conflitto, hanno diffuso video su Youtube in cui annunciano che Al Jazeera è sconfitta. § La distribuzione di messaggi con un ambigue (grigie) o addirittura false (nere)fonti è un modo per influenzare opinioni. § I "siti web civetta" unbranded sono un modo per fare propaganda più efficace.
  • 42. Inform Definizione: impartire (diffondere) informazione o conoscenza. L’informazione può essere diffusa tramite siti appositi o Twitter. I social media, inclusi Facebook, Twitter per aumentano la capacità di comunicazione di emergenza di un Governo in un prestabilito dominio. Youtube è un altro vettore per l’informazione governativa. In molti Paesi i Governi stanno utilizzando gli open data per promuovere trasparenza, innovazione ed efficienza, tramite numerosi dataset ottenibili (visibili) online.
  • 43. ESEMPI § Per la lotta al terrorismo possono essere utilizzati siti web dedicati e Twitter (Dipartimento di Stato USA).Facebook, Twitter, ecc. possono essere migliorati per migliorare la comunicazione di emergenza dei Governi ad esempio in caso di naturali disastri è un'area di ricerca istituito. § YouTube è un altro vettore di informazione del Governo, utilizzato per ad esempio da parte dell'Ufficio degli Stati Uniti National Drug Control Policy (ONDCP), per la guerra contro il traffico di droga.
  • 44. Prevent Definizione: Privare della speranza o del potere di avere successo. I governi, in particolari quelli autoritari, hanno a loro disposizione diversi strumenti per imporre ostacoli all’accesso, incluse barriere economiche e infrastrutturali all’accesso alla rete; o bloccare specifiche applicazioni e tecnologie; o imporre norme e controlli sugli ISP. Un altro modo, conosciuto come Belarus è di rendere lenta la connessione Internet in modo da rendere difficile o impossibile l’utilizzo.
  • 45. ESEMPI – PARTE 1 § L'utilizzo degli user-feedback attraverso cui vengono segnalati contenuti come offensivi per ottenere di liberarsi di materiale indesiderato. Una variante del meccanismo degli user-feedback è la segnalazione dei siti a Google come infettati da malware. § L'infiltrazione nelle mailing list, nei forum e nei gruppi di discussione dei dissidenti e degli antagonisti per inviare falsi messaggi, diffondere disinformazione e creazione di conflitti tra i gruppi (trolling).
  • 46. ESEMPI – PARTE 2 § Gli user-feedback sono utilizzati per segnalare i contenuti di interesse come offensivi ottenendo la rimozione del materiale indesiderato. Una variante è la segnalazione dei siti a Google come infettati da malware. § L'infiltrazione nelle mailing list, nei forum e nei gruppi di discussione dei dissidenti e degli antagonisti per inviare falsi messaggi, diffondere disinformazione e creazione di conflitti tra i gruppi (trolling).
  • 47. Protect, Safeguard Definizione: coprire o difendere dalla propaganda (esposizione), danni o distruzione. Tenere al sicuro da attacchi, aggressioni o sfruttamento. Mantenere lo stato di integrità. Compiere un’azione di salvaguardia contro lo spionaggio o la fuga di materiale o informazioni sensibili. Un modo che i governi hanno per mantenere lo status quo di superiorità informativa è quello di immettere e aumentare la quantità di “voci” alternative per aumentare il livello di “rumore” (chiacchiericcio, disturbo).
  • 48. ESEMPI § I lealisti di Assad hanno applicato una simile tattica inondando e riempiendo i Facebookwalls dei ribelli denigrandoli e commentandoli negativamente. Con l'utilizzo di bot hanno inondato l'hashtag Twitter #Syria con informazioni irrilevanti e tagliare fuori l'opposizione.
  • 49. Negate, Neutralize Definizione: rendere inefficace, non valida, non utilizzabile una particolare task o funzione. Contrastare l’attività o l’effetto di. Molti governi nel mondo sono deprecati per imporre limiti ai contenuti, bloccare o filtrare i siti e altre forme di censura, inclusa l’autocensura e la manipolazione. Le opinione indesiderate possono essere contrastate anche in Internet. L’hackeraggio è uno dei modi più efficaci per contrastare i contenuti indesiderati.
  • 50. ESEMPI – PARTE 1 § Diversi Governi di tutto il mondo sono diventati tristemente noti per l'imposizione di quella che Freedom House chiama limite sul contenuto, ovvero: filtraggio e blocco IP di siti web, autocensura e la manipolazione dei contenuti. Un esempio semplice è il blocco che la Corea del Sud ha imposto ai siti web della Corea del Nord, tra cui l’account istituzionale Twitter.
  • 51. ESEMPI – PARTE 2 § Tale controllo dei contenuti può avvenire su quattro diversi livelli: (1) la spina dorsale di Internet, (2) il fornitore del servizio Internet (ISP), (3) il livello istituzionale (università, agenzie governative, scuole, ecc) e (4) il computer dell'utente finale mediante programmi di filtraggio. § Un’altra strategia più diretta è quella di bloccare gli indirizzi IP URL.
  • 52. Shape Definizione: determinare o dirigere il corso degli eventi. Modificare il comportamento in funzione dei cambiamenti che si vogliono ottenere per indirizzarli verso una direzione. Fare in modo di conformarsi (adeguarsi) a una particolare forma o modello. Un’importante modalità di dare forma alle percezioni (e così al comportamento) è la manipolazione dei risultati di ricerca. Un modo simile di influenzare la conoscenza delle persone è l’uso strategico dell’editing su Wikipedia.
  • 53. ESEMPI § Ad es. in Cina i fornitori dei motori di ricerca sono costretti a registrare i risultati della ricerca in base al criteri fissati dal Governo. § Un modo più grezzo per condizionare le ricerche su certi argomenti è il filtraggio in base alle parole del URL. Anche i Governi meno autoritari si preoccuparsi dell’ottimizzazione dei motori di ricerca (SEO).
  • 54. Detect Definition Definizione: scoprire e capire l’esistenza o eventi di intrusione nei sistemi di informazione. Il phishing di usernames e password agli utenti di diversi social media sono stati denunciati/rilevati in Siria e Iran, così come metodi più sofisticati che riguardano la falsificazione di certificati SSL.
  • 55. ESEMPI § Casi di phishing, per rubare nomi utente e password per i social media sono stati segnalati in Siria e Iran, così come metodi più sofisticati che coinvolgono certificati SSL falsi. § I funzionari della sicurezza tunisina, sotto il regime di Ben Ali, facevano regolarmente irruzione nell’e-mail e negli account social media degli attivisti dell'opposizione. Il Governo cinese utilizza una potente combinazione di phishing e malware per tracciare l'opposizione tibetana.
  • 56. Deter Definizione: mettere in disparte, scoraggiare, o prevenire un avversario potenziale o reale o un altro target di audience che può compiere azioni minacciano gli interessi della coalizione (collettivi). E-mail criptate con chiave privata possono essere usate per scoraggiare alcune azioni. Un incentivo all’autocensura è la responsabilità diretta degli ISP o dei proprietari dei website sui contenuti pubblicati, anche quelli inseriti da altri.
  • 57. ESEMPI § Nel conflitto del 2012 tra Israele e Hamas, l'IDF ha usato Twitter, per recapitare i messaggi sia ai leader di Hamas che ai giornalisti. Le agenzie governative hanno messo sotto pressione gli ISP per far chiudere i siti web 'volontariamente' al fine di fermare il finanziamento del terrorismo. L’incentivazione all’autocensura, in cui gli ISP sono responsabili per tutti i contenuti compresi quelli scritti da altri, è un’arma usata da molti Governi.
  • 58. Promote Definizione: contribuire alla crescita e al progresso di, incoraggiare. I media elettronici possono essere utilizzati per promuovere la linea politica.
  • 59. ESEMPI § Ideotainment è un termine coniato da Lagerkvist per descrivere gli sforzi del Governo cinese per rendere l'ideologia ufficiale 'cool' agli occhi della nuove generazioni. Questa ideologia utilizza un intreccio di immagini, design, musica della cultura digitale con costrutti, simboli e messaggi nazionalistici.
  • 60. McLuhan sostenne che l'architettura del medium è più importante del contenuto stesso (messaggio/informazione). La diffusione di false informazioni è un problema che si può affrontare soltanto progettando qualcosa di nuovo. Occorre un progetto per il discernimento che serva a valorizzare la qualità. Elementi di un framework per la narrazione della sicurezza
  • 61. Le qualità di un sistema per aiutare le persone a discernere le notizie documentate e quelle che informano male sono: -un design che aiuta a colpo d’occhio a vedere che cosa è importante e che cosa non lo è; -un design che aiuta a comprendere quando le notizie importanti sono finite e non occorre dedicare altro tempo alle notizie; -un design che abitua a leggere criticamente sottolineando i documenti e le fonti delle notizie; -un processo metodologicamente noto e condiviso per il factchecking. Elementi di un framework per la sicurezza DELL’INFORMAZIONE
  • 62. Gestire i fenomeni complessi Non dobbiamo considerare la complessità come un ostacolo ma riuscire a trarre vantaggio dal sistema complesso che è il framework sicurezza per poterla gestire al meglio. Cerchiamo quindi di utilizzare la complessità come valore e non come limite. Si tratta quindi frequentemente di capire come funziona il sistema e, sulla base di conoscenza ed esperienza, prendere decisioni conseguenti.
  • 63. NON POSSIAMO PIÙ TORNARE INDIETRO Abbiamo capito che la diffusione di false informazioni è un problema che si può affrontare soltanto progettando qualcosa di nuovo. Nel senso che non si torna indietro, si può solo andare avanti: in una società nella quale la classe dirigente tradizionale e le autorità culturali tradizionali hanno perso credibilità, ma in una società nella quale le nuove piattaforme sono troppo “algoritmiche” e generano relazioni e informazioni indistinte e indistinguibili.
  • 64. BONIFICARE l’ecosistema di informazione Occorre un progetto per il discernimento che serva a valorizzare la qualità. Occorre una teoria, una narrazione, una forma di sperimentazione per arrivare a realizzare la prossima grande innovazione. E occorre la disponibilità a rimettersi in gioco molte volte fino a che non si sia riusciti a trovare una soluzione accettabile. Un progetto per il discernimento, per la qualità che migliori la conoscenza, contro la quantità che genera idee indistinte e indistinguibili.
  • 65. Quando l’io perde l’opportunità del noi, tutta la società diventa più debole e vulnerabile. Un pensiero ecologico è necessario ma non potrà mai essere sano se non accetta la propria follia.* *Edgard Morin EDUCARE A un pensiero collettivo complesso, analitiCo e consapevole
  • 66. Far uscire le persone dalle Echo Chambers Oltre allo sforzo educativo di attrezzare le persone a uscire dalle bolle, ci sarà bisogno anche di una schiera di rompi- bolle pazienti e umani che si dedichino costantemente ricordare la totale inutilità delle barriere. Il rompi-bolle è il contrario di un troll o di un hater. I rompi-bolle sanno infrangere ciò che compromette la conversazione (pregiudizi, categorie preconcette, barriere mentali) per mantenerla in salute e valorizzarla.
  • 67. Re-intermediare la conoscenza Sulle piattaforme sociali, il contenuto è la relazione: vale la gratificazione di connettersi e piacersi con il network di persone simili che ci si trovano facilmente. Sulle piattaforme civiche, il valore è nel metodo con il quale si selezionano le informazioni: vale l’utilità delle notizie che vi si diffondono in relazione a una realtà da conoscere empiricamente.
  • 68. L’autorevolezza da riconquistare L’autorevolezza è come il ”coraggio” del Manzoni: se non ce l’hai nessuno te la può dare, almeno dal punto di vista dell’apparire. Spesso, sono i luoghi lontani dai riflettori, dove ci sono problemi da risolvere, battaglie da affrontare, diritti da difendere, deboli da soccorrere. Nei luoghi della fragilità e della sofferenza o nello studio, nella applicazione costante, nell’esercizio onesto di una funzione pubblica.
  • 69. LA NARRAZIONE DELLA SICUREZZA NELL’ERA DELLA POST TRUTH SOCIETY RIFERIMENTI: ► RICERCA INFOSFERA ITALIANA 2016, UNIVERSITÀ SUOR ORSOLA BENINCASA // CENTRO STUDI DEMOCRAZIE DIGITALI ► U. Franke, Information operations on the Internet. A catalog of modi operandi, Swedish Defence Research Agency (FOI), March 2013. ► World Economic Forum, Global Risks 2013 Report, Cologny/Geneva, 2013, p. 47, pp. 25-26. ► K. Giles, Russia’s ‘New’ Tools for Confronting the West Continuity and Innovation in Moscow’s Exercise of Power, Chatham House, March 2016, p. 46. ► T. E. Nissen, The Weaponization of Social Media. Characteristics of Contemporary Conflicts, Danish Defence College, March 2015. ► W. Quattrociocchi , A. Vicini, Misinformation. Guida alla società dell'informazione e della credulità, Neo - Franco Angeli, 2016