SlideShare a Scribd company logo
1 of 11
FRANCESCO SANTOIANNI LA LEGGE DI MURPHY www.disastermanagement.it
Il Rischio
Nel maggio 1949 il capitano Edward Aloysius Murpy Jr., del reparto Sicurezza e Analisi del Rischio dell'US Air Force, fu inviato nel deserto del Mojave, in California, per indagare su un curioso incidente capitato al maggiore John Paul Stapp, rimasto miracolosamente vivo mentre sperimentava una slitta a razzo. Otto congegni di misurazione montati alla rovescia, due sistemi di sicurezza in avaria, la disattenzione di un tecnico e l'assenza di un ufficiale avevano fatto sì che il povero Stapp fosse sottoposto nel collaudo della slitta all'abominevole accelerazione di 31 G, e cioè trentuno volte la forza di gravità.  Letta la sua dettagliata relazione tecnica, l'Ufficio Analisi degli Incidenti del Pentagono chiese al capitano Murphy di calcolare quale fosse il rischio che un simile concatenamento di eventi si ripetesse in futuro.  Il brillante capitano, invece di riempire, come si fa di solito in questi casi, pagine e pagine di complicati studi statisti­ci, si limitò a scrivere la frase: <<Se vi sono più modi di fare un lavoro e uno solo porta al disastro, qualcuno sceglierà proprio quello. Più in generale: se una cosa può andare male, andrà male.>>  La Legge di Murphy
Ripresa da una rivista dell'aeronautica statunitense e successivamente in un libro di successo pubblicato negli anni ottanta, la crescente popolarità della “Legge di Murphy” (che, considerando l'imponderabilità del comportamento umano, finisce per valutare come probabili eventi fino a ieri considerati pressoché impossibili) ha clamorosamente ridimensionato la credibilità di una disciplina che nel giro di qualche decennio era riuscita a conquistarsi un'indiscussa autorevolezza: l’analisi del rischio. “ Se una cosa può andare male, andrà male”
Le cose che non potevano succedere 30 marzo, 1981  25 maggio, 1981
Le cose che non potevano succedere Norman Rasmussen
Cos'è il rischio?  ,[object Object],[object Object],[object Object],[object Object],[object Object],[object Object],<<Conquistare senza rischi è come trionfare senza gloria>> Corneille, 1636
L’analisi del rischio Fondamentalmente l'analisi del rischio industriale nasce, nel 1769, a seguito di un'invenzione di un fino ad allora oscuro riparatore di apparecchi meccanici dell'Università di Glasgow: James Watt.  Rielaborando una “pompa a vapore”, realizzata anni prima da Thomas Newcomen, il tecnico scozzese costruì una caldaia nella quale il vapore prodotto, azionando un pistone a doppia azione, trasmetteva il movimento ad una ruota. Era nato il motore a vapore: l'artefice della rivoluzione industriale. Divenuto ricchissimo, grazie alla rapida diffusione della sua invenzione, James Watt dovette restare probabilmente turbato da una circostanza: le caldaie dei suoi motori esplodevano con una frequenza impressionante, spesso in reparti affollati di operai, con le conseguenze che sono facile immaginare; nel 1799 commissionò, quindi, ai tecnici della fabbrica, che aveva fondato nel 1775 a Birmingham, in società con l'industriale M. Boulton, uno studio sull' affidabilità  delle caldaie lì prodotte.  Il termine affidabilità (in inglese  reliability ) introduce un concetto nuovo nell'analisi del rischio: la stima di quanto sia opportuno spendere per la sua riduzione. Gli studi degli ingegneri della fabbrica di Watt valutavano, infatti, quali fossero le probabilità di incidente di un impianto al fine, non già di azzerarle, ma di renderle compatibili con le logiche del mercato.  L'impianto, infatti, aveva un costo ed elevarlo oltre un certo limite per renderlo “sicuro” (ad esempio, aumentando lo spessore del metallo della caldaia o allontanandolo dai reparti, affidando a lunghe cinghie la trasmissione del moto) avrebbe pregiudicato la sua acquisizione da parte degli industriali. D’altra parte non era ammissibile far finta di niente davanti ai continui incidenti, se non altro perché questi provocavano nel movimento operaio un comprensibile astio contro questa tecnologia, scatenando scioperi e conflitti sociali.
Un efficace piano per emergenze impiantistiche macroterritorialì, come tutti gli altri piani di protezione civile, non può essere rin­chiuso in qualche cassetto e tirato fuori durante l'emergenza, ma deve essere conosciuto da tutti e divenire momento di informazione e di educazione della popolazione attraverso lo svolgimento di periodiche esercitazioni. Esemplare, a tale riguardo, è la pianificazione dell'emergenza che si è instaurata nella zona portuale di Rotterdam. In questa area, caratterizzata da un elevatissimo rischio derivante dai numerosi convogli navali, ferroviari e stradali che lì confluiscono, vengono periodicamente effettuate delle esercitazioni che prefigurano reali situazioni di emergenza: il suono intermittente di una sirena ordina alle popolazioni di recarsi al coperto o di chiudere porte e finestre dell'e­dificio che abitano in quel momento e di sintonizzare il proprio appa­recchio radio su una determinata frequenza per ascoltare comunicati di emergenza; una sirena continua indica, invece, alla popolazione di evacuare (gli assi di evacuazione sono affissi in ogni condominio e in ogni locale pubblico).  Le periodiche esercitazioni, e quindi lo strutturarsi di una diffusa cultura di protezione civile, hanno garantito, nel dicembre 1990, in una reale situazione di emergenza (il ribaltamento di un vagone trasportante cloro), l'eccezionale rapidità nei tempi di evacuazione, l'assenza di incidenti di rilievo e il rapido ripristino del­la normalità. Il rapporto emergenza  informazione
La situazione di Rotterdam è comunque una eccezione e, quasi sempre, le emergenze impiantistiche macroterritoriali sono caratteriz­zate dall'inesistenza di una cultura di protezione civile da parte della popolazione e da una pessima gestione dell'informazione da parte delle autorità.  A Seveso, nel luglio 1976, ad esempio, la notizia dell'incidente fu tenuta più o meno &quot;segreta&quot; dalle autorità per dieci giorni, fino a che numerosi casi di cloracne fecero venire fuori la verità, determinando una precipitosa fuga. Stessa cosa ad Har­risburg in Pennsylvania colpita, nel marzo 1979, da una grave conta­minazione radioattiva fuoriuscita dalla locale centrale elettronucleare di Three Miles Island.  E non si tratta di casi isolati. Secondo un rap­porto segreto dell'IAEA (l'agenzia dell'ONU per l'energia atomica), pubblicato tempo fa dal settimanale tedesco Der Spiegel, ben 48 &quot;gravissimi incidenti&quot; verificatisi in impianti elettronucleari sono stati te­nuti nascosti alla popolazione e in qualche caso anche alle autorità governative dai gestori delle centrali. Il perché di ciò ha molte spiega­zioni.  Una emergenza impiantistica macroterritoriale come quella determinata da un incidente ad un impianto elettronucleare può essere caratterizzata dalla fuoriuscita di radionuclidi, non percepibili diret­tamente e immediatamente dalla popolazione e che possono determi­nare effetti dannosi solo dopo parecchio tempo. Da qui la tentazione di non dare l'allarme soprattutto quando l'assenza di un efficiente piano di protezione civile autorizza il gestore dell'impianto o il dirigente della protezione civile a trincerarsi dietro il pericolo del &quot;panico&quot; conse­guente alla diramazione dell'allarme. Tenere nascosto l’incidente?
Il risultato dell'assenza di una cultura di protezione civile al verificarsi un incidente, la cui notizia trapela alla popolazione, è che la gente, una volta percepito il pericolo, tende ad enfatizzare enormemente il rischio arrivando a comportamenti inconsulti e potenzialmente pericolosi (come la dissennata ingestione di compresse di iodio registrata durante l'emergenza di Three Miles Island o gli assalti alle farmacie durante l'emergenza Chernobyl). Ben presto, comunque, la consapevolezza del pericolo cessa e, ad esempio, la stessa popolazione che sarebbe stata disposta, durante &quot;i giorni di Chernobyl&quot;, a compiere qualsiasi pazzia per &quot;salvarsi dalle radiazioni&quot;, non appena la notizia dell'emergenza scompare dalle prime pagine dei giornali, vuole rapidamente dimenticarsi di aver subito una dose di radioattività e finisce per guardare con fastidio chiunque la metta in guardia contro il pericolo costituito, ad esempio, dall'ecosistema contaminato. Dimenticare il rischio?

More Related Content

Similar to Murphy

Na tech sismi
Na tech sismiNa tech sismi
Na tech sismizoltar69
 
Anatomia dei grandi incidenti
Anatomia dei grandi incidentiAnatomia dei grandi incidenti
Anatomia dei grandi incidentiMirko Rottoli
 
La Società dell'emergenza (tratto da U.Beck)
La Società dell'emergenza (tratto da U.Beck)La Società dell'emergenza (tratto da U.Beck)
La Società dell'emergenza (tratto da U.Beck)giuliano pardini
 
Educare Alla Sicurezza Guida Per Le Lezioni
Educare Alla Sicurezza  Guida Per Le LezioniEducare Alla Sicurezza  Guida Per Le Lezioni
Educare Alla Sicurezza Guida Per Le LezioniFrancesco Santoianni
 
Sicurezza-delle-centrali-nucleare-intervista-ing-v-romanello
Sicurezza-delle-centrali-nucleare-intervista-ing-v-romanelloSicurezza-delle-centrali-nucleare-intervista-ing-v-romanello
Sicurezza-delle-centrali-nucleare-intervista-ing-v-romanelloGianfranco Conti
 
Il 12 e il 13 vota si per il no al nucleare
Il 12 e il 13 vota si per il no al nucleareIl 12 e il 13 vota si per il no al nucleare
Il 12 e il 13 vota si per il no al nuclearelellovic
 
Il supply chain risk manager: un cercatore di aghi
Il supply chain risk manager: un cercatore di aghiIl supply chain risk manager: un cercatore di aghi
Il supply chain risk manager: un cercatore di aghiChiara Zaccariotto
 
Il 12 e il 13 vota si per il no al nucleare
Il 12 e il 13 vota si per il no al nucleareIl 12 e il 13 vota si per il no al nucleare
Il 12 e il 13 vota si per il no al nuclearelellovic
 
Il 12 e il 13 vota si per il no al nucleare
Il 12 e il 13 vota si per il no al nucleareIl 12 e il 13 vota si per il no al nucleare
Il 12 e il 13 vota si per il no al nuclearelellovic
 
Emergenze Difficilmente Pianificabili
Emergenze Difficilmente PianificabiliEmergenze Difficilmente Pianificabili
Emergenze Difficilmente PianificabiliFrancesco Santoianni
 
Conseguenze della drone strategy usa completa
Conseguenze della drone strategy usa completaConseguenze della drone strategy usa completa
Conseguenze della drone strategy usa completaFrancesco Sabatini
 
ANALISI DEL RISCHIO PER LA SICUREZZA NELLE GALLERIE STRADALI.
ANALISI DEL RISCHIO PER LA SICUREZZA NELLE GALLERIE STRADALI.ANALISI DEL RISCHIO PER LA SICUREZZA NELLE GALLERIE STRADALI.
ANALISI DEL RISCHIO PER LA SICUREZZA NELLE GALLERIE STRADALI.Franco Bontempi
 
Il nucleare.parliamo di fatti.
Il nucleare.parliamo di fatti.Il nucleare.parliamo di fatti.
Il nucleare.parliamo di fatti.Simone Messina
 
ANALISI DEL RISCHIO PER LA SICUREZZA NELLE GALLERIE STRADALI
ANALISI DEL RISCHIO PER LA SICUREZZA NELLE GALLERIE STRADALIANALISI DEL RISCHIO PER LA SICUREZZA NELLE GALLERIE STRADALI
ANALISI DEL RISCHIO PER LA SICUREZZA NELLE GALLERIE STRADALIFranco Bontempi Org Didattica
 

Similar to Murphy (18)

Na tech sismi
Na tech sismiNa tech sismi
Na tech sismi
 
Che fare in caso di terremoto?
Che fare in caso di terremoto?Che fare in caso di terremoto?
Che fare in caso di terremoto?
 
Anatomia dei grandi incidenti
Anatomia dei grandi incidentiAnatomia dei grandi incidenti
Anatomia dei grandi incidenti
 
La Società dell'emergenza (tratto da U.Beck)
La Società dell'emergenza (tratto da U.Beck)La Società dell'emergenza (tratto da U.Beck)
La Società dell'emergenza (tratto da U.Beck)
 
Educare Alla Sicurezza Guida Per Le Lezioni
Educare Alla Sicurezza  Guida Per Le LezioniEducare Alla Sicurezza  Guida Per Le Lezioni
Educare Alla Sicurezza Guida Per Le Lezioni
 
Educare Alla Sicurezza Guida Per Le Lezioni
Educare Alla Sicurezza  Guida Per Le LezioniEducare Alla Sicurezza  Guida Per Le Lezioni
Educare Alla Sicurezza Guida Per Le Lezioni
 
Sicurezza-delle-centrali-nucleare-intervista-ing-v-romanello
Sicurezza-delle-centrali-nucleare-intervista-ing-v-romanelloSicurezza-delle-centrali-nucleare-intervista-ing-v-romanello
Sicurezza-delle-centrali-nucleare-intervista-ing-v-romanello
 
Il 12 e il 13 vota si per il no al nucleare
Il 12 e il 13 vota si per il no al nucleareIl 12 e il 13 vota si per il no al nucleare
Il 12 e il 13 vota si per il no al nucleare
 
Il supply chain risk manager: un cercatore di aghi
Il supply chain risk manager: un cercatore di aghiIl supply chain risk manager: un cercatore di aghi
Il supply chain risk manager: un cercatore di aghi
 
Il 12 e il 13 vota si per il no al nucleare
Il 12 e il 13 vota si per il no al nucleareIl 12 e il 13 vota si per il no al nucleare
Il 12 e il 13 vota si per il no al nucleare
 
Il 12 e il 13 vota si per il no al nucleare
Il 12 e il 13 vota si per il no al nucleareIl 12 e il 13 vota si per il no al nucleare
Il 12 e il 13 vota si per il no al nucleare
 
Emergenze Difficilmente Pianificabili
Emergenze Difficilmente PianificabiliEmergenze Difficilmente Pianificabili
Emergenze Difficilmente Pianificabili
 
Analisi dei rischi
Analisi dei rischiAnalisi dei rischi
Analisi dei rischi
 
Rischi naturali ed antropici
Rischi naturali ed antropiciRischi naturali ed antropici
Rischi naturali ed antropici
 
Conseguenze della drone strategy usa completa
Conseguenze della drone strategy usa completaConseguenze della drone strategy usa completa
Conseguenze della drone strategy usa completa
 
ANALISI DEL RISCHIO PER LA SICUREZZA NELLE GALLERIE STRADALI.
ANALISI DEL RISCHIO PER LA SICUREZZA NELLE GALLERIE STRADALI.ANALISI DEL RISCHIO PER LA SICUREZZA NELLE GALLERIE STRADALI.
ANALISI DEL RISCHIO PER LA SICUREZZA NELLE GALLERIE STRADALI.
 
Il nucleare.parliamo di fatti.
Il nucleare.parliamo di fatti.Il nucleare.parliamo di fatti.
Il nucleare.parliamo di fatti.
 
ANALISI DEL RISCHIO PER LA SICUREZZA NELLE GALLERIE STRADALI
ANALISI DEL RISCHIO PER LA SICUREZZA NELLE GALLERIE STRADALIANALISI DEL RISCHIO PER LA SICUREZZA NELLE GALLERIE STRADALI
ANALISI DEL RISCHIO PER LA SICUREZZA NELLE GALLERIE STRADALI
 

Murphy

  • 1. FRANCESCO SANTOIANNI LA LEGGE DI MURPHY www.disastermanagement.it
  • 3. Nel maggio 1949 il capitano Edward Aloysius Murpy Jr., del reparto Sicurezza e Analisi del Rischio dell'US Air Force, fu inviato nel deserto del Mojave, in California, per indagare su un curioso incidente capitato al maggiore John Paul Stapp, rimasto miracolosamente vivo mentre sperimentava una slitta a razzo. Otto congegni di misurazione montati alla rovescia, due sistemi di sicurezza in avaria, la disattenzione di un tecnico e l'assenza di un ufficiale avevano fatto sì che il povero Stapp fosse sottoposto nel collaudo della slitta all'abominevole accelerazione di 31 G, e cioè trentuno volte la forza di gravità. Letta la sua dettagliata relazione tecnica, l'Ufficio Analisi degli Incidenti del Pentagono chiese al capitano Murphy di calcolare quale fosse il rischio che un simile concatenamento di eventi si ripetesse in futuro. Il brillante capitano, invece di riempire, come si fa di solito in questi casi, pagine e pagine di complicati studi statisti­ci, si limitò a scrivere la frase: <<Se vi sono più modi di fare un lavoro e uno solo porta al disastro, qualcuno sceglierà proprio quello. Più in generale: se una cosa può andare male, andrà male.>> La Legge di Murphy
  • 4. Ripresa da una rivista dell'aeronautica statunitense e successivamente in un libro di successo pubblicato negli anni ottanta, la crescente popolarità della “Legge di Murphy” (che, considerando l'imponderabilità del comportamento umano, finisce per valutare come probabili eventi fino a ieri considerati pressoché impossibili) ha clamorosamente ridimensionato la credibilità di una disciplina che nel giro di qualche decennio era riuscita a conquistarsi un'indiscussa autorevolezza: l’analisi del rischio. “ Se una cosa può andare male, andrà male”
  • 5. Le cose che non potevano succedere 30 marzo, 1981 25 maggio, 1981
  • 6. Le cose che non potevano succedere Norman Rasmussen
  • 7.
  • 8. L’analisi del rischio Fondamentalmente l'analisi del rischio industriale nasce, nel 1769, a seguito di un'invenzione di un fino ad allora oscuro riparatore di apparecchi meccanici dell'Università di Glasgow: James Watt. Rielaborando una “pompa a vapore”, realizzata anni prima da Thomas Newcomen, il tecnico scozzese costruì una caldaia nella quale il vapore prodotto, azionando un pistone a doppia azione, trasmetteva il movimento ad una ruota. Era nato il motore a vapore: l'artefice della rivoluzione industriale. Divenuto ricchissimo, grazie alla rapida diffusione della sua invenzione, James Watt dovette restare probabilmente turbato da una circostanza: le caldaie dei suoi motori esplodevano con una frequenza impressionante, spesso in reparti affollati di operai, con le conseguenze che sono facile immaginare; nel 1799 commissionò, quindi, ai tecnici della fabbrica, che aveva fondato nel 1775 a Birmingham, in società con l'industriale M. Boulton, uno studio sull' affidabilità delle caldaie lì prodotte. Il termine affidabilità (in inglese reliability ) introduce un concetto nuovo nell'analisi del rischio: la stima di quanto sia opportuno spendere per la sua riduzione. Gli studi degli ingegneri della fabbrica di Watt valutavano, infatti, quali fossero le probabilità di incidente di un impianto al fine, non già di azzerarle, ma di renderle compatibili con le logiche del mercato. L'impianto, infatti, aveva un costo ed elevarlo oltre un certo limite per renderlo “sicuro” (ad esempio, aumentando lo spessore del metallo della caldaia o allontanandolo dai reparti, affidando a lunghe cinghie la trasmissione del moto) avrebbe pregiudicato la sua acquisizione da parte degli industriali. D’altra parte non era ammissibile far finta di niente davanti ai continui incidenti, se non altro perché questi provocavano nel movimento operaio un comprensibile astio contro questa tecnologia, scatenando scioperi e conflitti sociali.
  • 9. Un efficace piano per emergenze impiantistiche macroterritorialì, come tutti gli altri piani di protezione civile, non può essere rin­chiuso in qualche cassetto e tirato fuori durante l'emergenza, ma deve essere conosciuto da tutti e divenire momento di informazione e di educazione della popolazione attraverso lo svolgimento di periodiche esercitazioni. Esemplare, a tale riguardo, è la pianificazione dell'emergenza che si è instaurata nella zona portuale di Rotterdam. In questa area, caratterizzata da un elevatissimo rischio derivante dai numerosi convogli navali, ferroviari e stradali che lì confluiscono, vengono periodicamente effettuate delle esercitazioni che prefigurano reali situazioni di emergenza: il suono intermittente di una sirena ordina alle popolazioni di recarsi al coperto o di chiudere porte e finestre dell'e­dificio che abitano in quel momento e di sintonizzare il proprio appa­recchio radio su una determinata frequenza per ascoltare comunicati di emergenza; una sirena continua indica, invece, alla popolazione di evacuare (gli assi di evacuazione sono affissi in ogni condominio e in ogni locale pubblico). Le periodiche esercitazioni, e quindi lo strutturarsi di una diffusa cultura di protezione civile, hanno garantito, nel dicembre 1990, in una reale situazione di emergenza (il ribaltamento di un vagone trasportante cloro), l'eccezionale rapidità nei tempi di evacuazione, l'assenza di incidenti di rilievo e il rapido ripristino del­la normalità. Il rapporto emergenza informazione
  • 10. La situazione di Rotterdam è comunque una eccezione e, quasi sempre, le emergenze impiantistiche macroterritoriali sono caratteriz­zate dall'inesistenza di una cultura di protezione civile da parte della popolazione e da una pessima gestione dell'informazione da parte delle autorità. A Seveso, nel luglio 1976, ad esempio, la notizia dell'incidente fu tenuta più o meno &quot;segreta&quot; dalle autorità per dieci giorni, fino a che numerosi casi di cloracne fecero venire fuori la verità, determinando una precipitosa fuga. Stessa cosa ad Har­risburg in Pennsylvania colpita, nel marzo 1979, da una grave conta­minazione radioattiva fuoriuscita dalla locale centrale elettronucleare di Three Miles Island. E non si tratta di casi isolati. Secondo un rap­porto segreto dell'IAEA (l'agenzia dell'ONU per l'energia atomica), pubblicato tempo fa dal settimanale tedesco Der Spiegel, ben 48 &quot;gravissimi incidenti&quot; verificatisi in impianti elettronucleari sono stati te­nuti nascosti alla popolazione e in qualche caso anche alle autorità governative dai gestori delle centrali. Il perché di ciò ha molte spiega­zioni. Una emergenza impiantistica macroterritoriale come quella determinata da un incidente ad un impianto elettronucleare può essere caratterizzata dalla fuoriuscita di radionuclidi, non percepibili diret­tamente e immediatamente dalla popolazione e che possono determi­nare effetti dannosi solo dopo parecchio tempo. Da qui la tentazione di non dare l'allarme soprattutto quando l'assenza di un efficiente piano di protezione civile autorizza il gestore dell'impianto o il dirigente della protezione civile a trincerarsi dietro il pericolo del &quot;panico&quot; conse­guente alla diramazione dell'allarme. Tenere nascosto l’incidente?
  • 11. Il risultato dell'assenza di una cultura di protezione civile al verificarsi un incidente, la cui notizia trapela alla popolazione, è che la gente, una volta percepito il pericolo, tende ad enfatizzare enormemente il rischio arrivando a comportamenti inconsulti e potenzialmente pericolosi (come la dissennata ingestione di compresse di iodio registrata durante l'emergenza di Three Miles Island o gli assalti alle farmacie durante l'emergenza Chernobyl). Ben presto, comunque, la consapevolezza del pericolo cessa e, ad esempio, la stessa popolazione che sarebbe stata disposta, durante &quot;i giorni di Chernobyl&quot;, a compiere qualsiasi pazzia per &quot;salvarsi dalle radiazioni&quot;, non appena la notizia dell'emergenza scompare dalle prime pagine dei giornali, vuole rapidamente dimenticarsi di aver subito una dose di radioattività e finisce per guardare con fastidio chiunque la metta in guardia contro il pericolo costituito, ad esempio, dall'ecosistema contaminato. Dimenticare il rischio?