Se reunen las bases teòricas para el anàlisis de confiabilidad y disponibilidad de redes y servicios de telecomunicaciones, incluyendo algunos ejemplos practicos de estudios estadìsticos reales.
(este documento reemplazó a uno anterior que estaba erróneamente cargado incompleto)
Apuntes confiabilidad y disponibilidad de redes ss
1. CALIDAD DE REDES Y SERVICIOS
DE TELECOMUNICACIONES
Francisco Apablaza M.
PRESENTACIÓN
El tema ha sido siempre conflictivo y a la vez apasionante,
conflictivo por las múltiples interpretaciones que se dan a los
conceptos al llevarlos a la praxis, por como se manejan las
estadísticas, así como al pobre conocimiento formal que existe
sobre esta importante área de la ingeniería, en comparación con
los sectores mineros, de la construcción o de la mecánica.
Apasionante, por integrar conceptos estadísticos, de
probabilidades y de tecnología, como por el impacto que puede
generar en una mejora continua, en la excelencia operacional de
una red de telecomunicaciones y sus servicios y su relación con
los costos e ingresos. Esto es lo que ha motivado preparar estos
apuntes (ello significa que no todo lo expuesto es original y
corresponde más que nada a un material recopilado y
experiencias), que se espera sirvan de base para estudiar mas
profundamente estas materias y sean una modesta contribución
para formalización y aplicación en el análisis de la calidad de las
redes de telecomunicaciones.
1|
2. INTRODUCCIÓN
El establecimiento de calidad operacional de las redes y servicios, dice relación con los
criterios de diseño de las redes, la disponibilidad de RRHH y técnicos calificados, los
procedimientos de operación y mantenimiento, como así de las situaciones particulares
del medio en que se encuentren desplegados los recursos de redes y servicios, todo lo
cual redunda, evidentemente, en los costos en que pueda incurrirse para conseguir una
calidad deseada.
Se alcanzarán distintas calidades operacionales de las redes respaldadas con respecto
de aquellas que no disponen de recursos de respaldo, o de repuestos en sitio. De igual
modo debe tenerse en cuenta que distintas tecnologías pueden otorgar calidades
diferenciadas, como puede ser el caso de un circuito vía fibra óptica con relación a uno
por radio.
Es preciso establecer claros criterios de definición y medición de índices o indicadores de
desempeño, que aunque no sean de una precisión absoluta, permitirán observar, en la
medida que se mantengan las definiciones por un largo periodo, los comportamientos y
también deducir criterios de mantenimiento, diseño, e instalación que redunden en
mejorías de los mismos índices.
Se presentan en estos apuntes los fundamentos y consideraciones prácticas relativas a
los distintos aspectos relativos a disponibilidad, confiabilidad y SLA (Service Level
Agreement) de redes de telecomunicaciones. Aunque sin duda, son conceptos aplicables
a otras disciplinas, como redes de energía, o procesos industriales. Siempre debe tenerse
presente, que se trata de análisis de sistemas estocásticos, lo que conlleva que son
temas a tratar con un profundo conocimiento de los fundamentos probabilísticos como por
bases de datos confiables de interpretación estadística.
Es imprescindible refrescar los conceptos de estadistica descriptiva, así como los de
probabilidades, ya que son fundamentales para la comprensión de los conceptos de
confiabilidad, como para los análisis de disponibilidad, no obstante su importancia, no se
considera afrontarlos en este documento.
Los temas tratados se han organizado en:
- Aspectos Generales de la Calidad Técnica de las Redes y los Servicios .........3
- Teoría de la Confiabilidad .........4
- Teoría de la Disponibilidad .......10
- Confiabilidad, Disponibilidad y Mantenibilidad .......16
- Criterios de Riesgo y Costos .......22
- Aplicaciones y Análisis Estadístico de Eventos .......27
- Estadísticas de Disponibilidad en Redes de Telecomunicaciones .......32
- Calidad, SLA, Disponibilidad de Servicios .......46
- Conclusión .......50
- Referencias .......51
- Anexo: ejercicios
2|
3. Aspectos Generales de la Calidad Técnica
de las Redes y los Servicios
Uno de los aspectos de la calidad son las definiciones técnicas de fidelidad de las señales
de telecomunicaciones, tales como ruidos, tasas de errores, distorsiones, etc., muchos de
los cuales están sujetos a una sensibilidad subjetiva, sin embargo, hoy, por la
preponderancia de los datos, también hay una serie de parámetros de calidad, tales como
errores, pérdidas, retardos y otros.
La calidad como continuidad operativa de las redes y por ende de los servicios, es quizás,
el enfoque más importante a la hora de establecer medidas de dicha calidad frente al
cliente y a la vez, él mas complicado de definir por su condición de variable aleatoria y de
las expectativas del cliente.
Típicamente se habla de confiabilidad ó fiabilidad (Reliability), performance, disponibilidad
(Availability), MTBF, MTTR, etc., sin embargo, el gran dilema es establecer la definición
de estos parámetros y llevarlos a mediciones prácticas y hacer un buen uso y
comprensión de ellos.
Es importante llegar a definir criterios para delimitar entre condiciones de degradación, de
intermitencia y de indisponibilidad, que son todos grados de un deterioro y degradación
del servicio de telecomunicaciones.
Se constata que no es usual que reúnan bajo un mismo objetivo los conceptos de calidad,
mejora continua, mantenibilidad y confiabilidad-disponibilidad. Hay que crear conciencia
que la confiabilidad comienza por la calidad de la ingeniería de diseño y construcción de
las redes.
No es menos cierto que las administraciones encargadas de la operación y mantención de
redes y sistemas, realizan todas o algunas de las acciones que acá se comentarán, ya
sea en forma consciente, metódica, y sistemática, o en forma intuitiva. Las distintas
técnicas que se desarrollan, no hacen otra cosa que formalizar el conocimiento y la
experiencia.
A continuación se procurará introducir a los conceptos más básicos de estos temas, a dar
algunas definiciones, que quizás no sean las más canónicas, pero que buscan llevarlas a
aplicaciones reales que puedan ser medidas. Es importante contemplar, que cualquiera
de los índices o indicadores de desempeño, deben estar sustentados en un mecanismo
de medición automatizado, de registros sistemáticos y de buena calidad.
3|
4. Teoría de la Confiabilidad
Es la probabilidad que se presente una falla en un intervalo de tiempo definido,
excluyendo las interrupciones producto de intervenciones programadas. Dice relación con
el intervalo de tiempo que el elemento o sistema está libre de falla. Se dice, también, de la
probabilidad de sobrevivir correctamente en funciones una vez que comienza a operar. Se
propone como índice de confiabilidad a definir por año, dependiendo de la topología y
tecnología de la red, correspondiendo a una estimación teórica que se convierte en la
referencia objetivo.
Típicamente se ha descrito, para equipos y sistemas, que la confiabilidad esperada,
obedece a una tendencia de fallas que sigue un comportamiento en el tiempo, en una
función que se le denomina la curva de la bañera, la cual es una gráfica que representa
los incidentes de falla durante el período de vida útil. Se llama así porque tiene la forma
una bañera. En ella se pueden apreciar tres etapas:
(t)
Tasa de Fallas
Mayor
mantenimiento
Mortalidad
Temprana
Vida Útil Envejecimiento
Tiempo de Vida
Figura Nº1
a) Fallas iniciales: esta etapa se caracteriza por tener una elevada tasa de fallas que
desciende rápidamente con el tiempo. Estas fallas pueden deberse a diferentes razones
como equipos defectuosos, instalaciones incorrectas, errores de diseño del equipo,
desconocimiento del equipo por parte de los operadores o desconocimiento del
procedimiento adecuado (mortalidad infantil).
b) Fallas normales: etapa con una tasa de errores menor y constante. Las fallas no se
producen debido a causas inherentes al equipo, sino por causas aleatorias externas.
Estas causas pueden ser accidentes fortuitos, mala operación, condiciones inadecuadas u
otros.
c) Fallas de desgaste: etapa caracterizada por una tasa de desperfectos rápidamente
creciente. Las fallas se producen por desgaste natural del equipo debido al transcurso del
tiempo: cumple su vida útil como activo.
Pocos son los modelos de confiabilidad que se han desarrollado para hacer estimaciones
de confiabilidad, quizá los más clásicos sean los desarrollados para radio propagación, en
que un sistema de radio enlace puede deteriorarse, en cuanto a una variabilidad de la
atenuación en el medio de propagación, por condiciones atmosféricas, lo que se conoce
como desvanecimiento (fading) y modelos de probabilidad de desvanecimiento de
Rayleigh, como así también la probabilidad de atenuación por lluvia con otros modelos
predictivos.
4|
5. Si se considera que, el tiempo hasta que se presente una falla, es una variable aleatoria
X, que puede tomar cualquier valor real T entre 0 e ∞. Siendo F(t) la función de
distribución y f(t) la función de densidad de X, se tiene que:
f.1
donde F(0) = 0 y F(∞) = 1
F(t) corresponde a la probabilidad de que el dispositivo falle antes o en el instante t (X < t).
La probabilidad complementaria corresponde a la probabilidad de que el fallo se produzca
después de t y es la función de confiabilidad R(t). Se supone que inicialmente el
dispositivo funciona correctamente, por tanto, R(0) = 1 y que cuando el tiempo tiende a
infinito, la probabilidad de funcionamiento es nula.
Si tenemos un dispositivo que está funcionando correctamente en un instante de tiempo
determinado t, la probabilidad de que falle en t + Δt es una probabilidad condicionada que
se expresa:
f.2
La tasa media de fallo en el intervalo (t , t + Δt) queda definida como Z(t, Δt) y se obtiene
dividiendo el valor anterior por la longitud del intervalo:
f.3
El límite de Z(t + Δt), cuando t tiende a cero, es la tasa instantánea de falla o tasa de falla
en t:
f.4
que indica que la tasa de fallas es la densidad de probabilidad de falla en t condicionada a
no haber fallado antes de t. La confiabilidad de un sistema se puede calcular a partir de su
tasa de fallas. Si suponemos que el sistema falla, siguiendo una distribución exponencial,
la tasa de fallas para un instante t es una constante denominada .
5|
6. Así, en general, la Función de Confiabilidad ó Fiabilidad es del tipo:
R(t) = exp [ - t(t) dt ]
f.5
es su Distribución de Probabilidades y = ƒ(independiente de t)es la tasa de fallas por
unidad de tiempo (típicamente por miles o millones de horas de funcionamiento), o
también, la expresión conocida como la ecuación de Lusser, que es la forma más simple
de estimar, como una distribución exponencial, para describir fallas aleatorias:
R=e- (τ) = e- (τ/θ) = e- N
f.6
donde, θ = 1/ = MTBF (Tiempo Medio entre Fallas), y T es el tiempo de observación o
tiempo de misión (1 semana, 1 mes, 1 año, o lo deseado) y N es el Nº de fallas durante el
tiempo de observación T. Notar que este intervalo de tiempo, si bien es teóricamente
discrecional, en situaciones practicas debe ser un tiempo suficientemente largo para que
tenga un buen sentido estadístico, es recomendable 1 año.
Entonces, la Función de Confiabilidad R(T) es la probabilidad que un sistema, puesto en
servicio en el instante t = 0, todavía se encuentre en funcionamiento en el tiempo T. Si se
grafica, es posible observar que R baja constantemente al aumentar el tiempo. El efecto
del mantenimiento en un tiempo dado, es elevar nuevamente la función de confiabilidad.
Las curvas de confiabilidad son del tipo que se muestran en la figura:
Figura Nº2
En forma más generalizada, se ha propuesto la formula de Weibull,
R=e- (τ/θ)^β f.7
6|
7. donde, θ = 1/ = MTBF es la característica tasa de edad-a-falla (ello supone un MTBF
distinto según la edad del sistema) y β el factor Weibull de forma (pendiente), el que
define el “modo” y etapa de la vida del sistema, así si:
β < 1, implica el modo de mortalidad infantil,
β = 1, corresponde al modo posibilidad de falla, y
β > 1, modo de mayor certeza de falla
Figura Nº3
En la figura Nº 3 se grafica para varios valores del parámetro β, valores que dicen relación
con las tres fases de la curva de la bañera, que es el resultado de un gráfico compuesto.
En la mayor parte de los casos de análisis, puede bastar comenzar con el modelo
exponencial simple, y obtener resultados suficientemente válidos para modelar la
confiabilidad de un sistema. Notar que si el valor del MTBF es largo, con relación al
tiempo de misión o operatividad, entonces se tendrá una buena condición de
confiabilidad, con pocas posibilidades de falla, por el contrario si éste es corto o similar a
dicho intervalo, entonces una alta posibilidad de falla se prevé, siendo una situación no
confiable.
Función de Confiabilidad
X = ¿cuál será el instante de falla?
1,20000000
R(0)= 1 "certeza de No falla"
1,00000000
0,80000000
Probabilidad
R1
R(t)= e^(-λt)
0,60000000 R2
R3
0,40000000
R(∞ )= 0 "certeza de No falla"
0,20000000
prob. de falla =< t t= ? confiabilidad = prob. de NO falla > t
0,00000000
0
10000
20000
30000
40000
50000
60000
70000
80000
90000
1E+05
1E+05
1E+05
1E+05
1E+05
2E+05
2E+05
Horas
Figura Nº4
En la figura se grafica la función confiabilidad para MTBF = 50.000 (R1), 150.000 (R2) y
300.000 (R3) y β= 1
7|
8. En situaciones reales, los sistemas o redes son complejos, es decir, constan de múltiples
componentes constitutivos, en cuyos casos para determinar su confiabilidad parece
evidente, que ella depende de la confiabilidad de cada una de sus partes, y éstas pueden
ser un punto simple de fallas, o ser un elemento con redundancia. Para su análisis se
considera un diagrama en bloques como el de la figura Nº5, así a modo de ejemplo, éste
es un sistema con puntos simples de falla y la confiabilidad total deberá ser menor que la
del eslabón más débil.
FUENTE DISCO CPU
PODER MTBF=200.000 MTBF=150.000
MTBF=50.000
Figura Nº5
Calculando la confiabilidad para 10.000 Hrs desde la ecuación f.6, se tiene
individualmente un R(t) = R(10.000) = 0,8187; 0,9512 y 0,9355 respectivamente, y para el
sistema total, se calcula como la probabilidad de que uno u otro de los elementos falle:
RT(t) = P[E1 ∩ E2 ∩ E3]
RT(t) = P(E1) * P(E2) * P(E3)
RT(t) = R1 * R2 * R3
En general, para N componentes,
RT(t) = f.8
Para el caso analizado:
RT(t) = RFP (t) * RD(t) * RCPU(t) = 0.7286
Esto es, existe la probabilidad de un 72,86% de que el sistema no caiga en falla antes de
las 10.000 Hrs. Y si se calcula lo mismo para 50.000 Hrs, esta probabilidad cae a un
20,53%, lo que evidentemente tiene lógica, pues a mas tiempo un mayor envejecimiento,
y por lo tanto es más probable que algún elemento falle.
De este mismo ejemplo, el componente menos confiable es la fuente de poder, en
consecuencia, para mejorar la confiabilidad del sistema, se puede contemplar colocar
redundancia de ésta, tal como se muestra en la figura Nº 6.
8|
9. FUENTE DISCO CPU
PODER MTBF=200.000 MTBF=150.000
MTBF=50.000
FUENTE
PODER
MTBF=50.000
Figura Nº6
En este caso la confiabilidad total del sistema, tiene un cálculo más complejo, ya que
primero deberá calcularse la confiabilidad del subsistema redundante, como la
probabilidad de que fallen simultáneamente uno y otro dispositivo:
R FPR(10000) =1- [1- RFP (t) )*(1- RFP(t)] = 0.9672 f.9
Y para el sistema completo con un elemento con redundancia para la confiabilidad de las
10.000 Hrs. es:
RT(t) = RFPR (t) * RD(t) * RCPU(t) = 0.8606
Lográndose una mejor confiabilidad, con respecto al 72,86% del sistema sin redundancia
de fuente de poder. Lo mismo para 50.000 Hrs sube desde 20,53% a 33,51% su
confiabilidad. Si se desease una confiabilidad aún mayor, deberá aumentar los
subsistemas redundantes.
Bajo este concepto, se ha desarrollado RAID (Redundant Array of Inexpensive Disks)
para el almacenamiento seguro de grandes bases de datos.
9|
10. Teoría de la Disponibilidad
Si bien se puede usar estimadores probabilísticos para la disponibilidad, es más común el
acercamiento a través de una medida estadística en un intervalo de tiempo y bajo
condiciones de medición objetivas por elemento de red o servicio. El intervalo de tiempo
debiera ser el mes-calendario y el periodo de 12 meses previos (año móvil o fijo), de
modo que permita ver la tendencia del sistema y así poder tomar medidas operacionales.
La disponibilidad también se le conoce como el “uptime” y la condición antónima es la
Indisponibilidad (Outage).
Se define un Tiempo de funcionamiento MT(R), el cual corresponde al tiempo en que la
confiabilidad del sistema cae por debajo de un nivel R dado. Se utiliza en sistemas no
reparables o en sistemas que tienen un tiempo fijo entre sucesivos mantenimientos.
La relación entre R(t) y MT(R) viene dada por la ecuación:
R(MT(R)) = R y MT(R(t)) = t
Suponiendo también que el dispositivo tiene una distribución de fallas del tipo
exponencial, con tasa de fallas , y es posible calcular el tiempo de funcionamiento como:
MT(R) = t en el momento en que R(t) = R, se tiene:
t
R(t ) e
R
Aplicando logaritmos para obtener t en función de :
f.10
La Disponibilidad A(t) de un componente o sistema, es la probabilidad de que esté
funcionando en un instante de tiempo t determinado. A(t) se refiere a la disponibilidad
instantánea, que en el caso de un sistema no reparable coincide con la confiabilidad. Si
por el contrario el sistema se puede reparar, éste puede fallar antes de t, pero puede ser
reparado, de modo que en t esté funcionando correctamente. Para este tipo de sistemas
se cumple que A(t) > R(t).
Definiendo el coeficiente de disponibilidad media en el intervalo (t1,t2) , como el valor
medio de la disponibilidad instantánea, esto es:
f.11
Y si se expresa el coeficiente de disponibilidad asintótica o estabilizada, entonces se está
hablando del límite de la función de disponibilidad instantánea, cuando t→∞, entonces:
En cuyo caso, la disponibilidad estimada o proyectada, viene a ser
10|
11. f.12
Si son distribuciones exponenciales para las variables aleatorias de que NO falle el
sistema con tasa o intensidad de fallas , y que con tasa μ como tasa de mantenibilidad o
recuperación, entonces el coeficiente de disponibilidad asintótica es:
A = μ / (+μ) f.13
Para modelar el sistema, se recurre a un diagrama de estados binario, un estado en
condición de operatividad normal y otro en situación de falla. El sistema puede estar en
uno de los dos estados, y transita de uno a otro con una frecuencia media fm= 1/Tm ,
siendo Tm el ciclo medio operacional. La probabilidad de transición desde el estado de
operación a fuera de servicio es 1/m, mientras que a la inversa, es 1/r. En la figura Nº 7 se
muestra gráficamente.
_
Ciclo medio T
MTBF
Diagrama de Estados
En Operación
m1 m2 m3
_ _
1/r 1/m
En falla r1 r2 r3
T1 T2 T3
Figura Nº 7
Se definen los siguientes parámetros típicos, que caracterizan típicamente el
comportamiento en estado estacionario del sistema: MTTF (Mean Time To Failure), MTTR
(Mean Time To Repair) y MTBF (Mean Time Between Failure), siendo
_ _
MTTF = m MTTR = r MTBF = MTTF + MTTR
Dados los estados “en operación” y “en falla”, se define la Disponibilidad (Availability) e
Indisponibilidad (Outage ó Unavailability), que corresponde a: A + U = 1, donde,
_ _ _ _
A = m / T = m/(m + r) = MTTF / (MTTF + MTTR)
f.14
_ _ _ _ f.15
U = r / T = r / (m + r) = MTTR / (MTTF +MTTR)
dado que MTTR << MTTF, suele usarse indistintamente, MTTF = MTBF
11|
12. Definiciones:
Tiempo Medio a la Falla {MTTF}, es el tiempo medio que transcurre hasta que tiene
lugar el primer fallo en un conjunto de sistemas idénticos libres de fallo.
f.16
∞
Tiempo Medio de MTTF 0 R(t) dt Reparación {MTTR}, es el
tiempo medio que se tarda en reparar o
restaurar un sistema o equipo que ha fallado. Como este parámetro es difícil de medir,
normalmente se estima desde la experiencia o desde la estadística histórica,
considerando los tiempos de traslado, diagnóstico y ubicación de repuestos para poder
calcular la capacidad de reparación.
Tiempo Medio entre Fallas {MTBF}, corresponde al tiempo medio entre fallas
consecutivas en un sistema reparable. Este parámetro vale aproximadamente la suma de
los dos anteriores.
MTBF = MTTR + MTTF f.17
Recordemos que se podrá estimar la predicción de la confiabilidad a partir del MTBF
mediante la ley o ecuación de Lusser {f.6}. Así, como ejemplo, la probabilidad de que un
equipo trabaje sin fallar por un tiempo T, si el MTBF es 250.000Hrs y la expectativa del
tiempo de operación es de 5 años (43.800 Hrs), entonces,
/
R(T) = e--(T MTBF) = e--(43800/250000) = 0,8393
Esto significa que con un 83,93% de probabilidad el equipo no falle antes de 5 años. El
parámetro base del MTBF lo entregan en general los fabricantes, quienes hacen pruebas
de laboratorio, con envejecimiento acelerado (ver ref.12) y condiciones operacionales de
simulación de las condiciones ambientales de humedad y temperatura. Cuando existe
medición estadística operacional, esta cifra podrá deducirse de mediciones prácticas.
Hay casos en que en vez del MTBF, se define el FIT Hrs (Failure in Time) = 109 / MTBF,
unidad para expresar la tasa de fallas esperada de elementos electrónicos y también de
sistemas ópticos, y que viene a ser 1 FIT igual a 1 falla por 109 horas (1 vez en alrededor
de 114.155 años).
Para la evaluación del MTBF, considerando el funcionamiento de un equipo o elemento
de red, durante un determinado intervalo T, en el que ocurren n ( n>1) defectos o eventos,
el tiempo medio entre fallas es definido como:
MTBF = T/(n-1)
f.18
En general no existe un solo equipo o elemento de red, por lo que la expresión se
modifica a:
MTBF = N * T/(n-1)
f.19
La disponibilidad (Availability) puede determinarse
12|
13. simplemente como el porcentaje de tiempo, con relación a un determinado periodo de
observación en que un elemento, red o sistema, permanece en condiciones operacionales
de cursar tráfico. Esta disponibilidad, real o medida, se puede calcular como:
A = (1 - Ti/To) 100% f.20
Donde:
To = periodo de observación considerado
Ti = sumatoria de los tiempos de interrupción en el periodo de observación.
Disponibilidad multicomponentes
En el mundo real, los sistemas, las redes (múltiples nodos), los equipos están constituidos
por múltiples componentes (tarjetas), como ya se insinuó en los casos de los ejemplos de
las figuras Nº 5 y 6. Sin embargo, en estos casos cada componente es parte funcional del
total del equipo o sistema.
Existen otras situaciones en que se desea determinar una disponibilidad de sistemas o
redes, tales como pueden ser, un múltiplex en una ruta que tiene múltiples canales o
circuitos entre dos puntos, en consecuencia su disponibilidad debe analizarse como la
contribución de cada uno de ellos a la disponibilidad total del sistema.
Hay mas de una opción para definir la manera de calcular, debido a que los conceptos de
confiabilidad y disponibilidad dicen relación a la operatividad de UN equipo, sistema o
máquina, Sin embargo, para redes multinodos o para equipos, en que, aunque se
presenten fallas, no significa que se pierda la funcionalidad total de sus servicios, ese es
el caso de un multiplex, una central o un router o un conjunto de ellos como parte de
nodos interconectados de red. Pueden fallar algunas puertas de acceso y no la totalidad,
puede fallar un nodo, pero no toda la red. En consecuencia, se definen criterios de cálculo
que toman en cuenta la capacidad total instalada y la parcialidad de las fallas. Hay
operadores que definen la indisponibilidad del sistema completo cuando se presenta la
indisponibilidad de un porcentaje de sus servicios (p. Ej. Un 30% de sus rutas, ancho de
banda o puertas).
Tout
Eq N Eventos >>> Acumulado
1 1 1
1 0
1 0
1 + $$$ 0
1 2 2
1 - $$$ 0
1 0
1 0
1 0
1 1 3 4
1 0
1 0
1 4 4
1 0
1 0
1 0
1 3 3
1 0
1 0
1 0
1 0
Tot Eq= 21
To
To Tout= 14 Hrs
Figura Nº 8
13|
14. En el diagrama de la figura Nº8 se muestra un sistema que consta de 21 elementos
individuales e independientes, en cuanto a su operatividad, esto es que la falla de uno de
ellos, no afecta la correcta funcionalidad del resto. Es evidente que la disponibilidad de
cada uno de los 5 elementos fallados es aproximadamente 99,9% (3 nueves) y del resto
es de un 100%.
Una primera opción para determinar la disponibilidad del conjunto de elementos
componentes de este sistema, puede ser la disponibilidad promedio:
A = (1 - Tim/To) 100 %
f.21
Tim = (N tn) / N
Donde:
Tim = tiempo medio de interrupción de los elementos considerados
N = número de elementos considerados
N tn = sumatoria de los tiempos de interrupción del elemento 1 al N
Así, para este caso el resultado es una disponibilidad de 99,992% (4 nueves) para la
totalidad del sistema y no 99,84% si se calculase de acuerdo a f.20.
Una segunda opción de calculo es:
A = ((Tos - Ti) / Tos )100% f.22
Tos = To* N, periodo de observación considerado para todos los elementos
(Tos -NTi) = tiempo total sin interrupción de servicio en el periodo de observación.
En cuyo caso da una cifra levemente diferente de 99,907% para la disponibilidad del
mismo sistema.
Como tercera opción de calculo, se puede calcular como:
A= ( Td + Td - Ti) / Tos
Nd Ni Ni f.23
siendo,
NdTd : total de tiempos sin falla (Td) de equipos que no fallaron (Nd)
NiTd : total de tiempos sin falla (Td) de equipos que fallaron (Ni)
NiTi : total de tiempos con fallas (Ti) de equipos que fallaron (Ni)
resultando en este caso una disponibilidad del sistema de 99,954%.
En todos estos casos se toma en cuenta la base total instalada, cuando fallan sólo
algunos de los componentes del conjunto. De las tres opciones se recomienda la primera
de ellas, por ser la más canónica.
Es importante aclarar que conceptualmente la Confiabilidad NO ES IGUAL a la
Disponibilidad, la primera corresponde a ¿en cuánto tiempo aparecerá una falla?, ya que
dice relación al tiempo “libre de fallas” y el segundo concepto dice relación con cómo se
utiliza o aprovecha operacionalmente en el tiempo, un dispositivo o sistema: ¿cuánto
14|
15. tiempo está utilizable?. Ambos conceptos son iguales en el mundo ideal en que no hay
fallas ni intervalos de tiempo fuera de servicio.
Siendo, A(t) la función de probabilidad de disponibilidad y U(t) la función de probabilidad
de fallar, éstas son funciones complementarias del sistema, ya que la suma de sus
valores en un determinado instante t es igual a 1, es decir, de certeza de que el sistema
estará en uno de los dos estados posibles.
15|
16. Confiabilidad, Disponibilidad y Mantenibilidad
Como ya se ha mencionado, confiabilidad y disponibilidad van de la mano de la
mantenibilidad, la cual es el proceso de recuperación desde un estado de falla y extensión
o aseguramiento de la vida útil del activo.
DISPONIBILIDAD
CONFIABILIDAD MANTENIBILIDAD
Figura Nº9
El mantenimiento se puede clasificar en distintos tipos, según sus objetivos. Desde el
punto de vista de la confiabilidad, ésta tiene por objeto recuperar o asegurar la
operatividad del sistema, esto se consigue en forma preventiva o correctiva.
Preventivamente, conociendo las perspectivas de probabilidad de falla, a medida que se
acerca el instante de tiempo predicho por las curvas de confiabilidad, debiera aplicarse el
mantenimiento para no caer imprevistamente en una indisponibilidad. Obviamente un
mantenimiento correctivo, que corrige una imperfección, que ha llevado a un equipo o
sistema a no prestar adecuadamente los servicios esperados de él, está recuperando su
nueva puesta en servicio, es decir, es un nuevo to para las curvas de confiabilidad, pero
con nueva pendiente o factor Weibull, debido a que seguramente persistirán algunas
condiciones de envejecimiento.
Desde el punto de vista de las estadísticas de disponibilidad, se excluyen los eventos de
interrupción programada por mantenimiento, ya que una intervención bien programada y
planificada, evitará la interrupción de servicios, o bien, podrá acordar con los usuarios un
tiempo de interrupción controlado.
La mantenibilidad se define también como “la probabilidad de que un equipo que ha
fallado pueda ser reparado dentro de un período de tiempo dado”. Existen equipos cuya
operación es continua a lo largo del tiempo, por lo tanto, si el equipo está fuera de servicio
es la falla, pero si el proceso de operación indica que el equipo está sujeto a un intervalo
de tiempo prefijado (o eventual, como un grupo electrógeno de respaldo) de
funcionamiento y de “descanso”, entonces, en estos intervalos, cuando el sistema está
apagado, se le puede efectuar el mantenimiento preventivo o programado y se considera
que falla sólo cuando se requiere de su servicio y no funciona.
La mantenibilidad se interpreta etimológicamente como la acción de mantener y conservar
los sistemas. Cuando se habla de sistemas continuos, una acción es el trabajo efectuado
para corregir o reparar una falla.
Generalizando, mantenimiento es el conjunto de todas las acciones que tienden a reponer
las condiciones operativas iniciales del sistema, el mantenimiento aumenta la
disponibilidad del sistema, pero requiere accesibilidad del sistema para permitir el
16|
17. mantenimiento. En el lenguaje común se usa indistintamentamente el término
mantenimiento o mantención, a pesar que éste último no lo reconoce la RAE.
La Posibilidad de Mantenimiento, es la aptitud de un dispositivo, en condiciones
especificadas de uso, a ser conservado o repuesto en un estado, en el cual pueda
efectuar las funciones requeridas, cuando el mantenimiento se efectúa en condiciones
preestablecidas y usando los procedimientos y medios descritos. Se mide mediante la
tasa de reparabilidad μ.
MTTR = 1 / μ f.29
Mantención Centrada en Confiabilidad = RCM
Otro concepto y estrategia que se ha incorporado con relación al mantenimiento es el que
se conoce como RCM (Reliability Centered Maintenance) o Mantenimiento Centrado en la
Confiabilidad. Esta metodología se originó en la industria aeronáutica y dice relación con
una estrategia diferente de planificar el mantenimiento, su relación con el aseguramiento
de los activos, toma de conciencia en qué, cuándo y cómo se debe realizar las acciones
de mantenimiento, con el objetivo de controlar los costos, para enfocarse en las funciones
más importantes de los sistemas, y evitando o quitando acciones de mantenimiento que
no son estrictamente necesarias. Se mencionó previamente que el mantenimiento
recuperaba las proyecciones de confiabilidad, pero ello implica tener absoluta claridad en
conocer el estado en que se encuentra el activo a intervenir una vez qué se requiere la
recuperación, para que él cumpla con las funciones que se espera pueda desarrollar.
Se dice que el proceso RCM formula algunas preguntas antes de intervenir:
¿hay un entendimiento de que la gran mayoría de los fallas no están necesariamente
vinculadas a la edad de los activos? Recordar que el modelo de confiabilidad se basa, en
que una acción de mantención obedece a un modelo "sin memoria" exponencial de
distribución de probabilidad, es decir, el cual se reinicia como si fuese To.
¿es necesario cambiar los esfuerzos para predecir la esperanza de vida del activo, a
tratar de gestionar el proceso de fallas?
¿existe una comprensión de la diferencia entre los requisitos de un activo, desde la
perspectiva del usuario, y el diseño y la fiabilidad de los mismos al proyectarlos?
¿se comprende cabalmente la importancia de la gestión de activos en su condición
operacional? a menudo denominada condición de supervisión, de mantenimiento y
condición de mantenimiento predictivo.
¿se ha vinculado los niveles tolerables de riesgo con el desarrollo de estrategias
de mantenimiento?
¿se entienden las cuatro tareas básicas de mantenimiento de rutina? RCM ofrece
cuatro opciones entre las estrategias de gestión del riesgo:
condición de las tareas de mantenimiento,
restauración programada o descartar las tareas de mantenimiento,
tareas de mantenimiento como búsqueda de potenciales fallas y
17|
18. cambios a tiempo en el sistema, cambios a un diseño de hardware, a las
operaciones, u otras situaciones.
Un buen modelo analítico de confiabilidad y disponibilidad, puede ser útil para condicionar
contratos para tareas de externalización del mantenimiento, lo mismo que para
compromisos con los clientes. Existen estudios en que se procura demostrar que una
buena métrica de los resultados de la mantenibilidad llevan a una reducción de costos en
contratistas.
La mantenibilidad no es sólo cuestión de calidad o de costos, sino también de seguridad,
cuando se trata por ejemplo, de máquinas de transporte o de máquinas de salud. Los
riesgos en que puede incurrirse por una mantenibilidad mal planificada pueden costar
vidas, ya sea por accidentes debidos a fallas mecánicas, o por no disponer de buenos
diagnósticos en instituciones de salud, casos en que pudieron evitarse si existe una buena
planificación del mantenimiento.
Asegurar la confiabilidad de un equipo o sistema, por lo general va unida a la redundancia
en espacio y tiempo, es decir, que se opere desde sitios diferentes y alejados entre sí y
que funcionen simultáneamente e indistintamente para ejercer la función para la cual
están destinados. Asegurar los niveles de confiabilidad que hoy son expectativa, del tipo
“4 nueves” (99,99% = indisponibilidad de 52 minutos/año) o de “5 nueves” (99,999% =
indisponibilidad de 5 minutos/año), los que se exigen tan fácilmente a la O&M de redes y
servicios, requeriría excesivos costos de implementación en mejoras en instalaciones y
complejos refuerzos en recursos humanos y de repuestos. Adicionalmente, con las
mejoras tecnológicas, de remotización de la gestión y configuración, los automatismos de
redundancias, no resuelven el hecho de que la intervención de recursos humanos
calificados para reparar un desperfecto, los que siempre consumen mucho tiempo, en
comparación a las escalas de tiempo que significa la disponibilidad esperada. Por todo lo
anterior, debe existir una tendencia al mantenimiento proactivo que trate de evitar la falla.
Tipos de Mantenimiento
Siempre que se formaliza el estudio de alguna área del conocimiento, se intentan
clasificaciones, así se encuentra una taxonomía del mantenimiento o mantención, según
se puede ver en el diagrama de la próxima figura.
Mantención
Mantención Mantención
post falla pre falla
Mantención Mantención Mantención Mantención Mantención
Correctiva Proactiva Preventiva Predictiva Proactiva
Figura Nº10
18|
19. Estas formas de mantenimiento, sin duda, son una orientación de clasificación según su
oportunidad en el tiempo, la mantención preventiva es sistemática y programada; la
predictiva está centrada en la condición de operatividad del elemento, mientras la
mantención proactiva está para evitar la aparición o recurrencia de las fallas, y la
mantención correctiva viene luego de una falla, y es la mas comúnmente ejercida por
razones obvias, y a la vez la que exige un nivel de estrés mayor.
Mantenimiento correctivo: tipo tradicional, es la acción de mantenimiento (reparación) que
se efectúa después de la aparición de la falla. El tiempo de reparación puede ser largo
porque está ligado a la individualización y diagnóstico de la falla. Afecta a este tiempo
también la existencia de repuestos insitu, como así los tiempos de traslado, sobre todo en
telecomunicaciones, en que existe una gran dispersión geográfica de las instalaciones.
Conociendo lamda (la tasa de fallas), puede realizarse un dimensionamiento del stock de
repuestos de almacén (sí lamda es elevado se necesitan muchos repuestos).
El diagnóstico es un conjunto de técnicas aptas para evaluar el estado de un sistema y
también prever que pueda surgir la falla. Es la etapa crítica para la restitución del sistema
fallado. Requiere de personal con mucha experiencia, con habilidades de deducción,
rapidez de interrelacionar experiencias anteriores y toma de decisiones acertadas. Es útil
predisponer de técnicas de diagnósis de falla para reduce tiempos y costos de
mantenimiento, pero agrega costos de sensores, transductores, sistemas de supervisón y
gestión remota de las configuraciones, y software de sistemas expertos, que ayudan a la
auto diagnosis (redes neuronales, tests estadísticos, etc.).
Mantenimiento preventivo: el componente es sustituido antes de que falle, cuando se
prevé que está entrando en periodo de fallas por desgaste. La acción de mantenimiento
es efectuada en tiempos prefijados (time-based maintenance), se aprovechan los
momentos en los que no se requiere la disponibilidad del sistema, su tiempo de activación
es de duración inferior, respecto del mantenimiento correctivo. La disponibilidad crece, a
condición de que se logre, con un buen control de calidad, utilizar para la sustitución
dispositivos con tasa de falla constante o estable (es decir privados de fallas infantiles).
En electrónica de telecomunicaciones es complejo ejercer este tipo de mantención pues
en envejecimiento o desgaste no es tan manifiesto como en dispositivos mecánicos.
La definición de los objetivos del mantenimiento, debiera definirse en la etapa de
proyecto, así como la elección del tipo de mantenimiento (correctivo o preventivo) para
establecer la condición óptima para alcanzar los niveles de confiabilidad preestablecida en
el diseño. Es necesario poder determinar los tiempos requeridos en horas hombre, para
cada una de las fases de mantenimiento, lo mismo que el desarrollo de la documentación
técnica que incluya el plan logístico de intervención.
Con el tiempo, la estrategia de mantenimiento ha evolucionado, se propende al mínimo
costo de reparación, máxima disponibilidad operativa, mínimo costo de usuario. Se pasa
de mantenimiento basado en tiempo, a mantenimiento basado en condición, esto es en
prevenir, más que en reparar.
19|
20. Los tiempos de reparación de un equipo caracterizan la mantenibilidad y, el tiempo
promedio para reparar (MTTR) se define como el total de horas inoperables dividido entre
el número de acciones de mantenimiento.
Los tiempos para reparar dependen generalmente de la duración de las actividades de:
El enfriamiento del equipo (no aplica en algunos casos)
Administrativas (si las hay, como obtención de permisos de acceso o de
viáticos)
Traslados al sitio siniestrado (si corresponde)
Ubicación y diagnóstico de la falla
Espera de los materiales y repuestos
Reemplazo de componentes dañados
Calentamiento del equipo (no aplica en algunos casos)
Reinicio, reconfiguración
Los tiempos requeridos para el enfriamiento, el calentamiento y los trámites
administrativos son, generalmente, constantes pero la sumatoria de los tiempos para la
ubicación de la falla, espera de los repuestos y reemplazo de los componentes, tienen un
comportamiento aleatorio sujeto a toda la estructura logística, al entrenamiento del
personal, al tipo de falla, etc. Sin embargo, el tiempo de duración de la falla es la
sumatoria de los tiempos parciales antes mencionados. En algunos sistemas hay un
tiempo implícito en el intervalo de falla, el cual incrementa la duración de la misma y se
define como “tiempo muerto”, en donde aún cuando se ha presentado la falla, no hay
conocimiento de ella por falta de reporte; por lo general, ocurre con equipos que se
encuentran ubicados en lugares distantes o en zonas aisladas de los grupos de trabajo.
Causas de fallas
Enumerar causas, nunca va a ser exhaustivo, por la diversidad de tecnologías y de
situaciones. Sólo a modo de ejemplo se comentan algunos casos.
En transformadores de sistemas de distribución eléctrica, la falla es en general una
pérdida de aislamiento, sobrecalentamiento, sobre tensiones, envejecimiento (térmico,
eléctrico, mecánico, ambiental), y también proyecto o construcción inadecuados.
Los interruptores, fallan por problemas de perdida de aislamiento, sobre tensiones,
sobrecalentamiento, envejecimiento, malfuncionamiento del relé de control, o problemas
de circuitos auxiliares, y por problemas mecánicos, como rotura de piezas en movimiento
o estáticas.
Las líneas aéreas de media tensión, fallan componentes como terminales, tensores,
juntas, aisladores, postes.
Los cables, ya sean de energía o de telecomunicaciones, sufren de rotura mecánica en
gran proporción, por situaciones exógenas a la operación, por intervenciones de terceros.
Aunque también en este caso hay deterioro y envejecimiento, como condiciones adversas
ambientales.
Para los aisladores es la descarga superficial, rotura mecánica, contaminación,
envejecimiento (poliméricos) y actos vandálicos.
20|
21. En dispositivos mecánicos, grupos generadores, bancos de batería existe un desgaste y
envejecimiento inherente, por lo tanto la prevención es absolutamente necesaria. Lo
mismo en partes como antenas y torres, que están sujetas a las condiciones ambientales.
Si bien en la electrónica, es difícil predecir probabilidades de falla y la mantenibilidad
preventiva no es totalmente efectiva, pero si en algunos aspectos que sí los afectan, en
especial a las condiciones ambientales. También aplican bien algunas acciones
proactivas operacionales, ya que se puede alcanzar una indisponibilidad por falta de
ancho de banda o falta de capacidad de procesamiento para cursar y procesar el tráfico
demandante.
Una de las principales preocupaciones para asegurar una buena confiabilidad de los
equipos de telecomunicaciones, debe ser el tener bajo control las condiciones
ambientales de los recintos de instalación. Los equipos disipan altas temperaturas que de
no correctamente evacuadas, por malas condiciones de filtros, insuficiente separación de
racks y inadecuadas condiciones de enfriamiento, llevan a un calentamiento del equipo,
mas allá de las correctas condiciones operacionales de la circuitería electrónica.
CONSUMO DE POTENCIA
FLUJO AIRE
ESPACIO
Figura Nº11
Para terminar con estos conceptos de mantenibilidad, digamos que ésta, está
estrechamente vinculada con los conceptos de calidad, de mejora continua, de kaizen, de
análisis de Pareto, árboles de causa efecto de Ishikawa, temas que se recomienda
investigar.
21|
22. Criterios de Riesgo y Costos
Analizado desde la perspectiva de los costos, los gastos (OPEX) propios de un
mantenimiento preventivo, redundan en un beneficio por evitar indisponibilidades que
incurran en el no cumplimiento de los SLA o en pérdidas de tráfico.
Costo
Costo
Total
Total
Costo
Costo
CAPEX+OPEX
CAPEX+OPEX
Pérdidas por
Pérdidas por
Interrupción
Interrupción
Confiabilidad %
Confiabilidad %
90
90 Óptimo
Óptimo 100
100
Figura Nº12
Un análisis de probabilidades de disponibilidad (probabilidades de falla y probabilidad del
tiempo de recuperación) asociados a costos, permitirá definir estrategias de
mantenimiento, como puede ser la oportunidad de realizar un mantenimiento correctivo,
preventivo o de diagnóstico. Desde estos datos se podrá priorizar acciones e inversiones.
Como primera opción un análisis de Pareto podrá ser útil para dedicar mayores esfuerzos
en aquellos problemas que tienen más relevancia, detectando “los pocos vitales de los
muchos triviales”, ya que por lo general, el 80% de los resultados totales se originan en el
20% de los elementos.
De la figura Nº12 se puede deducir que no es cosa de invertir indiscriminadamente, ni de
esperar que la confiabilidad de las redes y sistemas sea a toda instancia de “5 nueves”.
La indisponibilidad redunda en un daño económico para el usuario final, lo mismo que
para el operador. Si la confiabilidad de los componentes no varia, el daño económico
crece al crecer la complejidad del sistema. El daño económico crece al crecer la tasa de
falla de cada uno de los componentes simples.
Nuevamente se insiste en que las acciones sobre el proyecto, pueden maximizar la
confiabilidad de un producto industrial, de un sistema, o de una red, en esta fase se
alcanza la confiabilidad intrínseca. En las fases sucesivas del ciclo de vida, R disminuye,
como consecuencia de apartarse del proyecto inicial durante la producción u operación, o
por la puesta en servicio, o por el envejecimiento durante el funcionamiento. El proyecto
debe prever todos los aspectos de confiabilidad, con referencia a las prestaciones
requeridas en servicio. Para dispositivos reparables (disponibilidad más que confiabilidad)
es necesario tomar en consideración, sobre el proyecto, también todas las acciones que
favorecerán el mantenimiento del producto, sistema o red que se activa para prestar
servicios.
22|
23. La estructura de costos, en términos generales considera como Costo global = Costo
intervención + Costo de falla + Costo almacenamiento + Costo sobre-intervención.
El Costo Intervención (Ci) (por unidad de tiempo = ci) reúne la Mano de obra, los
Materiales fungibles, y los Repuestos.
El Costo de Falla (Cf) (por unidad de tiempo = cf), tiene los Ingresos no percibidos
y los Gastos extras de producción, y la Materia prima no utilizada
El Costo de almacenamiento Ca (por unidad de tiempo = ca), toma en cuenta, el
Interés financiero por capital detenido, la Mano de obra dedicada a gestión e
inventario, los Costos de explotación de edificio (energía, mantención), la
Depreciación comercial, etc. Por último, el Costo de sobre-intervención, considera
los costos de equipos con mayores costos iniciales, pero menor costo de ciclo de
vida (menores costos de mantenimiento, almacenamiento, vida útil mayor, etc).
A estos costos debe agregarse aquellos que significan pérdidas de ingresos, por ejemplo
por pérdidas de tráfico, o por pago de multas, y otras más intangibles como la pérdida de
credibilidad o imagen.
Un ejemplo de vínculo de disponibilidad y costos es analizar el impacto que puede tener
una falla, el CAPEX de la inversión necesaria para reducir la probabilidad de
indisponibilidad y los potenciales costos de pérdida de ingresos por tráfico perdido o retiro
de clientes insatifechos.
Suponiendo que un conjunto de radio bases celulares, dependen todas ellas de una ruta
sin respaldo, con una disponibilidad dada y se desea evaluar si una determinada
inversión, para duplicar la diversidad de ruta, es necesario valorizar las potenciales
pérdidas en ingresos.
DISPONIBILIDAD PERDIDA
Sin Respaldo Sin Respaldo Con Respaldo Con Respaldo Sin Respaldo Sin Respaldo Con Respaldo
celda Disp. Ruta Indisp Ruta Disp. Ruta Indisp. Ruta Tráfico Ingreso Traf. - Ingreso 30% Churn - Ingreso
US$/año
evento/año mins/año evento/año mins/año min/mes (10 meses) US$/año US$/año US$/año
BTS1 99,89% 587,5 99,9999% 0,7 14.629 14.629 59 4.389 0,07
BTS2 99,22% 4.089,3 99,9939% 31,8 53.946 53.946 409 16.184 3,18
BTS3 99,83% 887,0 99,9997% 1,5 33.773 33.773 89 10.132 0,15
BTS4 99,83% 887,0 99,9997% 1,5 8.376 8.376 89 2.513 0,15
BTS5 99,83% 887,0 99,9997% 1,5 2.868 2.868 89 860 0,15
BTS6 99,79% 1.126,5 99,9995% 2,4 35.838 35.838 113 10.752 0,24
BTS7 99,83% 887,0 99,9997% 1,5 5.808 5.808 89 1.742 0,15
BTS8 99,88% 647,4 99,9998% 0,8 5.933 5.933 65 1.780 0,08
BTS9 99,89% 587,5 99,9999% 0,7 7.654 7.654 59 2.296 0,07
BTS10 99,89% 587,5 99,9999% 0,7 9.752 9.752 59 2.926 0,07
11.173,9 43,0 178.577 178.577 1.117 53.573 4,30
Desde el análisis, la probabilidad de indisponibilidad es de 11.174 minutos por año, que
mediante la ruta respaldada se podrían reducir a 43 mins/año. La pérdida de ingresos por
causa de los minutos de tráfico perdidos (bajo el supuesto que afecta a minutos de mayor
actividad) es del orden de US$ 1.117, que difícilmente justifiquen cualquier inversión de
duplicación de la ruta mencionada. Sin embargo, si se considera la imagen y potencial
renuncia de clientes (churn) por una mala calidad del servicio, la pérdida si puede ser
considerable, que en ejemplo se ha valorizado para un 30% de churn en la zona de
servicio de las celdas, en cuyo caso si se puede llegar a justificar una inversión, si su
monto está dentro la evaluación económica del tiempo de retorno.
23|
24. Análisis FMECA
Otra útil técnica para la eliminación de las características de diseño deficientes, es el
análisis de los modos y efectos de fallas (FMEA:Failure Mode and Effects Analysis); o
análisis de modos de fallas y efectos críticos (FMECA: Failure Mode, Effects, and
Criticality Analysis). La intención es identificar las áreas o ensambles o partes del todo
que es más probable que den lugar a fallas del conjunto.
El FMEA define la función como la tarea que realiza un componente --por ejemplo, la
función de una válvula es abrir y cerrar-- y los modos de falla son las formas en las que el
componente puede fallar. La válvula fallará en la apertura si se rompe su resorte, pero
también puede tropezar en su guía o mantenerse en posición de abierta por la leva,
debido a una rotura en la correa de árbol de levas.
La técnica consiste en evaluar tres aspectos del sistema y su operación:
Condiciones anticipadas de operación, y el fallo más probable.
Efecto de fallo en el rendimiento.
Severidad del fallo en el mecanismo.
La probabilidad de fallos se evalúa generalmente en una escala de 1 a 10, con la
criticidad aumentando con el valor del número. Esta técnica es útil para evaluar
soluciones alternativas a un problema pero no es fácil de usar con precisión en nuevos
diseños. El FMEA es útil para evaluar si hay en un ensamble un número innecesario de
componentes puesto que la interacción de un ensamble con otro multiplicará los efectos
de un fallo. Es igualmente útil para analizar el producto y el equipo que se utiliza para
producirlo, ayuda en la identificación de los modos de fallo que es probable que causen
problemas de uso del producto. Facilita también, eliminar debilidades o complicaciones
excesivas del diseño, y a identificar los componentes que pueden fallar con mayor
probabilidad. Puede también usarse eficazmente para evaluar las causas de detención en
las máquinas de producción o en nodos de una red.
En resumen, el objetivo de un FMECA, cuando se realiza como parte de un proyecto de
diseño, es eliminar las potenciales futuras fallas que se presuma con gran severidad y
probabilidad, y para reducir lo más posible, aquellas con la más alta gravedad y/o mayor
probabilidad. Esto permite la clasificación de prioridades, por medio del llamado número
de prioridad de riesgo (RPN). El RPN es el resultado de una multiplicación de la
Detectabilidad (D) x Severidad (S) x Ocurrencia (O), cada uno en una escala de 1 a 10. El
mayor RPN es 10x10x10 = 1000, o que significa que este evento de falla no es detectable
por la inspección, es muy grave y la incidencia es casi segura. Si la ocurrencia es muy
escasa, éste sería igual a 1 y el RPN reduciría a 100. Por lo tanto, el análisis de criticidad
permite centrarse en los más altos riesgos.
Nivel de Criticidad
Para definir un nivel de criticidad, usualmente los efectos de la falla se clasifican en:
I. Insignificante: el efecto sobre la confiabilidad y/o disponibilidad es mínimo.
II. Menor: no afecta la seguridad, pero sí la confiabilidad-disponibilidad.
III. Mayor: no afecta la seguridad, pero sí la confiabilidad-disponibilidad de manera
importante.
IV. Crítica: es afectada la seguridad
24|
25. El autor del “El Arte de Mantener” (ref9) recomienda los siguientes criterios para definir el
nivel de criticidad:
En una red de telecomunicaciones podrá analizarse todas las situaciones de
vulnerabilidad que puedan existir y asociarlas a un nivel de criticidad, para centrar los
esfuerzos de mejoras.
Una buena ingeniería contemplará desde los inicios de un proyecto, en sus etapa de
concepción y diseños, la confiabilidad esperada y todos los medios para alcanzarla. Si
como se espera de una red de telecomunicaciones, que presta servicios fundamentales
para la sociedad, una disponibilidad de “5 nueves” debe analizarse de acuerdo a los
distintos criterios que se han desarrollado aquí.
Un análisis detallado desde los cimientos (componentes, sistemas y subsistemas) hasta el
resultado final de la red implementada, conlleva contemplar una revisión de la arquitectura
total, definir objetivos de confiabilidad, ejecutar una asignación a las partes.
DISPONIBILIDAD
RED %
INDISPONIBILIDAD
NIVEL de minutos/año
SISTEMAS
MTBF
NIVEL de CIRCUITOS horas
(tarjetas)
TASA FALLAS
NIVEL de COMPONENTES FITs
Figura Nº13
Realizar una evaluación de la arquitectura, identificar deficiencias de diseño, desarrollar
los diagramas en bloque de confiabilidad (técnica RBD: Reliability Block Diagrams)) y
25|
26. modelos de Markov, hacer la simulaciones y obtener resultados de fallas posibles y
documentarlas, así se podrá reducir los costos de mantención y reparación, identificando
previamente posibles problemas de confiabilidad antes que la red entre en operación.
Existiendo riesgos y costos involucrados, es necesario poder establecer compromisos
contractuales, a los que se les denomina SLA o OLA, temas que serán tratados en un
apartado específico.
26|
27. Aplicaciones y Análisis Estadístico de Eventos
De lo estudiado anteriormente, se ha visto que una red o sistema, tiene un
comportamiento aleatorio en cuanto a sus estados de operación correcta y con fallas
operacionales. Cuando hay historia, se puede analizar los registros de tiempos en uno y
otro estado (Disponibilidad real), y desde allí proyectar lo que pueda suceder en el futuro
de incertidumbre operacional (Disponibilidad proyectada).
Incertidumbre
OK
OUT
to t1 t2 t3 t4 t
Figura Nº14
¿qué significan las cifras? ¿cómo obtener resultados de análisis? ¿qué deducciones se
pueden obtener? ¿cómo ayudan a la calidad? Para todo esto, es fundamental disponer
de registros y bases de datos con buenas clasificaciones de los eventos, y con igual
detalle del que se desea lograr en los estudios. Si se desea analizar a nivel de
confiabilidad de componentes electrónicos, a nivel de módulos o a nivel de sistemas, esa
deberá ser la desagregación de los registros.
A fin de conseguir datos confiables, en los sistemas de registro debe evitarse dejar al
arbitrio de quien completa el dato, por o tanto lo aconsejable es que previamente se
definan las tablas de validación del dato. Además, es imprescindible un entrenamiento
profundo que permita la comprensión del fin último de esos datos, como así también del
significado específico de las clasificaciones.
Hay que recordar que la validez estadística, está basada en las tendencias, y para ello las
bases de datos deben disponer de registros históricos de largo tiempo, así los resultados
de análisis serán más cercanos a la realidad. Por la misma razón, debe evitarse cambiar
muy frecuentemente los criterios de medición, o los tipos de clasificación.
Los ordenes de magnitud en las mediciones de los parámetros fundamentales de
disponibilidad, suponiendo un instrumento constituido de cuatro elementos, son del tipo:
Component MTBF MTTR Availability Downtime
Hr Hr % mins/año
Transductor de Entrada 100.000 2 99,998% 10,5118
Signal Processor Hardware 10.000 2 99,980% 105,0990
Signal Processor Software 2.190 0,0833 99,996% 19,9992
Visualizador 100.000 2 99,998% 10,5118
En la referencia citada como “Estadística básica aplicada al Mantenimiento” se menciona,
que “la recolección de los datos de tiempo y su análisis, para la estimación de los índices
de mantenimiento, acarrean una serie de problemas:
27|
28. (a) Como los fenómenos de funcionamiento de los equipos se relacionan con procesos
aleatorios, éstos por su propia naturaleza generan un alto volumen de información, el
cual se incrementa cuando aumenta el número de equipos con las mismas
características de operación.
(b) La precisión es otro de los factores considerados, debido a que cuando ocurre una
falla, no se sabe a cabalidad el momento exacto en el que ocurre y, la exactitud de los
índices a obtener depende de la precisión con la cual se recopila la información sobre
el tiempo de operación y el tiempo fuera de servicio del sistema.
(c) La veracidad de la información va a estar sujeta a la honestidad y habilidad del
personal encargado de recolectarla.
(d) La información que genera cada equipo requiere del conocimiento de la estadística
para el procesamiento de los datos recopilados.
(e) Como el volumen de los datos es tan alto y las ecuaciones matemáticas complejas, se
requiere del uso de computadoras lo cual implica la contratación de recursos humanos
especializados para el manejo de datos y de los programas, así como para la
trascripción de la información.
(f) Dependiendo de la distancia entre el equipo y el computador, y del tiempo que demora
la trascripción de los datos se va a presentar un desfasaje entre los sucesos ocurridos
en el equipo y los resultados emitidos por el computador, lo que puede ocasionar una
decisión errónea sobre el mantenimiento a seguir; por no ajustarse a la realidad del
equipo, ya que éste pudo haber generado otra serie de datos de tiempo.
(g) Aunque se utilizan los computadores para calcular los índices de mantenimiento se
presenta el inconveniente de la interpretación de los resultados, porque para llegar a
la decisión acertada, se deben tener conocimientos de las técnicas de mantenimiento
y de los modelos estadísticos.
(h) En general, se puede decir que lo sofisticado de la cuantificación de los índices de
mantenimiento y su interpretación ha ocasionado, que en determinados niveles
gerenciales, tengan una aplicación restringida, por lo tanto, existe una incertidumbre
en la toma de decisiones que distorsiona la utilización óptima de los recursos
humanos y el control de inventarios de repuestos.
Se entiende por parámetros de mantenimiento, a una cantidad que está sujeta o
restringida a determinados valores que pueden ser, en una situación especial, una serie
histórica que describa las características o el comportamiento de un equipo.(sic)”
El análisis de datos en este campo, no es sólo sacar resultados de tendencia, sino
también deducir conclusiones y recomendar acciones de mejoras. Para ello las
metodologías de Pareto e Ishikawa son clásicas.
Diagramas de Pareto
Wilfredo Pareto (1848-1923) economista italiano, realizó un estudio sobre la riqueza y la
pobreza, descubriendo que el 20% de las personas controlaba el 80% de la riqueza en
Italia. Pareto observó muchas otras distribuciones similares en su estudio.
A principios de los años 50, el Dr. Joseph Juran descubrió la evidencia
para la regla del "80-20" en una gran variedad de situaciones. En particular, el fenómeno
parecía existir, sin excepción, en problemas relacionados con la calidad. Una expresión
común de la regla 80/20 es que "el 80% de nuestro negocio proviene del 20% de nuestros
clientes."
28|
29. Por lo tanto, el Análisis de Pareto es una técnica que separa los "pocos vitales" de los
"muchos triviales". Una Gráfica Pareto es utilizada para separar gráficamente los aspectos
significativos de un problema desde los triviales de manera que se pueda tomar una
decisión y se sepa dónde dirigir sus esfuerzos para mejorar.
El Diagrama de Pareto consiste en un gráfico de barras similar al histograma que se
conjuga con una ojiva o curva de tipo creciente y que representa en forma decreciente el
grado de importancia o peso que tienen los diferentes factores que afectan a un proceso,
operación o resultado.
Análisis de Pareto
80 120%
70
Pocos Vitales 100%
60
80%
50
Cantidad
40 60%
Muchos Triviales
30
40%
20
20%
10
0 0%
D A C F E G B H
Tipo Evento
Figura Nº15
La tabla de frecuencias de los eventos (clasificados desde A a H) y su aporte porcentual
se ordena en forma descendente y se calcula el porcentaje acumulado. El resultado se le
utiliza para,
Identificar y analizar un producto o servicio para mejorar la calidad.
Cuando existe la necesidad de llamar la atención a los problemas o causas de una
forma sistemática.
Al analizar las diferentes agrupaciones de datos (ejemplo: por producto, por segmento
del mercado, área geográfica, etc.)
Al buscar las causas principales de los problemas y establecer la prioridad
de las soluciones.
Al evaluar los resultados de los cambios efectuados a un proceso (antes y
después).
En casos típicos, los pocos vitales (pasos, servicios, ítems, problemas, causas) son
responsables por la mayor parte en el impacto negativo sobre la calidad. Un equipo de
análisis puede utilizar la Gráfica de Pareto para varios propósitos para: lograr mejoras,
analizar las causas, estudiar resultados, planear una mejora continua, demostrar que
progreso se ha logrado de un "antes y después".
29|
30. Diagramas de Ishikawa
Otra útil metodología se le debe a Ishikawa, Kaoru Ishikawa quién nació en Japón en
1915 y murió en 1989. Ishikawa fue un gran teórico de la administración de empresas y un
experto en control de calidad. Ishikawa se incorporó a la ISO en 1960 y, desde 1977, fue
el presidente de la delegación del Japón. Fue además presidente del Instituto de
Tecnología Musashi de Japón. De los muchos aportes que hizo Ishikawa en sus
numerosos libros sobre control de calidad, se destaca el conocido diagrama de causa-
efecto, o mejor conocido como el diagrama de espina de pescado, por la forma que éste
tiene. Un ejemplo:
Figura Nº16
La manera de obtener comienza por decidir cuál va a ser la característica de calidad que
se va a analizar. Por ejemplo, en un caso de un determinado producto, podría ser el peso
del frasco lleno, la densidad del producto, el porcentaje de aceite, etc. Se traza una flecha
gruesa que representa el proceso y a la derecha se escribe la característica de calidad.
Se indican los factores causales más importantes y generales que puedan generar la
fluctuación de la característica de calidad, trazando flechas secundarias hacia la principal.
Por ejemplo: Materias Primas, Equipos, Operarios, Método de Medición, etc. Para una
mejor visualización, cada una de las características debe tener una ponderación de
cuánto pesa en proceso y un desglose de las causas que pueden contribuir cada uno
previas.
Figura Nº17
30|
31. En general los aportes de Kaoru Ishikawa, establecen las herramientas básicas para la
administración de la calidad:
1. La calidad empieza con la educación y termina con la educación. Sistema humano,
dado que para que se tenga la cultura de calidad se tiene que tener un ambiente de
cultura en las personas y esto se da por medio de la educación.
2. El primer paso en la calidad es conocer las necesidades de los clientes. El
posicionamiento en el mercado, se debe a que uno necesita saber las necesidades de los
clientes para poder satisfacerlas y así cumplir con los estándares de calidad.
3. El estado ideal del control de calidad ocurre cuando ya no es necesaria la inspección.
Se debe controlar el proceso de la calidad para que en un futuro no se presenten
defectos.
4. Eliminar la causa raíz y no los síntomas. Planeación estratégica, se debe a que uno
debe tener un enfoque total del sistema para poder así definir las políticas correctas de la
calidad.
5. El control de calidad es responsabilidad de todos los trabajadores y en todas las áreas.
Se necesita que toda la empresa trabaje junta, es decir, se integre para que puedan tener
éxito los procesos de la calidad.
6. No confundir los medios con los objetivos. Debe haber un buen líder para que lleve a la
empresa a cumplir todos los objetivos, que son la búsqueda de la calidad.
7. Ponga la calidad en primer término y dirija su vista a las utilidades a largo plazo. Mejora
de la calidad, por que se tiene que tener a la calidad como primer término.
8. La mercadotecnia es la entrada y salida de la calidad. El posicionamiento de mercado,
es muy importante saber que le gusta al cliente y que no.
9. La gerencia superior no debe mostrar enfado cuando sus subordinados les presenten
hechos. Se debe tener en cuenta que lo que se busca es la calidad, así que cualquier
queja se debe tomar en cuenta para intentar mejorar y así alcanzar la calidad.
10. El 95% de los problemas de una empresa se pueden resolver con simples
herramientas de análisis y de solución de problemas. La planeación estratégica, siempre
se tiene que analizar en el lugar donde se trabaja para así poder resolver los problemas
que puedan presentarse.
31|
32. Estadísticas de Disponibilidad en Redes de Telecomunicaciones
La problemática de un operador de redes de telecomunicaciones es que su producto es
un intangible, en la forma de servicios, y su fábrica (que opera 7*24) son las redes, que
están constituidas por múltiples nodos que forman redes de mucha diversidad, en
tecnologías y origen de fabricación. En consecuencia la complejidad del registro de
eventos es igualmente compleja e implicará análisis de calidad tanto para redes como
para servicios.
Las redes de telecomunicaciones están estratificadas y se considera que hay sistemas o
redes que son funcionalmente dependientes unos de otros. Como puede verse en la
figura Nº 18, las capas, que comúnmente se definen, son la infraestructura de energía y
clima, las redes de transporte, las redes de servicios y las redes de acceso.
Servicios del Cliente
Sistemas Operacionales
Sistemas Comerciales
Redes de Acceso
Redes de Servicios
Redes de Transporte
Infraestructura,Energía y Clima
Figura Nº 18
El diagrama muestra que todos los componentes contribuyen al servicio del cliente, la
base fundamental de las redes y sistemas es la infraestructura de obras civiles, energía y
clima, sobre la que se montan las distintas redes. A su vez la red de transporte es la base
de soporte para el resto de las redes a las que les provee las interconexiones de nodos.
Las redes de servicios soportan la variedad de servicios de telecomunicaciones, como
pueden ser las comunicaciones telefónicas, las de datos o de video. A todos estos
elementos se debe acceder desde los recintos de clientes mediante las redes de acceso.
La correcta operación de todas las instalaciones es apoyada por sistemas de soporte a
los procesos, en el caso de los operacionales, corresponde a sistemas de gestión de
elementos de red (NMS) para su configuración y monitoreo remoto, supervisión de
alarmas, registro de tickets de fallas, respaldo de configuraciones, administración de
repuestos, inventarios de recursos de red, y de planimetrías.
En tanto los sistemas comerciales, apoyan esta gestión, en cuanto a órdenes de trabajo
de servicios, bases de clientes, registros de tráfico, sistemas de tasación, tarificación, y
facturación. Todos y cada uno contribuyen a la calidad del servicio final. La imagen
piramidal indica que las plataformas inferiores soportan a todas las superiores y por ello
revisten mayor importancia desde el punto de vista de asegurar confiabilidad.
32|
33. En la figura Nº 19 se describe en forma mas detallada las distintas redes y tecnologías
que forman parte de las instalaciones típicas de un operador, para entrar a continuación a
realizar algunos análisis típicos de redes.
Figura Nº 19
Cualquier estudio de consfiabilidad o disponibilidad requiere definir modelos de red y
modelos de datos. La recopilación de datos necesita un largo tiempo de recolección y
validación, los que típicamente se obtienen de las bases de datos de los reportes de fallas
y dependiendo de la profundidad del análisis que se desea, es el mayor detalle del
registro: niveles de tecnología, equipos, tarjetas, módulos, responsabilidades operativas,
proveedores, etc.
Para informes o reportes de SLA es común el análisis de datos de un mes para
determinar comportamiento de disponibilidad de corto plazo, sin embargo, para análisis de
proyecciones de confiabilidad lo recomendado es un análisis de lo por lo menos un año de
datos.
El proceso de análisis requiere muchas horas especializadas y más aún si las bases de
datos requieren de mucha validación. Por ello se han desarrollados herramientas
informáticas especializadas, que como referencia se mencionan algunos:
http://www.i-mtbf.com/
http://www.relex.com/
http://www.raytheoneagle.com/asent/index.htm
http://www.reliasoft.com/BlockSim/
http://www.isograph.com/workbench.htm
http://www.plant-maintenance.com/freestuff/1006.shtml
33|
34. Sistemas de energía o poder
Comenzando por un Modelo de Cálculo para instalaciones de energía para
telecomunicaciones, la recomendación es estructurar los registros de datos que
contengan:
Fecha H:M:S Inicio / Fin del evento. Si se desea evaluar el proceso registrar
tiempos intermedios.
Sistema AC – CC – Tableros – Baterías – Disyuntores, inventario de base
instalada, etc.
Marcas, fabricantes
Ubicación: Lugar geográfico – Estación - Sala
Alarma inicial
Diagnóstico - Solución
Técnico responsable: diagnóstico y reparación, Si se desea evaluar, también
recursos externos identificarlos
Recursos utilizados, control de repuestos y análisis de costos
En consideración a que se está en presencia de instalaciones de múltiples sitios y
multiples equipos debe recurrirse a la formula f.21 para el calculo. Además, debe
generarse una medida de impacto, es decir, que en una instalación (sitio o estación) una
falla no siempre afecta a todos los servicios de energía, ello por que pueden haber
diferentes módulos rectificadores, diferentes tableros de distribución, y múltiples breakers,
protecciones o automáticos (según el término que se acostumbre).
La recomendación es que sea éste último nivel el que permita ponderar el impacto, ya que
es el último elemento del sistema que permite evaluar el impacto sobre el número de
equipos de telecomunicaciones o TI que fueron afectados.
Si se está frente a la necesidad de evaluar confiabilidad de una instalación, en primer
lugar establecer el diagrama en bloques de todos los componentes del sistema que están
susceptibles de analizar, en una cadena serie-paralelo y aplicar los MTBF históricos de al
menos un año de registro o los que entregue el fabricante. Un modelo de una posible
planta de energía se muestra en la figura Nº 20.
Figura Nº 20
34|
35. El objetivo de confiabilidad de todo el sistema, es el resultante en la carga, en
consecuencia en el calculo intervienen al menos 7 elementos, aportando cada uno su
propia confiabilidad. ¿cuál es la probabilidad de estar libre de falla en 1 año?
MTBF Confiabilidad
Hr %
Elem 1 1000000 0,9901
Elem 2 300000 0,9607
Elem 3 500000 0,9802
Elem 4 1000000 0,9901
Elem 5 300000 0,9672
Elem 6 1000000 0,9901
Elem 7 300000 0,9672
TOTAL 89,8538%
Se puede esperar con un 89.9% de probabilidad de que no falle antes de las 10.000 Hrs
(el año son 8.760), notando que cada elemento por separado tiene un buen nivel de
confiabilidad, y bajo el supuesto que los dos primeros elementos operan como respaldo.
Este estudio es válido para esa configuración de sistema y para todas las instalaciones
que sean iguales y con los mismos componentes.
Si se analiza la disponibilidad, se incluye la mantenibilidad expresada por el MTTR.
MTBF MTTR Disponibilidad Downtime
Hr Hr % mins/año
Elem 1 1000000 2 99,99980% 1,05
Elem 2 300000 4 99,99867% 7,01
Elem 3 500000 1 99,99980% 1,05
Elem 4 1000000 1 99,99990% 0,53
Elem 5 300000 1 99,99967% 1,75
Elem 6 1000000 1 99,99990% 0,53
Elem 7 300000 1 99,99967% 1,75
TOTAL 99,9989% 5,61
El resultado es que se espera que el 99,9989 del tiempo de operación el sistema esté
disponible, y como complemento un tiempo de indisponibilidad de 5,6 minutos por año
que se podría perder el servicio. Si las cifras de MTBF y MTTR provienen de la estadistica
previa del año, no es lo que se espera sino es un hecho, y que si se pudiese proyectar
como comportamiento futuro de mantenerse las condiciones operativas.
Suponiendo que se analiza con otra perspectiva, que sea detectar puntos de debilidad de
los distintos sistemas similares, en cuyo caso se tuviese los siguientes datos (no dicen
ninguna relación con ejemplo anterior):
Cantidad Eventos Sum Tpos out MTBF MTTR Disponibilidad Downtime
Instalada Hr Hr Hr % mins/año
Elem 1 100 50 458 175 9,2 99,948% 274,80
Elem 2 50 38 1432 231 37,7 99,673% 1718,40
Elem 3 200 41 783 214 19,1 99,955% 234,90
Elem 4 639 1 321 8760 321,0 99,994% 30,14
Elem 5 43 14 53 626 3,8 99,986% 73,95
Elem 6 173 73 837 120 11,5 99,945% 290,29
Elem 7 491 200 38 44 0,2 99,999% 4,64
35|
36. Se deduce que el elemento 7, a pesar de presentar una alta tasa de fallas (200 eventos),
pero por tener MTTR muy bajo, su disponibilidad es de 99,999% del año. Por el contrario,
puede también deducirse, que el elemento 2 debe analizarse en mas detalle su
comportamiento (oportunidad para Ishikawa), ya que tiene la mayor contribución a la
indisponibilidad del sistema, tanto por impacto del MTBF y MTTR. Del diagrama figura
Nº21 el responsable es el módulo 2 que deberá resolverse con el fabricante su solución.
falla operativa= 6 falla H·W=23
Instalación=1 Módulo1=6
mantención=3 Módulo2=13
provisión= 2 Módulo3=4
de 50 Eq fallaron 45 Calidad Equipo
Config=3 falta=1
Bloqueo=4 distancia=1
falla SW Repuestos=2
Figura Nº 21
Si se desease analizar la disponibilidad de la entrega de energía a todos los equipos de
las redes, suponiendo un universo de 500 alimentadores, para los que se registran los
eventos de falla y semanalmente se calcula los parámetros de disponibilidad real y
proyectada, luego de determinar los MTBF y MTTR evolutivos.
Disponibilidad Proyectada
MEDIDA PROYECTADA
4,5 100,5000%
4 99,5000%
3,5 1-(TiTo)
MTBF/(MTBF+MTTR) 98,5000%
3
2,5 97,5000% Eventos
2 96,5000% Disponibilidad %
1,5
95,5000%
1
0,5 94,5000%
0 93,5000%
1 2 3 4 5 6 7 8 9 10 1112 1314 15 1617 1819 20 2122
TIEMPO
Figura Nº 22
Los calculos se muestran en la tabla siguiente:
Eventos Eventos Tpo. out Tpo. Out Acum. MTBF MTTR Disponibilidad
Acum Hr Hr Hr Hr %
1 1 0,4 0,4 168 0,4 99,9995%
3 4 0,34 0,74 42 0,2 99,9991%
1 5 1,3 2,04 34 0,4 99,9976%
1 6 1,45 3,49 28 0,6 99,9958%
4 10 4,3 7,79 17 0,8 99,9907%
0 10 0 7,79 17 0,8 99,9907%
1 11 0,98 8,77 15 0,8 99,9896%
La notable diferencia se debe a la poca historia de los eventos. Lo recomendable es
aumentar el tiempo de análisis para que la proyección sea más fiable. Se insiste que los
sistemas de poder sustentan la totalidad de los demás elementos de las redes, por ello
debe asegurarase la máxima confiabilidad.
36|