1. Universidad Técnica de Manabí
Facultad de Ciencias
Administrativas y Económicas
Carrera de Auditoria
Cátedra:
Auditoria en Sistemas Informáticos
Tema:
Taller # 2
Autores:
Álvarez Aviles Janina Katiuska
Intriago Salvatierra Karen
Robles Mendoza Danilo Adrian
Romero Rodríguez Alexi
Zambrano Mendoza Gema
Zambrano Pico Gisella
Catedrático:
Ing. Kevin Mero
Semestre:
Octavo “M” de Auditoría
2. Sistemas de información y sus elementos.
Sistema de información (SI) es un conjunto de elementos orientados al
tratamiento y administración de datos e información, organizados y listos para
su posterior uso, generados para cubrir una necesidad (objetivo). Dichos
elementos formarán parte de alguna de estas categorías:
Elementos de un sistema de información.
o Personas.
o Datos.
o Actividades o técnicas de trabajo.
o Recursos materiales en general (típicamente recursos informáticos y de
comunicación, aunque no tienen por qué ser de este tipo
obligatoriamente).
Todos estos elementos interactúan entre sí para procesar los datos (incluyendo
procesos manuales y automáticos) dando lugar a información más elaborada y
distribuyéndola de la manera más adecuada posible en una determinada
organización en función de sus objetivos.
Definición de 3 tipos Sistemas de Información.
Debido a que el principal uso que se da a los SI es el de optimizar el desarrollo
de las actividades de una organización con el fin de ser más productivos y
obtener ventajas competitivas, en primer término, se puede clasificar a los
sistemas de información en:
o Sistemas Competitivos
o Sistemas Cooperativos
o Sistemas que modifican el estilo de operación del negocio
3. La primera clasificación se basa en la jerarquía de una organización y se llamó
el modelo de la pirámide. Según la función a la que vayan destinados o el tipo
de usuario final del mismo, los SI pueden clasificarse en:
o Sistema de procesamiento de transacciones (TPS).- Gestiona la
información referente a las transacciones producidas en una empresa u
organización, también se le conoce como Sistema de Información
operativa.
o Sistemas de información gerencial (MIS).- Orientados a solucionar
problemas empresariales en general.
o Sistemas de soporte a decisiones (DSS).- Herramienta para realizar el
análisis de las diferentes variables de negocio con la finalidad de apoyar
el proceso de toma de decisiones.
o Sistemas de información ejecutiva (EIS).- Herramienta orientada a
usuarios de nivel gerencial, que permite monitorizar el estado de las
variables de un área o unidad de la empresa a partir de información
interna y externa a la misma. Es en este nivel cuando los sistemas de
información manejan información estratégica para las empresas.
Los sistemas Corporativos de información no surgieron simultáneamente en el
mercado; los primeros en aparecer fueron los TPS, en la década de los 60, sin
embargo, con el tiempo, otros sistemas de información comenzaron a
evolucionar. Los primeros proporcionan información a los siguientes a medida
que aumenta la escala organizacional
o Sistemas de automatización de oficinas (OAS).- Aplicaciones destinadas
a ayudar al trabajo diario del administrativo de una empresa u
organización.
o Sistema Planificación de Recursos (ERP).- Integran la información y los
procesos de una organización en un solo sistema.
o Sistema experto (SE).- Emulan el comportamiento de un experto en un
dominio concreto.
4. Los últimos fueron los Sistemas que modifican el estilo de operación del
negocio, que alcanzaron su auge en los 90 (aunque estos últimos tuvieron una
tímida aparición en los 70 que no cuajó, ya que la tecnología no estaba
suficientemente desarrollada).
Puede ser considerado como el uso de la tecnología de la información para
soportar o dar forma a la estrategia competitiva de la organización, a su plan
para incrementar o mantener la ventaja competitiva o bien reducir la ventaja de
sus competidores.
Su función primordial es crear una diferencia con respecto a los competidores
de la organización (o salvar dicha diferencia) que hagan más atractiva a ésta
para los potenciales clientes. Por ejemplo, en la banca, hace años que se
implantaron los cajeros automáticos, pero en su día, las entidades que primero
ofrecieron este servicios disponían de una ventaja con respecto a sus
competidores, y hoy día cualquier entidad que pretenda ofrecer servicios
bancarios necesita contar con cajeros automáticos si no quiere partir con una
desventaja con respecto al resto de entidades de este sector. En este sentido,
los cajeros automáticos se pueden considerar sistemas de información
estratégicos.
Su función es lograr ventajas que los competidores no posean, tales como
ventajas en costos y servicios diferenciados con clientes y proveedores. Apoyan
el proceso de innovación de productos dentro de la empresa. Suelen
desarrollarse dentro de la organización, por lo tanto no pueden adaptarse
fácilmente a paquetes disponibles en el mercado. Entre las características más
destacables de estos sistemas se pueden señalar:
o Cambian significativamente el desempeño de un negocio al medirse por
uno o más indicadores clave, entre ellos, la magnitud del impacto.
o Contribuyen al logro de una meta estratégica.
o Generan cambios fundamentales en la forma de dirigir una compañía, la
forma en que compite o en la que interactúa con clientes y proveedores.
Importancia de un plan informático.
Cada plan es importante porque determina las contramedidas necesarias en
cada momento del tiempo respecto a la materialización de cualquier amenaza:
o Plan de respaldo.- Contempla las contramedidas preventivas antes de
que se materialice una amenaza. Su finalidad es evitar dicha
materialización.
5. o Plan de emergencia.- Contempla las contramedidas necesarias
durante la materialización de una amenaza, o inmediatamente después.
Su finalidad es paliar los efectos adversos de la amenaza.
o Plan de recuperación.- Contempla las medidas necesarias después de
materializada y controlada la amenaza. Su finalidad es restaurar el
estado de las cosas tal y como se encontraban antes de la
materialización de la amenaza.
El plan informático no se limita a la medida organizativa y expresa claramente:
o Qué recursos materiales son necesarios.
o Qué personas están implicadas en el cumplimiento del plan.
o Cuáles son las responsabilidades concretas de esas personas y su rol
dentro del plan.
o Qué protocolos de actuación deben seguir y cómo son.
Ejemplo.- Supongamos una pequeña compañía que se dedica a la producción
de prendas textiles. Un análisis de riesgos identificaría (entre otras cosas) lo
siguiente:
Activos e interdependencias: Oficinas centrales → Centro de proceso de
datos → Computadoras y almacenamiento → Información de pedidos y
facturación → Proceso de negocio de ventas → Imagen corporativa
Este análisis demuestra que una amenaza materializada en las oficinas
centrales podría llegar a afectar al proceso de negocio dedicado a la venta.
Aunque esto no impida a la compañía seguir comercializando productos,
supondría una interrupción temporal de las ventas. Además afectaría
negativamente a la imagen corporativa provocando la pérdida de clientes. Así,
se evaluaría la siguiente amenaza y su impacto:
Amenaza: Incendio. (los activos afectados son los anteriores).
Impacto: (es un ejemplo ficticio)
o Perdida de un 10% de clientes.
o Imposibilidad de facturar durante un mes.
o Imposibilidad de admitir pedidos durante un mes.
o Reconstrucción manual de pedidos y facturas a partir de otras fuentes.
o Sanciones por accidente laboral.
o Inversiones en equipamiento y mobiliario.
o Rehabilitación del local.
6. Todas estas consecuencias pueden valorarse en términos monetarios, que junto
a la probabilidad de materialización ofrecen una estimación del riesgo.
Organización de datos.
Los datos de un archivo informático normalmente consiste de paquetes más
pequeños de datos (a menudo llamados registros o líneas) que son
individualmente diferentes pero que comparten algún rasgo en común. Por
ejemplo, un archivo de nóminas puede contener datos sobre todos los
empleados de una empresa y los detalles de su nómina; cada registro del
archivo de nóminas se refiere únicamente a un empleado, y todos los registros
tienen la característica común de estar relacionados con las nóminas-esto es
muy similar a colocar todos los datos sobre nóminas en un archivador concreto
en una oficina que no tenga ninguna computadora. Un archivo de texto puede
contener líneas de texto, correspondientes a líneas impresas en una hoja de
papel.
Un archivo de datos informático normalmente tiene un tamaño, que
generalmente se expresa en bytes; en todos los sistemas operativos modernos,
el tamaño puede ser cualquier número entero no negativo de bytes hasta un
máximo dependiente del sistema. Depende del software que se ejecuta en la
computadora el interpretar esta estructura básica como por ejemplo un
programa, un texto o una imagen, basándose en su nombre y contenido. Los
tipos especiales de archivos, como los nodos de dispositivo que representan
simbólicamente partes del hardware, no consisten en un flujo de bits y no
tienen tamaño de archivo.
La manera en que se agrupan los datos en un archivo depende completamente
de la persona que diseñe el archivo. Esto ha conducido a una plétora de
estructuras de archivo más o menos estandarizadas para todos los propósitos
imaginables, desde los más simples a los más complejos. La mayoría de los
archivos informáticos son usados por programas de computadora. Estos
programas crean, modifican y borran archivos para su propio uso bajo
demanda. Los programadores que crean los programas deciden qué archivos
necesitan, cómo se van a usar, y (a menudo) sus nombres.
En algunos casos, los programas de computadora manipulan los archivos que
se hacen visibles al usuario de la computadora. Por ejemplo, en un programa
de procesamiento de texto, el usuario manipula archivos-documento a los que
él mismo da nombre. El contenido del archivo-documento está organizado de
una manera que el programa de procesamiento de texto entiende, pero el
7. usuario elige el nombre y la ubicación del archivo, y proporciona la información
(como palabras y texto) que se almacenará en el archivo.
Los archivos de una computadora se pueden crear, mover, modificar,
aumentar, reducir y borrar. En la mayoría de los casos, los programas de
computadora que se ejecutan en la computadora se encargan de estas
operaciones, pero el usuario de una computadora también puede manipular los
archivos si es necesario. Por ejemplo, los archivos de Microsoft Office Word son
normalmente creados y modificados por el programa Microsoft Word en
respuesta a las órdenes del usuario, pero el usuario también puede mover,
renombrar o borrar estos archivos directamente usando un programa gestor de
archivos como Windows Explorer (en computadoras con sistema operativo
Windows).
También un archivo es un documento donde uno introduce algún tipo de Dato
para almacenar en un objeto que lo pueda leer o modificar como una
computadora.
Qué es una red y ejemplos.
Una red de computadoras, también llamada red de ordenadores o red
informática, es un conjunto de equipos informáticos conectados entre sí por
medio de dispositivos físicos que envían y reciben impulsos eléctricos, ondas
electromagnéticas o cualquier otro medio para el transporte de datos, con la
finalidad de compartir información y recursos y ofrecer servicios.1 Este término
también engloba aquellos medios técnicos que permiten compartir la
información.
La finalidad principal para la creación de una red de computadoras es compartir
los recursos y la información en la distancia, asegurar la confiabilidad y la
disponibilidad de la información, aumentar la velocidad de transmisión de los
datos y reducir el coste general de estas acciones.2
La estructura y el modo de funcionamiento de las redes informáticas actuales
están definidos en varios estándares, siendo el más importante y extendido de
todos ellos el modelo TCP/IP basado en el modelo de referencia OSI. Este
último, estructura cada red en 7 capas con funciones concretas pero
relacionadas entre sí; en TCP/IP se reducen a 4 capas. Existen multitud de
protocolos repartidos por cada capa, los cuales también están regidos por sus
respectivos estándares.
8. Ejemplo.
El modelo OSI (open systems interconnection) fue creado por la ISO y se
encarga de la conexión entre sistemas abiertos, esto es, sistemas abiertos a la
comunicación con otros sistemas. Los principios en los que basó su creación
son, una mayor definición de las funciones de cada capa, evitar agrupar
funciones diferentes en la misma capa y una mayor simplificación en el
funcionamiento del modelo en general. Este modelo divide las funciones de red
en 7 capas diferenciadas.
# Capa Unidad de intercambio
7. Aplicación APDU
6. Presentación PPDU
5. Sesión SPDU
4. Transporte TPDU
3. Red Paquete
2. Enlace Marco / Trama
1.
Física Bit
9. Diferencias entre las redes lan, man y wan.
Red Definición Alcance
Lan La red de área local aquella Una LAN puede estar
que se expande en un área conectada con otras LAN a
relativamente pequeña cualquier distancia por medio
de una línea telefónica y
ondas de radio.
Estas redes transmiten datos
a 10 megabits por segundo
(Mbps). En comparación,
Token Ring opera a 4 y 16
Mbps, mientras que FDDI y
Fast Ethernet a una velocidad
de 100 Mbps o más.
Wan La red de área amplia (WAN) El acceso a los recursos de
es aquella comúnmente una WAN a menudo se
compuesta por varias LAN encuentra limitado por la
interconectadas- en una velocidad de la línea de
extensa área geográfica- por teléfono. Aún las líneas
medio de fibra óptica o troncales de la compañía
enlaces aéreos, como telefónica a su máxima
satélites. capacidad, llamadas T1s,
pueden operar a sólo 1.5
Mbps y son muy caras.
Man La red de área metropolitana Las redes MAN se refiere a
o MAN (Metropolitan Area las redes públicas de baja
Network), una versión más velocidad, las cuales operan a
grande que la LAN y que menos de 2 Megabits por
normalmente se basa en una segundo en su tráfico como
tecnología similar a ésta. Frame Relay, ISDN
(Integrated Services Digital
La red MAN abarca desde un Network; Red Digital de
grupo de oficinas corporativas Servicios Integrados), Tl- E 1,
cercanas a una ciudad y no entre otros.
contiene elementos de
conmutación, los cuales
desvían los paquetes por una
de varias líneas de salida
potenciales.
Red de calidad.
Los operadores de redes obtienen Calidad de Servicio (QoS) punta a punta al
asegurar que los elementos de la red aplican un tratamiento constante a los
flujos de tránsito mientras éstos atraviesan la red. La capacidad QoS de una red
involucra una gran variedad de tecnologías, arquitectura y protocolos.
La importancia de la Calidad de Servicio en
la actualidad, el tráfico de red es muy diverso, cada tipo de tráfico tiene
requerimientos específicos en términos de ancho de banda, retraso, latencia y
disponibilidad.
10. Con el explosivo crecimiento de Internet, la mayor parte del tráfico de red está
basado en el protocolo IP. Contar con un único protocolo de transporte de
punta-a-punta es beneficioso, ya que el equipo de redes se simplifica en
términos de mantenimiento, con la consecuente disminución de costos
operativos. Ese beneficio, sin embargo, se enfrenta al hecho de que el
protocolo IP es un protocolo sin conexión, es decir que los paquetes IP no
toman un camino específico al atravesar la red, lo cual genera una Calidad de
Servicio impredecible.
Por ejemplo, las aplicaciones de voz tuvieron su origen en las redes de
teléfonos públicos que usaban la tecnología TDM (por sus siglas en inglés, Time
Division Multiplexing), la cual tiene una conducta muy determinista. En las
redes TDM, el tráfico de voz sufría un restraso bajo ya determinado, pero sin
pérdidas. Si tomamos esa aplicación de "voz TDM" y la transportamos sobre
una red IP de máxima calidad, la red presentará un retraso impredecible y
variable en los paquetes de voz. Por eso, las aplicaciones de voz necesitan el
mismo nivel de calidad de "voz TDM" para satisfacer las expectativas de los
usuarios. Para ello, las técnicas de QoS pueden ser aplicadas a este tipo de
redes para que puedan soportar VoIP con una calidad de voz predecible,
consistente y aceptable. Desde comienzos de los 90 existe una tendencia que
favorece a la convergencia de redes, es decir, a transportar todos los servicios
sobre la misma infraestructura de red. Tradicionalmente existían redes
dedicadas, separadas para los distintos tipos de aplicaciones, pero el uso de
muchas de estas redes se está consolidando, con el objetivo de reducir costos
operativos o para mejorar los márgenes de ganancia.
Hasta hace poco, una empresa podía contar con una red de voz privada basada
en TDM, una red IP para Internet, una red ISDN para videoconferencias, una
red SNA y una LAN multiprotocolo (IPX, Apple Talk, etc.). Del mismo modo, un
proveedor de servicios podía tener una red de voz basada en TDM, una red
ATM o SONET para el backbone y una red de acceso ISDN o Frame Relay.
Actualmente, en cambio, todas las redes de datos convergen en el transporte
IP ya que, cada vez con más frecuencia, las aplicaciones tienden a estar
basadas en este protocolo. Cuando las diversas aplicaciones contaban con
redes dedicadas, las tecnologías de QoS tenían un papel menor, ya que el
tráfico era similar en términos de conducta y las redes dedicadas estaban
preparadas para satisfacer los requerimientos de conducta de cada aplicación
en particular. Pero las redes de convergencia mezclan distintos tipos de tráfico,
cada uno de ellos con requerimientos muy diversos. Estos distintos tipos de
tráfico pueden llegar a reaccionar de manera desfavorable al funcionar juntos.
11. QoS, más allá del ancho de banda. Algunos creen que la Calidad de Servicio no
es necesaria y que un mayor ancho de banda será suficiente y brindará una
buena QoS para todas las aplicaciones. Sostienen que la implementación de
QoS es muy complicada y que aumentar el ancho de banda es más sencillo.
Aunque hay algo de verdad en estas afirmaciones, primero se deben tener en
cuenta los problemas que se quiere resolver y si al aumentar el ancho de banda
éstos se resolverán. Si todas las conexiones de red tuvieran un ancho de banda
infinito, esas redes nunca se congestionarían y no sería necesario aplicar
tecnología QoS. De hecho, hay partes de ciertas redes que cuentan con un
ancho de banda más que considerable y han sido cuidadosamente desarrolladas
para minimizar las congestiones. Sin embargo, las conexiones con gran ancho
de banda no están disponibles en toda la red, desde la fuente hasta el destino
del tráfico. Esto es aún más notable en las redes de acceso, en las cuales el
ancho de banda más comúnmente disponible es de 100 Kbps. Además, las
discontinuidades en el ancho de banda pueden transformarse en potenciales
puntos de congestión, generando así una Calidad de Servicio impredecible.
Los proveedores han estado agregando indiscriminadamente ancho de banda a
sus redes IP para satisfacer la explosiva demanda de Internet. Algunas de estas
redes ofrecen conexiones de baja latencia en las redes del área metropolitana o
MANs (Metropolitan Area Nework) o en redes nacionales o continentales. El
tráfico debe ser tratado en forma adecuada para obtener un nivel de QoS
suscripto. Si el punto de agregado de la red de acceso se convierte en un punto
de congestión en la red, la Calidad de Servicio de punta-a-punta puede llegar a
ser deficiente, aunque la red general ofrezca un excelente rendimiento.
Qué es un datawarehouse.
Un Datawarehouse es una base de datos corporativa que se caracteriza por
integrar y depurar información de una o más fuentes distintas, para luego
procesarla permitiendo su análisis desde infinidad de perspectivas y con
grandes velocidades de respuesta. La creación de un datawarehouse representa
en la mayoría de las ocasiones el primer paso, desde el punto de vista técnico,
para implantar una solución completa y fiable de Business Intelligence.
La ventaja principal de este tipo de bases de datos radica en las estructuras en
las que se almacena la información (modelos de tablas en estrella, en copo de
nieve, cubos relacionales... etc). Este tipo de persistencia de la información es
homogénea y fiable, y permite la consulta y el tratamiento jerarquizado de la
misma (siempre en un entorno diferente a los sistemas operacionales).
12. Que es una data mining.
Las técnicas de Data Mining son el resultado de un largo proceso de
investigación y desarrollo de productos. Esta evolución comenzó cuando los
datos de negocios fueron almacenados por primera vez en computadoras, y
continuó con mejoras en el acceso a los datos, y más recientemente con
tecnologías generadas para permitir a los usuarios navegar a través de los
datos en tiempo real.
Data Mining toma este proceso de evolución más allá del acceso y navegación
retrospectiva de los datos, hacia la entrega de información prospectiva y
proactiva. Data Mining está listo para su aplicación en la comunidad de
negocios porque está soportado por tres tecnologías que ya están
suficientemente maduras:
o Recolección masiva de datos
o Potentes computadoras con multiprocesadores
o Algoritmos de Data Mining
Los algoritmos de Data Mining utilizan técnicas que han existido por lo menos
desde hace 10 años, pero que sólo han sido implementadas recientemente
como herramientas maduras, confiables, entendibles que consistentemente son
más performantes que métodos estadísticos clásicos.
En la evolución desde los datos de negocios a información de negocios, cada
nuevo paso se basa en el previo. Por ejemplo, el acceso a datos dinámicos es
crítico para las aplicaciones de navegación de datos (drill through applications),
13. y la habilidad para almacenar grandes bases de datos es crítica para Data
Mining.
Los componentes esenciales de la tecnología de Data Mining han estado bajo
desarrollo por décadas, en áreas de investigación como estadísticas, inteligencia
artificial y aprendizaje de máquinas. Hoy, la madurez de estas técnicas, junto
con los motores de bases de datos relacionales de alta performance, hicieron
que estas tecnologías fueran prácticas para los entornos de data warehouse
actuales.
El nombre de Data Mining deriva de las similitudes entre buscar valiosa
información de negocios en grandes bases de datos - por ej.: encontrar
información de la venta de un producto entre grandes montos de Gigabytes
almacenados - y minar una montaña para encontrar una veta de metales
valiosos. Ambos procesos requieren examinar una inmensa cantidad de
material, o investigar inteligentemente hasta encontrar exactamente donde
residen los valores. Dadas bases de datos de suficiente tamaño y calidad, la
tecnología de Data Mining puede generar nuevas oportunidades de negocios al
proveer estas capacidades:
o Predicción automatizada de tendencias y comportamientos. Data
Mining automatiza el proceso de encontrar información predecible en
grandes bases de datos. Preguntas que tradicionalmente requerían un
intenso análisis manual, ahora pueden ser contestadas directa y
rápidamente desde los datos. Un típico ejemplo de problema predecible
es el marketing apuntado a objetivos (targeted marketing). Data Mining
usa datos en mailing promocionales anteriores para identificar posibles
objetivos para maximizar los resultados de la inversión en futuros
mailing. Otros problemas predecibles incluyen pronósticos de problemas
financieros futuros y otras formas de incumplimiento, e identificar
segmentos de población que probablemente respondan similarmente a
eventos dados.
o Descubrimiento automatizado de modelos previamente
desconocidos. Las herramientas de Data Mining barren las bases de
datos e identifican modelos previamente escondidos en un sólo paso.
Otros problemas de descubrimiento de modelos incluye detectar
transacciones fraudulentas de tarjetas de créditos e identificar datos
anormales que pueden representar errores de tipeado en la carga de
datos.
Las técnicas de Data Mining pueden redituar los beneficios de automatización
en las plataformas de hardware y software existentes y puede ser
14. implementado en sistemas nuevos a medida que las plataformas existentes se
actualicen y nuevos productos sean desarrollados. Cuando las herramientas de
Data Mining son implementadas en sistemas de procesamiento paralelo de alta
performance, pueden analizar bases de datos masivas en minutos.
Procesamiento más rápido significa que los usuarios pueden automáticamente
experimentar con más modelos para entender datos complejos. Alta velocidad
hace que sea práctico para los usuarios analizar inmensas cantidades de datos.
Grandes bases de datos, a su vez, producen mejores predicciones.
E-bussiness/E-commerce.
E-bussiness.- Es una "interacción con los socios de negocio, donde la
interacción es permitida por tecnología de información", también se le define
como un sistema de información o aplicación a la cual se le delegan procesos
de negocios. El uso tanto de tecnología como de nuevas estrategias de
negocios para realizar negocios en línea. El negocio en línea provee un canal de
ventas, marketing, e información on-line. (Negocio en línea).
Se define al E–Bussiness como cualquier actividad empresarial que se efectúa a
través de Internet, no sólo de compra y venta, sino también dando servicio a
los clientes y/o colaborando con socios comerciales.
E-commerce.- Es el paso más reciente de la evolución de las transacciones de
negocio. Substituye (o aumenta) el intercambio del dinero o de las mercancías
por el intercambio de la información de la computadora a la computadora.
Comprende la compra, venta, marketing, y servicios para productos o servicios
por medio de redes de computadoras. En resumen, "El Comercio Electrónico (e
– commerce) es, básicamente, el uso de medios electrónicos, para realizar la
totalidad de actividades involucradas en la gestión de negocios: ofrecer y
demandar productos y/o servicios, buscar socios y tecnologías, hacer las
negociaciones con su contraparte, seleccionar el transporte y los seguros que
más le convengan, realizar los trámites bancarios, pagar, cobrar, comunicarse
con los vendedores de su empresa, recoger los pedidos; es decir todas aquellas
operaciones que requiere el comercio".
El Comercio Electrónico, a través de Internet, implica la utilización de esta red
como medio para facilitar el intercambio de bienes y servicios. La forma más
avanzada es aquella en la que un cliente: visualiza, selecciona y formaliza la
adquisición de productos o servicios cuya descripción está disponible en un
servidor conectado a Internet. Las empresas pueden colocar el catálogo
completo de sus productos o servicios en Internet, y dar acceso abierto a sus
potenciales clientes a una enorme vidriera virtual, así como también, renovar
15. estos productos, dialogar con sus clientes y por lo tanto ajustarse a sus
necesidades.
Plan de recuperación de desastre.
Un plan de recuperación ante desastres (del inglés Disaster Recovery Plan) es
un proceso de recuperación que cubre los datos, el hardware y el software
crítico, para que un negocio pueda comenzar de nuevo sus operaciones en caso
de un desastre natural o causado por humanos. Esto también debería incluir
proyectos para enfrentarse a la pérdida inesperada o repentina de personal
clave, aunque esto no sea cubierto en este artículo, el propósito es la
protección de datos.
Con el crecimiento de la tecnología de información y la confianza sobre datos
cruciales, el panorama ha cambiado en años recientes a favor de la protección
de datos irreemplazables. Esto es evidente sobre todo en la tecnología de
información; con los sistemas de ordenadores más grandes que sostienen
información digital para limitar pérdida de datos y ayudar recuperación de
datos.
Se cree que algunas empresas gastan hasta el 25 % de su presupuesto en
proyectos de recuperación de desastre, sin embargo, esto lo hacen para evitar
pérdidas más grandes. De las empresas que tenían una pérdida principal de
registros automatizados el 43 % nunca vuelve a abrir, el 51 % cierra en menos
de dos años, y sólo el 6 % sobrevivirá el largo plazo.1
El mercado de protección de datos existente es caracterizado por varios
factores:
o El permanente cambio de las necesidades de los clientes determinado
por el crecimiento de datos, asuntos regulatorios y la creciente
importancia de tener rápido acceso a los datos conservándolos en línea.
o Respaldar los datos de vez en cuando teniendo tecnologías de cintas
convencionales de reservas.
Como el mercado de recuperación de desastre sigue sufriendo cambios
estructurales significativos, este cambio presenta oportunidades para las
empresas de la nueva generación a que se especialicen en la planificación de
continuidad de negocio y la protección de datos fuera de sitio.
Existen diferentes riesgos que pueden impactar negativamente las operaciones
normales de una organización. Una evaluación de riesgo debería ser realizada
16. para ver que constituye el desastre y a que riesgos es susceptible una empresa
específica, incluyendo:
o Catástrofes.
o Fuego.
o Fallos en el suministro eléctrico.
o Ataques terroristas.
o Interrupciones organizadas o deliberadas.
o Sistema y/o fallos del equipo.
o Error humano.
o Virus informáticos.
o Cuestiones legales.
o Huelgas de empleados.
17. Bibliografía
o http://es.wikipedia.org/wiki/Plan_de_Contingencias
o http://es.wikipedia.org/wiki/Sistema_de_informaci%C3%B3n
o http://www.deltaasesores.com/articulos/tecnologia/108-planes-de-
contingencia-i-
o http://es.wikipedia.org/wiki/Red_de_computadoras
o http://es.wikipedia.org/wiki/Archivo_%28inform%C3%A1tica%29
o http://www.monografias.com/trabajos/datamining/datamining.shtml
o http://es.wikipedia.org/wiki/Plan_de_recuperaci%C3%B3n_ante_desastr
es
o http://www.monografias.com/trabajos36/e-business-e-commerce/e-
business-e-commerce.shtml
o http://www.ciberhabitat.gob.mx/museo/cerquita/redes/fundamentos/02.
htm
o http://www.anixtersoluciones.com/latam/cl/informacion_general/12188/l
a_importancia_de_la_calidad_de_servicio_qos___parte_i_es.htm