TIC y redes sociales: evolución y teoría de los 6 grados
1.
2. T.I.C.
información y comunicación
¿Que es el TIC?
Tecnologías de la información y la comunicación (TIC) es un concepto que tiene dos
significados. El término "tecnologías de la información" se usa a menudo para referirse
a cualquier forma de hacer cómputo.
Como nombre de un programa de licenciatura, se refiere a la preparación que tienen
estudiantes para satisfacer las necesidades de tecnologías en cómputo y
comunicación de gobiernos, seguridad social, escuelas y cualquier tipo de
organización.
3. Redes Sociales
El software germinal de las redes sociales parte de la teoría de los seis
separación, según la cual toda la gente del planeta está conectada a través de
no más de seis personas. De hecho, existe una patente en EEUU conocida
como six degrees patent por la que ya han pagado Tribe y LinkedIn. Hay otras
muchas patentes que protegen la tecnología para automatizar la creación de
redes y las aplicaciones relacionadas con éstas.
Estas redes sociales se basan en la teoría de los seis grados, Seis grados de
separación es la teoría de que cualquiera en la Tierra puede estar conectado a
cualquier otra persona en el planeta a través de una cadena de conocidos que
no tiene más de seis intermediarios. La teoría fue inicialmente propuesta en
1929 por el escritor húngaro Frigyes Karinthy en una corta historia llamada
Chains. El concepto está basado en la idea que el número de conocidos crece
exponencialmente con el número de enlaces en la cadena, y sólo un pequeño
número de enlaces son necesarios para que el conjunto de conocidos se
convierta en la población humana entera.
El término red social es acuñado principalmente por los antropólogos ingleses
John Barnes y Elizabeth Bott, ya que, para ellos resultaba imprescindible
cosiderar lazos externos a los famliares, residenciales o de pertenencia a algún
grupo social
Los fines que han motivado la creación de las llamadas redes sociales son
varios, principalmente, es el diseñar un lugar de interacción virtual, en el que
millones de personas alrededor del mundo se concentran con diversos
intereses en común.
Recogida también en el libro "Six Degrees: The Science of a Connected Age”
del sociólogo Duncan Watts, y que asegura que es posible acceder a cualquier
persona del planeta en tan solo seis “saltos”.
Según esta Teoría, cada persona conoce de media, entre amigos, familiares y
compañeros de trabajo o escuela, a unas 100 personas. Si cada uno de esos
amigos o conocidos cercanos se relaciona con otras 100 personas, cualquier
individuo puede pasar un recado a 10.000 personas más tan solo pidiendo a un
amigo que pase el mensaje a sus amigos.
Estos 10.000 individuos serían contactos de segundo nivel, que un individuo no
conoce pero que puede conocer fácilmente pidiendo a sus amigos y familiares
que se los presenten, y a los que se suele recurrir para ocupar un puesto de
trabajo o realizar una compra. Cuando preguntamos a alguien, por ejemplo, si
conoce una secretaria interesada en trabajar estamos tirando de estas redes
sociales informales que hacen funcionar nuestra sociedad. Este argumento
supone que los 100 amigos de cada persona no son amigos comunes. En la
práctica, esto significa que el número de contactos de segundo nivel será
sustancialmente menor a 10.000 debido a que es muy usual tener amigos
comunes en las redes sociales.
4. Si esos 10.000 conocen a otros 100, la red ya se ampliaría a 1.000.000 de
personas conectadas en un tercer nivel, a 100.000.000 en un cuarto nivel, a
10.000.000.000 en un quinto nivel y a 1.000.000.000.000 en un sexto nivel. En
seis pasos, y con las tecnologías disponibles, se podría enviar un mensaje a
cualquier individuo del planeta.
Evidentemente cuanto más pasos haya que dar, más lejana será la conexión
entre dos individuos y más difícil la comunicación. Internet, sin embargo, ha
eliminado algunas de esas barreras creando verdaderas redes sociales
mundiales, especialmente en segmento concreto de profesionales, artistas, etc.
En la década de los 50, Ithiel de Sola Pool (MIT) y Manfred Kochen (IBM) se
propusieron demostrar la teoría matemáticamente. Aunque eran capaces de
enunciar la cuestión "dado un conjunto de N personas, ¿cual es la probabilidad
de que cada miembro de estos N estén conectados con otro miembro vía k1,
k2, k3,..., kn enlaces?", después de veinte años todavía eran incapaces de
resolver el problema satisfactoriamente.
En 1967, el psicólogo estadounidense Stanley Milgram ideó una nueva manera
de probar la Teoría, que él llamó "el problema del pequeño mundo". El
experimento del mundo pequeño de Milgram consistió en la selección al azar
de varias personas del medio oeste estadounidense para que enviaran tarjetas
postales a un extraño situado en Massachusetts, a varios miles de millas de
distancia. Los remitentes conocían el nombre del destinatario, su ocupación y
la localización aproximada. Se les indicó que enviaran el paquete a una
persona que ellos conocieran directamente y que pensaran que fuera la que
más probabilidades tendría, de todos sus amigos, de conocer directamente al
destinatario. Esta persona tendría que hacer lo mismo y así sucesivamente
hasta que el paquete fuera entregado personalmente a su destinatario final.
Aunque los participantes esperaban que la cadena incluyera al menos cientos
de intermediarios, la entrega de cada paquete solamente llevó, como promedio,
entre cinco y siete intermediarios. Los descubrimientos de Milgram fueron
publicados en "Psychology Today" e inspiraron la frase seis grados de
separación.
En The social software weblog han agrupado 120 sitios web en 10 categorías y
QuickBase también ha elaborado un completo cuadro sobre redes sociales en
Internet.
El origen de las redes sociales se remonta, al menos, a 1995, cuando Randy
Conrads crea el sitio web classmates.com. Con esta red social se pretende que
la gente pueda recuperar o mantener el contacto con antiguos compañeros del
colegio, instituto, universidad, etcétera.
Alrededor del cambio de siglo surge en internet el concepto Web 2.0, cuyas
páginas web diseñadas para fomentar la comunicación y adaptarse al usuario
apoyan la popularización de estos servicios.
5. En 2002 comienzan a aparecer sitios web promocionando las redes de círculos
de amigos en línea cuando el término se empleaba para describir las relaciones
en las comunidades virtuales, y se hizo popular en 2003 con la llegada de sitios
tales como MySpace o Xing. Hay más de 200 sitios de redes sociales, aunque
Friendster ha sido uno de los que mejor ha sabido emplear la técnica del
círculo de amigos. La popularidad de estos sitios creció rápidamente y grandes
compañías han entrado en el espacio de las redes sociales en Internet. Por
ejemplo, Google lanzó Orkut el 22 de enero de 2004. Otros buscadores como
KaZaZZ! y Yahoo crearon redes sociales en 2005.
En estas comunidades, un número inicial de participantes envían mensajes a
miembros de su propia red social invitándoles a unirse al sitio. Los nuevos
participantes repiten el proceso, creciendo el número total de miembros y los
enlaces de la red. Los sitios ofrecen características como actualización
automática de la libreta de direcciones, perfiles visibles, la capacidad de crear
nuevos enlaces mediante servicios de presentación y otras maneras de
conexión social en línea. Las redes sociales también pueden crearse en torno a
las relaciones comerciales.
Las herramientas informáticas para potenciar la eficacia de las redes sociales
online («software social»), operan en tres ámbitos, «las 3 Cs», de forma
cruzada:
Comunicación (nos ayudan a poner en común conocimientos).
Comunidad (nos ayudan a encontrar e integrar comunidades).
Cooperación (nos ayudan a hacer cosas juntos).
El establecimiento combinado de contactos (blended networking) es una
aproximación a la red social que combina elementos en línea y del mundo real
para crear una mezcla. Una red social de personas es combinada si se
establece mediante eventos cara a cara y una comunidad en línea. Los dos
elementos de la mezcla se complementan el uno al otro.
Redes sociales mas conocidas
6. T.I.C
Tecnologia inalámbrica
1. Introducción
Desde los albores de la humanidad, un tema fundamental con respecto al
desarrollo y progreso, ha sido la necesidad de comunicación entre unos y otros,
presente a lo largo de la historia.
En los últimos años los nuevos logros de la tecnología han sido la aparición de
computadores, líneas telefónicas, celulares, redes alámbricas e inalámbricas,
así como las satelitales.
El principio principal de la comunicación se establece mediante el habla en la
relación entre emisor, mensaje y receptor. Pero la tecnología de hoy en día no
solo debe hacer referencia a la transmisión de voz, sino debe intentar abarcar
una mayor gamma de aplicaciones, llámese la transmisión de datos. Dada esta
necesidad es que surgen las redes de computadores como la intranet, la
extranet y la internet.
Referente al intercambio de voz y datos se hace indispensable la necesidad de
estar conectados con el mundo entero a través de la Internet, de donde surgen
algunos problemas concernientes a la aplicación de redes alámbricas debido a
que se hace necesario el transporte de los equipos ya sea dentro de un local
como al interior de alguna oficina.
Al presentarse esta necesidad se hizo parte de un grupo de estudio de mayor
envergadura, desde las redes inalámbricas, la transferencia de datos vía
infrarrojo, así como en la aplicación de redes satelitales. Las mismas que han
logrado satisfacer esta necesidad logrando la conexión de usuarios existentes
en distintos lugares del mundo.
La aplicación de la tecnología inalámbrica, viene teniendo un gran auge en
velocidades de transmisión, aunque sin competir con la utilización de redes
alámbricas o el uso de la fibra óptica, sin embargo cubren satisfactoriamente la
necesidad del movimiento de los usuarios
7. 2. Enfoque de la tecnología inalámbrica
Partamos de la definición de inalámbrico, este término se refiere al uso de la
tecnología sin cables la cual permite la conexión de varios computadores entre
sí.
Es así como se ha ido convirtiendo en uno foco de estudio para los temas de
transmisión de datos, adquiriendo mayor interés en lugares donde no es
posible la instalación de redes alámbricas.
El uso de esta tecnología inalámbrica permite dejar en el olvido de los cables
sin la necesidad de dejar de establecer una conexión, desapareciendo las
limitaciones de espacio y tiempo, dando la impresión de que puede ubicarse
una oficina en cualquier lugar del mundo.
Una aplicación de este caso podría ser la relación que se establece entre
empleados ubicados en un lugar que no sea su centro de labores y una red
adquiriendo la empresa mayor flexibilidad. Los dispositivos son conectados a
otros dispositivos inalámbricos con el fin de brindar a los trabajadores
dinámicos una estrategia de trabajo más efectiva y con menos complicaciones.
Los aplicativos de escritorio también hacen que la carga de la red sea más
ligera.
Usando la tecnología inalámbrica determina que la empresa incremente su
productividad y eficacia, de este modo el empleado se dedica exclusivamente a
lo que sabe hacer mejor, evitando los inconvenientes de tipo tecnológico.
8. T.I.C
Hardware de red
Hardware de red es aquel que normalmente se refiere a los
equipos que facilitan el uso de una red informática. Típicamente,
esto incluye enrutadores, switches, hubs, gateways, puntos de
acceso, tarjetas de interfaz de red, cables de redes, puentes de red,
módems, adaptadores RDSI, firewalls y otros hardwares
relacionados.1
El tipo más común de hardware de red hoy en día son los
adaptadores Ethernet, ayudados en gran medida por su inclusión de
serie en la mayoría de los sistemas informáticos modernos. Sin
embargo, la red inalámbrica se ha hecho cada vez más popular,
especialmente para los dispositivos portátiles y de mano.2
Otros materiales que prevalecen en redes de computadoras son los
equipos de centros de datos (tales como servidores de archivos,
servidores de base de datos y las áreas de almacenamiento),
servicios de red (tales como DNS, DHCP, correo electrónico, etc),
así como otros dispositivos de red específicos, tales como entrega
de contenido.3
Otros dispositivos diversos que pueden ser considerados hardware
de red incluyen teléfonos móviles, PDAs e incluso cafeteras
modernas.4
Mientras que la tecnología crece y redes basadas en IP
están integradas en la infraestructura de construcción y en
electrodomésticos, hardware de red se convierte en una expresión
ambigua debido al número creciente de terminales con capacidad
de red.
9. T.I.C.
Antivirus
En informática los antivirus son programas cuyo objetivo es
detectar o eliminar virus informáticos. Nacieron durante la década
de 1980. Con el transcurso del tiempo, la aparición de sistemas
operativos más avanzados e internet, ha hecho que los antivirus
hayan evolucionado hacia programas más avanzados que no sólo
buscan detectar virus informáticos, sino bloquearlos, desinfectar
archivos y prevenir una infección de los mismos. Actualmente son
capaces de reconocer otros tipos de malware, como spyware,
gusanos, troyanos, rootkits, etc.
Métodos de contagio
Existen dos grandes grupos de propagación: los virus cuya
instalación el usuario, en un momento dado, ejecuta o acepta de
forma inadvertida; y los gusanos, con los que el programa malicioso
actúa replicándose a través de las redes.
En cualquiera de los dos casos, el sistema operativo infectado
comienza a sufrir una serie de comportamientos anómalos o no
previstos. Dichos comportamientos son los que dan la traza del
problema y tienen que permitir la recuperación del mismo.
Dentro de las contaminaciones más frecuentes por interacción del
usuario están las siguientes:
Mensajes que ejecutan automáticamente programas, como el
programa de correo que abre directamente un archivo adjunto.
Ingeniería social, mensajes como «Ejecute este programa y
gane un premio».
Entrada de información en discos de otros usuarios
infectados.
Instalación de software que pueda contener uno o varios
programas maliciosos.
A través de unidades extraíbles de almacenamiento, como
memorias USB.
10. Seguridad ymétodos de protección
Los métodos para contener o reducir los riesgos asociados a los
virus pueden ser los denominados activos o pasivos.
Tipos de antivirus
Sólo detección: son vacunas que sólo actualizan archivos
infectados, sin embargo, no pueden eliminarlos o
desinfectarlos.
Detección y desinfección: son vacunas que detectan
archivos infectados y que pueden desinfectarlos.
Detección y aborto de la acción: son vacunas que detectan
archivos infectados y detienen las acciones que causa el
virus.
Comparación por firmas: son vacunas que comparan las
firmas de archivos sospechosos para saber si están
infectados.
Comparación de firmas de archivo: son vacunas que
comparan las firmas de los atributos guardados en tu equipo.
Por métodos heurísticos: son vacunas que usan métodos
heurísticos para comparar archivos.
Invocado por el usuario: son vacunas que se activan
instantáneamente con el usuario.
Invocado por la actividad del sistema: son vacunas que se
activan instantáneamente por la actividad del sistema
operativo.
Copias de seguridad (pasivo)
Mantener una política de copias de seguridad garantiza la
recuperación de los datos y la respuesta cuando nada de lo anterior
ha funcionado.
Asimismo, las empresas deberían disponer de un plan y detalle de
todo el software instalado para tener un plan de contingencia en
caso de problemas.
11. Planificación
La planificación consiste en tener preparado un plan de
contingencia en caso de que una emergencia de virus se produzca,
así como disponer al personal de la formación adecuada para
reducir al máximo las acciones que puedan presentar cualquier tipo
de riesgo. Cada antivirus puede planear la defensa de una manera,
es decir, un antivirus puede hacer un escaneado completo, rápido o
de vulnerabilidad según elija el usuario.
Consideraciones de software
El software es otro de los elementos clave en la parte de
planificación. Se debería tener en cuenta la siguiente lista de
comprobaciones para tu seguridad:
1. Tener el software indispensable para el funcionamiento de la
actividad, nunca menos pero tampoco más. Tener controlado
al personal en cuanto a la instalación de software es una
medida que va implícita. Asimismo, tener controlado el
software asegura la calidad de la procedencia del mismo (no
debería permitirse software pirata o sin garantías). En todo
caso un inventario de software proporciona un método
correcto de asegurar la reinstalación en caso de desastre.
2. Disponer del software de seguridad adecuado. Cada
actividad, forma de trabajo y métodos de conexión a Internet
requieren una medida diferente de aproximación al problema.
En general, las soluciones domésticas, donde únicamente hay
un equipo expuesto, no son las mismas que las soluciones
empresariales.
3. Métodos de instalación rápidos. Para permitir la reinstalación
rápida en caso de contingencia.
4. Asegurar licencias. Determinados softwares imponen métodos
de instalación de una vez, que dificultan la reinstalación rápida
de la red. Dichos programas no siempre tienen alternativas
pero ha de buscarse con el fabricante métodos rápidos de
instalación.
5. Buscar alternativas más seguras. Existe software que es
famoso por la cantidad de agujeros de seguridad que
introduce. Es imprescindible conocer si se puede encontrar
una alternativa que proporcione iguales funcionalidades pero
permitiendo una seguridad extra.
12. Consideraciones de la red
Disponer de una visión clara del funcionamiento de la red permite
poner puntos de verificación de filtrado y detección ahí donde la
incidencia es más claramente identificable. Sin perder de vista otros
puntos de acción es conveniente:
1. Mantener al máximo el número de recursos de red en modo
de sólo lectura. De esta forma se impide que computadoras
infectadas los propaguen.
2. Centralizar los datos. De forma que detectores de virus en
modo batch puedan trabajar durante la noche.
3. Realizar filtrados de firewall de red. Eliminar los programas
que comparten datos, como pueden ser los P2P; Mantener
esta política de forma rigurosa, y con el consentimiento de la
gerencia.
4. Reducir los permisos de los usuarios al mínimo, de modo que
sólo permitan el trabajo diario.
5. Controlar y monitorizar el acceso a Internet. Para poder
detectar en fases de recuperación cómo se ha introducido el
virus, y así determinar los pasos a seguir.
Formación del usuario
Esta es la primera barrera de protección de la red.
Antivirus
Es conveniente disponer de una licencia activa de antivirus. Dicha
licencia se empleará para la generación de discos de recuperación
y emergencia. Sin embargo, no se recomienda en una red el uso
continuo de antivirus.
El motivo radica en la cantidad de recursos que dichos programas
obtienen del sistema, reduciendo el valor de las inversiones en
hardware realizadas. Aunque si los recursos son suficientes, este
extra de seguridad puede ser muy útil.
Sin embargo, los filtros de correos con detectores de virus son
imprescindibles, ya que de esta forma se asegurará una reducción
importante de elecciones de usuarios no entrenados que pueden
poner en riesgo la red.
13. Firewalls
Artículo principal: Cortafuegos (informática)
Filtrar contenidos y puntos de acceso. Eliminar programas que no
estén relacionados con la actividad. Tener monitorizado los accesos
de los usuarios a la red, permite asimismo reducir la instalación de
software que no es necesario o que puede generar riesgo para la
continuidad del negocio. Su significado es barrera de fuego y no
permite que otra persona no autorizada tenga acceso desde otro
equipo al tuyo.
Reemplazo de software
Los puntos de entrada en la red la mayoría de las veces son el
correo, las páginas web, y la entrada de ficheros desde discos, o de
computadoras ajenas a la empresa.
Muchas de estas computadoras emplean programas que pueden
ser reemplazados por alternativas más seguras.
Es conveniente llevar un seguimiento de cómo distribuyen bancos, y
externos el software, valorar su utilidad.
Centralización y backup
La centralización de recursos y garantizar el backup de los datos es
otra de las pautas fundamentales en la política de seguridad
recomendada.
La generación de inventarios de software, centralización del mismo
y la capacidad de generar instalaciones rápidas proporcionan
métodos adicionales de seguridad.
Es importante tener localizado dónde se sitúa la información en la
empresa. De esta forma podemos realizar las copias de seguridad
de forma adecuada.
Control o separación de la informática móvil, dado que esta está
más expuesta a las contingencias de virus.
14. Empleo de sistemas operativos más seguros
Para servir ficheros no es conveniente disponer de los mismos
sistemas operativos que se emplean dentro de las estaciones de
trabajo, ya que toda la red en este caso está expuesta a los mismos
retos. Una forma de prevenir problemas es disponer de sistemas
operativos con arquitecturas diferentes, que permitan garantizar la
continuidad de negocio.
Temas acerca de la seguridad
Existen ideas instaladas por parte de las empresas de antivirus
parte en la cultura popular que no ayudan a mantener la seguridad
de los sistemas de información.
Mi sistema no es importante para un cracker. Este tema se
basa en la idea de que no introducir passwords seguras en
una empresa no entraña riesgos pues «¿Quién va a querer
obtener información mía?» Sin embargo, dado que los
métodos de contagio se realizan por medio de programas
automáticos, desde unas máquinas a otras, estos no
distinguen buenos de malos, interesantes de no interesantes.
Por tanto abrir sistemas y dejarlos sin claves es facilitar la vida
a los virus.
Estoy protegido pues no abro archivos que no conozco.
Esto es falso, pues existen múltiples formas de contagio,
además los programas realizan acciones sin la supervisión del
usuario poniendo en riesgo los sistemas.
Como tengo antivirus estoy protegido. Únicamente estoy
protegido mientras el antivirus sepa a lo que se enfrenta y
como combatirlo. En general los programas antivirus no son
capaces de detectar todas las posibles formas de contagio
existentes, ni las nuevas que pudieran aparecer conforme las
computadoras aumenten las capacidades de comunicación.
Como dispongo de un firewall no me contagio. Esto
únicamente proporciona una limitada capacidad de respuesta.
Las formas de infectarse en una red son múltiples. Unas
provienen directamente de accesos a mi sistema (de lo que
protege un firewall) y otras de conexiones que realizó (de las
que no me protege). Emplear usuarios con altos privilegios
para realizar conexiones tampoco ayuda.
15. Tengo un servidor web cuyo sistema operativo es un
UNIX actualizado a la fecha. Puede que este protegido
contra ataques directamente hacia el núcleo, pero si alguna
de las aplicaciones web (PHP, Perl, Cpanel, etc.) está
desactualizada, un ataque sobre algún script de dicha
aplicación puede permitir que el atacante abra una shell y por
ende ejecutar comandos en el UNIX.
Sistemas operativos más atacados
Las plataformas más atacadas por virus informáticos son la línea de
sistemas operativos Windows de Microsoft. Respecto a los sistemas
derivados de Unix como GNU/Linux, BSD, Solaris, Mac OS X, estos
han corrido con mayor suerte debido en parte al sistema de
permisos. No obstante en las plataformas derivadas de Unix han
existido algunos intentos que más que presentarse como amenazas
reales no han logrado el grado de daño que causa un virus en
plataformas Windows.
Plataformas Unix, inmunes a los virus de Windows
Antivirus mas conocidos
16. T.I.C.
Navegadores Web
Un navegador web es un software, aplicación o programa que
permite el acceso a la Web, interpretando la información de distintos
tipos de archivos y sitios web para que estos puedan ser
visualizados.
La funcionalidad básica de un navegador web es permitir la
visualización de documentos de texto, posiblemente con recursos
multimedia incrustados. Además, permite visitar páginas web y
hacer actividades en ella, es decir, enlazar un sitio con otro,
imprimir, enviar y recibir correo, entre otras funcionalidades más.
Los documentos que se muestran en un navegador pueden estar
ubicados en la computadora donde está el usuario y también
pueden estar en cualquier otro dispositivo conectado en la
computadora del usuario o a través de Internet, y que tenga los
recursos necesarios para la transmisión de los documentos (un
software servidor web).
Tales documentos, comúnmente denominados páginas web,
poseen hiperenlaces o hipervínculos que enlazan una porción de
texto o una imagen a otro documento, normalmente relacionado con
el texto o la imagen.
El seguimiento de enlaces de una página a otra, ubicada en
cualquier computadora conectada a Internet, se llama "navegación",
de donde se origina el nombre navegador (aplicado tanto para el
programa como para la persona que lo utiliza, a la cual también se
le llama "cibernauta"). Por otro lado, "hojeador" es una traducción
literal del original en inglés, browser, aunque su uso es minoritario.
17. T.I.C.
Comercio electrónico
El comercio electrónico, también conocido como e-commerce
(electronic commerce en inglés), consiste en la compra y venta de
productos o de servicios a través de medios electrónicos, tales
como Internet y otras redes informáticas. Originalmente el término
se aplicaba a la realización de transacciones mediante medios
electrónicos tales como el Intercambio electrónico de datos, sin
embargo con el advenimiento de la Internet y la World Wide Web a
mediados de los años 90 comenzó a referirse principalmente a la
venta de bienes y servicios a través de Internet, usando como forma
de pago medios electrónicos, tales como las tarjetas de crédito.
La cantidad de comercio llevada a cabo electrónicamente ha
crecido de manera extraordinaria debido a Internet. Una gran
variedad de comercio se realiza de esta manera, estimulando la
creación y utilización de innovaciones como la transferencia de
fondos electrónica, la administración de cadenas de suministro, el
marketing en Internet, el procesamiento de transacciones en línea
(OLTP), el intercambio electrónico de datos (EDI), los sistemas de
administración del inventario y los sistemas automatizados de
recolección de datos.
La mayor parte del comercio electrónico consiste en la compra y
venta de productos o servicios entre personas y empresas, sin
embargo un porcentaje considerable del comercio electrónico
consiste en la adquisición de artículos virtuales (software y
derivados en su mayoría), tales como el acceso a contenido
"premium" de un sitio web.
18. T.I.C.
Servidores Peer to Peer
Una red peer-to-peer, red de pares, red entre iguales o red entre
pares (P2P, por sus siglas en inglés) es una red de computadoras
en la que todos o algunos aspectos funcionan sin clientes ni
servidores fijos, sino una serie de nodos que se comportan como
iguales entre sí. Es decir, actúan simultáneamente como clientes y
servidores respecto a los demás nodos de la red. Las redes P2P
permiten el intercambio directo de información, en cualquier
formato, entre los ordenadores interconectados.
Normalmente este tipo de redes se implementan como redes
superpuestas construidas en la capa de aplicación de redes
públicas como Internet.
El hecho de que sirvan para compartir e intercambiar información de
forma directa entre dos o más usuarios ha propiciado que parte de
los usuarios lo utilicen para intercambiar archivos cuyo contenido
está sujeto a las leyes de copyright, lo que ha generado una gran
polémica entre defensores y detractores de estos sistemas.
Las redes peer-to-peer aprovechan, administran y optimizan el uso
del ancho de banda de los demás usuarios de la red por medio de
la conectividad entre los mismos, y obtienen así más rendimiento en
las conexiones y transferencias que con algunos métodos
centralizados convencionales, donde una cantidad relativamente
pequeña de servidores provee el total del ancho de banda y
recursos compartidos para un servicio o aplicación.
Dichas redes son útiles para diversos propósitos. A menudo se
usan para compartir ficheros (archivos) de cualquier tipo (por
ejemplo, audio, vídeo o software). Este tipo de red también suele
usarse en telefonía VoIP para hacer más eficiente la transmisión de
datos en tiempo real.
La eficacia de los nodos en el enlace y transmisión de datos puede
variar según su configuración local (cortafuegos, NAT, ruteadores,
etc.), velocidad de proceso, disponibilidad de ancho de banda de su
conexión a la red y capacidad de almacenamiento en disco.
19. En mayo de 1999, con millones de personas más en Internet,
Shawn Fanning introdujo la aplicación para compartir música y
archivos llamada Napster. Napster fue el comienzo de las redes
peer-to-peer, como las conocemos hoy en día, donde "los usuarios
que participan establecer una red virtual, totalmente independiente
de la red física, sin tener que obedecer a cualquier autoridad
administrativa o restricciones".