Este documento presenta un plan de estudios para un curso de capacitación en informática. El curso se llevará a cabo durante 50 días y cubrirá temas como los componentes internos y externos de una CPU, generaciones de computadoras, seguridad e higiene, y Web 2.0. El curso está dividido en módulos que incluyen operación de equipos, sistemas operativos, y almacenamiento de información.
2. Índice.
• Presentación al curso.(Dia.3)
• Modulo/Sub-modulo.(Dia.4)
• Elementos Internos Y Externos Que Conforman El Cpu.(Dia.5-24)
• Componentes computacionales (Cuadro comparativo).(Dia.25-27)
• Generaciones computacionales.(Dia.28-33)
• Reglamento de seguridad e higiene.(Dia.34-48)
• Web 2.0.
• Video. (Dia.49)
• Bibliografía (Dia.50)
3. PRESENTACIÓN AL CURSO:
La asignatura “operación de equipo de cómputo” se conforma de 4 temas:
En a primera se analiza la operación de equipo.
en el segundo aprenderás a configurar el equipo y sus dispositivos.
En el tercero se estudia la relación con el reguardo de la información ,
mediante los medios de almacenamiento, por ultimo aprenderás a
utilizar el quipo de computo mediante las normas de seguridad e
higiene.
4. Modulo/Sub-modulos.
Módulo 1: Elaboración de documentos electrónico.
SubModulo1: Operación del equipo de cómputo:
Temas:
Instalar el equipo de cómputo conforme a las reglas de seguridad e higiene.
Configurar el equipo de computo y sus dispositivos.
Manipular los medio de almacenamiento.
Utilizar el equipo de computo conforme a las normas de seguridad y higiene.
Submodulo: Diferenciar las funciones del sistema operativa, y insumos del
mantenimiento de equipo de computo.
Diferenciar las funciones del sistema operativo
Aplicar las herramientas del sistema para la presenvacion del equipo e
insumos.
Administrar el uso de los insumos de la operación del equipo de computo.
Elaborar los reportes de daños o perdida en equipo o personoles.
Elaborar la sulicitud de reabastecimiento de insumos y mantenimiento
preventivo.
5. Elementos Internos Y Externos
Que Conforman El Cpu.
Microprocesador
DEFINICIÓN: ubicado en el corazón de la placa madre, es el "cerebro" de la computadora.
Lógicamente es llamado CPU.
El término microprocesador alude a un circuito integrado de gran complejidad dentro de una
computadora.
CARACTERISTICAS: Está constituido por millones de unidades eléctricas y conforma la unidad central de
procesamiento (CPU) del computador.
Historia: En el año 1971 y una empresa japonesa, Busicom, tenía un proyecto para una nueva
calculadora. Ted Hoff, ingeniero de Intel, diseñó un chip (circuito integrado) con una memoria capaz
de hacer varias acciones. Con 4 chips como este y dos chips más de memoria se diseñó el primer
microprocesador de Intel, el 4004. Antes de crear el microprocesador hacía falta un chip para cada
parte de la calculadora, con el 4004 todas las funciones estaban integradas en un solo circuito.
Este microprocesador contenía 2.300 transistores y transmitía con un bus de 4 bits. El 4004 podía realizar
60.000 operaciones por segundo, una miseria para nuestros días, todo un logro en los años 70.
Formados por:
Resistencias
Diodos
Condensadores
Conexiones
Millones de transistores
Secciones:
ALU: unidad aritmético-lógica que hace cálculos con números y toma decisiones lógicas.
Registros: zonas de memoria especiales para almacenar información temporalmente.
Unidad de control: descodifica los programas.
6. BUZZ O BUS.
• Bus: transportan información digital (en bits) a través del chip y de la computadora.
• Memoria
DEFINICION: donde se almacena o guarda la información que está siendo usada en el
momento o será ocupada después.
FUNCION: La memoria RAM, donde se guarda la información que está siendo usada en el
momento. También cuenta con memoria ROM, donde se almacena la BIOS y la configuración
más básica de la computadora.
• HISTORIA: Uno de los primeros tipos de memoria RAM fue la memoria de núcleo
magnético, desarrollada entre 1949 y 1952 y usada en muchos computadores hasta el
desarrollo de circuitos integrados a finales de los años 60 y principios de los 70. Esa memoria
requería que cada bit estuviera almacenado en un toroide de material ferromágnetico de
algunos milímetros de diámetro, lo que resultaba en dispositivos con una capacidad de
memoria muy pequeña. En 1969 fueron lanzadas una de las primeras memorias RAM basadas
en semiconductores de silicio por parte de Intel con el integrado 3101 de 64 bits de memoria y
para el siguiente año se presentó una memoria DRAM de 1024 bytes, referencia 1103 que se
constituyó en un hito, ya que fue la primera en ser comercializada con éxito, lo que significó el
principio del fin para las memorias de núcleo magnético.
Memoria local: utilizada para los cómputos efectuados en el mismo chip.
Memoria cache: memoria especializada que sirve para acelerar el acceso a los dispositivos
externos de almacenamiento de datos.
• CARACTERISTICAS: Hay de dos tipos de 30 y de 72 pines. Los de 30 vienen en capacidades de
256K y 1Mb y ya casi no se usan. Los de 72 vienen en versiones de 4, 8, 16, 32. Su principal
desventaja es que trabajan en pares.
• TIPOS DE MEMORIA: de dos tipos de 30 y de 72 pines
7.
DEFINICION: Son todos aquellos dispositivos encargados de mantener fresco, o a cierta temperatura
algunos dispositivos para evitar problemas o fallas.
FUNCION: Mantienen fresco el equipo de cómputo para evitar fallas o problemas posteriores.
CARACTERISTICAS: Los más comunes son los coolers (ventiladores) y los disipadores de calor.
HISTORIA: El enfriamiento de la CPU se hizo necesario incluso antes de la aparición de los primeros Intel
Pentium y Pentium MMX, debido al calor generado por la frecuencia de reloj que incrementaba con el
avance de los microprocesadores. Por aquellos años se solía retirar el calor mediante un disipador que lo
conducía hasta sus puntas liberándolo al exterior. El aumento cada vez más rápido de la temperatura, hizo
necesaria la incorporación de un ventilador al disipador, para acelerar el proceso de enfriamiento.
CARACTERISTICAS: A ese método de enfriamiento se le llama «refrigeración por aire», y se utiliza para
enfriar no solo procesadores, sino cualquier componente electrónico que genere un calor excesivo.
TIPOS DE DISPOSITIVOS DE ENFRIAMIENTO: Hoy en día existe el método de refrigeración
líquida que consiste en hacer fluir un líquido refrigerante dentro de un sistema cerrado de conductos, que
hacen contacto directo con los componentes a enfriar. Este sistema es evidentemente más efectivo que la
refrigeración por aire, y se utiliza especialmente para enfriar procesadores en los que se practica
el overclock.
Dispositivos de enfriamiento .
8. Puertos de comunicación.
O DEFINICIÓN: Son todos aquellos como USB, puerto serial, puerto paralelo, para la
conexión con periféricos externos.
FUNCION: son herramientas que permiten manejar e intercambiar datos entre un
computador entre los diferentes periféricos a la cual se encuentran conectados.
HISTORIA: En 1981, la IBM (International Business Machines) introdujo la
Computadora Personal (PC). El puerto paralelo (Standart Parallel Port SPP) estaba
incluido en el primer PC y se agregó a éste como una alternativa al bajo rendimiento
del puerto serial, para utilizarlo como controlador de las impresoras de matriz de
punto de alto desempeño. Este puerto tenía la capacidad de transmitir 8 bits de
datos a la vez (del PC a la impresora), mientras que el puerto serial lo hacía de uno
en uno. En el momento que el puerto paralelo fue presentado, las impresoras de
punto fueron el principal dispositivo externo que se conecto a éste.
O
TIPOS:
Puerto Paralelo (LPT)
Sirven para enlazar dos dispositivos, como por ejemplo, la impresora. entre sus tipos
podemos diferenciarlos por los números de bit. Cuando es unidireccional, este
puerto contiene 4-BIT y solo transfiere información en una sola dirección. Cuando es
bireccional, contiene 8-BIT, el cual es capaz de enviar información en dos
direcciones. Físicamente hablando, Estos puertos son del tipo hembra, de unos
38mm de longitud con 25 pines agrupados en dos hileras. Estos se utilizan
normalmente para conectar impresoras, scanners y en algunos casos hasta dos
PCs, aunque en la actualidad dichos periféricos vienen para conectar en puertos
USB.
9. Puerto Serial (COM)
Estos puertos se utilizan para enviar y recibir información de BIT en BIT fuera del
computador a través de un único cable y de un determinado software de
comunicación. Estos se identifican como puertos del COM (comunicaciones). Por
ejemplo, como periféricos a conectar están los ratones y los módem. Estos
conectores son de tipo macho y los hay de 2 tamaños, uno estrecho, de 9 pines con
una longitud aproximada de 17mm y otro ancho de 25 pines, con una longitud de
unos 38mm, internamente son iguales (9 pines) y realizan las mismas funciones.
Puerto PS/2
Sencillamente son puertos paralelos que se utilizan para conectar pequeños
periféricos a la PC. El mismo consta por lo general de 6 pines o conectores. La placa
base tiene el conector hembra. En las placas de hoy en día se pueden distinguir el
teclado del Mouse por sus colores, siendo el teclado (por lo general) el de color
violeta y el Mouse el de color verde.
Puerto USB (Universal Serial Bus)
Este permite instalar periféricos sin tener que abrir la maquina para instalarle
hardware, es decir, que basta con conectar dicho periférico en la parte posterior del
computador. Sus características más atractivas es que se pueden conectar en el
cualquier periférico que sea compatible sin necesidad de reiniciar la computadora ni
configurar el sistema. Este es una mejora en los dos puertos especificados
anteriormente. El USB es la tecnología preferida para la mayoría de los teclados,
Mouse y otros dispositivos de entrada de información de banda estrecha. El USB
también esta muy extendido en cámaras fotográficas digitales, impresoras,
escáneres, módems, joysticks y similares.
10. Puerto RJ-11
Es un puerto utilizado en los sistemas telefónicos y es el que se utiliza para conectar el
MODEM a la línea telefónica de manera que las computadoras puedan tener acceso a
Internet. Tiene forma de cubo, y consta de cuatro cables de los cuales se utilizan solo
dos para las conexiones telefónicas.
Puertos RJ-45
Estas se utilizan comúnmente en las redes de computadoras, sus siglas corresponden
a "Registered Jack" o "Clavija Registrada", que a su vez es parte del código de
regulaciones de Estados Unidos. Este conector se utiliza en la mayoría de las tarjetas
de Ethernet (tarjetas de red) y va en los extremos de un cable UTP nivel 5.
Puertos RCA
Es un tipo de conector eléctrico común el cual sirve de medio para trasmitir audio y
video. Por su concepción presente un problema... cada señal necesita de un cable
propio para poder transitar. Su uso se extiende desde las computadoras hasta los
equipos de sonido, etc. Dentro del computador este se ubica en la parte posterior del
computador, en la tarjeta de sonido.
11. Discos duros
DEFINICIÓN: Son los dispositivos de almacenamiento masivos más comunes en las
computadoras.
FUNCION: Almacenan el sistema operativo y los archivos del usuario.
HISTORIA: El primer disco duro fue inventado por IBM en 1956. A lo largo de los
años, los discos duros han disminuido su precio al mismo tiempo que han
multiplicado su capacidad, siendo la principal opción de almacenamiento
secundario para PC desde su aparición en los años 1960.
CARACTERISTICAS: Es un dispositivo de almacenamiento de datos no volátil que
emplea un sistema de grabación magnética para almacenar datos digitales. Se
compone de uno o más platos o discos rígidos, unidos por un mismo eje que gira
a gran velocidad dentro de una caja metálica sellada.
TIPOS: Los tamaños también han variado mucho, desde los primeros discos
IBM hasta los formatos estandarizados actualmente: 3,5 " los modelos para PC y
servidores, 2,5 " los modelos para dispositivos portátiles. Todos se comunican con
la computadora a través del controlador de disco, empleando una interfaz. Los
más comunes hasta los años 2000 han sido IDE (también llamado ATA o
PATA), SCSI (generalmente usado en servidores y estaciones de trabajo).
12. DEFINICION: Las unidades para la lectura de CDs, DVDs, Blu-Rays y HD-
DVDs
FUNCION: Almacenan información de muchos tipos y muy variadas,
desde películas, videos, música hasta documentos, presentaciones,
software, etc.
HISTORIA: Originariamente, los dispositivos ópticos se utilizaban para
almacenar música y software de computadora. El formato Laserdisc
almacenaba señales de video analógicas, pero, comercialmente perdió
ante el formato de casete VHS, debido principalmente a su alto costo e
imposibilidad de grabación; el resto de los formatos de disco de la
primera generación están diseñados únicamente para almacenar datos
digitales.
CARACTERISTICAS: Los discos ópticos en general tienen un diámetro de
entre 7.6 y 30 cm, siendo 12 cm el tamaño más común. Un disco típico
tiene un grosor de 1.2 mm, mientras que el largo de pista, la distancia
desde el centro de una pista hasta el centro de la siguiente, es en
general de 1.6 µm (micrones).
TIPOS: CDs, DVDs, Blu-Rays y HD-DVDs
DISCOS ÓPTICOS.
13. Disquetes.
DEFINICION: Son todas las unidades para la lectura, casi sin uso en la
actualidad.
FUNCION: Para la lectura y almacenamiento de datos.
HISTORIA: En 1967, IBM encomendó a su centro de desarrollo de
almacenamiento de San José California una nueva tarea: desarrollar un
sistema sencillo y barato para cargar microcódigo en los System/370.
CARACTERISTICAS: Los disquetes se leen y se escriben mediante un
dispositivo llamado disquetera (o FDD, del inglés Floppy Disk Drive).
Los disquetes de 3½" son menores que el CD, tanto en tamaño como en
capacidad.
14. Impresora.
DEFINICION: Imprime documentos desde la base de datos guardados
en la computadora, ya sea de Word, Excel, etc.
FUNCION: Imprime documentos informáticos en papel u otros medios.
HISTORIA: En 1950 llega la primera impresora eléctrica para
computadoras, sin embargo solo era capaz de imprimir textos. Siete
años más tarde se desarrolla la impresión por matriz de puntos, pero
contaba con las mismas limitaciones que su antecesor. En 1959 Xerox
fabrica la fotocopiadora y para 1973 aparece la primera fotocopiadora a
color, fabricada por Canon.
CARACTERISTICAS: La impresora es un dispositivo
periférico del ordenador que permite producir una gama permanente de
textos o gráficos de documentos almacenados en un formato
electrónico, imprimiéndolos en medios físicos, normalmente en papel,
utilizando cartuchos de tinta o tecnología láser.
TIPOS:
sublimación de tinta
impresora térmica
impresora térmica de cera
impresora térmica de papel metalizado
15. DEFINICION: Entrada de video
FUNCION: Especial para videoconferencias.
HISTORIA: En 1991, Quentin Stafford-Fraser y Paul Jardetzky, que
compartían despacho, hartos de bajar tres plantas y encontrarse la cafetera
vacía decidieron pasar al contraataque. Diseñaron un protocolo cliente-
servidor que conectándolo a una cámara, trasmitía una imagen de la cafetera a
una resolución de 128 x 128 pixels.
CARACTERISTICAS: es una pequeña cámara digital conectada a
una computadora la cual puede capturar imágenes y transmitirlas a través
de Internet.
TIPOS: CAMARA RED O CAMARA WEB, WEB CAM DRIVE, WEB
CAM MSN.
WEPCAM.
16. Sistema operativo.
DEFINICION: Software que controla la computadora y administra los servicios y sus funciones, como así también la
ejecución de otros programas compatibles con éste.
FUNCION: conjunto de programas destinado a permitir el uso apropiado de las partes físicas del ordenador
(hardware).
HISTORIA: os primeros sistemas operativos fueron desarrollados por cada usuario para el uso de su
propia computadora central, y es en 1956 que la General Motors desarrolla lo que es hoy considerado el primer
sistema, el GM-NAA I/O, para su IBM 704.
CARACTERISTICAS: El más difundido a nivel mundial es Windows, pero existen otros de gran popularidad como los
basados en UNIX.
TIPOS: MULTICS (Multiplexed Information and Computing Service): Originalmente era un proyecto cooperativo
liderado por Fernando Corbató del MIT, con General Electric y los laboratorios Bell, que comenzó en los 60, pero los
laboratorios Bell abandonaron en 1969 para comenzar a crear el sistema UNIX. Se desarrolló inicialmente para el
mainframe GE-645, un sistema de 36 bits; después fue soportado por la serie de máquinas Honeywell 6180.
Fue uno de los primeros. Además, los traducía a instrucciones de alto nivel destinadas a BDOS.
BDOS (Basic Disk Operating System): Traductor de las instrucciones en llamadas a la BIOS.
CP/M: (Control Program for Microcomputers) fue un sistema operativo desarrollado por Gary Kildall para el
microprocesador Intel 8080 (los Intel 8085 y Zilog Z80 podían ejecutar directamente el código del 8080, aunque lo
normal era que se entregara el código recompilado para el microprocesador de la máquina). Se trataba del sistema
operativo más popular entre las computadoras personales en los años 70. Aunque fue modificado para ejecutarse en un
IBM PC, el hecho que IBM eligiera MS-DOS, al fracasar las negociaciones con Digital Research, hizo que el uso
de CP/M disminuyera hasta hacerlo desaparecer. CP/M originalmente significaba Control Program/Monitor. Más tarde
fue renombrado a Control Program for Microcomputers. En la época, la barra inclinada (/) tenía el significado de
"diseñado para". No obstante, Gary Kildall redefinió el significado del acrónimo poco después. CP/M se convirtió en un
estándar de industria para los primeros micro-ordenadores.
17. Definicion: Dispositivo de entrada de datos al ordenador. En general, se parece bastante al de una máquina de
escribir convencional; debe ser, sin embargo, predefinido (no son iguales el español y el inglés, por ejemplo, aunque
se utilice el mismo aparato). La operación de las teclas puede ser predeterminada según los programas que vamos a
utilizar: pueden asignarse funciones de macro a algunas teclas en un tratamiento de textos, o convertirlas en un
teclado musical, etc. Fuente (http://tecnologia.glosario.net/terminos-tecnicos-internet/teclado-1575.html )
Historia: Normalmente usamos el teclado QWERTY, llamado así, debido al orden del las letras. Pero primero
recordemos que antes de que surgieran o fueran siquiera inventadas las computadoras y las máquinas de escribir
elÉctricas, se utilizaban las mecánicas, que se comenzaron a conocer durante la primera mitad del siglo XIX. Fue en
1872 cuando se lanza la primera máquina de escribir ampliamente conocida, diseñada por Cristopher Latham
Sholes en Milwakee, Estados Unidos, con la ayuda de dos amigos inventores.
Estas máquinas funcionaban mediante martillos con el inverso de las letras grabadas en su cabeza. Al golpear un tipo
de papel a través de una cinta con tinta se marcaba la letra. El problema era que el movimiento de las teclas empujado
por la presión de los dedos causaba frecuentes choques de las palancas, con lo que las primeras máquinas se
trababan con mucha frecuencia.
en 1932 un capitán de submarinos e inventor llamado Dvorak diseñó una disposición del teclado que permite escribir
más rápidamente. En ese teclado las vocales están en el centro a la izquierda y las consonantes más usadas a la
derecha. Esto hace que la escritura en ese teclado sea más simple y descansada. Fuente
(http://www.tecnologiahechapalabra.com/tecnologia/genesis/articulo.asp?i=885 )
Caracteristicas:
Es el dispositivo más importante para la introducción de nuevos datos hacia la computadora, aunque se puede
prescindir de él, es muy difícil realizar las actividades informáticas.
Actualmente algunos modelos cuentan con una serie de botones extras que permiten el acceso directo a aplicaciones
específicas de Microsoft® Windows, tales como Outlook, controles de sonido, acceder al explorador de Internet, etc.
Básicamente no ha cambiado la tecnología de estos dispositivos, salvo por la forma en que al oprimir las teclas, y
estas generan los códigos correspondientes.
Actualmente existen teclados inalámbricos, pero no son muy comerciales ni económicos, debido al tipo de tecnología y
en gran medida debido a que requieren el uso de baterías para su funcionamiento.
Fúncion: Funciones del teclado principales: el teclado se convierte sin lugar a dudas en uno de los periféricos más
importantes para quienes realizan un sinfín de trabajos en el ordenador, sobre todo con aplicaciones tales
como procesadores de texto, o agilizando nuestras entradas de blog si utilizamos Windows Live Writer, o bien
simplemente disfrutando de videojuegos completos que exigen distintas combinaciones de teclas.
18. Mouse.
Definicion: El término ratón proviene de "Mouse", ya que la forma se
asocia con la de un ratón. Es un dispositivo apuntador que integra en su
interior un LED (incluso hay algunos con tecnología láser), que emite luz
de manera intermitente , y un receptor se encarga de enviar los cambios
en la reflexión de luz en la superficie hacia un circuito integrado que los
interpreta como movimientos en todas direcciones, y finalmente estos
datos por medio de un cable hacia la computadora que los interpreta
como posiciones en la pantalla por medio del puntero (flecha que se
mueve en la pantalla al mover el ratón).
Historia:
1952: Nace el primer trackball, creado por la Marina Canadiense
Aproximadamente diez años antes de la creación del primer mouse, el
Comando Marítimo de las Fuerzas Canadienses contactó a varias
empresas que pudieran estar interesadas en participar de varios proyectos
que involucraban a las fuerzas armadas, universidades y compañías
privadas. Este proyecto fue conocido como DATAR. Pero la parte más
interesante es que el DATAR incluía un dispositivo curioso para la
época. Los operadores enviaban los datos de los radares a través de un
trackball, una especie de "mouse" en el que, para poder mover el
cursor, bastaba con girar una bola ubicada en el dispositivo.
19. Características.
1. Permite colocar el puntero (flecha que se mueve en la pantalla l mover el ratón ) ó
el cursor (línea que titila en os programas al escribir), en un lugar deseado de la
pantalla.
2. Se usa para abrir un menús emergente en la pantalla y elegir otras opciones.
3. Permite moverse entre menús de manera sencilla.
4. Reemplaza de muchas normasel uso del teclado.
5. Cuenta con 2 botones en su versión mas básico, regularmente el botón izquierdo
es para apuntar al menú o iconos(Pequeñas imgenes en la pantalla que realizan
acciones ) y el derecho por activar un menú contextual (Emergente).
6. Inicialmente el ratón óptico integraba un tercer botón central llamado inteligente
que permite mover las paginas de arriba hacia abajo.
7. Inicialmente el ratón óptico integraba un tercer botón central llamado inteligente,
que permite mover las páginas de arriba hacia abajo.
8. Actualmente el tercer botón simple ha sido reemplazado por un botón
denominado "Wheel" que permite presionarlo y girarlo incluso hasta a la izquierda
y derecha.
9. Envían la información hacia la computadora básicamente por medio de un cable ó
de manera inalámbrica, por alguno de los tres medios comunes: ondas infrarrojas,
víaWi-Fi ó vía BlueTooth.
10. Son prácticamente libres de mantenimiento, ya que están sellados y no tienen
partes mecánicas en movimiento.
20. Fúncion: el mouse es como una extensión de nuestra mano, la que se
"introduce" en la pantalla del monitor de nuestro computador.
Tipos:
Mecánico: este mouse funciona a partir de una pequeña bola de plástico
ubicada en la parte inferior del mismo. Al mover esta bola, deslizándola
por alguna superficie, se ponen en movimiento unos rodillos ubicados en
el interior del periférico que transmite ondas a un pequeño receptor.
Este recibe los pulsos y los interpreta como coordenadas en el monitor.
Óptico: este mouse, a diferencia del anterior, no posee la bola de goma,
sino que trabaja a partir de un sensor óptico que detecta variaciones en
las fotografías que realiza en la superficie sobre la que se lo desliza.
Una de las ventajas que ofrece con respecto al mecánico es que no se
acumula polvillo ni suciedad que puede afectar su buen
funcionamiento.
Láser: funciona de manera similar al óptico pero, en vez de poseer un
haz de luz, presenta un láser imperceptible que lo hace más preciso y
sensible.
Trackball: en estos mouse no debe moverse todo el dispositivo sino sólo
el puntero. En estos, la bola se mueve mediante el pulgar.
Touch: esta clase de mouse está conformado por una única pieza que
consiste en una superficie alisada que equivale a un botón donde el
usuario desliza sus dedos para mover el cursos y presiona sobre este
para seleccionar.
21. Monitor.
DEFINICION: El monitor de ordenador es un dispositivo de salida (interfaz), que muestra datos o información al usuario.
CARACTERISTICAS:
PANTALLA DE VIDRIO CURVO
CONTROLES DE PANTALLA
BOTON DE ENCENDIDO
CONECTOR PLASTICO
CONECTOR PARA ALIMENTACION
CONECTOR Y CABLE PARA DATOS
SOPORTE
FUNCION:
Es el canal o medio por el cual la computadora se comunica con nosotros, o sea el medio por el cual visualizamos lo que hace la
computadora, y también lo que nosotros le ordenamos
HISTORIA:
Las primeras computadoras se comunicaban con el operador mediante unas pequeñas luces, que se encendían o se apagaban al
acceder a determinadas posiciones de memoria o ejecutar ciertas instrucciones.
Años mas tarde aparecieron ordenadores que funcionaban con Tarjeta perforada, que permitían introducir programas en el computador.
Durante los años 60, la forma más común de interactuar con un computador era mediante un Teletipo, que se conectaba directamente a
este e imprimía todos los datos de una sesión informática. Fue la forma más barata de visualizar los resultados hasta la década de los
70, cuando empezaron a aparecer los primeros monitores de CRT (Tubo de rayos catódicos). Seguían el estándar MDA (Monochrome
Display Adapter), y eran monitores monocromáticos (de un solo color) de IBM.
Estaban expresamente diseñados para modo texto y soportaban subrayado, negrita, cursiva, normal e invisibilidad para textos. Poco
después y en el mismo año salieron los monitores CGA (Color Graphics Adapter-gráficos adaptados a color) fueron comercializados
en 1981 al desarrollarse la primera tarjeta gráfica a partir del estándar CGA de IBM. Al comercializarse a la vez que los MDA los
usuarios de PC optaban por comprar el monitor monocromático por su costo.
Tres años más tarde surgió el monitor EGA (Enhanced Graphics Adapter - adaptador de gráficos mejorados) estándar desarrollado por
IBM para la visualización de gráficos, este monitor aportaba más colores (16) y una mayor resolución. En 1987 surgió el estándar VGA
(Video Graphics Array - Matriz gráfica de video) fue un estándar muy acogido y dos años más tarde se mejoró y rediseñó para
solucionar ciertos problemas que surgieron, desarrollando así SVGA (Super VGA), que también aumentaba colores y resoluciones,
para este nuevo estándar se desarrollaron tarjetas gráficas de fabricantes hasta el día de hoy conocidos como S3
Graphics, NVIDIA o ATI entre otros.
22. • COMPONENTES:
• Flyblack:
• El Flyback típico o Transformador de Línea consta de dos partes:
• Un transformador especial que junto con el transistor y circuitos de salida ydeflexión horizontal, eleva el B+ de la fuente de
poder (unos 120 V en los TV), a 20a 30 KV para el TRC, y provee varios voltajes más bajos para otros circuitos. Un
rectificador que convierte los pulsos de Alto Voltaje en corriente continua
que luegoel condensador formado en el TRC, filtra o aplana. El Alto Voltaje puededesarrollarse directamente en un solo
bobinado con muchas espiras de alambre, o un bobinado que genera un voltaje más bajo y un multiplicador de voltaje de
diodo-condensador. Varios secundarios que alimentan: sintonizador, circuitos de vertical,video y filamentos de TRC. De
hecho, en muchos modelos de TV, la única
fuenteque no deriva del Flyback es para los circuitos de espera, necesarios paramantener memoria del canal y
proporcionar el inicio (o arranque) de los circuitos de deflexión horizontal.
• Un divisor de voltaje que proporciona el enfoque y screen de la pantalla. En los potenciómetros y circuito divisor se
encuentran las principales causas de falta de foco, brillo excesivo, o fluctuación del enfoque y/o brillo. Un corto total
tambiénpodría producir la falla de otros componentes como el transistor de salidahorizontal. El Foco y Screen
generalmente están arriba y abajo respectivamente.En algunos TV, el foco y screen son externos al flyback y susceptibles
al polvo yproblemas particularmente en los días húmedos.
•
• . Anodo:
• Un ánodo (la pantalla recubierta de fósforo) que permiten a loselectrones viajar desde el Terminal negativo al positivo. El
yugo del monitor, unabobina magnética, desvía la emisión de electrones repartiéndolo por la pantalla,para pintar las
diversas líneas que forman un cuadro o imagen completa.
• . Bobina desmagnetizadota:
• En lo particular es un alambre magneto recicladode las bobinas gauss de tv con un bote de aproximadamente 10 o 12"
pulgadas ledas vueltas hasta que quede grueso como tu dedo medio luego le pones unaextensión de dos metros con un
botón de timbre o similar
•
• TIPOS:
• Según la tecnología utilizada:
o Pantalla de tubo de rayos catódicos o CRT
o Pantalla de cristal líquido o LCD
+ Monitor de matriz activa
# Monitor TFT
+ Monitor de matriz pasiva
* Según el estándar:
o Monitor numérico
+ Monitor MDA
+ Monitor CGA
+ Monitor EGA
o Monitor analógico
+ Monitor VGA
23. DEFINICION: La Unidad Central de Procesamiento (del inglés: Central Processing Unit, CPU) o procesador, es el componente
principal del ordenador y otros dispositivos programables, que interpreta las instrucciones contenidas en los programas y
procesa los datos. Las CPU se conocen como microprocesador el CPU que es manufacturado con circuitos integrados.
FUNCION: Proporcionan la característica fundamental del ordenador digital (la programabilidad) y son uno de los componentes
necesarios encontrados en los ordenadores de cualquier tiempo, junto con la memoria principal y los dispositivos de
entrada/salida.
HISTORIA: Antes de la aceptación comercial del transistor, los relés eléctricos y los tubos de vacío (válvulas termoiónicas) eran
usados comúnmente como elementos de conmutación. Aunque éstos tenían distintas ventajas de velocidad sobre los anteriores
diseños puramente mecánicos, no eran fiables por varias razones. Por ejemplo, hacer circuitos de lógica secuencial de corriente
directa requería hardware adicional para hacer frente al problema del rebote de contacto. Por otro lado, mientras que los tubos
de vacío no sufren del rebote de contacto, éstos deben calentarse antes de llegar a estar completamente operacionales y
eventualmente fallan y dejan de funcionar por completo. Generalmente, cuando un tubo ha fallado, la CPU tendría que ser
diagnosticada para localizar el componente que falla para que pueda ser reemplazado. Por lo tanto, los primeros computadores
electrónicos, (basados en tubos de vacío), generalmente eran más rápidos pero menos confiables que los ordenadores
electromecánicos, (basados en relés). Los ordenadores de tubo, como el EDVAC, tendieron en tener un promedio de ocho horas
entre fallos, mientras que los ordenadores de relés, (anteriores y más lentas), como el Harvard Mark I, fallaban muy raramente.
Al final, los CPU basados en tubo llegaron a ser dominantes porque las significativas ventajas de velocidad producidas
generalmente pesaban más que los problemas de confiabilidad. La mayor parte de estas tempranas CPU síncronas corrían en
frecuencias de reloj bajas comparadas con los modernos diseños microelectrónicos. Eran muy comunes en este tiempo las
frecuencias de la señal del reloj con un rango desde 100 kHz hasta 4 MHz, limitado en gran parte por la velocidad de los
dispositivos de conmutación con los que fueron construidos. Desde mediados de los años 1970, los microprocesadores de un solo
chip han reemplazado casi totalmente todos los tipos de CPU y hoy en día, el término "CPU" es aplicado usualmente a todos los
microprocesadores. La expresión "unidad central de proceso" es, en términos generales, un dispositivo lógico que pueden
ejecutar complejos programas de ordenador. Esta amplia definición puede fácilmente ser aplicada a muchos de los primeros
ordenadores que existieron mucho antes que el término "CPU" estuviera en amplio uso.
CARACTERISTICAS: Los CPU proporcionan la característica fundamental de la computadora digital, la programabilidad, y son
uno de los componentes necesarios encontrados en los ordenadores o computadoras de cualquier tiempo, junto con el
almacenamiento primario y las facilidades de entrada/salida. La expresión "unidad central de proceso" es, en términos
generales, una descripción de una cierta clase de máquina de lógica que pueden ejecutar complejos programas de computadora.
La forma, el diseño y la implementación de los CPU ha ido cambiando al pasar el tiempo pero la operación es similar a las
primeras máquinas. Antes de las CPU había máquinas como el ENIAC que eran bastante grandes y necesitaban ser recableadas
para poder realizar tareas diferentes.
TIPOS:
Computadoras de un solo núcleo
Las CPU de un solo núcleo son el tipo más antiguo disponible y en un principio este fue el único tipo de CPU que podría ser
utilizado en las computadoras. Éstas sólo pueden iniciar una operación a la vez, así que no eran muy buenas a la hora de hacer
muchas tareas a la vez. Esto significó, en su momento, una disminución notable en el rendimiento de las aplicaciones que se
ejecutaban. Aunque sólo una operación podría ser iniciada en un momento, otra podría ser activada antes de la primera se
terminara pero con cada nueva operación el equipo era más lento. El rendimiento en este tipo de CPU fue en gran parte
dependiente de sus velocidades de reloj, que era una medida de su poder.
24. Dos tipos de núcleos.
CPU de dos núcleos
Una CPU de doble núcleo es una sola CPU que tiene dos núcleos y por lo tanto funciona
como dos CPU en una sola. A diferencia de las de núcleo único en el que el procesador
tenía que alternarse entre diferentes conjuntos de flujos de datos, si más de una
operación estaba en marcha, las de doble núcleo podían manejar múltiples tareas de
manera más eficiente. Para sacar el máximo provecho de una CPU de doble núcleo, tanto
el sistema operativo como los programas que se ejecutan en él debían tener un código
especial llamado SMT (Tecnología Multihilo Simultáneo). Las CPU de doble núcleo son
más rápidas que las de un solo núcleo, pero no tan rápidas como las de cuatro núcleos
que las han sustituido.
CPU de cuatro núcleos
Las CPU de cuatro núcleos son el perfeccionamiento del diseño de la CPU multinúcleo y
disponen de cuatro núcleos en una sola CPU. Así como las CPU de doble núcleo podían
dividir la carga de trabajo entre los dos núcleos, las cuatro núcleos permiten realizar aun
más tareas a la vez. Esto no significa que una sola operación será cuatro veces más
rápida y, a menos de que los programas y aplicaciones que se ejecutan en ella tengan el
código de SMT, el aumento de velocidad no será tan notable. Estos tipos de CPU son
útiles para la gente que necesita ejecutar una gran cantidad de programas diferentes al
mismo tiempo, así como jugadores, ya que hay juegos como la serie de Comandante
Supremo que están optimizados para CPU multi-núcleo.
28. 1° generación.- Empieza del año 1951- 1958
Estaban contribuidas con electrónica de bulbos o tubos de vacío.
Se programaban en lenguaje de maquina de bajo nivel.
Primer generación 1941 por Mauchly y Eclert.
1949 Segunda más importante.
1951, UNIVAC. La computadora más importante surgió.
1953 la IBM fue lanzada al publico (La más exitosa).
Para guardar información se almacena por un medio de cintas
magnéticas.
Surgió el telar de juacard.
Se empieza a utilizar el código Binario.
Generaciones computacionales.
29. 2° GENERACIÓN.- EMPIEZA DE 1958- 1964.
• Se construyeron con transistores.
• A partir de la 2° generación se desarrollaron nuevos lenguajes de almacenar Cobol y
Forltran.
• Se empieza a integrar ventiladores al equipo de computo.
• Usaban transistores en lugar en lugar de bulbos.
• Se programaban con el programa de LOTUS 123.
• Los dispositivos de almacenamiento eran escasos.
• Los dispositivos de computación eran de una dimensión grande.
30. Desprendian menor calor y electricidad.
Circuitos integrados (Construidas).
Se desarrollaron los software.
Se desarrollaron los “Chips” para almacenar y procesar
información.
Surge la multiprogramación , aumento fialidad, aplicaciones,
matemáticas y administradors para tareas cotidianas.
Tienen multiprocesamient o multitarea.
Jack St, Claire Kilby y Robert Noyce fueron creadores
El primer miroprocesaor es INTEL404.
Teleproceso, se refiere al proceso de dato proveniente de
terminales en unidad central.
Telecomunicacion en proceso de datos.
3° Generación.- Empieza
de 1964-1971.
31. 4°generación.- empieza
de 1971-1988.
• Nacen la computadoras personales.
• Aparecen microrpocesadores.
• Aparcen las memorias electrónicas.
• Aparecen el manejo de base de datos.
• Generalización, especificas de creaciones de software.
• Aparecen los Chips Lsi y Vlsi.
• Se reduce un 80% el tamaño de las computadoras mas
que la 3° generación.
32. El propósito es poner inteligencia artificial en el hardware y el
software.
El almacenamiento siguen con cintas magnéticas (Diapositivos).
FGCS se conocía como esta generación (Fifth Generation Computer
Systems).
Usaban el lenguaje PROLOG 2,3,4 , lenguaje de maquina en esos
tiempos.
El lenguaje PASCAL.
Lenguaje de base de datos, DivBase, CLipper.
Saliendo de esta generación se uso el lenguaje visual.
1982 Se construyo la primer computador de procesamiento paralelo
(Tiene varios programas la vez, Multiprocesamiento).
Se nota un gran cambio de reducción de espacio.
Usa el software y hardware.
Se llama generación visual, nace la accesibilidad de forma visual.
Acceso a los iconos por el medio del mouse.
5° GENERACIÓN.-EMPIEZA DE 1981 -
1989.
33. 6° generación.- Empieza de 1999-2013
• Se inicio a principios de los años 90.
• Se mencionan algunos avances tecnológicos de la ultima
década del siglo XX y lo que lograra el siglo XXI.
• Las computadoras de esta generación cuentan con
arquitecturas combinadas paralelo(vectorial con cientos de
microprocesadores vectoriales trabajando al mismo tiempo.
• Se desarrollo la inteligencia (Artificial distribuido, teoría del
caos, sistemas difusos, holografía transistores ópticos, etc.
• Seguían creciendo desorbitadamente utilizando medios de
comunicación a atreves de fibras ópticas y satélites.
• Son capaces de soportar un millón de operaciones aritméticas.
35. OPERACIÓN DE HARDWARE.
• Espacio adecuado para el equipo de computo
• Trabajar cómodamente.
• Mantener limpia el que de trabajo.
• Revisar conexiones eléctricas.
• Cubrir el equipo de computo cuando no se use.
• Apagar el ordenador cuando no se use.
36. Nunca mover el quipo cuando este encendido.
El mejor traslado es una caja de cartón resistente
y empaque de unicel.
En caso de no tener caja especial para el
monitos, debe de tomarse por la base de abajo.
Durante traslados largos en coche, mantener el
monitor pantalla arriba para evitar que se estrelle.
Enrollar o amarrar los cable de los dispositivos externos
para que estos no se trocen.
Traslado:
37. Actualizar constantemente los programas
con el antivirus.
Revisar archivos adjuntos de procedencia
desconocida.
El uso de contraseñas para asegurar cuentas
importantes.
Desfragmentar continuamente el disco duro
para que este optimice el espacio.
38.
Verificar cualquier entrada de cables, de dispositivos externos.
Limpiar la entrada como salida de los dispositivos portátiles.
No forzar la conexión de los cables.
En algún medio de traslado mantenerlos amarrados con espacio
ente los mismos cables para no llegarlos a trozar.
No agregar peso extra a los dispositivos de almacenamiento
portátiles (USB) ya que se puede vencer la entrada del puerto.
Manipulación de dispositivos
externos.
39. MANIPULACIÓN DE DISPOSITIVOS EXTERNOS.
Verificar cualquier entrada de cables, de dispositivos
externos.
Limpiar la entrada como salida de los dispositivos
portátiles.
No forzar la conexión de los cables.
En algún medio de traslado mantenerlos amarrados con
espacio ente los mismos cables para no llegarlos a trozar.
No agregar peso extra a los dispositivos de
almacenamiento portátiles (USB) ya que se puede vencer
la entrada del puerto.
48. • Apagar el equipo cuando se terminen las
actividades
49. Web 2.0.
• El término Web 2.0 comprende aquellos sitios web que facilitan el compartir información,
la interoperabilidad, el diseño centrado en el usuario1 y lacolaboración en la World Wide Web. Un
sitio Web 2.0 permite a los usuarios interactuar y colaborar entre sí como creadores de contenido
generado por usuarios en una comunidad virtual, a diferencia de sitios web estáticos donde los
usuarios se limitan a la observación pasiva de los contenidos que se han creado para ellos.
Ejemplos de la Web 2.0 son las comunidades web, los servicios web, las aplicaciones Web,
los servicios de red social, losservicios de alojamiento de videos,
las wikis, blogs, mashups y folcsonomías. El término Web 2.0 está asociado estrechamente
con Tim O'Reilly, debido a la conferencia sobre la Web 2.0 de O'Reilly Media en 2004.2 Aunque el
término sugiere una nueva versión de la World Wide Web, no se refiere a una actualización de las
especificaciones técnicas de la web, sino más bien a cambios acumulativos en la forma en la
que desarrolladores de software y usuarios finales utilizan la Web. El hecho de que la Web 2.0 es
cualitativamente diferente de las tecnologías web anteriores ha sido cuestionado por el creador
de la World Wide Web Tim Berners-Lee, quien calificó al término como "tan sólo una jerga"-
precisamente porque tenía la intención de que la Web incorporase estos valores en el primer
lugaren conclusión, la Web 2.0 nos permite realizar trabajo colaborativo entre varios usuarios o
colaboradores. Además, las herramientas que ofrece la web 2.0 no sólo permitirán mejorar los
temas en el aula de clase, sino también pueden utilizarse para trabajo en empresa. La web 2.0
permite a estudiantes y docentes mejorar las herramientas utilizadas en el aula de clase.
50. Origen del término
El término fue utilizado por primera vez por Darcy DiNucci en 1999 en
uno de sus artículos, aunque no fue hasta 2004 cuando Tim O'Reilly lo
hizo popular. El término acuñado por Darcy DiNucci fue
popularizado Dale Dougherty de O'Reilly Media en una tormenta de
ideas con Craig Cline de MediaLive para desarrollar ideas para una
conferencia. Dougherty sugirió que la web estaba en un
renacimiento, con reglas que cambiaban y modelos de negocio que
evolucionaban. Dougherty puso ejemplos — "DoubleClick era la Web
1.0; AdSense es la Web 2.0. Ofoto es Web 1.0; Flickres Web 2.0." — en
vez de definiciones, y reclutó a John Battelle para dar una
perspectiva empresarial, y O'Reilly Media, Battelle, y MediaLive lanzó
su primera conferencia sobre la Web 2.0 en octubre de 2004. La
segunda conferencia se celebró en octubre de 2005.
En 2005, Tim O'Reilly definió el concepto de Web 2.0. Un mapa mental
elaborado por Markus Angermeier resume la relación del término
Web 2.0 con otros conceptos.
En su conferencia, O'Reilly, Battelle y Edouard resumieron los principios
clave que creen que caracterizan a las aplicaciones web 2.0: la web
como plataforma; datos como el "Intel Inside"; efectos de red
conducidos por una "arquitectura de participación"; innovación y
desarrolladores independientes; pequeños modelos de negocio
capaces de redifundir servicios y contenidos; el perpetuo beta;
software por encima de un solo aparato.
En general, cuando mencionamos el término Web 2.0 nos referimos a
una serie de aplicaciones y páginas de Internet que utilizan la
inteligencia colectiva (concepto de software social) para
proporcionar servicios interactivos en red.
51. Videos.
Elementos internos y externos del CPU
http://www.youtube.com/watch?v=9133kq8fMxk
Generaciones computacionales.
(http://www.youtube.com/watch?v=RAjlsC1EzQg)
52. Bibliografía.
• Elementos internos y externos que conforman el CPU
(http://es.scribd.com/doc/20078397/Componentes-Internos-y-
Externos-de-un-PC-UNID-Ingenieria-en-Sistemas-de-Informacion)
• Generaciones computacionales
(http://www.monografias.com/trabajos28/generaciones-
computadoras/generaciones-computadoras.shtml)
• Reglamento de seguridad e higienes
(http://operarelequipodecomputo.bligoo.com.mx/4-utilizar-el-equipo-
de-computo-conforme-a-las-normas-de-seguridad-e-higiene)
(http://www.scribd.com/doc/31280249/REGLAMENTO-DEL-
LABORATORIO-DE-COMPUTO)
• Web 2.0 (http://es.wikipedia.org/wiki/Web_2.0)