1. REDES NEURONALES ARTIFICIALES
La tecnología neuronal trata de reproducir el proceso de solución de problemas del
cerebro. Así como los humanos aplican el conocimiento ganado con la experiencia
a nuevos problemas o situaciones una red neuronal toma como ejemplos
problemas resueltos para construir un sistema que toma realiza y clasificaciones.
Los problemas adecuados para la solución neuronal son aquellos que no tienen
solución computacional precisa o que requieren algoritmos muy extensos como en
el caso de reconocimiento e imágenes.
HISTORIA DE LAS REDES NEURONALES
Alrededor de 1943 los investigadores Warren McCulloch y Walter Pitss
propusieron el primer modelo simple de la neurona. En las década de los
cincuenta y los setenta, el movimiento en redes neuronales fue liderado por B.
Widrow y M.E.Hoof., quienes trabajaron con una maquina llamada Adaline
(adaptive linear Element).
Otro pionero fue el psicólogo Frank Rosenblatt de la universidada de Corell. En
1959, Rosenblatt construyo una maquina neuronal simple que llamo Perceptron.
Esta tena una matriz con 400 fotoceldas que se conectaban aleatoriamente a 512
unidades tipo neurona. Cuando se representa un patrón a las unidades censoras
estas envían una señal aun banco de neurona que indicaba la categoría de l
patrón. El perceptron de Rosenblatt reconocio reconocio todas las letras del
alfabeto.
1960 - Bernard Widroff/Marcian Hoff. Desarrollaron el modelo Adaline
(ADAptative LINear Elements). Esta fue la primera red neuronal aplicada a un
Problema real (filtros adaptativos para eliminar ecos en las líneas telefónicas) que
se ha utilizado comercialmente durante varias décadas.
1961 - Karl Steinbeck: Die Lernmatrix. Red neuronal para simples realizaciones
técnicas (memoria asociativa).
1969 - Marvin Minsky/Seymour Papert. En este año casi se produjo la “muerte
abrupta” de las Redes Neuronales; ya que Minsky y Papert probaron
(matemáticamente) que el Perceptrons no era capaz de resolver problemas
relativamente fáciles, tales comoel aprendizaje de una función no-lineal. Esto
demostró que el Perceptor era muy débil, dado que las funciones no-lineales son
extensamente empleadas en computación y en los problemas del mundo real.
1974 - Paul Werbos. Desarrolló la idea básica del algoritmo de aprendizaje
depropagación hacia atrás (backpropagation); cuyo significado quedó
definitivamenteaclarado en 1985.
2. 1977 - Stephen Grossberg: Teoría de Resonancia Adaptada (TRA). La Teoría de
Resonancia Adaptada es una arquitectura de red que se diferencia de todas las
demás previamente inventadas. La misma simula otras habilidades del cerebro:
memoria a largo y corto plazo.
1985 - John Hopfield. Provocó el renacimiento de las redes neuronales con su
libro: “Computación neuronal de decisiones en problemas de optimización.”
1986 - David Rumelhart/G. Hinton. Redescubrieron el algoritmo de aprendizaje de
propagación hacia atrás (backpropagation).
A partir de 1986, el panorama fue alentador con respecto a las
investigaciones y el desarrollo de las redes neuronales. En la actualidad, son
numerosos los trabajos que se realizan y publican cada año, las aplicaciones
nuevas que surgen (sobretodo en el área de control) y las empresas que lanzan al
mercado productos nuevos, tanto hardware como software (sobre todo para
simulación).
DEFINICION DE REDES NEURONALES
Las redes neuronales se basan en generalizar información extraída de datos
experimentales, tablas bibliografías o bases de datos los cuales se determinan por
expertos humanos.dichas redes neuronales toman en cuneta las entradas
(corriente, voltaje) y como salidas las señales del sistema (velocidad, temperatura
y torque).
Ejemplo De Una Red Neuronal Totalmente Conectada
3. Hay varias formas de definir a la s redes neuronales:
1) Una nueva forma de computación, inspirada en modelos biológicos.
2) Un modelo matemático compuesto por un gran número de elementos
Procesales organizados en niveles.
3) un sistema de computación compuesto por un gran número de elementos
Simples, elementos de procesos muy interconectados, los cuales procesan
información
por medio de su estado dinámico como respuesta a entradas externas.
4) Redes neuronales artificiales son redes interconectadas masivamente en
paralelo de elementos simples (usualmente adaptativos) y con organización
jerárquica, las cuales intentan interactuar con los objetos del mundo real del
REDES DE RETROPROPAGACION (backpropagation)
Es un principio para entender una red multicapa empleando el algoritmo de
retropropagacion.
El algoritmo backpropagation para redes multicapa es una generalización del
algoritmo de mínimos cuadrados. Ambos algoritmos realizan su labor
De actualización de peso y ganancias con base en el error medio cuadrático. La
red propagation trabaja bajo aprendizaje supervisado y por tanto necesita un
conjunto de instrucciones de entrenamiento que le describa cada salida y su valor
de salida esperado.
Algoritmo Backpropagation
• No es garantizado que converja a zero en error de
entrenamiento, puede converger a mínima local oscilar
• En la practica converge a un bajo error para muchas redes
• Muchas épocas (miles de iteraciones) pueden ser requeridas
• Para evitar mínima local usar varias corridas (runs) con pesos inicializados
aleatoriamente (randomrestarts).
– Tomar resultados de red que da menor error.
4.
5.
6. Algoritmo Backpropagation
• No es garantizado que converja a zero en error de
entrenamiento, puede converger a mínima local oscilar
• En la practica converge a un bajo error para muchas redes
• Muchas épocas (miles de iteraciones) pueden ser requeridas
• Para evitar mínima local usar varias corridas (runs) con pesos inicializados
aleatoriamente (randomrestarts).
– Tomar resultados de red que da menor error.