SlideShare ist ein Scribd-Unternehmen logo
1 von 111
Unidad   1 Repaso de Redes Neuronales Artificiales
[object Object],¿ Que Es Una RNA?
Red Neuronal Artificial ,[object Object],[object Object]
Estructura Típica De Una Neurona Biológica
Una Neurona Biológica Consta De: ,[object Object],[object Object],[object Object],[object Object]
Existen 2 tipos de sinapsis: ,[object Object],[object Object]
[object Object],[object Object]
[object Object]
Similitud directa entre actividad sináptica y la analogía con las RNA ,[object Object],[object Object]
[object Object],[object Object]
[object Object],[object Object]
¿Como se relaciona una RNA con un sistema neuronal Biológico? ,[object Object],[object Object]
Capas en una RNA.
[object Object],[object Object]
[object Object],[object Object],[object Object]
Niveles o capas de neuronas
[object Object]
[object Object],[object Object]
[object Object]
[object Object],[object Object],[object Object]
[object Object],[object Object],[object Object]
[object Object],[object Object]
[object Object],[object Object],[object Object],[object Object]
¿Como trabaja una RNA? ,[object Object],[object Object],[object Object]
[object Object],[object Object]
¿Cómo aprende la red neuronal? ,[object Object],[object Object]
[object Object],[object Object]
Modelado de Redes Neuronales Artificiales
Notación y modelo de una neurona ,[object Object]
Neurona de una entrada y Funciones de transferencia ,[object Object],[object Object],[object Object],[object Object]
Funciones de transferencia Esta función se utiliza en el  Perceptron   para crear neuronas las cuales toman decisiones de clasificación. Cuando este tipo de función ( hardlim ) toma en cuenta un cierto umbral  su salida se incrementará  de  0  a  1  cuando  p  exceda  un valor dado por  -b/w .
Funciones de transferencia ,[object Object]
Funciones de transferencia ,[object Object]
Neurona de Múltiples Entradas
Notación  usada en diagramas de múltiples entradas ,[object Object]
A RQUITECTURAS DE  RNA ,[object Object],Dos o más  neuronas pueden ser combinadas en una capa.  Una red  puede contener una o más capas.  A continuación  se presenta una  red con una capa que contiene  R   entradas y  S   neuronas:
[object Object]
[object Object]
[object Object],Una capa neuronal incluye  la matriz de ponderaciones, las operaciones de multiplicación, el vector de umbral  b, el sumador, y la  función de transferencia.
Arquitectura De Redes Neuronales ,[object Object],[object Object],[object Object],[object Object],[object Object]
Red neuronal de Múltiples Capas
Red neuronal con varias  capa de neuronas (forma condensada)
Redes Monocapa: l 1 l n l 2 Las  redes  monocapa  se utilizan típicamente en  en tareas relacionadas en lo que se conoce como autoasociación:  por  ejemplo,  para  regenerar  informaciones  de  entrada que se presentan a la red incompletas o distorsionadas . P/ejemplo  Hopfield, BSB, Learnig Matrix
Redes Multicapa: Redes con conexiones hacia delante (feedforward) Este tipo de redes son especialmente útiles en aplicaciones de reconocimiento o clasificación de patrones. En este tipo de redes, todas las señales neuronales se propagan hacia adelante a través de las capas de la red. No existen conexiones hacia atrás y normal- mente tampoco autorrecurrentes,  ni laterales.
Redes con conexiones  hacia adelante y hacia atrás   (feedforward / feedback): En  este  tipo  de  redes circula información tanto hacia adelante  como  hacia  atrás  durante el funcionamiento de la red. Para que esto sea posible, existen conexiones feedforward  y conexiones  feedback  entre las neuronas. P/ ejemplo:  ART, BAM, CABAM.
Redes Con Conexiones Hacia Adelante Y Hacia Atrás (feedforward / Feedback)  También existen algunas que tienen conexiones laterales entre  neuronas  de  la  misma  capa. Estas conexiones se diseñan  como  excitadores  (con  peso  positivo)  o inhibidoras  (con  peso  negativo),  estableciendose  una competencia entre las neuronas correspondientes.
Red neuronal  de tipo  feedforward .
Red neuronal  de tipo  feedforward .
Conexiones con propagación hacia atrás en RNA
Red neuronal  de tipo recurrente
... ,[object Object],[object Object]
... ,[object Object],[object Object]
MECANISMOS DE APRENDIZAJE (ajuste de pesos de interconexión) ,[object Object],[object Object]
¿Qué son las reglas de aprendizaje en RNA? ,[object Object],[object Object],[object Object]
Clasificación de RNA según  el aprendizaje que observan ,[object Object]
... ,[object Object],[object Object]
... ,[object Object],[object Object]
Redes con aprendizaje supervisado ,[object Object],[object Object],[object Object],[object Object]
El Aprendizaje Por Corrección De Error ,[object Object],[object Object]
Aprendizaje Por Reforzamiento
Aprendizaje por Reforzamiento Se basa en la idea de no disponer de un ejemplo completo del comportamiento deseado, es decir, la función del supervisor se reduce a indicar mediante una señal de refuerzo si la salida de la red se ajusta a la deseada (éxito=1, fracaso=-1) y en función de ello se ajustan los pesos basándose en un mecanismo de probabilidades.
Algoritmos de  Aprendizaje por Refuerzo ,[object Object],[object Object],[object Object]
El aprendizaje estocástico ,[object Object],[object Object]
Ejemplos de algoritmos de Aprendizaje Estocástico ,[object Object],[object Object],[object Object]
Redes con aprendizaje no supervisado ,[object Object],[object Object],[object Object]
El  aprendizaje  Hebbiano ,[object Object],[object Object]
... ,[object Object],[object Object],[object Object],[object Object],[object Object]
Aprendizaje competitivo y cooperativo ,[object Object],[object Object]
... ,[object Object],[object Object],[object Object]
... ,[object Object]
Ejemplos De Redes Con Aprendizaje Competitivo  Y  Cooperativo . ,[object Object],[object Object],[object Object],[object Object]
Ejemplos de Redes con Aprendizaje Competitivo y Cooperativo LVQ ART
[object Object],Modelo y  Arquitectura de un Perceptron
[object Object]
La matriz de pesos de la red es:
[object Object]
[object Object]
[object Object]
Recordando que la función de transferencia  hardlim   se define como: a n=Wp+b n
Unificación de la regla de aprendizaje
El umbral es un peso con una entrada de  1.
Perceptron de Múltiples-Neuronas Para actualizar la ith fila de la matriz de pesos: En forma de Matriz:
Capacidad de la regla de aprendizaje del  Perceptron La regla del Perceptron siempre convergirá a los pesos que cumplan con la clasificación deseada, asumiendo que tales pesos existan. NOTA:  Recordar que la longitud del vector de pesos no es importante, lo único importante es su dirección.
Limitaciones del Perceptron Frontera de decisión lineal  Problemas linealmente  No separables
UNIDAD VI Redes de propagación hacia delante  y aprendizaje supervisado RED ADALINE Adaline simple. Algoritmo  LMS .
Introducción ,[object Object]
[object Object],Introducción
[object Object],[object Object],Introducción
[object Object],[object Object],Diferencias Entre La Regla Del Perceptron Y El Algoritmo LMS
Diferencias entre . . . ,[object Object],[object Object]
Diferencias entre . . . PERCEPTRON ADALINE Función de Transferencia ESCALON LINEAL Resolución de problemas Linealmente Separables Linealmente Separables Comportamiento con respecto al RUIDO Sensible al Ruido Minimiza el Ruido Algoritmo de aprendizaje Regla de aprendizaje Del Perceptron LMS
Red  ADALINE a p u r e l i n W p b +   W p b + = = a i p u r e l i n n i   p u r e l i n w T i p b i +   w T i p b i + = = =  w i w i 1  w i 2  w i R  =
ADALINE de dos entradas a p u r e l i n n   p u r e l i n w T 1 p b +   w T 1 p b + = = = a w T 1 p b + w 1 1  p 1 w 1 2  p 2 b + + = =
Mínimo Error Cuadrático p 1 t 1 { , } p 2 t 2 { , }  p Q t Q { , }    Conjunto Entrenamiento: p q t q Entrada: Objetivo: x w 1 b = z p 1 = a w T 1 p b + = a x T z = F x   E e 2   = E t a –   2   E t x T z –   2   = = Notación: Mean Square Error: Donde:  E  es un valor esperado
Ecuaciones Importantes en el Algoritmo LMS W k 1 +   W k   2  e k   p T k   + = b k 1 +   b k   2  e k   + = En forma de Matriz: Donde:    es el parámetro de aprendizaje máximo w i k 1 +   w i k   2  e i k   p k   + = b i k 1 +   b i k   2  e i k   + =
Condiciones para la Estabilidad e i g I 2  R –     1 2   i – 1  = Resumiendo, las condiciones de estabilidad son:  i 0  Ya que , 1 2   i – 1  .  1   i para toda  i  0  1  m a x    (donde   i  es un  eigenvalor  de  R ) 1 2   i – 1 – 
Modelo de una neurona lineal en MATLAB p(1) p(2) p(3) p(R) W(1,1) W(1,R) 1 b n a  a = purelin(w*p+b) a = w*p+b 0 0 1 -1 a a b/w b/w p n a = purelin(n)
Regla de Aprendizaje en ADALINE · ADALINE utiliza un aprendizaje OFF LINE con supervisión.  · Este aprendizaje es la llamada  Regla de Widrow-Hoff  ( Regla Delta  o  Regla del Mínimo Error Cuadrático Medio   LMS Least Mean Square)
Regla de Widrow-Hoff Consiste en hallar el vector de pesos W deseado, único, que deberá asociar cada vector de entrada con su correspondiente valor de salida correcto o deseado. La regla minimiza el  error cuadrático medio  definido como: donde: es la función de error R R R a t       p R R R p 1 2 2 1  
Esta función de error está definida en el espacio de pesos multidimensional para un conjunto de entradas, y la regla de Widrow-Hoff busca el punto de este  espacio donde se encuentra el mínimo global. Con función de activación lineal  Con función de activación  sigmoidal
Se utiliza el método de gradiente decreciente para saber en qué dirección se encuentra el mínimo global de dicha superficie. Las modificaciones que se realizan a los pesos son proporcionales al gradiente decreciente de la función de error, por lo que cada nuevo punto calculado está más próximo al punto mínimo.             j R j w lr w 2 
a) ADALINE     b) PERCEPTRÓN
La regla de Widrow-Hoff es implementada realizando cambios a los pesos en la dirección opuesta en la que el error está incrementando y absorbiendo la constante -2 en  lr . En forma de matriz:  Transformando a la expresión del bias (considerando que el bias son pesos con entradas de 1): ) ( ) ( ) , ( j p j e lr j i W     T Ep lr W    E lr b   
Algoritmo de aprendizaje en ADALINE 1.   Se aplica un vector o patrón de entrada  P R  en las entradas del ADALINE. 2.   Se obtiene la salida lineal a R  = WP R  y se calcula la diferencia con respecto a la salida deseada: E R  =T R -a R 3.   Se actualizan los pesos: W( t+1 ) = W(t) + lrE R P R 4.   Se repiten los pasos 1 al 3 con todos los vectores de entrada. 5.   Si el error cuadrático  medio  es un valor reducido aceptable, termina el proceso de aprendizaje, sino, se repite otra vez desde el paso 1 con todos los patrones.
ENTRENAMIENTO ADALINE ,[object Object],[object Object]
ENTRENAMIENTO ADALINE ,[object Object],[object Object]
ENTRENAMIENTO ADALINE ,[object Object]
Ejercicio:  1 1.0  2 0.0  3 2.0 =  =  = R E p p T   1 2 - - - p 1 p 1 T 1 2 - - - p 2 p 2 T + = = R 1 2 - - - 1 – 1 1 – 1 – 1 1 – 1 2 - - - 1 1 1 – 1 1 1 – + 1 0 0 0 1 1 – 0 1 – 1 = =  1  m a x - - - - - - - - - - - -  1 2.0 - - - - - - - 0.5 = = p 1 1 – 1 1 – t 1  1 – = =           p 2 1 1 1 – t 2  1 = =           Plátano Manzana
Iteración: 1 e 0   t 0   a 0   t 1 a 0   1 – 0 1 – = – = – = – = W 1   W 0   2  e 0   p T 0   + = W 1   0 0 0 2 0.2   1 –   1 – 1 1 – T 0.4 0.4 – 0.4 = + = a 0   W 0   p 0   W 0   p 1 0 0 0 1 – 1 1 – 0 = = = = Plátano
Iteración:  2 Manzana a 1   W 1   p 1   W 1   p 2 0.4 0.4 – 0.4 1 1 1 – 0.4 – = = = = e 1   t 1   a 1   t 2 a 1   1 0.4 –   1.4 = – = – = – = W 2   0.4 0.4 – 0.4 2 0.2   1.4   1 1 1 – T 0.96 0.16 0.16 – = + =
Iteración:  3 e 2   t 2   a 2   t 1 a 2   1 – 0.64 –   0.36 – = – = – = – = W 3   W 2   2  e 2   p T 2   + 1.1040 0.0160 0.0160 – = = W    1 0 0 = a 2   W 2   p 2   W 2   p 1 0.96 0.16 0.16 – 1 – 1 1 – 0.64 – = = = =

Weitere ähnliche Inhalte

Was ist angesagt?

Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de RetropropagaciónESCOM
 
Protocolos de enrutamiento por vector distancia
Protocolos de enrutamiento por vector distanciaProtocolos de enrutamiento por vector distancia
Protocolos de enrutamiento por vector distanciaJorge Arroyo
 
Diagrama desecuenciabiblioteca 1
Diagrama desecuenciabiblioteca 1Diagrama desecuenciabiblioteca 1
Diagrama desecuenciabiblioteca 11052403005n
 
RED NEURONAL Backpropagation
RED NEURONAL BackpropagationRED NEURONAL Backpropagation
RED NEURONAL BackpropagationESCOM
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes NeuronalesDavid852
 
Algoritmos GenéTicos
Algoritmos GenéTicosAlgoritmos GenéTicos
Algoritmos GenéTicosESCOM
 
RED De Retro-propagación Neuronal
RED De Retro-propagación NeuronalRED De Retro-propagación Neuronal
RED De Retro-propagación NeuronalESCOM
 
Redes neuronales artificiales supervisadas y no supervisadas
Redes neuronales artificiales supervisadas y no supervisadasRedes neuronales artificiales supervisadas y no supervisadas
Redes neuronales artificiales supervisadas y no supervisadasUNIVERSIDAD SANTA MARIA
 
Construccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales ArtificialesConstruccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales ArtificialesESCOM
 
Estándares, modelos y normas internacionales de redes
Estándares, modelos y normas internacionales de redesEstándares, modelos y normas internacionales de redes
Estándares, modelos y normas internacionales de redesJosue Navas
 
Investigación Técnicas de detección de errores de transmisión
Investigación Técnicas de detección de errores de transmisiónInvestigación Técnicas de detección de errores de transmisión
Investigación Técnicas de detección de errores de transmisiónJosé Alexis Cruz Solar
 
Red NEURONAL MADALINE
Red NEURONAL MADALINERed NEURONAL MADALINE
Red NEURONAL MADALINEESCOM
 
Búsqueda Primero el Mejor
Búsqueda Primero el MejorBúsqueda Primero el Mejor
Búsqueda Primero el MejorTutor4uDev
 
Caracteristicas de un vtp
Caracteristicas de un vtpCaracteristicas de un vtp
Caracteristicas de un vtpErika Vazquez
 

Was ist angesagt? (20)

Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de Retropropagación
 
Protocolos de enrutamiento por vector distancia
Protocolos de enrutamiento por vector distanciaProtocolos de enrutamiento por vector distancia
Protocolos de enrutamiento por vector distancia
 
Diagrama desecuenciabiblioteca 1
Diagrama desecuenciabiblioteca 1Diagrama desecuenciabiblioteca 1
Diagrama desecuenciabiblioteca 1
 
RED NEURONAL Backpropagation
RED NEURONAL BackpropagationRED NEURONAL Backpropagation
RED NEURONAL Backpropagation
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Lenguaje de Transferencia de Registro
Lenguaje de Transferencia de RegistroLenguaje de Transferencia de Registro
Lenguaje de Transferencia de Registro
 
Presentacion DHCP
Presentacion DHCPPresentacion DHCP
Presentacion DHCP
 
Algoritmos GenéTicos
Algoritmos GenéTicosAlgoritmos GenéTicos
Algoritmos GenéTicos
 
RED De Retro-propagación Neuronal
RED De Retro-propagación NeuronalRED De Retro-propagación Neuronal
RED De Retro-propagación Neuronal
 
Redes neuronales artificiales supervisadas y no supervisadas
Redes neuronales artificiales supervisadas y no supervisadasRedes neuronales artificiales supervisadas y no supervisadas
Redes neuronales artificiales supervisadas y no supervisadas
 
Listas,pilas y colas Estructura de Datos
Listas,pilas y colas Estructura de DatosListas,pilas y colas Estructura de Datos
Listas,pilas y colas Estructura de Datos
 
Construccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales ArtificialesConstruccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
 
Estándares, modelos y normas internacionales de redes
Estándares, modelos y normas internacionales de redesEstándares, modelos y normas internacionales de redes
Estándares, modelos y normas internacionales de redes
 
Investigación Técnicas de detección de errores de transmisión
Investigación Técnicas de detección de errores de transmisiónInvestigación Técnicas de detección de errores de transmisión
Investigación Técnicas de detección de errores de transmisión
 
Administrador de Tabla de Símbolos
Administrador de Tabla de SímbolosAdministrador de Tabla de Símbolos
Administrador de Tabla de Símbolos
 
Arboles Binarios
Arboles BinariosArboles Binarios
Arboles Binarios
 
Red NEURONAL MADALINE
Red NEURONAL MADALINERed NEURONAL MADALINE
Red NEURONAL MADALINE
 
Pilas, colas, y listas estructura de datos
Pilas, colas, y listas estructura de datosPilas, colas, y listas estructura de datos
Pilas, colas, y listas estructura de datos
 
Búsqueda Primero el Mejor
Búsqueda Primero el MejorBúsqueda Primero el Mejor
Búsqueda Primero el Mejor
 
Caracteristicas de un vtp
Caracteristicas de un vtpCaracteristicas de un vtp
Caracteristicas de un vtp
 

Andere mochten auch

Presentacion Art Gal
Presentacion Art GalPresentacion Art Gal
Presentacion Art GalESCOM
 
SIMULADORES REDES NEURONALES
SIMULADORES REDES NEURONALESSIMULADORES REDES NEURONALES
SIMULADORES REDES NEURONALESESCOM
 
PANORAMA GENERAL DE LOS SISTEMAS INTELIGENTES
PANORAMA GENERAL DE LOS SISTEMAS INTELIGENTESPANORAMA GENERAL DE LOS SISTEMAS INTELIGENTES
PANORAMA GENERAL DE LOS SISTEMAS INTELIGENTESESCOM
 
Generalidades De Las Redes Neuronales Artificiales (RNA)
Generalidades De Las  Redes Neuronales Artificiales  (RNA)Generalidades De Las  Redes Neuronales Artificiales  (RNA)
Generalidades De Las Redes Neuronales Artificiales (RNA)ESCOM
 
Neuronas Difusas
Neuronas DifusasNeuronas Difusas
Neuronas DifusasESCOM
 
Aprendizaje Asociativo Hebbiano
Aprendizaje Asociativo HebbianoAprendizaje Asociativo Hebbiano
Aprendizaje Asociativo HebbianoESCOM
 
Introduccion MODELO DE RESONANCIA ADAPTATIVA
Introduccion MODELO DE RESONANCIA ADAPTATIVAIntroduccion MODELO DE RESONANCIA ADAPTATIVA
Introduccion MODELO DE RESONANCIA ADAPTATIVAESCOM
 
Redes de propagación hacia delante y aprendizaje supervisado
Redes de propagación hacia delante   y aprendizaje supervisadoRedes de propagación hacia delante   y aprendizaje supervisado
Redes de propagación hacia delante y aprendizaje supervisadoESCOM
 
CUANTIZACIÓN DEL VECTOR DE APRENDIZAJE
CUANTIZACIÓN DEL VECTOR DE APRENDIZAJECUANTIZACIÓN DEL VECTOR DE APRENDIZAJE
CUANTIZACIÓN DEL VECTOR DE APRENDIZAJEESCOM
 
REDES NEURONALES COMPETITIVAS HAMMING
REDES NEURONALES COMPETITIVAS HAMMINGREDES NEURONALES COMPETITIVAS HAMMING
REDES NEURONALES COMPETITIVAS HAMMINGESCOM
 
INTRODUCCIÓN A LOS SISTEMAS NEURODIFUSOS
INTRODUCCIÓN  A  LOS  SISTEMAS  NEURODIFUSOSINTRODUCCIÓN  A  LOS  SISTEMAS  NEURODIFUSOS
INTRODUCCIÓN A LOS SISTEMAS NEURODIFUSOSESCOM
 
Mapas de características auto-organizativas MAO´s de Kohonen
Mapas de características auto-organizativas MAO´s de KohonenMapas de características auto-organizativas MAO´s de Kohonen
Mapas de características auto-organizativas MAO´s de KohonenESCOM
 

Andere mochten auch (12)

Presentacion Art Gal
Presentacion Art GalPresentacion Art Gal
Presentacion Art Gal
 
SIMULADORES REDES NEURONALES
SIMULADORES REDES NEURONALESSIMULADORES REDES NEURONALES
SIMULADORES REDES NEURONALES
 
PANORAMA GENERAL DE LOS SISTEMAS INTELIGENTES
PANORAMA GENERAL DE LOS SISTEMAS INTELIGENTESPANORAMA GENERAL DE LOS SISTEMAS INTELIGENTES
PANORAMA GENERAL DE LOS SISTEMAS INTELIGENTES
 
Generalidades De Las Redes Neuronales Artificiales (RNA)
Generalidades De Las  Redes Neuronales Artificiales  (RNA)Generalidades De Las  Redes Neuronales Artificiales  (RNA)
Generalidades De Las Redes Neuronales Artificiales (RNA)
 
Neuronas Difusas
Neuronas DifusasNeuronas Difusas
Neuronas Difusas
 
Aprendizaje Asociativo Hebbiano
Aprendizaje Asociativo HebbianoAprendizaje Asociativo Hebbiano
Aprendizaje Asociativo Hebbiano
 
Introduccion MODELO DE RESONANCIA ADAPTATIVA
Introduccion MODELO DE RESONANCIA ADAPTATIVAIntroduccion MODELO DE RESONANCIA ADAPTATIVA
Introduccion MODELO DE RESONANCIA ADAPTATIVA
 
Redes de propagación hacia delante y aprendizaje supervisado
Redes de propagación hacia delante   y aprendizaje supervisadoRedes de propagación hacia delante   y aprendizaje supervisado
Redes de propagación hacia delante y aprendizaje supervisado
 
CUANTIZACIÓN DEL VECTOR DE APRENDIZAJE
CUANTIZACIÓN DEL VECTOR DE APRENDIZAJECUANTIZACIÓN DEL VECTOR DE APRENDIZAJE
CUANTIZACIÓN DEL VECTOR DE APRENDIZAJE
 
REDES NEURONALES COMPETITIVAS HAMMING
REDES NEURONALES COMPETITIVAS HAMMINGREDES NEURONALES COMPETITIVAS HAMMING
REDES NEURONALES COMPETITIVAS HAMMING
 
INTRODUCCIÓN A LOS SISTEMAS NEURODIFUSOS
INTRODUCCIÓN  A  LOS  SISTEMAS  NEURODIFUSOSINTRODUCCIÓN  A  LOS  SISTEMAS  NEURODIFUSOS
INTRODUCCIÓN A LOS SISTEMAS NEURODIFUSOS
 
Mapas de características auto-organizativas MAO´s de Kohonen
Mapas de características auto-organizativas MAO´s de KohonenMapas de características auto-organizativas MAO´s de Kohonen
Mapas de características auto-organizativas MAO´s de Kohonen
 

Ähnlich wie Redes Neuronales Artificiales

Inteligencia Artificial Clase 2
Inteligencia Artificial Clase 2Inteligencia Artificial Clase 2
Inteligencia Artificial Clase 2UNEFA
 
Redes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapaRedes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapaLevy GT
 
Características de las Redes Neuronales
Características de las Redes NeuronalesCaracterísticas de las Redes Neuronales
Características de las Redes NeuronalesESCOM
 
Sistemas Basados en Casos IUT
Sistemas Basados en Casos IUTSistemas Basados en Casos IUT
Sistemas Basados en Casos IUTLuis Álamo
 
REDES NEURONALES
REDES NEURONALESREDES NEURONALES
REDES NEURONALESguestbab2c8
 
Henrion poggi analytics - ann - 1
Henrion poggi   analytics - ann - 1Henrion poggi   analytics - ann - 1
Henrion poggi analytics - ann - 1Gaston Liberman
 
Especializacion Ii Redes Neuronales Artificiales
Especializacion Ii  Redes Neuronales ArtificialesEspecializacion Ii  Redes Neuronales Artificiales
Especializacion Ii Redes Neuronales Artificialesjose haar
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronalesjjjss
 

Ähnlich wie Redes Neuronales Artificiales (20)

Inteligencia Artificial Clase 2
Inteligencia Artificial Clase 2Inteligencia Artificial Clase 2
Inteligencia Artificial Clase 2
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Redes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapaRedes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapa
 
Características de las Redes Neuronales
Características de las Redes NeuronalesCaracterísticas de las Redes Neuronales
Características de las Redes Neuronales
 
Sistemas Basados en Casos IUT
Sistemas Basados en Casos IUTSistemas Basados en Casos IUT
Sistemas Basados en Casos IUT
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
redes neuronales
redes neuronalesredes neuronales
redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
REDES NEURONALES
REDES NEURONALESREDES NEURONALES
REDES NEURONALES
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
redes competitivas
redes competitivasredes competitivas
redes competitivas
 
2º asignacion redes neuronales
2º asignacion redes neuronales2º asignacion redes neuronales
2º asignacion redes neuronales
 
Ap acompet
Ap acompetAp acompet
Ap acompet
 
Slidecats
SlidecatsSlidecats
Slidecats
 
Henrion poggi analytics - ann - 1
Henrion poggi   analytics - ann - 1Henrion poggi   analytics - ann - 1
Henrion poggi analytics - ann - 1
 
Especializacion Ii Redes Neuronales Artificiales
Especializacion Ii  Redes Neuronales ArtificialesEspecializacion Ii  Redes Neuronales Artificiales
Especializacion Ii Redes Neuronales Artificiales
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Tema3dm
Tema3dmTema3dm
Tema3dm
 

Mehr von ESCOM

redes neuronales tipo Som
redes neuronales tipo Somredes neuronales tipo Som
redes neuronales tipo SomESCOM
 
redes neuronales Som
redes neuronales Somredes neuronales Som
redes neuronales SomESCOM
 
redes neuronales Som Slides
redes neuronales Som Slidesredes neuronales Som Slides
redes neuronales Som SlidesESCOM
 
red neuronal Som Net
red neuronal Som Netred neuronal Som Net
red neuronal Som NetESCOM
 
Self Organinising neural networks
Self Organinising  neural networksSelf Organinising  neural networks
Self Organinising neural networksESCOM
 
redes neuronales Kohonen
redes neuronales Kohonenredes neuronales Kohonen
redes neuronales KohonenESCOM
 
Teoria Resonancia Adaptativa
Teoria Resonancia AdaptativaTeoria Resonancia Adaptativa
Teoria Resonancia AdaptativaESCOM
 
ejemplo red neuronal Art1
ejemplo red neuronal Art1ejemplo red neuronal Art1
ejemplo red neuronal Art1ESCOM
 
redes neuronales tipo Art3
redes neuronales tipo Art3redes neuronales tipo Art3
redes neuronales tipo Art3ESCOM
 
Art2
Art2Art2
Art2ESCOM
 
Redes neuronales tipo Art
Redes neuronales tipo ArtRedes neuronales tipo Art
Redes neuronales tipo ArtESCOM
 
Neocognitron
NeocognitronNeocognitron
NeocognitronESCOM
 
Neocognitron
NeocognitronNeocognitron
NeocognitronESCOM
 
Neocognitron
NeocognitronNeocognitron
NeocognitronESCOM
 
Fukushima Cognitron
Fukushima CognitronFukushima Cognitron
Fukushima CognitronESCOM
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORKESCOM
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORKESCOM
 
Counterpropagation
CounterpropagationCounterpropagation
CounterpropagationESCOM
 
Teoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAPTeoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAPESCOM
 
Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1ESCOM
 

Mehr von ESCOM (20)

redes neuronales tipo Som
redes neuronales tipo Somredes neuronales tipo Som
redes neuronales tipo Som
 
redes neuronales Som
redes neuronales Somredes neuronales Som
redes neuronales Som
 
redes neuronales Som Slides
redes neuronales Som Slidesredes neuronales Som Slides
redes neuronales Som Slides
 
red neuronal Som Net
red neuronal Som Netred neuronal Som Net
red neuronal Som Net
 
Self Organinising neural networks
Self Organinising  neural networksSelf Organinising  neural networks
Self Organinising neural networks
 
redes neuronales Kohonen
redes neuronales Kohonenredes neuronales Kohonen
redes neuronales Kohonen
 
Teoria Resonancia Adaptativa
Teoria Resonancia AdaptativaTeoria Resonancia Adaptativa
Teoria Resonancia Adaptativa
 
ejemplo red neuronal Art1
ejemplo red neuronal Art1ejemplo red neuronal Art1
ejemplo red neuronal Art1
 
redes neuronales tipo Art3
redes neuronales tipo Art3redes neuronales tipo Art3
redes neuronales tipo Art3
 
Art2
Art2Art2
Art2
 
Redes neuronales tipo Art
Redes neuronales tipo ArtRedes neuronales tipo Art
Redes neuronales tipo Art
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
 
Fukushima Cognitron
Fukushima CognitronFukushima Cognitron
Fukushima Cognitron
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORK
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORK
 
Counterpropagation
CounterpropagationCounterpropagation
Counterpropagation
 
Teoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAPTeoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAP
 
Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1
 

Kürzlich hochgeladen

LA OVEJITA QUE VINO A CENAR CUENTO INFANTIL.pdf
LA OVEJITA QUE VINO A CENAR CUENTO INFANTIL.pdfLA OVEJITA QUE VINO A CENAR CUENTO INFANTIL.pdf
LA OVEJITA QUE VINO A CENAR CUENTO INFANTIL.pdfNataliaMalky1
 
La Función tecnológica del tutor.pptx
La  Función  tecnológica  del tutor.pptxLa  Función  tecnológica  del tutor.pptx
La Función tecnológica del tutor.pptxJunkotantik
 
CIENCIAS NATURALES 4 TO ambientes .docx
CIENCIAS NATURALES 4 TO  ambientes .docxCIENCIAS NATURALES 4 TO  ambientes .docx
CIENCIAS NATURALES 4 TO ambientes .docxAgustinaNuez21
 
Técnicas de grabado y estampación : procesos y materiales
Técnicas de grabado y estampación : procesos y materialesTécnicas de grabado y estampación : procesos y materiales
Técnicas de grabado y estampación : procesos y materialesRaquel Martín Contreras
 
VOLUMEN 1 COLECCION PRODUCCION BOVINA . SERIE SANIDAD ANIMAL
VOLUMEN 1 COLECCION PRODUCCION BOVINA . SERIE SANIDAD ANIMALVOLUMEN 1 COLECCION PRODUCCION BOVINA . SERIE SANIDAD ANIMAL
VOLUMEN 1 COLECCION PRODUCCION BOVINA . SERIE SANIDAD ANIMALEDUCCUniversidadCatl
 
LINEAMIENTOS INICIO DEL AÑO LECTIVO 2024-2025.pptx
LINEAMIENTOS INICIO DEL AÑO LECTIVO 2024-2025.pptxLINEAMIENTOS INICIO DEL AÑO LECTIVO 2024-2025.pptx
LINEAMIENTOS INICIO DEL AÑO LECTIVO 2024-2025.pptxdanalikcruz2000
 
libro para colorear de Peppa pig, ideal para educación inicial
libro para colorear de Peppa pig, ideal para educación iniciallibro para colorear de Peppa pig, ideal para educación inicial
libro para colorear de Peppa pig, ideal para educación inicialLorenaSanchez350426
 
BIOLOGIA_banco de preguntas_editorial icfes examen de estado .pdf
BIOLOGIA_banco de preguntas_editorial icfes examen de estado .pdfBIOLOGIA_banco de preguntas_editorial icfes examen de estado .pdf
BIOLOGIA_banco de preguntas_editorial icfes examen de estado .pdfCESARMALAGA4
 
cuadernillo de lectoescritura para niños de básica
cuadernillo de lectoescritura para niños de básicacuadernillo de lectoescritura para niños de básica
cuadernillo de lectoescritura para niños de básicaGianninaValeskaContr
 
TUTORIA II - CIRCULO DORADO UNIVERSIDAD CESAR VALLEJO
TUTORIA II - CIRCULO DORADO UNIVERSIDAD CESAR VALLEJOTUTORIA II - CIRCULO DORADO UNIVERSIDAD CESAR VALLEJO
TUTORIA II - CIRCULO DORADO UNIVERSIDAD CESAR VALLEJOweislaco
 
Metabolismo 3: Anabolismo y Fotosíntesis 2024
Metabolismo 3: Anabolismo y Fotosíntesis 2024Metabolismo 3: Anabolismo y Fotosíntesis 2024
Metabolismo 3: Anabolismo y Fotosíntesis 2024IES Vicent Andres Estelles
 
PPT_Formación integral y educación CRESE (1).pdf
PPT_Formación integral y educación CRESE (1).pdfPPT_Formación integral y educación CRESE (1).pdf
PPT_Formación integral y educación CRESE (1).pdfEDILIAGAMBOA
 
c3.hu3.p1.p2.El ser humano y el sentido de su existencia.pptx
c3.hu3.p1.p2.El ser humano y el sentido de su existencia.pptxc3.hu3.p1.p2.El ser humano y el sentido de su existencia.pptx
c3.hu3.p1.p2.El ser humano y el sentido de su existencia.pptxMartín Ramírez
 
Los Nueve Principios del Desempeño de la Sostenibilidad
Los Nueve Principios del Desempeño de la SostenibilidadLos Nueve Principios del Desempeño de la Sostenibilidad
Los Nueve Principios del Desempeño de la SostenibilidadJonathanCovena1
 

Kürzlich hochgeladen (20)

VISITA À PROTEÇÃO CIVIL _
VISITA À PROTEÇÃO CIVIL                  _VISITA À PROTEÇÃO CIVIL                  _
VISITA À PROTEÇÃO CIVIL _
 
DIA INTERNACIONAL DAS FLORESTAS .
DIA INTERNACIONAL DAS FLORESTAS         .DIA INTERNACIONAL DAS FLORESTAS         .
DIA INTERNACIONAL DAS FLORESTAS .
 
LA OVEJITA QUE VINO A CENAR CUENTO INFANTIL.pdf
LA OVEJITA QUE VINO A CENAR CUENTO INFANTIL.pdfLA OVEJITA QUE VINO A CENAR CUENTO INFANTIL.pdf
LA OVEJITA QUE VINO A CENAR CUENTO INFANTIL.pdf
 
La Función tecnológica del tutor.pptx
La  Función  tecnológica  del tutor.pptxLa  Función  tecnológica  del tutor.pptx
La Función tecnológica del tutor.pptx
 
CIENCIAS NATURALES 4 TO ambientes .docx
CIENCIAS NATURALES 4 TO  ambientes .docxCIENCIAS NATURALES 4 TO  ambientes .docx
CIENCIAS NATURALES 4 TO ambientes .docx
 
Técnicas de grabado y estampación : procesos y materiales
Técnicas de grabado y estampación : procesos y materialesTécnicas de grabado y estampación : procesos y materiales
Técnicas de grabado y estampación : procesos y materiales
 
VOLUMEN 1 COLECCION PRODUCCION BOVINA . SERIE SANIDAD ANIMAL
VOLUMEN 1 COLECCION PRODUCCION BOVINA . SERIE SANIDAD ANIMALVOLUMEN 1 COLECCION PRODUCCION BOVINA . SERIE SANIDAD ANIMAL
VOLUMEN 1 COLECCION PRODUCCION BOVINA . SERIE SANIDAD ANIMAL
 
LINEAMIENTOS INICIO DEL AÑO LECTIVO 2024-2025.pptx
LINEAMIENTOS INICIO DEL AÑO LECTIVO 2024-2025.pptxLINEAMIENTOS INICIO DEL AÑO LECTIVO 2024-2025.pptx
LINEAMIENTOS INICIO DEL AÑO LECTIVO 2024-2025.pptx
 
libro para colorear de Peppa pig, ideal para educación inicial
libro para colorear de Peppa pig, ideal para educación iniciallibro para colorear de Peppa pig, ideal para educación inicial
libro para colorear de Peppa pig, ideal para educación inicial
 
Tema 7.- E-COMMERCE SISTEMAS DE INFORMACION.pdf
Tema 7.- E-COMMERCE SISTEMAS DE INFORMACION.pdfTema 7.- E-COMMERCE SISTEMAS DE INFORMACION.pdf
Tema 7.- E-COMMERCE SISTEMAS DE INFORMACION.pdf
 
BIOLOGIA_banco de preguntas_editorial icfes examen de estado .pdf
BIOLOGIA_banco de preguntas_editorial icfes examen de estado .pdfBIOLOGIA_banco de preguntas_editorial icfes examen de estado .pdf
BIOLOGIA_banco de preguntas_editorial icfes examen de estado .pdf
 
Earth Day Everyday 2024 54th anniversary
Earth Day Everyday 2024 54th anniversaryEarth Day Everyday 2024 54th anniversary
Earth Day Everyday 2024 54th anniversary
 
cuadernillo de lectoescritura para niños de básica
cuadernillo de lectoescritura para niños de básicacuadernillo de lectoescritura para niños de básica
cuadernillo de lectoescritura para niños de básica
 
TUTORIA II - CIRCULO DORADO UNIVERSIDAD CESAR VALLEJO
TUTORIA II - CIRCULO DORADO UNIVERSIDAD CESAR VALLEJOTUTORIA II - CIRCULO DORADO UNIVERSIDAD CESAR VALLEJO
TUTORIA II - CIRCULO DORADO UNIVERSIDAD CESAR VALLEJO
 
PPTX: La luz brilla en la oscuridad.pptx
PPTX: La luz brilla en la oscuridad.pptxPPTX: La luz brilla en la oscuridad.pptx
PPTX: La luz brilla en la oscuridad.pptx
 
Aedes aegypti + Intro to Coquies EE.pptx
Aedes aegypti + Intro to Coquies EE.pptxAedes aegypti + Intro to Coquies EE.pptx
Aedes aegypti + Intro to Coquies EE.pptx
 
Metabolismo 3: Anabolismo y Fotosíntesis 2024
Metabolismo 3: Anabolismo y Fotosíntesis 2024Metabolismo 3: Anabolismo y Fotosíntesis 2024
Metabolismo 3: Anabolismo y Fotosíntesis 2024
 
PPT_Formación integral y educación CRESE (1).pdf
PPT_Formación integral y educación CRESE (1).pdfPPT_Formación integral y educación CRESE (1).pdf
PPT_Formación integral y educación CRESE (1).pdf
 
c3.hu3.p1.p2.El ser humano y el sentido de su existencia.pptx
c3.hu3.p1.p2.El ser humano y el sentido de su existencia.pptxc3.hu3.p1.p2.El ser humano y el sentido de su existencia.pptx
c3.hu3.p1.p2.El ser humano y el sentido de su existencia.pptx
 
Los Nueve Principios del Desempeño de la Sostenibilidad
Los Nueve Principios del Desempeño de la SostenibilidadLos Nueve Principios del Desempeño de la Sostenibilidad
Los Nueve Principios del Desempeño de la Sostenibilidad
 

Redes Neuronales Artificiales

  • 1. Unidad 1 Repaso de Redes Neuronales Artificiales
  • 2.
  • 3.
  • 4. Estructura Típica De Una Neurona Biológica
  • 5.
  • 6.
  • 7.
  • 8.
  • 9.
  • 10.
  • 11.
  • 12.
  • 13. Capas en una RNA.
  • 14.
  • 15.
  • 16. Niveles o capas de neuronas
  • 17.
  • 18.
  • 19.
  • 20.
  • 21.
  • 22.
  • 23.
  • 24.
  • 25.
  • 26.
  • 27.
  • 28. Modelado de Redes Neuronales Artificiales
  • 29.
  • 30.
  • 31. Funciones de transferencia Esta función se utiliza en el Perceptron para crear neuronas las cuales toman decisiones de clasificación. Cuando este tipo de función ( hardlim ) toma en cuenta un cierto umbral su salida se incrementará de 0 a 1 cuando p exceda un valor dado por -b/w .
  • 32.
  • 33.
  • 35.
  • 36.
  • 37.
  • 38.
  • 39.
  • 40.
  • 41. Red neuronal de Múltiples Capas
  • 42. Red neuronal con varias capa de neuronas (forma condensada)
  • 43. Redes Monocapa: l 1 l n l 2 Las redes monocapa se utilizan típicamente en en tareas relacionadas en lo que se conoce como autoasociación: por ejemplo, para regenerar informaciones de entrada que se presentan a la red incompletas o distorsionadas . P/ejemplo Hopfield, BSB, Learnig Matrix
  • 44. Redes Multicapa: Redes con conexiones hacia delante (feedforward) Este tipo de redes son especialmente útiles en aplicaciones de reconocimiento o clasificación de patrones. En este tipo de redes, todas las señales neuronales se propagan hacia adelante a través de las capas de la red. No existen conexiones hacia atrás y normal- mente tampoco autorrecurrentes, ni laterales.
  • 45. Redes con conexiones hacia adelante y hacia atrás (feedforward / feedback): En este tipo de redes circula información tanto hacia adelante como hacia atrás durante el funcionamiento de la red. Para que esto sea posible, existen conexiones feedforward y conexiones feedback entre las neuronas. P/ ejemplo: ART, BAM, CABAM.
  • 46. Redes Con Conexiones Hacia Adelante Y Hacia Atrás (feedforward / Feedback) También existen algunas que tienen conexiones laterales entre neuronas de la misma capa. Estas conexiones se diseñan como excitadores (con peso positivo) o inhibidoras (con peso negativo), estableciendose una competencia entre las neuronas correspondientes.
  • 47. Red neuronal de tipo feedforward .
  • 48. Red neuronal de tipo feedforward .
  • 49. Conexiones con propagación hacia atrás en RNA
  • 50. Red neuronal de tipo recurrente
  • 51.
  • 52.
  • 53.
  • 54.
  • 55.
  • 56.
  • 57.
  • 58.
  • 59.
  • 61. Aprendizaje por Reforzamiento Se basa en la idea de no disponer de un ejemplo completo del comportamiento deseado, es decir, la función del supervisor se reduce a indicar mediante una señal de refuerzo si la salida de la red se ajusta a la deseada (éxito=1, fracaso=-1) y en función de ello se ajustan los pesos basándose en un mecanismo de probabilidades.
  • 62.
  • 63.
  • 64.
  • 65.
  • 66.
  • 67.
  • 68.
  • 69.
  • 70.
  • 71.
  • 72. Ejemplos de Redes con Aprendizaje Competitivo y Cooperativo LVQ ART
  • 73.
  • 74.
  • 75. La matriz de pesos de la red es:
  • 76.
  • 77.
  • 78.
  • 79. Recordando que la función de transferencia hardlim se define como: a n=Wp+b n
  • 80. Unificación de la regla de aprendizaje
  • 81. El umbral es un peso con una entrada de 1.
  • 82. Perceptron de Múltiples-Neuronas Para actualizar la ith fila de la matriz de pesos: En forma de Matriz:
  • 83. Capacidad de la regla de aprendizaje del Perceptron La regla del Perceptron siempre convergirá a los pesos que cumplan con la clasificación deseada, asumiendo que tales pesos existan. NOTA: Recordar que la longitud del vector de pesos no es importante, lo único importante es su dirección.
  • 84. Limitaciones del Perceptron Frontera de decisión lineal Problemas linealmente No separables
  • 85. UNIDAD VI Redes de propagación hacia delante y aprendizaje supervisado RED ADALINE Adaline simple. Algoritmo LMS .
  • 86.
  • 87.
  • 88.
  • 89.
  • 90.
  • 91. Diferencias entre . . . PERCEPTRON ADALINE Función de Transferencia ESCALON LINEAL Resolución de problemas Linealmente Separables Linealmente Separables Comportamiento con respecto al RUIDO Sensible al Ruido Minimiza el Ruido Algoritmo de aprendizaje Regla de aprendizaje Del Perceptron LMS
  • 92. Red ADALINE a p u r e l i n W p b +   W p b + = = a i p u r e l i n n i   p u r e l i n w T i p b i +   w T i p b i + = = =  w i w i 1  w i 2  w i R  =
  • 93. ADALINE de dos entradas a p u r e l i n n   p u r e l i n w T 1 p b +   w T 1 p b + = = = a w T 1 p b + w 1 1  p 1 w 1 2  p 2 b + + = =
  • 94. Mínimo Error Cuadrático p 1 t 1 { , } p 2 t 2 { , }  p Q t Q { , }    Conjunto Entrenamiento: p q t q Entrada: Objetivo: x w 1 b = z p 1 = a w T 1 p b + = a x T z = F x   E e 2   = E t a –   2   E t x T z –   2   = = Notación: Mean Square Error: Donde: E es un valor esperado
  • 95. Ecuaciones Importantes en el Algoritmo LMS W k 1 +   W k   2  e k   p T k   + = b k 1 +   b k   2  e k   + = En forma de Matriz: Donde:  es el parámetro de aprendizaje máximo w i k 1 +   w i k   2  e i k   p k   + = b i k 1 +   b i k   2  e i k   + =
  • 96. Condiciones para la Estabilidad e i g I 2  R –     1 2   i – 1  = Resumiendo, las condiciones de estabilidad son:  i 0  Ya que , 1 2   i – 1  .  1   i para toda i  0  1  m a x    (donde  i es un eigenvalor de R ) 1 2   i – 1 – 
  • 97. Modelo de una neurona lineal en MATLAB p(1) p(2) p(3) p(R) W(1,1) W(1,R) 1 b n a  a = purelin(w*p+b) a = w*p+b 0 0 1 -1 a a b/w b/w p n a = purelin(n)
  • 98. Regla de Aprendizaje en ADALINE · ADALINE utiliza un aprendizaje OFF LINE con supervisión. · Este aprendizaje es la llamada Regla de Widrow-Hoff ( Regla Delta o Regla del Mínimo Error Cuadrático Medio LMS Least Mean Square)
  • 99. Regla de Widrow-Hoff Consiste en hallar el vector de pesos W deseado, único, que deberá asociar cada vector de entrada con su correspondiente valor de salida correcto o deseado. La regla minimiza el error cuadrático medio definido como: donde: es la función de error R R R a t       p R R R p 1 2 2 1  
  • 100. Esta función de error está definida en el espacio de pesos multidimensional para un conjunto de entradas, y la regla de Widrow-Hoff busca el punto de este espacio donde se encuentra el mínimo global. Con función de activación lineal Con función de activación sigmoidal
  • 101. Se utiliza el método de gradiente decreciente para saber en qué dirección se encuentra el mínimo global de dicha superficie. Las modificaciones que se realizan a los pesos son proporcionales al gradiente decreciente de la función de error, por lo que cada nuevo punto calculado está más próximo al punto mínimo.             j R j w lr w 2 
  • 102. a) ADALINE b) PERCEPTRÓN
  • 103. La regla de Widrow-Hoff es implementada realizando cambios a los pesos en la dirección opuesta en la que el error está incrementando y absorbiendo la constante -2 en lr . En forma de matriz: Transformando a la expresión del bias (considerando que el bias son pesos con entradas de 1): ) ( ) ( ) , ( j p j e lr j i W     T Ep lr W    E lr b   
  • 104. Algoritmo de aprendizaje en ADALINE 1. Se aplica un vector o patrón de entrada P R en las entradas del ADALINE. 2. Se obtiene la salida lineal a R = WP R y se calcula la diferencia con respecto a la salida deseada: E R =T R -a R 3. Se actualizan los pesos: W( t+1 ) = W(t) + lrE R P R 4. Se repiten los pasos 1 al 3 con todos los vectores de entrada. 5. Si el error cuadrático medio es un valor reducido aceptable, termina el proceso de aprendizaje, sino, se repite otra vez desde el paso 1 con todos los patrones.
  • 105.
  • 106.
  • 107.
  • 108. Ejercicio:  1 1.0  2 0.0  3 2.0 =  =  = R E p p T   1 2 - - - p 1 p 1 T 1 2 - - - p 2 p 2 T + = = R 1 2 - - - 1 – 1 1 – 1 – 1 1 – 1 2 - - - 1 1 1 – 1 1 1 – + 1 0 0 0 1 1 – 0 1 – 1 = =  1  m a x - - - - - - - - - - - -  1 2.0 - - - - - - - 0.5 = = p 1 1 – 1 1 – t 1  1 – = =           p 2 1 1 1 – t 2  1 = =           Plátano Manzana
  • 109. Iteración: 1 e 0   t 0   a 0   t 1 a 0   1 – 0 1 – = – = – = – = W 1   W 0   2  e 0   p T 0   + = W 1   0 0 0 2 0.2   1 –   1 – 1 1 – T 0.4 0.4 – 0.4 = + = a 0   W 0   p 0   W 0   p 1 0 0 0 1 – 1 1 – 0 = = = = Plátano
  • 110. Iteración: 2 Manzana a 1   W 1   p 1   W 1   p 2 0.4 0.4 – 0.4 1 1 1 – 0.4 – = = = = e 1   t 1   a 1   t 2 a 1   1 0.4 –   1.4 = – = – = – = W 2   0.4 0.4 – 0.4 2 0.2   1.4   1 1 1 – T 0.96 0.16 0.16 – = + =
  • 111. Iteración: 3 e 2   t 2   a 2   t 1 a 2   1 – 0.64 –   0.36 – = – = – = – = W 3   W 2   2  e 2   p T 2   + 1.1040 0.0160 0.0160 – = = W    1 0 0 = a 2   W 2   p 2   W 2   p 1 0.96 0.16 0.16 – 1 – 1 1 – 0.64 – = = = =