SlideShare ist ein Scribd-Unternehmen logo
1 von 8
Aprendizaje y adaptación de una red neuronal
                       difusa
El procesos de entrenamiento en una red neuronal difusa consiste en
modificar los parámetros o pesos de la red para obtener una valor óptimo.
Esto requiere de una colección de pares de entrada-salida y esto requiere de
un índice que exprese el mapa de las entradas y los objetivos
correspondientes.

Para una neurona difusa, la conexión sináptica es representada como una
relación difusa de dos dimensiones, donde hay una entrada sináptica y una
salida. El entrenamiento en neuronas difusas, en el casos más general,
envuelve cambios en una relación bidimensional para cada sinapsis.

Considerando una conexión sináptica para la jth neurona, la cual tiene una
entrada externa para una tiempo k, Xi(k), el peso difuso Wij(k), un mínimo
error e(k) que se obtiene de la diferencia entre la respuesta de salida de la
neurona y el objetivo determinado. Para determinar o modificar el peso
Wij(k) se utiliza la siguiente regla:

Donde ∆Wij (k ) es el cambio de la relación difusa que existe del error e(k):

                              ∆Wij ( k ) =F [t j ( k ) −y j ( k )]




En redes neuronales multicapa, involucra varios objetivos (t), con la salida
obtenida en la red neuronal y. Para esto, existe una función distancia por
ejemplo: distancia euclidiana y un error Q (error global minimizado) definido
como:
FUZZY ARTMAP
La red ART tiene la habilidad de crear nuevas categorias con una
aproximacion arbitraria para clasificar entradas que no son clasificadas en
las categorias existentes. Con la introduccion de conceptos difusos , la
Fuzzy ARTMAP fue desarrollada por Carpenter y Grossberg en 1994. MAP
se refiere al proceso de mapear las entradas a la salida. Esta red es una
sintesis de la ART-1 y la logica difusa y es capaz de aceptar entradas
continuas o binarias.

La fuzzy ARTMAP es una arquitectura autoorganizativa que es capaz de
aprender a reconocer rapidamente, y predecir las consecuencias de
virtualmente cualquier entrada. La ARTMAP involucra una combinacion de
operaciones neuronales y difusas, que juntas producen estas capacidades
de la red. Como otras versiones de la ART, su uso es casi exclusivamente
para clasificacion, y solo tiene un parametro de interfaz, el parametro de
vigilancia, el cual determina la fineza o generalidad de las categorias en las
cuales las entradas son clasificadas. La red puede aprender virtualmente
cualquier patron de entrenamiento en pocas iteraciones de entrenamiento en
un modo no supervisado.

La Fuzzy ARTMAP opera determinando automaticamente que tanta
generalizacion o precision es necesaria a la hora de clasificar una entrada.
Las categorias mas generales aceptan entradas con valores caracteristicos
mas difusos. El rango de aceptabilidad (o nivel difuso) de una categoria en
particular es aprendido a través de una serie de iteraciones que involucran
el uso de operadores de la logica difusa. Los operadores AND (min) y OR
(max) son usados para definir el rango de valores que son tolerados por una
categoria por cada variable linguistica o caracteristica. Una funcion de
membresia en el rango de 0 a 1 se usa para determinar la aceptabilidad de
un patron de entrada en una categoria particular. El operador min ayuda a
definir caracteristicas que son criticamente presentes, mientras que el
operador max ayuda a definir caracteristicas criticamente ausentes. El
operador min puede ser usado por nodos que son activados por una entrada
externa, mientras que el operador max puede ser usado por nodos que son
desactivados por una entrada externa. De tal manera que los operadores
min y max pueden ser introducidos en posiciones apropiadas de una red
neuronal mediante switches on-off. La categoria que mas se acerca a un
patron de entrada por medio de una operacion difusa. La logica difusa
provee un metodo por medio del cual una fuzzy ARTMAP categoriza
adaptativamente patrones de entrada analogicos y binarios. Por lo tanto, la
fuzzy ARTMAP puede aprender autonomamente a reconocer.
Kasuba desarrollo una fuzzy ARTMAP simplificada en 1993. Esta red
reduce la sobrecarga computacional y la redundancia de la arquitectura de
una red ARTMAP sin perder la capacidad de reconocimiento de patrones.

Normalmente, cuando una red neuronal backpropagation es usada para la
clasificacion de patrones, un nodo de salida es asignado a cada categoria
de objetos que la red espera reconocer. La fuzzy ARTMAP simplificada
tambien se encarga de crear estas categorias como la ARTMAP original. La
siguiente figura muestra la estructura de una fuzzy ARTMAP simplificada, la
cual consta de una capa de entrada y una de salida con conexiones de
pesos, una capa de categoria que interpreta los resultados de la capa de
salida, y un codificador de complemento para procesar el vector de entrada.
Este codificador de complemento normaliza la entrada y la agranda dos
veces su tamaño original para ayudar a la red a formar sus regiones de
decisión. El parametro de vigilancia (0 a 1) determina la fineza de las
categorias y por lo tanto tambien determina el numero de categorias a ser
creadas.




La entrada expandida I que sale del codificador de complemento entra a la
capa de entrada. Los pesos de cada nodo de categoria de salida
representan a las M categorias que la red tiene que aprender. Dado que un
nodo de salida solo puede codificar a una categoria, este nodo solo puede
apuntar a una posicion en la capa de categoria. La entrada de categoria
solo se proporciona a la capa de categoria durante el entrenamiento
supervisado. La parte de match tracker de la red sirve para que la red
ajuste por si misma el parametro de vigilacia durante el aprendizaje, lo que
permite la creacion de nuevas categorias.

La codificacion de complemento es un proceso de normalizacion de la
entrada que representa la presencia o ausencia de un vector caracteristico
particular a con d componentes en la entrada. Su complemento â = 1 – a es
valido dado que a es un valor entre 0 y 1. Por lo tanto, el complemento del
vector de entrada I esta dado por el vector bidimensional:

                     I = [a,â]=[a1,a2,...,ad,â1,â2,...,âd]

Por ejemplo, el vector tridimensional (0.2,0.8,0.4) es transformado en un
vector de seis dimensiones (0.2,0.8,0.4,0.8,0.2,0.6) cuando pasa a través
del codificador de complemento. Este proceso automaticamente normaliza
los vectores de entrada indicando que la norma de cualquier vector es la
suma de todos los elementos del vector. Es decir, la suma de los elementos
de un vector complemento es igual a la dimension del vector original.

Cuando se le presenta un patron de entrada a esta red, todos los nodos de
salida se activan a un determinado nivel. Esta activacion de salida es
denotada por Tj para el nodo de salida j-esimo y sus pesos wj. La funcion
para producir esta activacion esta dada por:


                                               I ∧ wj
                                  Tj ( I ) =
                                               a + wj

Donde a es un valor pequeño cercano a cero, usualmente alrededor de .
0000001. El nodo de salida ganador es el nodo con el valor de activación
mas alto; esto es, el ganador es max Tj. Por lo tanto, la categoria asociada
con el nodo de salida ganador es la clasificacion de la red del actual patron
de entrada. Una funcion match se utiliza para comparar las caracteristicas
de la entrada complementada y los pesos de un particular nodo de salida
para determinar si el aprendizaje ha ocurrido. Esta funcion match calcula el
grado en el que I es un subconjunto de wj – esto es, el valor de la funcion
match indica si la entrada es bien clasificada en el nodo j o si se tiene que
crear otra categoria de salida. Si esta funcion match es mayor que el
parametro de vigilancia, se dice que la red esta en un estado de resonancia.
Si la funcion match es menor que el parametro de vigilancia, entonces un
nuevo nodo es creado. Una vez que un nodo de salida ganador j ha sido
seleccionado para aprender un particular patron de entrada I, el vector
arroba-abajo wj que sale del nodo de salida j es actualizado. La red
neuronal fuzzy ARTMAP simplificada es un clasificador de proposito general
con pesos arriba-abajo que sirven para el proceso de decisión, lo cual son
tan ilustrativos que sus reglas de clasificación pueden ser literalmente
leidas de la red. Esta red puede ser comparada con un sistema experto
autodidacta en que esta aprende de ejemplos.


   Representación de Datos en Sistemas Híbridos
                  (Neuro Difusos)

    Durante los últimos años se ha tenido un incremento importante en
     investigaciones para sintetizar la Lógica Difusa (LD) con las Redes
     Neuronales Artificiales (RNA’s).

    Las RNA’s ofrece ventajas en áreas de aprendizaje, clasificación y
     optimización, mientras que la LD en áreas de razonamiento de alto
     nivel.

Representación Difusa de                     variables           que   son
entradas y salidas de RNA’s
    Algunas veces la distribución de las posibles salidas de una RNA
     requiere un gran número de neuronas, lo cual implica un aumento en
     la complejidad y el entrenamiento.

    Si se considera una representación difusa o lingüística de las
     variables, se pueden reducir de “n” salidas a solo algunas
     representadas por conjuntos que agrupan los posibles valores.

Eventos que envuelve el usar datos difusos en
RNA’s
   1. Datos exactos o difusos se agrupan en funciones de membresía.

   2. Estos valores son sujetos a operaciones lógicas difusas.

   3. Los resultados son defusificados en valores exactos que se presentan
      a la RNA.

   4. Las RNA’s pueden tener entradas exactas directas y no necesitar de
      la fusificación.
5. La salida de la RNA se convierte a una variable difusa.
 6. Esta salida difusa es utilizada con LD.

 7. Al final las salidas difusas se defusifican a fin de tener una salida
    exacta del sistema.


Codificación Difusa “uno-de-n” de entradas a una
RNA
  Típicamente una entrada se representa por un nodo de entrada en las
   RNA’s.

  Cuando una variable tiene una relación con otras variables sobre una
   pequeña porción del rango, el entrenamiento es difícil.

  Esto se puede solucionar teniendo redes con neuronas enfocadas a
   esa región específica. El dominio es dividido en “n” (3,5 ó 7) regiones
   asignando una función difusa triángular.

  El valor de membresía determina el nivel de activación asociado a la
   neurona de entrada.

  Esta codificación (uno de n) expande el rango de la variable en n
   entradas, cubriendo cada una una fracción del dominio.

  Esta técnica es ventajosa solo cuando la importancia de la variable
   cambia significativamente en el dominio.


Aprendizaje de Retropropagación de un Control
Difuso
  Muchos métodos para acelerar el aprendizaje en redes de
   retropropagación han sido probados con variados grados de éxito.

  Uno de los más comunes es ajustar la tasa de aprendizaje durante el
   entrenamiento usando un método adaptativo satizfaga algunos
   índices de desempeño (Delta-bar-delta).

  Los sistemas difusos pueden ser vistos como una red feedforward
   multicapa y han desarrollado algoritmos de retropropgación para su
   entrenamiento, emparejando los pares de patrones o variables de
   entrada y salida deseadas.
Algunas aplicaciones de Ingeniería
   Las redes neuronales difusas ambicionan integrar el aprendizaje
    neuronal con la capacidad de representación de conocimiento de los
    sistemas difusos.

   Las RNA’s son típicamente heterogéneas para un mejor reflejo lógico
    de un problema dado.
   Las capas y nodos de una red neurodifusa pueden ser interpretadas
    como una realización de reglas difusas if/then.

   Pedrycz y Rocha (1993) modelos neurodifusos usando operadores
    lógicos (AND,OR,NOT), así como normas T y S.

   Hirota y Pedrycz (1993) Redes basadas en aprendizaje (clasificación
    de conocimiento), compuesto de neuronas básicas AND y OR usadas
    en clasificación de patrones.

   Los términos difuso neuronal o neurodifusos se refieren en la
    literatura a combinaciones híbridas de herramientas lógico difusas y
    neuronales.

   Zhang y Chen (1994) utilizan un híbrido que consistía de una red de
    parámetros estimables, una capa convertidora, y una basada en
    backpropagation para la clasificiación de problemas con
    características complejas. Ha sido aplicada a la clasificación de
    imágenes de satélites y determinación litográfica.

   Sharpe (1994) presentó un método híbrido usando técnicas de LD
    para adaptar el criterio de configuración de una red convencional.

   Hu y Hertz (1994) modelo híbrido donde la LD controla el proceso de
    aprendizaje de una RNA durante el entrenamiento ajustando la tasa
    de acuerdo al error de salida de una neurona y a reglas heurísticas
    establecidas.

   Kwan y Cai (1994) estructura de cuatro capas feedforward de una
    red neuronal difusa y su algoritmo de aprendizaje asociado. Las 4
    capas permiten resolver muchos problemas de reconocimiento de
    patrones.

   En una aplicación biotecnológica, una red neuronal difusa de 5 capas
    fue desarrollada para el control de cultivo de Escherichia.
 Karayiannis y Pai (1994) desarrollaron una familia de algoritmos
  difusos para la cuantización e introducción del vector de aprendizaje
  en redes feedforward inherentemente capaz de clasificación difusa o
  traslape de clases de patrones.

Weitere ähnliche Inhalte

Was ist angesagt?

Lenguajes regulares
Lenguajes regularesLenguajes regulares
Lenguajes regularesKenia Adams
 
Regla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simpleRegla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simpleAndrea Lezcano
 
redes neuronales Kohonen
redes neuronales Kohonenredes neuronales Kohonen
redes neuronales KohonenESCOM
 
SeñAles Y Sistemas1
SeñAles Y Sistemas1SeñAles Y Sistemas1
SeñAles Y Sistemas1Matematissen
 
Reporte metodos de busqueda y ordenamiento
Reporte metodos de busqueda y ordenamientoReporte metodos de busqueda y ordenamiento
Reporte metodos de busqueda y ordenamientoTAtiizz Villalobos
 
RED NEURONAL Backpropagation
RED NEURONAL BackpropagationRED NEURONAL Backpropagation
RED NEURONAL BackpropagationESCOM
 
Java pilas (Stacks) y colas (Queues)
Java pilas (Stacks) y colas (Queues)Java pilas (Stacks) y colas (Queues)
Java pilas (Stacks) y colas (Queues)Juan Astudillo
 
Segmentación por umbralización método de otsu
Segmentación por umbralización   método de otsuSegmentación por umbralización   método de otsu
Segmentación por umbralización método de otsuJorge Antonio Parra Serquen
 
48690471 redes-neuronales
48690471 redes-neuronales48690471 redes-neuronales
48690471 redes-neuronalesjcbenitezp
 
Presentacion 2 - Maquinas de Estado Finito
Presentacion 2 - Maquinas de Estado FinitoPresentacion 2 - Maquinas de Estado Finito
Presentacion 2 - Maquinas de Estado Finitojunito86
 
Parte 4 Máquinas De Turing
Parte 4  Máquinas De  TuringParte 4  Máquinas De  Turing
Parte 4 Máquinas De TuringRicardo Quintero
 
Analisis de fourier para señales
Analisis de fourier para señalesAnalisis de fourier para señales
Analisis de fourier para señalesdoc digitus
 
Componentes y Librerías - Tópicos avanzados de programación.
Componentes y Librerías - Tópicos avanzados de programación.Componentes y Librerías - Tópicos avanzados de programación.
Componentes y Librerías - Tópicos avanzados de programación.Giancarlo Aguilar
 
REDES NEURONALES Base Radial
REDES NEURONALES Base RadialREDES NEURONALES Base Radial
REDES NEURONALES Base RadialESCOM
 
Sistemas lineales invariantes en el tiempo
Sistemas lineales invariantes en el tiempoSistemas lineales invariantes en el tiempo
Sistemas lineales invariantes en el tiempoJosé Parra
 
Programación 3: Grafos, representación y operaciones
Programación 3: Grafos, representación y operacionesProgramación 3: Grafos, representación y operaciones
Programación 3: Grafos, representación y operacionesAngel Vázquez Patiño
 
Búsqueda Primero el Mejor
Búsqueda Primero el MejorBúsqueda Primero el Mejor
Búsqueda Primero el MejorTutor4uDev
 
REDES NEURONALES ADALINE
REDES NEURONALES ADALINEREDES NEURONALES ADALINE
REDES NEURONALES ADALINEESCOM
 
Introduccion redes neuronales artificiales
Introduccion redes neuronales artificialesIntroduccion redes neuronales artificiales
Introduccion redes neuronales artificialesESCOM
 

Was ist angesagt? (20)

Lenguajes regulares
Lenguajes regularesLenguajes regulares
Lenguajes regulares
 
Regla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simpleRegla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simple
 
redes neuronales Kohonen
redes neuronales Kohonenredes neuronales Kohonen
redes neuronales Kohonen
 
SeñAles Y Sistemas1
SeñAles Y Sistemas1SeñAles Y Sistemas1
SeñAles Y Sistemas1
 
Reporte metodos de busqueda y ordenamiento
Reporte metodos de busqueda y ordenamientoReporte metodos de busqueda y ordenamiento
Reporte metodos de busqueda y ordenamiento
 
RED NEURONAL Backpropagation
RED NEURONAL BackpropagationRED NEURONAL Backpropagation
RED NEURONAL Backpropagation
 
Java pilas (Stacks) y colas (Queues)
Java pilas (Stacks) y colas (Queues)Java pilas (Stacks) y colas (Queues)
Java pilas (Stacks) y colas (Queues)
 
Segmentación por umbralización método de otsu
Segmentación por umbralización   método de otsuSegmentación por umbralización   método de otsu
Segmentación por umbralización método de otsu
 
48690471 redes-neuronales
48690471 redes-neuronales48690471 redes-neuronales
48690471 redes-neuronales
 
Presentacion 2 - Maquinas de Estado Finito
Presentacion 2 - Maquinas de Estado FinitoPresentacion 2 - Maquinas de Estado Finito
Presentacion 2 - Maquinas de Estado Finito
 
Parte 4 Máquinas De Turing
Parte 4  Máquinas De  TuringParte 4  Máquinas De  Turing
Parte 4 Máquinas De Turing
 
Analisis de fourier para señales
Analisis de fourier para señalesAnalisis de fourier para señales
Analisis de fourier para señales
 
Componentes y Librerías - Tópicos avanzados de programación.
Componentes y Librerías - Tópicos avanzados de programación.Componentes y Librerías - Tópicos avanzados de programación.
Componentes y Librerías - Tópicos avanzados de programación.
 
REDES NEURONALES Base Radial
REDES NEURONALES Base RadialREDES NEURONALES Base Radial
REDES NEURONALES Base Radial
 
Sistemas lineales invariantes en el tiempo
Sistemas lineales invariantes en el tiempoSistemas lineales invariantes en el tiempo
Sistemas lineales invariantes en el tiempo
 
Programación 3: Grafos, representación y operaciones
Programación 3: Grafos, representación y operacionesProgramación 3: Grafos, representación y operaciones
Programación 3: Grafos, representación y operaciones
 
m discretas
m discretasm discretas
m discretas
 
Búsqueda Primero el Mejor
Búsqueda Primero el MejorBúsqueda Primero el Mejor
Búsqueda Primero el Mejor
 
REDES NEURONALES ADALINE
REDES NEURONALES ADALINEREDES NEURONALES ADALINE
REDES NEURONALES ADALINE
 
Introduccion redes neuronales artificiales
Introduccion redes neuronales artificialesIntroduccion redes neuronales artificiales
Introduccion redes neuronales artificiales
 

Ähnlich wie Red Neuronal Difusa

Utp sirn_s4_red perceptron
 Utp sirn_s4_red perceptron Utp sirn_s4_red perceptron
Utp sirn_s4_red perceptronjcbp_peru
 
Redes Neuronales Basadas En Sistemas Difusos
Redes Neuronales Basadas En Sistemas DifusosRedes Neuronales Basadas En Sistemas Difusos
Redes Neuronales Basadas En Sistemas DifusosESCOM
 
Utp sirn_s3_red perceptron
 Utp sirn_s3_red perceptron Utp sirn_s3_red perceptron
Utp sirn_s3_red perceptronc09271
 
Hardlim hardlims en_matlab
Hardlim hardlims en_matlabHardlim hardlims en_matlab
Hardlim hardlims en_matlabjairo0990
 
Hardlim hardlims en_matlab
Hardlim hardlims en_matlabHardlim hardlims en_matlab
Hardlim hardlims en_matlabjhymermartinez
 
Utp ia_2014-2_s4_red perceptron
 Utp ia_2014-2_s4_red perceptron Utp ia_2014-2_s4_red perceptron
Utp ia_2014-2_s4_red perceptronhiperu2005
 
Utp ia_s4_red perceptron
 Utp ia_s4_red perceptron Utp ia_s4_red perceptron
Utp ia_s4_red perceptronjcbp_peru
 
redes neuronales tipo Art3
redes neuronales tipo Art3redes neuronales tipo Art3
redes neuronales tipo Art3ESCOM
 
REDES NEURONALES COMPETITIVAS HAMMING
REDES NEURONALES COMPETITIVAS HAMMINGREDES NEURONALES COMPETITIVAS HAMMING
REDES NEURONALES COMPETITIVAS HAMMINGESCOM
 
Introduccion MODELO DE RESONANCIA ADAPTATIVA
Introduccion MODELO DE RESONANCIA ADAPTATIVAIntroduccion MODELO DE RESONANCIA ADAPTATIVA
Introduccion MODELO DE RESONANCIA ADAPTATIVAESCOM
 
Utp 2015-2_ia_s4_red perceptron
 Utp 2015-2_ia_s4_red perceptron Utp 2015-2_ia_s4_red perceptron
Utp 2015-2_ia_s4_red perceptronjcbp_peru
 
Utp 2015-2_sirn_s4_red perceptron
 Utp 2015-2_sirn_s4_red perceptron Utp 2015-2_sirn_s4_red perceptron
Utp 2015-2_sirn_s4_red perceptronjcbp_peru
 
MODELO DE RESONANCIA ADAPTATIVA (ART)
MODELO DE RESONANCIA ADAPTATIVA (ART)MODELO DE RESONANCIA ADAPTATIVA (ART)
MODELO DE RESONANCIA ADAPTATIVA (ART)ESCOM
 
Características de las Redes Neuronales
Características de las Redes NeuronalesCaracterísticas de las Redes Neuronales
Características de las Redes NeuronalesESCOM
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronalesgueste7b261
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronalesLiz3113
 

Ähnlich wie Red Neuronal Difusa (20)

Utp sirn_s4_red perceptron
 Utp sirn_s4_red perceptron Utp sirn_s4_red perceptron
Utp sirn_s4_red perceptron
 
Redes Neuronales Basadas En Sistemas Difusos
Redes Neuronales Basadas En Sistemas DifusosRedes Neuronales Basadas En Sistemas Difusos
Redes Neuronales Basadas En Sistemas Difusos
 
Utp sirn_s3_red perceptron
 Utp sirn_s3_red perceptron Utp sirn_s3_red perceptron
Utp sirn_s3_red perceptron
 
Hardlim hardlims en_matlab
Hardlim hardlims en_matlabHardlim hardlims en_matlab
Hardlim hardlims en_matlab
 
Hardlim hardlims en_matlab
Hardlim hardlims en_matlabHardlim hardlims en_matlab
Hardlim hardlims en_matlab
 
Utp ia_2014-2_s4_red perceptron
 Utp ia_2014-2_s4_red perceptron Utp ia_2014-2_s4_red perceptron
Utp ia_2014-2_s4_red perceptron
 
Utp ia_s4_red perceptron
 Utp ia_s4_red perceptron Utp ia_s4_red perceptron
Utp ia_s4_red perceptron
 
redes neuronales tipo Art3
redes neuronales tipo Art3redes neuronales tipo Art3
redes neuronales tipo Art3
 
REDES NEURONALES COMPETITIVAS HAMMING
REDES NEURONALES COMPETITIVAS HAMMINGREDES NEURONALES COMPETITIVAS HAMMING
REDES NEURONALES COMPETITIVAS HAMMING
 
Boletin3
Boletin3Boletin3
Boletin3
 
Introduccion MODELO DE RESONANCIA ADAPTATIVA
Introduccion MODELO DE RESONANCIA ADAPTATIVAIntroduccion MODELO DE RESONANCIA ADAPTATIVA
Introduccion MODELO DE RESONANCIA ADAPTATIVA
 
Utp 2015-2_ia_s4_red perceptron
 Utp 2015-2_ia_s4_red perceptron Utp 2015-2_ia_s4_red perceptron
Utp 2015-2_ia_s4_red perceptron
 
Utp 2015-2_sirn_s4_red perceptron
 Utp 2015-2_sirn_s4_red perceptron Utp 2015-2_sirn_s4_red perceptron
Utp 2015-2_sirn_s4_red perceptron
 
MODELO DE RESONANCIA ADAPTATIVA (ART)
MODELO DE RESONANCIA ADAPTATIVA (ART)MODELO DE RESONANCIA ADAPTATIVA (ART)
MODELO DE RESONANCIA ADAPTATIVA (ART)
 
Características de las Redes Neuronales
Características de las Redes NeuronalesCaracterísticas de las Redes Neuronales
Características de las Redes Neuronales
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Leccion 3 - Tema 2
Leccion 3 - Tema 2Leccion 3 - Tema 2
Leccion 3 - Tema 2
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 

Mehr von ESCOM

redes neuronales tipo Som
redes neuronales tipo Somredes neuronales tipo Som
redes neuronales tipo SomESCOM
 
redes neuronales Som
redes neuronales Somredes neuronales Som
redes neuronales SomESCOM
 
redes neuronales Som Slides
redes neuronales Som Slidesredes neuronales Som Slides
redes neuronales Som SlidesESCOM
 
red neuronal Som Net
red neuronal Som Netred neuronal Som Net
red neuronal Som NetESCOM
 
Self Organinising neural networks
Self Organinising  neural networksSelf Organinising  neural networks
Self Organinising neural networksESCOM
 
Teoria Resonancia Adaptativa
Teoria Resonancia AdaptativaTeoria Resonancia Adaptativa
Teoria Resonancia AdaptativaESCOM
 
ejemplo red neuronal Art1
ejemplo red neuronal Art1ejemplo red neuronal Art1
ejemplo red neuronal Art1ESCOM
 
Art2
Art2Art2
Art2ESCOM
 
Redes neuronales tipo Art
Redes neuronales tipo ArtRedes neuronales tipo Art
Redes neuronales tipo ArtESCOM
 
Neocognitron
NeocognitronNeocognitron
NeocognitronESCOM
 
Neocognitron
NeocognitronNeocognitron
NeocognitronESCOM
 
Neocognitron
NeocognitronNeocognitron
NeocognitronESCOM
 
Fukushima Cognitron
Fukushima CognitronFukushima Cognitron
Fukushima CognitronESCOM
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORKESCOM
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORKESCOM
 
Counterpropagation
CounterpropagationCounterpropagation
CounterpropagationESCOM
 
Teoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAPTeoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAPESCOM
 
Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1ESCOM
 
Teoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ARTTeoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ARTESCOM
 
learning Vector Quantization LVQ2 LVQ3
learning Vector Quantization LVQ2 LVQ3learning Vector Quantization LVQ2 LVQ3
learning Vector Quantization LVQ2 LVQ3ESCOM
 

Mehr von ESCOM (20)

redes neuronales tipo Som
redes neuronales tipo Somredes neuronales tipo Som
redes neuronales tipo Som
 
redes neuronales Som
redes neuronales Somredes neuronales Som
redes neuronales Som
 
redes neuronales Som Slides
redes neuronales Som Slidesredes neuronales Som Slides
redes neuronales Som Slides
 
red neuronal Som Net
red neuronal Som Netred neuronal Som Net
red neuronal Som Net
 
Self Organinising neural networks
Self Organinising  neural networksSelf Organinising  neural networks
Self Organinising neural networks
 
Teoria Resonancia Adaptativa
Teoria Resonancia AdaptativaTeoria Resonancia Adaptativa
Teoria Resonancia Adaptativa
 
ejemplo red neuronal Art1
ejemplo red neuronal Art1ejemplo red neuronal Art1
ejemplo red neuronal Art1
 
Art2
Art2Art2
Art2
 
Redes neuronales tipo Art
Redes neuronales tipo ArtRedes neuronales tipo Art
Redes neuronales tipo Art
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
 
Fukushima Cognitron
Fukushima CognitronFukushima Cognitron
Fukushima Cognitron
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORK
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORK
 
Counterpropagation
CounterpropagationCounterpropagation
Counterpropagation
 
Teoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAPTeoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAP
 
Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1
 
Teoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ARTTeoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ART
 
learning Vector Quantization LVQ2 LVQ3
learning Vector Quantization LVQ2 LVQ3learning Vector Quantization LVQ2 LVQ3
learning Vector Quantization LVQ2 LVQ3
 

Kürzlich hochgeladen

Caja de herramientas de inteligencia artificial para la academia y la investi...
Caja de herramientas de inteligencia artificial para la academia y la investi...Caja de herramientas de inteligencia artificial para la academia y la investi...
Caja de herramientas de inteligencia artificial para la academia y la investi...Lourdes Feria
 
Qué es la Inteligencia artificial generativa
Qué es la Inteligencia artificial generativaQué es la Inteligencia artificial generativa
Qué es la Inteligencia artificial generativaDecaunlz
 
SEPTIMO SEGUNDO PERIODO EMPRENDIMIENTO VS
SEPTIMO SEGUNDO PERIODO EMPRENDIMIENTO VSSEPTIMO SEGUNDO PERIODO EMPRENDIMIENTO VS
SEPTIMO SEGUNDO PERIODO EMPRENDIMIENTO VSYadi Campos
 
6.-Como-Atraer-El-Amor-01-Lain-Garcia-Calvo.pdf
6.-Como-Atraer-El-Amor-01-Lain-Garcia-Calvo.pdf6.-Como-Atraer-El-Amor-01-Lain-Garcia-Calvo.pdf
6.-Como-Atraer-El-Amor-01-Lain-Garcia-Calvo.pdfMiNeyi1
 
Infografía EE con pie del 2023 (3)-1.pdf
Infografía EE con pie del 2023 (3)-1.pdfInfografía EE con pie del 2023 (3)-1.pdf
Infografía EE con pie del 2023 (3)-1.pdfAlfaresbilingual
 
Feliz Día de la Madre - 5 de Mayo, 2024.pdf
Feliz Día de la Madre - 5 de Mayo, 2024.pdfFeliz Día de la Madre - 5 de Mayo, 2024.pdf
Feliz Día de la Madre - 5 de Mayo, 2024.pdfMercedes Gonzalez
 
Abril 2024 - Maestra Jardinera Ediba.pdf
Abril 2024 -  Maestra Jardinera Ediba.pdfAbril 2024 -  Maestra Jardinera Ediba.pdf
Abril 2024 - Maestra Jardinera Ediba.pdfValeriaCorrea29
 
SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdf
SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdfSELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdf
SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdfAngélica Soledad Vega Ramírez
 
Tema 17. Biología de los microorganismos 2024
Tema 17. Biología de los microorganismos 2024Tema 17. Biología de los microorganismos 2024
Tema 17. Biología de los microorganismos 2024IES Vicent Andres Estelles
 
5.- Doerr-Mide-lo-que-importa-DESARROLLO PERSONAL
5.- Doerr-Mide-lo-que-importa-DESARROLLO PERSONAL5.- Doerr-Mide-lo-que-importa-DESARROLLO PERSONAL
5.- Doerr-Mide-lo-que-importa-DESARROLLO PERSONALMiNeyi1
 
PLAN DE REFUERZO ESCOLAR MERC 2024-2.docx
PLAN DE REFUERZO ESCOLAR MERC 2024-2.docxPLAN DE REFUERZO ESCOLAR MERC 2024-2.docx
PLAN DE REFUERZO ESCOLAR MERC 2024-2.docxiemerc2024
 
Dinámica florecillas a María en el mes d
Dinámica florecillas a María en el mes dDinámica florecillas a María en el mes d
Dinámica florecillas a María en el mes dstEphaniiie
 
ACTIVIDAD DIA DE LA MADRE FICHA DE TRABAJO
ACTIVIDAD DIA DE LA MADRE FICHA DE TRABAJOACTIVIDAD DIA DE LA MADRE FICHA DE TRABAJO
ACTIVIDAD DIA DE LA MADRE FICHA DE TRABAJOBRIGIDATELLOLEONARDO
 
PIAR v 015. 2024 Plan Individual de ajustes razonables
PIAR v 015. 2024 Plan Individual de ajustes razonablesPIAR v 015. 2024 Plan Individual de ajustes razonables
PIAR v 015. 2024 Plan Individual de ajustes razonablesYanirisBarcelDelaHoz
 
Prueba libre de Geografía para obtención título Bachillerato - 2024
Prueba libre de Geografía para obtención título Bachillerato - 2024Prueba libre de Geografía para obtención título Bachillerato - 2024
Prueba libre de Geografía para obtención título Bachillerato - 2024Juan Martín Martín
 
PINTURA DEL RENACIMIENTO EN ESPAÑA (SIGLO XVI).ppt
PINTURA DEL RENACIMIENTO EN ESPAÑA (SIGLO XVI).pptPINTURA DEL RENACIMIENTO EN ESPAÑA (SIGLO XVI).ppt
PINTURA DEL RENACIMIENTO EN ESPAÑA (SIGLO XVI).pptAlberto Rubio
 
Curso = Metodos Tecnicas y Modelos de Enseñanza.pdf
Curso = Metodos Tecnicas y Modelos de Enseñanza.pdfCurso = Metodos Tecnicas y Modelos de Enseñanza.pdf
Curso = Metodos Tecnicas y Modelos de Enseñanza.pdfFrancisco158360
 
OCTAVO SEGUNDO PERIODO. EMPRENDIEMIENTO VS
OCTAVO SEGUNDO PERIODO. EMPRENDIEMIENTO VSOCTAVO SEGUNDO PERIODO. EMPRENDIEMIENTO VS
OCTAVO SEGUNDO PERIODO. EMPRENDIEMIENTO VSYadi Campos
 
ACRÓNIMO DE PARÍS PARA SU OLIMPIADA 2024. Por JAVIER SOLIS NOYOLA
ACRÓNIMO DE PARÍS PARA SU OLIMPIADA 2024. Por JAVIER SOLIS NOYOLAACRÓNIMO DE PARÍS PARA SU OLIMPIADA 2024. Por JAVIER SOLIS NOYOLA
ACRÓNIMO DE PARÍS PARA SU OLIMPIADA 2024. Por JAVIER SOLIS NOYOLAJAVIER SOLIS NOYOLA
 

Kürzlich hochgeladen (20)

Caja de herramientas de inteligencia artificial para la academia y la investi...
Caja de herramientas de inteligencia artificial para la academia y la investi...Caja de herramientas de inteligencia artificial para la academia y la investi...
Caja de herramientas de inteligencia artificial para la academia y la investi...
 
Qué es la Inteligencia artificial generativa
Qué es la Inteligencia artificial generativaQué es la Inteligencia artificial generativa
Qué es la Inteligencia artificial generativa
 
SEPTIMO SEGUNDO PERIODO EMPRENDIMIENTO VS
SEPTIMO SEGUNDO PERIODO EMPRENDIMIENTO VSSEPTIMO SEGUNDO PERIODO EMPRENDIMIENTO VS
SEPTIMO SEGUNDO PERIODO EMPRENDIMIENTO VS
 
Interpretación de cortes geológicos 2024
Interpretación de cortes geológicos 2024Interpretación de cortes geológicos 2024
Interpretación de cortes geológicos 2024
 
6.-Como-Atraer-El-Amor-01-Lain-Garcia-Calvo.pdf
6.-Como-Atraer-El-Amor-01-Lain-Garcia-Calvo.pdf6.-Como-Atraer-El-Amor-01-Lain-Garcia-Calvo.pdf
6.-Como-Atraer-El-Amor-01-Lain-Garcia-Calvo.pdf
 
Infografía EE con pie del 2023 (3)-1.pdf
Infografía EE con pie del 2023 (3)-1.pdfInfografía EE con pie del 2023 (3)-1.pdf
Infografía EE con pie del 2023 (3)-1.pdf
 
Feliz Día de la Madre - 5 de Mayo, 2024.pdf
Feliz Día de la Madre - 5 de Mayo, 2024.pdfFeliz Día de la Madre - 5 de Mayo, 2024.pdf
Feliz Día de la Madre - 5 de Mayo, 2024.pdf
 
Abril 2024 - Maestra Jardinera Ediba.pdf
Abril 2024 -  Maestra Jardinera Ediba.pdfAbril 2024 -  Maestra Jardinera Ediba.pdf
Abril 2024 - Maestra Jardinera Ediba.pdf
 
SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdf
SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdfSELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdf
SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdf
 
Tema 17. Biología de los microorganismos 2024
Tema 17. Biología de los microorganismos 2024Tema 17. Biología de los microorganismos 2024
Tema 17. Biología de los microorganismos 2024
 
5.- Doerr-Mide-lo-que-importa-DESARROLLO PERSONAL
5.- Doerr-Mide-lo-que-importa-DESARROLLO PERSONAL5.- Doerr-Mide-lo-que-importa-DESARROLLO PERSONAL
5.- Doerr-Mide-lo-que-importa-DESARROLLO PERSONAL
 
PLAN DE REFUERZO ESCOLAR MERC 2024-2.docx
PLAN DE REFUERZO ESCOLAR MERC 2024-2.docxPLAN DE REFUERZO ESCOLAR MERC 2024-2.docx
PLAN DE REFUERZO ESCOLAR MERC 2024-2.docx
 
Dinámica florecillas a María en el mes d
Dinámica florecillas a María en el mes dDinámica florecillas a María en el mes d
Dinámica florecillas a María en el mes d
 
ACTIVIDAD DIA DE LA MADRE FICHA DE TRABAJO
ACTIVIDAD DIA DE LA MADRE FICHA DE TRABAJOACTIVIDAD DIA DE LA MADRE FICHA DE TRABAJO
ACTIVIDAD DIA DE LA MADRE FICHA DE TRABAJO
 
PIAR v 015. 2024 Plan Individual de ajustes razonables
PIAR v 015. 2024 Plan Individual de ajustes razonablesPIAR v 015. 2024 Plan Individual de ajustes razonables
PIAR v 015. 2024 Plan Individual de ajustes razonables
 
Prueba libre de Geografía para obtención título Bachillerato - 2024
Prueba libre de Geografía para obtención título Bachillerato - 2024Prueba libre de Geografía para obtención título Bachillerato - 2024
Prueba libre de Geografía para obtención título Bachillerato - 2024
 
PINTURA DEL RENACIMIENTO EN ESPAÑA (SIGLO XVI).ppt
PINTURA DEL RENACIMIENTO EN ESPAÑA (SIGLO XVI).pptPINTURA DEL RENACIMIENTO EN ESPAÑA (SIGLO XVI).ppt
PINTURA DEL RENACIMIENTO EN ESPAÑA (SIGLO XVI).ppt
 
Curso = Metodos Tecnicas y Modelos de Enseñanza.pdf
Curso = Metodos Tecnicas y Modelos de Enseñanza.pdfCurso = Metodos Tecnicas y Modelos de Enseñanza.pdf
Curso = Metodos Tecnicas y Modelos de Enseñanza.pdf
 
OCTAVO SEGUNDO PERIODO. EMPRENDIEMIENTO VS
OCTAVO SEGUNDO PERIODO. EMPRENDIEMIENTO VSOCTAVO SEGUNDO PERIODO. EMPRENDIEMIENTO VS
OCTAVO SEGUNDO PERIODO. EMPRENDIEMIENTO VS
 
ACRÓNIMO DE PARÍS PARA SU OLIMPIADA 2024. Por JAVIER SOLIS NOYOLA
ACRÓNIMO DE PARÍS PARA SU OLIMPIADA 2024. Por JAVIER SOLIS NOYOLAACRÓNIMO DE PARÍS PARA SU OLIMPIADA 2024. Por JAVIER SOLIS NOYOLA
ACRÓNIMO DE PARÍS PARA SU OLIMPIADA 2024. Por JAVIER SOLIS NOYOLA
 

Red Neuronal Difusa

  • 1. Aprendizaje y adaptación de una red neuronal difusa El procesos de entrenamiento en una red neuronal difusa consiste en modificar los parámetros o pesos de la red para obtener una valor óptimo. Esto requiere de una colección de pares de entrada-salida y esto requiere de un índice que exprese el mapa de las entradas y los objetivos correspondientes. Para una neurona difusa, la conexión sináptica es representada como una relación difusa de dos dimensiones, donde hay una entrada sináptica y una salida. El entrenamiento en neuronas difusas, en el casos más general, envuelve cambios en una relación bidimensional para cada sinapsis. Considerando una conexión sináptica para la jth neurona, la cual tiene una entrada externa para una tiempo k, Xi(k), el peso difuso Wij(k), un mínimo error e(k) que se obtiene de la diferencia entre la respuesta de salida de la neurona y el objetivo determinado. Para determinar o modificar el peso Wij(k) se utiliza la siguiente regla: Donde ∆Wij (k ) es el cambio de la relación difusa que existe del error e(k): ∆Wij ( k ) =F [t j ( k ) −y j ( k )] En redes neuronales multicapa, involucra varios objetivos (t), con la salida obtenida en la red neuronal y. Para esto, existe una función distancia por ejemplo: distancia euclidiana y un error Q (error global minimizado) definido como:
  • 2. FUZZY ARTMAP La red ART tiene la habilidad de crear nuevas categorias con una aproximacion arbitraria para clasificar entradas que no son clasificadas en las categorias existentes. Con la introduccion de conceptos difusos , la Fuzzy ARTMAP fue desarrollada por Carpenter y Grossberg en 1994. MAP se refiere al proceso de mapear las entradas a la salida. Esta red es una sintesis de la ART-1 y la logica difusa y es capaz de aceptar entradas continuas o binarias. La fuzzy ARTMAP es una arquitectura autoorganizativa que es capaz de aprender a reconocer rapidamente, y predecir las consecuencias de virtualmente cualquier entrada. La ARTMAP involucra una combinacion de operaciones neuronales y difusas, que juntas producen estas capacidades de la red. Como otras versiones de la ART, su uso es casi exclusivamente para clasificacion, y solo tiene un parametro de interfaz, el parametro de vigilancia, el cual determina la fineza o generalidad de las categorias en las cuales las entradas son clasificadas. La red puede aprender virtualmente cualquier patron de entrenamiento en pocas iteraciones de entrenamiento en un modo no supervisado. La Fuzzy ARTMAP opera determinando automaticamente que tanta generalizacion o precision es necesaria a la hora de clasificar una entrada. Las categorias mas generales aceptan entradas con valores caracteristicos mas difusos. El rango de aceptabilidad (o nivel difuso) de una categoria en particular es aprendido a través de una serie de iteraciones que involucran el uso de operadores de la logica difusa. Los operadores AND (min) y OR (max) son usados para definir el rango de valores que son tolerados por una categoria por cada variable linguistica o caracteristica. Una funcion de membresia en el rango de 0 a 1 se usa para determinar la aceptabilidad de un patron de entrada en una categoria particular. El operador min ayuda a definir caracteristicas que son criticamente presentes, mientras que el operador max ayuda a definir caracteristicas criticamente ausentes. El operador min puede ser usado por nodos que son activados por una entrada externa, mientras que el operador max puede ser usado por nodos que son desactivados por una entrada externa. De tal manera que los operadores min y max pueden ser introducidos en posiciones apropiadas de una red neuronal mediante switches on-off. La categoria que mas se acerca a un patron de entrada por medio de una operacion difusa. La logica difusa provee un metodo por medio del cual una fuzzy ARTMAP categoriza adaptativamente patrones de entrada analogicos y binarios. Por lo tanto, la fuzzy ARTMAP puede aprender autonomamente a reconocer.
  • 3. Kasuba desarrollo una fuzzy ARTMAP simplificada en 1993. Esta red reduce la sobrecarga computacional y la redundancia de la arquitectura de una red ARTMAP sin perder la capacidad de reconocimiento de patrones. Normalmente, cuando una red neuronal backpropagation es usada para la clasificacion de patrones, un nodo de salida es asignado a cada categoria de objetos que la red espera reconocer. La fuzzy ARTMAP simplificada tambien se encarga de crear estas categorias como la ARTMAP original. La siguiente figura muestra la estructura de una fuzzy ARTMAP simplificada, la cual consta de una capa de entrada y una de salida con conexiones de pesos, una capa de categoria que interpreta los resultados de la capa de salida, y un codificador de complemento para procesar el vector de entrada. Este codificador de complemento normaliza la entrada y la agranda dos veces su tamaño original para ayudar a la red a formar sus regiones de decisión. El parametro de vigilancia (0 a 1) determina la fineza de las categorias y por lo tanto tambien determina el numero de categorias a ser creadas. La entrada expandida I que sale del codificador de complemento entra a la capa de entrada. Los pesos de cada nodo de categoria de salida representan a las M categorias que la red tiene que aprender. Dado que un
  • 4. nodo de salida solo puede codificar a una categoria, este nodo solo puede apuntar a una posicion en la capa de categoria. La entrada de categoria solo se proporciona a la capa de categoria durante el entrenamiento supervisado. La parte de match tracker de la red sirve para que la red ajuste por si misma el parametro de vigilacia durante el aprendizaje, lo que permite la creacion de nuevas categorias. La codificacion de complemento es un proceso de normalizacion de la entrada que representa la presencia o ausencia de un vector caracteristico particular a con d componentes en la entrada. Su complemento â = 1 – a es valido dado que a es un valor entre 0 y 1. Por lo tanto, el complemento del vector de entrada I esta dado por el vector bidimensional: I = [a,â]=[a1,a2,...,ad,â1,â2,...,âd] Por ejemplo, el vector tridimensional (0.2,0.8,0.4) es transformado en un vector de seis dimensiones (0.2,0.8,0.4,0.8,0.2,0.6) cuando pasa a través del codificador de complemento. Este proceso automaticamente normaliza los vectores de entrada indicando que la norma de cualquier vector es la suma de todos los elementos del vector. Es decir, la suma de los elementos de un vector complemento es igual a la dimension del vector original. Cuando se le presenta un patron de entrada a esta red, todos los nodos de salida se activan a un determinado nivel. Esta activacion de salida es denotada por Tj para el nodo de salida j-esimo y sus pesos wj. La funcion para producir esta activacion esta dada por: I ∧ wj Tj ( I ) = a + wj Donde a es un valor pequeño cercano a cero, usualmente alrededor de . 0000001. El nodo de salida ganador es el nodo con el valor de activación mas alto; esto es, el ganador es max Tj. Por lo tanto, la categoria asociada con el nodo de salida ganador es la clasificacion de la red del actual patron de entrada. Una funcion match se utiliza para comparar las caracteristicas de la entrada complementada y los pesos de un particular nodo de salida para determinar si el aprendizaje ha ocurrido. Esta funcion match calcula el grado en el que I es un subconjunto de wj – esto es, el valor de la funcion match indica si la entrada es bien clasificada en el nodo j o si se tiene que crear otra categoria de salida. Si esta funcion match es mayor que el parametro de vigilancia, se dice que la red esta en un estado de resonancia. Si la funcion match es menor que el parametro de vigilancia, entonces un nuevo nodo es creado. Una vez que un nodo de salida ganador j ha sido seleccionado para aprender un particular patron de entrada I, el vector
  • 5. arroba-abajo wj que sale del nodo de salida j es actualizado. La red neuronal fuzzy ARTMAP simplificada es un clasificador de proposito general con pesos arriba-abajo que sirven para el proceso de decisión, lo cual son tan ilustrativos que sus reglas de clasificación pueden ser literalmente leidas de la red. Esta red puede ser comparada con un sistema experto autodidacta en que esta aprende de ejemplos. Representación de Datos en Sistemas Híbridos (Neuro Difusos)  Durante los últimos años se ha tenido un incremento importante en investigaciones para sintetizar la Lógica Difusa (LD) con las Redes Neuronales Artificiales (RNA’s).  Las RNA’s ofrece ventajas en áreas de aprendizaje, clasificación y optimización, mientras que la LD en áreas de razonamiento de alto nivel. Representación Difusa de variables que son entradas y salidas de RNA’s  Algunas veces la distribución de las posibles salidas de una RNA requiere un gran número de neuronas, lo cual implica un aumento en la complejidad y el entrenamiento.  Si se considera una representación difusa o lingüística de las variables, se pueden reducir de “n” salidas a solo algunas representadas por conjuntos que agrupan los posibles valores. Eventos que envuelve el usar datos difusos en RNA’s 1. Datos exactos o difusos se agrupan en funciones de membresía. 2. Estos valores son sujetos a operaciones lógicas difusas. 3. Los resultados son defusificados en valores exactos que se presentan a la RNA. 4. Las RNA’s pueden tener entradas exactas directas y no necesitar de la fusificación.
  • 6. 5. La salida de la RNA se convierte a una variable difusa. 6. Esta salida difusa es utilizada con LD. 7. Al final las salidas difusas se defusifican a fin de tener una salida exacta del sistema. Codificación Difusa “uno-de-n” de entradas a una RNA  Típicamente una entrada se representa por un nodo de entrada en las RNA’s.  Cuando una variable tiene una relación con otras variables sobre una pequeña porción del rango, el entrenamiento es difícil.  Esto se puede solucionar teniendo redes con neuronas enfocadas a esa región específica. El dominio es dividido en “n” (3,5 ó 7) regiones asignando una función difusa triángular.  El valor de membresía determina el nivel de activación asociado a la neurona de entrada.  Esta codificación (uno de n) expande el rango de la variable en n entradas, cubriendo cada una una fracción del dominio.  Esta técnica es ventajosa solo cuando la importancia de la variable cambia significativamente en el dominio. Aprendizaje de Retropropagación de un Control Difuso  Muchos métodos para acelerar el aprendizaje en redes de retropropagación han sido probados con variados grados de éxito.  Uno de los más comunes es ajustar la tasa de aprendizaje durante el entrenamiento usando un método adaptativo satizfaga algunos índices de desempeño (Delta-bar-delta).  Los sistemas difusos pueden ser vistos como una red feedforward multicapa y han desarrollado algoritmos de retropropgación para su entrenamiento, emparejando los pares de patrones o variables de entrada y salida deseadas.
  • 7. Algunas aplicaciones de Ingeniería  Las redes neuronales difusas ambicionan integrar el aprendizaje neuronal con la capacidad de representación de conocimiento de los sistemas difusos.  Las RNA’s son típicamente heterogéneas para un mejor reflejo lógico de un problema dado.  Las capas y nodos de una red neurodifusa pueden ser interpretadas como una realización de reglas difusas if/then.  Pedrycz y Rocha (1993) modelos neurodifusos usando operadores lógicos (AND,OR,NOT), así como normas T y S.  Hirota y Pedrycz (1993) Redes basadas en aprendizaje (clasificación de conocimiento), compuesto de neuronas básicas AND y OR usadas en clasificación de patrones.  Los términos difuso neuronal o neurodifusos se refieren en la literatura a combinaciones híbridas de herramientas lógico difusas y neuronales.  Zhang y Chen (1994) utilizan un híbrido que consistía de una red de parámetros estimables, una capa convertidora, y una basada en backpropagation para la clasificiación de problemas con características complejas. Ha sido aplicada a la clasificación de imágenes de satélites y determinación litográfica.  Sharpe (1994) presentó un método híbrido usando técnicas de LD para adaptar el criterio de configuración de una red convencional.  Hu y Hertz (1994) modelo híbrido donde la LD controla el proceso de aprendizaje de una RNA durante el entrenamiento ajustando la tasa de acuerdo al error de salida de una neurona y a reglas heurísticas establecidas.  Kwan y Cai (1994) estructura de cuatro capas feedforward de una red neuronal difusa y su algoritmo de aprendizaje asociado. Las 4 capas permiten resolver muchos problemas de reconocimiento de patrones.  En una aplicación biotecnológica, una red neuronal difusa de 5 capas fue desarrollada para el control de cultivo de Escherichia.
  • 8.  Karayiannis y Pai (1994) desarrollaron una familia de algoritmos difusos para la cuantización e introducción del vector de aprendizaje en redes feedforward inherentemente capaz de clasificación difusa o traslape de clases de patrones.