SlideShare ist ein Scribd-Unternehmen logo
1 von 8
Aprendizaje y adaptación de una red neuronal
                       difusa
El procesos de entrenamiento en una red neuronal difusa consiste en
modificar los parámetros o pesos de la red para obtener una valor óptimo.
Esto requiere de una colección de pares de entrada-salida y esto requiere de
un índice que exprese el mapa de las entradas y los objetivos
correspondientes.

Para una neurona difusa, la conexión sináptica es representada como una
relación difusa de dos dimensiones, donde hay una entrada sináptica y una
salida. El entrenamiento en neuronas difusas, en el casos más general,
envuelve cambios en una relación bidimensional para cada sinapsis.

Considerando una conexión sináptica para la jth neurona, la cual tiene una
entrada externa para una tiempo k, Xi(k), el peso difuso Wij(k), un mínimo
error e(k) que se obtiene de la diferencia entre la respuesta de salida de la
neurona y el objetivo determinado. Para determinar o modificar el peso
Wij(k) se utiliza la siguiente regla:

Donde ∆Wij (k ) es el cambio de la relación difusa que existe del error e(k):

                              ∆Wij ( k ) =F [t j ( k ) −y j ( k )]




En redes neuronales multicapa, involucra varios objetivos (t), con la salida
obtenida en la red neuronal y. Para esto, existe una función distancia por
ejemplo: distancia euclidiana y un error Q (error global minimizado) definido
como:
FUZZY ARTMAP
La red ART tiene la habilidad de crear nuevas categorias con una
aproximacion arbitraria para clasificar entradas que no son clasificadas en
las categorias existentes. Con la introduccion de conceptos difusos , la
Fuzzy ARTMAP fue desarrollada por Carpenter y Grossberg en 1994. MAP
se refiere al proceso de mapear las entradas a la salida. Esta red es una
sintesis de la ART-1 y la logica difusa y es capaz de aceptar entradas
continuas o binarias.

La fuzzy ARTMAP es una arquitectura autoorganizativa que es capaz de
aprender a reconocer rapidamente, y predecir las consecuencias de
virtualmente cualquier entrada. La ARTMAP involucra una combinacion de
operaciones neuronales y difusas, que juntas producen estas capacidades
de la red. Como otras versiones de la ART, su uso es casi exclusivamente
para clasificacion, y solo tiene un parametro de interfaz, el parametro de
vigilancia, el cual determina la fineza o generalidad de las categorias en las
cuales las entradas son clasificadas. La red puede aprender virtualmente
cualquier patron de entrenamiento en pocas iteraciones de entrenamiento en
un modo no supervisado.

La Fuzzy ARTMAP opera determinando automaticamente que tanta
generalizacion o precision es necesaria a la hora de clasificar una entrada.
Las categorias mas generales aceptan entradas con valores caracteristicos
mas difusos. El rango de aceptabilidad (o nivel difuso) de una categoria en
particular es aprendido a través de una serie de iteraciones que involucran
el uso de operadores de la logica difusa. Los operadores AND (min) y OR
(max) son usados para definir el rango de valores que son tolerados por una
categoria por cada variable linguistica o caracteristica. Una funcion de
membresia en el rango de 0 a 1 se usa para determinar la aceptabilidad de
un patron de entrada en una categoria particular. El operador min ayuda a
definir caracteristicas que son criticamente presentes, mientras que el
operador max ayuda a definir caracteristicas criticamente ausentes. El
operador min puede ser usado por nodos que son activados por una entrada
externa, mientras que el operador max puede ser usado por nodos que son
desactivados por una entrada externa. De tal manera que los operadores
min y max pueden ser introducidos en posiciones apropiadas de una red
neuronal mediante switches on-off. La categoria que mas se acerca a un
patron de entrada por medio de una operacion difusa. La logica difusa
provee un metodo por medio del cual una fuzzy ARTMAP categoriza
adaptativamente patrones de entrada analogicos y binarios. Por lo tanto, la
fuzzy ARTMAP puede aprender autonomamente a reconocer.
Kasuba desarrollo una fuzzy ARTMAP simplificada en 1993. Esta red
reduce la sobrecarga computacional y la redundancia de la arquitectura de
una red ARTMAP sin perder la capacidad de reconocimiento de patrones.

Normalmente, cuando una red neuronal backpropagation es usada para la
clasificacion de patrones, un nodo de salida es asignado a cada categoria
de objetos que la red espera reconocer. La fuzzy ARTMAP simplificada
tambien se encarga de crear estas categorias como la ARTMAP original. La
siguiente figura muestra la estructura de una fuzzy ARTMAP simplificada, la
cual consta de una capa de entrada y una de salida con conexiones de
pesos, una capa de categoria que interpreta los resultados de la capa de
salida, y un codificador de complemento para procesar el vector de entrada.
Este codificador de complemento normaliza la entrada y la agranda dos
veces su tamaño original para ayudar a la red a formar sus regiones de
decisión. El parametro de vigilancia (0 a 1) determina la fineza de las
categorias y por lo tanto tambien determina el numero de categorias a ser
creadas.




La entrada expandida I que sale del codificador de complemento entra a la
capa de entrada. Los pesos de cada nodo de categoria de salida
representan a las M categorias que la red tiene que aprender. Dado que un
nodo de salida solo puede codificar a una categoria, este nodo solo puede
apuntar a una posicion en la capa de categoria. La entrada de categoria
solo se proporciona a la capa de categoria durante el entrenamiento
supervisado. La parte de match tracker de la red sirve para que la red
ajuste por si misma el parametro de vigilacia durante el aprendizaje, lo que
permite la creacion de nuevas categorias.

La codificacion de complemento es un proceso de normalizacion de la
entrada que representa la presencia o ausencia de un vector caracteristico
particular a con d componentes en la entrada. Su complemento â = 1 – a es
valido dado que a es un valor entre 0 y 1. Por lo tanto, el complemento del
vector de entrada I esta dado por el vector bidimensional:

                     I = [a,â]=[a1,a2,...,ad,â1,â2,...,âd]

Por ejemplo, el vector tridimensional (0.2,0.8,0.4) es transformado en un
vector de seis dimensiones (0.2,0.8,0.4,0.8,0.2,0.6) cuando pasa a través
del codificador de complemento. Este proceso automaticamente normaliza
los vectores de entrada indicando que la norma de cualquier vector es la
suma de todos los elementos del vector. Es decir, la suma de los elementos
de un vector complemento es igual a la dimension del vector original.

Cuando se le presenta un patron de entrada a esta red, todos los nodos de
salida se activan a un determinado nivel. Esta activacion de salida es
denotada por Tj para el nodo de salida j-esimo y sus pesos wj. La funcion
para producir esta activacion esta dada por:


                                               I ∧ wj
                                  Tj ( I ) =
                                               a + wj

Donde a es un valor pequeño cercano a cero, usualmente alrededor de .
0000001. El nodo de salida ganador es el nodo con el valor de activación
mas alto; esto es, el ganador es max Tj. Por lo tanto, la categoria asociada
con el nodo de salida ganador es la clasificacion de la red del actual patron
de entrada. Una funcion match se utiliza para comparar las caracteristicas
de la entrada complementada y los pesos de un particular nodo de salida
para determinar si el aprendizaje ha ocurrido. Esta funcion match calcula el
grado en el que I es un subconjunto de wj – esto es, el valor de la funcion
match indica si la entrada es bien clasificada en el nodo j o si se tiene que
crear otra categoria de salida. Si esta funcion match es mayor que el
parametro de vigilancia, se dice que la red esta en un estado de resonancia.
Si la funcion match es menor que el parametro de vigilancia, entonces un
nuevo nodo es creado. Una vez que un nodo de salida ganador j ha sido
seleccionado para aprender un particular patron de entrada I, el vector
arroba-abajo wj que sale del nodo de salida j es actualizado. La red
neuronal fuzzy ARTMAP simplificada es un clasificador de proposito general
con pesos arriba-abajo que sirven para el proceso de decisión, lo cual son
tan ilustrativos que sus reglas de clasificación pueden ser literalmente
leidas de la red. Esta red puede ser comparada con un sistema experto
autodidacta en que esta aprende de ejemplos.


   Representación de Datos en Sistemas Híbridos
                  (Neuro Difusos)

    Durante los últimos años se ha tenido un incremento importante en
     investigaciones para sintetizar la Lógica Difusa (LD) con las Redes
     Neuronales Artificiales (RNA’s).

    Las RNA’s ofrece ventajas en áreas de aprendizaje, clasificación y
     optimización, mientras que la LD en áreas de razonamiento de alto
     nivel.

Representación Difusa de                     variables           que   son
entradas y salidas de RNA’s
    Algunas veces la distribución de las posibles salidas de una RNA
     requiere un gran número de neuronas, lo cual implica un aumento en
     la complejidad y el entrenamiento.

    Si se considera una representación difusa o lingüística de las
     variables, se pueden reducir de “n” salidas a solo algunas
     representadas por conjuntos que agrupan los posibles valores.

Eventos que envuelve el usar datos difusos en
RNA’s
   1. Datos exactos o difusos se agrupan en funciones de membresía.

   2. Estos valores son sujetos a operaciones lógicas difusas.

   3. Los resultados son defusificados en valores exactos que se presentan
      a la RNA.

   4. Las RNA’s pueden tener entradas exactas directas y no necesitar de
      la fusificación.
5. La salida de la RNA se convierte a una variable difusa.
 6. Esta salida difusa es utilizada con LD.

 7. Al final las salidas difusas se defusifican a fin de tener una salida
    exacta del sistema.


Codificación Difusa “uno-de-n” de entradas a una
RNA
  Típicamente una entrada se representa por un nodo de entrada en las
   RNA’s.

  Cuando una variable tiene una relación con otras variables sobre una
   pequeña porción del rango, el entrenamiento es difícil.

  Esto se puede solucionar teniendo redes con neuronas enfocadas a
   esa región específica. El dominio es dividido en “n” (3,5 ó 7) regiones
   asignando una función difusa triángular.

  El valor de membresía determina el nivel de activación asociado a la
   neurona de entrada.

  Esta codificación (uno de n) expande el rango de la variable en n
   entradas, cubriendo cada una una fracción del dominio.

  Esta técnica es ventajosa solo cuando la importancia de la variable
   cambia significativamente en el dominio.


Aprendizaje de Retropropagación de un Control
Difuso
  Muchos métodos para acelerar el aprendizaje en redes de
   retropropagación han sido probados con variados grados de éxito.

  Uno de los más comunes es ajustar la tasa de aprendizaje durante el
   entrenamiento usando un método adaptativo satizfaga algunos
   índices de desempeño (Delta-bar-delta).

  Los sistemas difusos pueden ser vistos como una red feedforward
   multicapa y han desarrollado algoritmos de retropropgación para su
   entrenamiento, emparejando los pares de patrones o variables de
   entrada y salida deseadas.
Algunas aplicaciones de Ingeniería
   Las redes neuronales difusas ambicionan integrar el aprendizaje
    neuronal con la capacidad de representación de conocimiento de los
    sistemas difusos.

   Las RNA’s son típicamente heterogéneas para un mejor reflejo lógico
    de un problema dado.
   Las capas y nodos de una red neurodifusa pueden ser interpretadas
    como una realización de reglas difusas if/then.

   Pedrycz y Rocha (1993) modelos neurodifusos usando operadores
    lógicos (AND,OR,NOT), así como normas T y S.

   Hirota y Pedrycz (1993) Redes basadas en aprendizaje (clasificación
    de conocimiento), compuesto de neuronas básicas AND y OR usadas
    en clasificación de patrones.

   Los términos difuso neuronal o neurodifusos se refieren en la
    literatura a combinaciones híbridas de herramientas lógico difusas y
    neuronales.

   Zhang y Chen (1994) utilizan un híbrido que consistía de una red de
    parámetros estimables, una capa convertidora, y una basada en
    backpropagation para la clasificiación de problemas con
    características complejas. Ha sido aplicada a la clasificación de
    imágenes de satélites y determinación litográfica.

   Sharpe (1994) presentó un método híbrido usando técnicas de LD
    para adaptar el criterio de configuración de una red convencional.

   Hu y Hertz (1994) modelo híbrido donde la LD controla el proceso de
    aprendizaje de una RNA durante el entrenamiento ajustando la tasa
    de acuerdo al error de salida de una neurona y a reglas heurísticas
    establecidas.

   Kwan y Cai (1994) estructura de cuatro capas feedforward de una
    red neuronal difusa y su algoritmo de aprendizaje asociado. Las 4
    capas permiten resolver muchos problemas de reconocimiento de
    patrones.

   En una aplicación biotecnológica, una red neuronal difusa de 5 capas
    fue desarrollada para el control de cultivo de Escherichia.
 Karayiannis y Pai (1994) desarrollaron una familia de algoritmos
  difusos para la cuantización e introducción del vector de aprendizaje
  en redes feedforward inherentemente capaz de clasificación difusa o
  traslape de clases de patrones.

Weitere ähnliche Inhalte

Was ist angesagt?

Monografía sobre Enrutamiento estático - Redes de computadoras
Monografía sobre Enrutamiento estático - Redes de computadorasMonografía sobre Enrutamiento estático - Redes de computadoras
Monografía sobre Enrutamiento estático - Redes de computadoras
J-SociOs
 
Construccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales ArtificialesConstruccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
ESCOM
 
Lecture 5 formateo de señales analógicas
Lecture 5 formateo de señales analógicasLecture 5 formateo de señales analógicas
Lecture 5 formateo de señales analógicas
nica2009
 
Conjuntos regulares 04[1]
Conjuntos regulares 04[1]Conjuntos regulares 04[1]
Conjuntos regulares 04[1]
edeciofreitez
 
Lecture 14 modulacion digital parte 2
Lecture 14 modulacion digital    parte 2Lecture 14 modulacion digital    parte 2
Lecture 14 modulacion digital parte 2
nica2009
 
Unidad5. algebra relacional. yama.may.joseluis.j4
Unidad5. algebra relacional. yama.may.joseluis.j4Unidad5. algebra relacional. yama.may.joseluis.j4
Unidad5. algebra relacional. yama.may.joseluis.j4
LuiS YmAY
 
Ejercicios con Lenguajes Formales
Ejercicios con Lenguajes FormalesEjercicios con Lenguajes Formales
Ejercicios con Lenguajes Formales
vmtorrealba
 

Was ist angesagt? (20)

Automatas de pila
Automatas de pilaAutomatas de pila
Automatas de pila
 
Filtros analogicos
Filtros analogicosFiltros analogicos
Filtros analogicos
 
Monografía sobre Enrutamiento estático - Redes de computadoras
Monografía sobre Enrutamiento estático - Redes de computadorasMonografía sobre Enrutamiento estático - Redes de computadoras
Monografía sobre Enrutamiento estático - Redes de computadoras
 
Construccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales ArtificialesConstruccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
 
CI19 - Presentación 2: Principios básicos de modulación y demodulación
CI19 - Presentación 2: Principios básicos de modulación y demodulación CI19 - Presentación 2: Principios básicos de modulación y demodulación
CI19 - Presentación 2: Principios básicos de modulación y demodulación
 
BGP - Border Gateway Protocol v3.0
BGP - Border Gateway Protocol v3.0BGP - Border Gateway Protocol v3.0
BGP - Border Gateway Protocol v3.0
 
Caracteristicas de circuitos combinacionales luis alfaro
Caracteristicas de circuitos combinacionales luis alfaroCaracteristicas de circuitos combinacionales luis alfaro
Caracteristicas de circuitos combinacionales luis alfaro
 
Lecture 5 formateo de señales analógicas
Lecture 5 formateo de señales analógicasLecture 5 formateo de señales analógicas
Lecture 5 formateo de señales analógicas
 
Conjuntos regulares 04[1]
Conjuntos regulares 04[1]Conjuntos regulares 04[1]
Conjuntos regulares 04[1]
 
Lecture 14 modulacion digital parte 2
Lecture 14 modulacion digital    parte 2Lecture 14 modulacion digital    parte 2
Lecture 14 modulacion digital parte 2
 
Modulación de pulsos
Modulación de pulsosModulación de pulsos
Modulación de pulsos
 
Autómata de pila (AP)
Autómata de pila (AP)Autómata de pila (AP)
Autómata de pila (AP)
 
Tipos de autómatas
Tipos de autómatasTipos de autómatas
Tipos de autómatas
 
Tema ii
Tema iiTema ii
Tema ii
 
Parametros de AM
Parametros de AMParametros de AM
Parametros de AM
 
2...2 expresiones regulares, cerradura, fractales, automata
2...2 expresiones regulares, cerradura, fractales, automata2...2 expresiones regulares, cerradura, fractales, automata
2...2 expresiones regulares, cerradura, fractales, automata
 
Modulacion Digital de Señales Analogicas
Modulacion Digital de Señales AnalogicasModulacion Digital de Señales Analogicas
Modulacion Digital de Señales Analogicas
 
Unidad5. algebra relacional. yama.may.joseluis.j4
Unidad5. algebra relacional. yama.may.joseluis.j4Unidad5. algebra relacional. yama.may.joseluis.j4
Unidad5. algebra relacional. yama.may.joseluis.j4
 
Ejercicios con Lenguajes Formales
Ejercicios con Lenguajes FormalesEjercicios con Lenguajes Formales
Ejercicios con Lenguajes Formales
 
Sistema fsk
Sistema fskSistema fsk
Sistema fsk
 

Ähnlich wie Red Neuronal Difusa

Utp sirn_s4_red perceptron
 Utp sirn_s4_red perceptron Utp sirn_s4_red perceptron
Utp sirn_s4_red perceptron
jcbp_peru
 
Utp sirn_s3_red perceptron
 Utp sirn_s3_red perceptron Utp sirn_s3_red perceptron
Utp sirn_s3_red perceptron
c09271
 
Utp ia_2014-2_s4_red perceptron
 Utp ia_2014-2_s4_red perceptron Utp ia_2014-2_s4_red perceptron
Utp ia_2014-2_s4_red perceptron
hiperu2005
 
Utp ia_s4_red perceptron
 Utp ia_s4_red perceptron Utp ia_s4_red perceptron
Utp ia_s4_red perceptron
jcbp_peru
 
redes neuronales tipo Art3
redes neuronales tipo Art3redes neuronales tipo Art3
redes neuronales tipo Art3
ESCOM
 
Utp 2015-2_ia_s4_red perceptron
 Utp 2015-2_ia_s4_red perceptron Utp 2015-2_ia_s4_red perceptron
Utp 2015-2_ia_s4_red perceptron
jcbp_peru
 
Utp 2015-2_sirn_s4_red perceptron
 Utp 2015-2_sirn_s4_red perceptron Utp 2015-2_sirn_s4_red perceptron
Utp 2015-2_sirn_s4_red perceptron
jcbp_peru
 
REDES NEURONALES Base Radial
REDES NEURONALES Base RadialREDES NEURONALES Base Radial
REDES NEURONALES Base Radial
ESCOM
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
gueste7b261
 

Ähnlich wie Red Neuronal Difusa (20)

INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESINTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
 
Utp sirn_s4_red perceptron
 Utp sirn_s4_red perceptron Utp sirn_s4_red perceptron
Utp sirn_s4_red perceptron
 
Redes Neuronales Basadas En Sistemas Difusos
Redes Neuronales Basadas En Sistemas DifusosRedes Neuronales Basadas En Sistemas Difusos
Redes Neuronales Basadas En Sistemas Difusos
 
Utp sirn_s3_red perceptron
 Utp sirn_s3_red perceptron Utp sirn_s3_red perceptron
Utp sirn_s3_red perceptron
 
Hardlim hardlims en_matlab
Hardlim hardlims en_matlabHardlim hardlims en_matlab
Hardlim hardlims en_matlab
 
Hardlim hardlims en_matlab
Hardlim hardlims en_matlabHardlim hardlims en_matlab
Hardlim hardlims en_matlab
 
Utp ia_2014-2_s4_red perceptron
 Utp ia_2014-2_s4_red perceptron Utp ia_2014-2_s4_red perceptron
Utp ia_2014-2_s4_red perceptron
 
Utp ia_s4_red perceptron
 Utp ia_s4_red perceptron Utp ia_s4_red perceptron
Utp ia_s4_red perceptron
 
redes neuronales tipo Art3
redes neuronales tipo Art3redes neuronales tipo Art3
redes neuronales tipo Art3
 
REDES NEURONALES COMPETITIVAS HAMMING
REDES NEURONALES COMPETITIVAS HAMMINGREDES NEURONALES COMPETITIVAS HAMMING
REDES NEURONALES COMPETITIVAS HAMMING
 
Boletin3
Boletin3Boletin3
Boletin3
 
Introduccion MODELO DE RESONANCIA ADAPTATIVA
Introduccion MODELO DE RESONANCIA ADAPTATIVAIntroduccion MODELO DE RESONANCIA ADAPTATIVA
Introduccion MODELO DE RESONANCIA ADAPTATIVA
 
Utp 2015-2_ia_s4_red perceptron
 Utp 2015-2_ia_s4_red perceptron Utp 2015-2_ia_s4_red perceptron
Utp 2015-2_ia_s4_red perceptron
 
Utp 2015-2_sirn_s4_red perceptron
 Utp 2015-2_sirn_s4_red perceptron Utp 2015-2_sirn_s4_red perceptron
Utp 2015-2_sirn_s4_red perceptron
 
REDES NEURONALES Base Radial
REDES NEURONALES Base RadialREDES NEURONALES Base Radial
REDES NEURONALES Base Radial
 
MODELO DE RESONANCIA ADAPTATIVA (ART)
MODELO DE RESONANCIA ADAPTATIVA (ART)MODELO DE RESONANCIA ADAPTATIVA (ART)
MODELO DE RESONANCIA ADAPTATIVA (ART)
 
RED NEURONAL Backpropagation
RED NEURONAL BackpropagationRED NEURONAL Backpropagation
RED NEURONAL Backpropagation
 
Características de las Redes Neuronales
Características de las Redes NeuronalesCaracterísticas de las Redes Neuronales
Características de las Redes Neuronales
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Leccion 3 - Tema 2
Leccion 3 - Tema 2Leccion 3 - Tema 2
Leccion 3 - Tema 2
 

Mehr von ESCOM

redes neuronales tipo Som
redes neuronales tipo Somredes neuronales tipo Som
redes neuronales tipo Som
ESCOM
 
redes neuronales Som
redes neuronales Somredes neuronales Som
redes neuronales Som
ESCOM
 
redes neuronales Som Slides
redes neuronales Som Slidesredes neuronales Som Slides
redes neuronales Som Slides
ESCOM
 
red neuronal Som Net
red neuronal Som Netred neuronal Som Net
red neuronal Som Net
ESCOM
 
Self Organinising neural networks
Self Organinising  neural networksSelf Organinising  neural networks
Self Organinising neural networks
ESCOM
 
redes neuronales Kohonen
redes neuronales Kohonenredes neuronales Kohonen
redes neuronales Kohonen
ESCOM
 
Teoria Resonancia Adaptativa
Teoria Resonancia AdaptativaTeoria Resonancia Adaptativa
Teoria Resonancia Adaptativa
ESCOM
 
ejemplo red neuronal Art1
ejemplo red neuronal Art1ejemplo red neuronal Art1
ejemplo red neuronal Art1
ESCOM
 
Art2
Art2Art2
Art2
ESCOM
 
Redes neuronales tipo Art
Redes neuronales tipo ArtRedes neuronales tipo Art
Redes neuronales tipo Art
ESCOM
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
ESCOM
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
ESCOM
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
ESCOM
 
Fukushima Cognitron
Fukushima CognitronFukushima Cognitron
Fukushima Cognitron
ESCOM
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORK
ESCOM
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORK
ESCOM
 
Counterpropagation
CounterpropagationCounterpropagation
Counterpropagation
ESCOM
 
Teoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAPTeoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAP
ESCOM
 
Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1
ESCOM
 
Teoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ARTTeoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ART
ESCOM
 

Mehr von ESCOM (20)

redes neuronales tipo Som
redes neuronales tipo Somredes neuronales tipo Som
redes neuronales tipo Som
 
redes neuronales Som
redes neuronales Somredes neuronales Som
redes neuronales Som
 
redes neuronales Som Slides
redes neuronales Som Slidesredes neuronales Som Slides
redes neuronales Som Slides
 
red neuronal Som Net
red neuronal Som Netred neuronal Som Net
red neuronal Som Net
 
Self Organinising neural networks
Self Organinising  neural networksSelf Organinising  neural networks
Self Organinising neural networks
 
redes neuronales Kohonen
redes neuronales Kohonenredes neuronales Kohonen
redes neuronales Kohonen
 
Teoria Resonancia Adaptativa
Teoria Resonancia AdaptativaTeoria Resonancia Adaptativa
Teoria Resonancia Adaptativa
 
ejemplo red neuronal Art1
ejemplo red neuronal Art1ejemplo red neuronal Art1
ejemplo red neuronal Art1
 
Art2
Art2Art2
Art2
 
Redes neuronales tipo Art
Redes neuronales tipo ArtRedes neuronales tipo Art
Redes neuronales tipo Art
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
 
Neocognitron
NeocognitronNeocognitron
Neocognitron
 
Fukushima Cognitron
Fukushima CognitronFukushima Cognitron
Fukushima Cognitron
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORK
 
Counterpropagation NETWORK
Counterpropagation NETWORKCounterpropagation NETWORK
Counterpropagation NETWORK
 
Counterpropagation
CounterpropagationCounterpropagation
Counterpropagation
 
Teoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAPTeoría de Resonancia Adaptativa Art2 ARTMAP
Teoría de Resonancia Adaptativa Art2 ARTMAP
 
Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1Teoría de Resonancia Adaptativa ART1
Teoría de Resonancia Adaptativa ART1
 
Teoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ARTTeoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ART
 

Kürzlich hochgeladen

RESOLUCIÓN VICEMINISTERIAL 00048 - 2024 EVALUACION
RESOLUCIÓN VICEMINISTERIAL 00048 - 2024 EVALUACIONRESOLUCIÓN VICEMINISTERIAL 00048 - 2024 EVALUACION
RESOLUCIÓN VICEMINISTERIAL 00048 - 2024 EVALUACION
amelia poma
 

Kürzlich hochgeladen (20)

Louis Jean François Lagrenée. Erotismo y sensualidad. El erotismo en la Hist...
Louis Jean François Lagrenée.  Erotismo y sensualidad. El erotismo en la Hist...Louis Jean François Lagrenée.  Erotismo y sensualidad. El erotismo en la Hist...
Louis Jean François Lagrenée. Erotismo y sensualidad. El erotismo en la Hist...
 
Los avatares para el juego dramático en entornos virtuales
Los avatares para el juego dramático en entornos virtualesLos avatares para el juego dramático en entornos virtuales
Los avatares para el juego dramático en entornos virtuales
 
CONCURSO NACIONAL JOSE MARIA ARGUEDAS.pptx
CONCURSO NACIONAL JOSE MARIA ARGUEDAS.pptxCONCURSO NACIONAL JOSE MARIA ARGUEDAS.pptx
CONCURSO NACIONAL JOSE MARIA ARGUEDAS.pptx
 
PINTURA DEL RENACIMIENTO EN ESPAÑA (SIGLO XVI).ppt
PINTURA DEL RENACIMIENTO EN ESPAÑA (SIGLO XVI).pptPINTURA DEL RENACIMIENTO EN ESPAÑA (SIGLO XVI).ppt
PINTURA DEL RENACIMIENTO EN ESPAÑA (SIGLO XVI).ppt
 
RESOLUCIÓN VICEMINISTERIAL 00048 - 2024 EVALUACION
RESOLUCIÓN VICEMINISTERIAL 00048 - 2024 EVALUACIONRESOLUCIÓN VICEMINISTERIAL 00048 - 2024 EVALUACION
RESOLUCIÓN VICEMINISTERIAL 00048 - 2024 EVALUACION
 
Lecciones 06 Esc. Sabática. Los dos testigos
Lecciones 06 Esc. Sabática. Los dos testigosLecciones 06 Esc. Sabática. Los dos testigos
Lecciones 06 Esc. Sabática. Los dos testigos
 
Power Point E. S.: Los dos testigos.pptx
Power Point E. S.: Los dos testigos.pptxPower Point E. S.: Los dos testigos.pptx
Power Point E. S.: Los dos testigos.pptx
 
Prueba de evaluación Geografía e Historia Comunidad de Madrid 2º de la ESO
Prueba de evaluación Geografía e Historia Comunidad de Madrid 2º de la ESOPrueba de evaluación Geografía e Historia Comunidad de Madrid 2º de la ESO
Prueba de evaluación Geografía e Historia Comunidad de Madrid 2º de la ESO
 
Posición astronómica y geográfica de Europa.pptx
Posición astronómica y geográfica de Europa.pptxPosición astronómica y geográfica de Europa.pptx
Posición astronómica y geográfica de Europa.pptx
 
Prueba de evaluación Geografía e Historia Comunidad de Madrid 4ºESO
Prueba de evaluación Geografía e Historia Comunidad de Madrid 4ºESOPrueba de evaluación Geografía e Historia Comunidad de Madrid 4ºESO
Prueba de evaluación Geografía e Historia Comunidad de Madrid 4ºESO
 
Interpretación de cortes geológicos 2024
Interpretación de cortes geológicos 2024Interpretación de cortes geológicos 2024
Interpretación de cortes geológicos 2024
 
PLAN LECTOR 2024 integrado nivel inicial-miercoles 10.pptx
PLAN LECTOR 2024  integrado nivel inicial-miercoles 10.pptxPLAN LECTOR 2024  integrado nivel inicial-miercoles 10.pptx
PLAN LECTOR 2024 integrado nivel inicial-miercoles 10.pptx
 
Tema 17. Biología de los microorganismos 2024
Tema 17. Biología de los microorganismos 2024Tema 17. Biología de los microorganismos 2024
Tema 17. Biología de los microorganismos 2024
 
Usos y desusos de la inteligencia artificial en revistas científicas
Usos y desusos de la inteligencia artificial en revistas científicasUsos y desusos de la inteligencia artificial en revistas científicas
Usos y desusos de la inteligencia artificial en revistas científicas
 
Prueba libre de Geografía para obtención título Bachillerato - 2024
Prueba libre de Geografía para obtención título Bachillerato - 2024Prueba libre de Geografía para obtención título Bachillerato - 2024
Prueba libre de Geografía para obtención título Bachillerato - 2024
 
LA LITERATURA DEL BARROCO 2023-2024pptx.pptx
LA LITERATURA DEL BARROCO 2023-2024pptx.pptxLA LITERATURA DEL BARROCO 2023-2024pptx.pptx
LA LITERATURA DEL BARROCO 2023-2024pptx.pptx
 
Supuestos_prácticos_funciones.docx
Supuestos_prácticos_funciones.docxSupuestos_prácticos_funciones.docx
Supuestos_prácticos_funciones.docx
 
1ro Programación Anual D.P.C.C planificación anual del área para el desarroll...
1ro Programación Anual D.P.C.C planificación anual del área para el desarroll...1ro Programación Anual D.P.C.C planificación anual del área para el desarroll...
1ro Programación Anual D.P.C.C planificación anual del área para el desarroll...
 
Sesión de clase APC: Los dos testigos.pdf
Sesión de clase APC: Los dos testigos.pdfSesión de clase APC: Los dos testigos.pdf
Sesión de clase APC: Los dos testigos.pdf
 
Plan-de-la-Patria-2019-2025- TERCER PLAN SOCIALISTA DE LA NACIÓN.pdf
Plan-de-la-Patria-2019-2025- TERCER PLAN SOCIALISTA DE LA NACIÓN.pdfPlan-de-la-Patria-2019-2025- TERCER PLAN SOCIALISTA DE LA NACIÓN.pdf
Plan-de-la-Patria-2019-2025- TERCER PLAN SOCIALISTA DE LA NACIÓN.pdf
 

Red Neuronal Difusa

  • 1. Aprendizaje y adaptación de una red neuronal difusa El procesos de entrenamiento en una red neuronal difusa consiste en modificar los parámetros o pesos de la red para obtener una valor óptimo. Esto requiere de una colección de pares de entrada-salida y esto requiere de un índice que exprese el mapa de las entradas y los objetivos correspondientes. Para una neurona difusa, la conexión sináptica es representada como una relación difusa de dos dimensiones, donde hay una entrada sináptica y una salida. El entrenamiento en neuronas difusas, en el casos más general, envuelve cambios en una relación bidimensional para cada sinapsis. Considerando una conexión sináptica para la jth neurona, la cual tiene una entrada externa para una tiempo k, Xi(k), el peso difuso Wij(k), un mínimo error e(k) que se obtiene de la diferencia entre la respuesta de salida de la neurona y el objetivo determinado. Para determinar o modificar el peso Wij(k) se utiliza la siguiente regla: Donde ∆Wij (k ) es el cambio de la relación difusa que existe del error e(k): ∆Wij ( k ) =F [t j ( k ) −y j ( k )] En redes neuronales multicapa, involucra varios objetivos (t), con la salida obtenida en la red neuronal y. Para esto, existe una función distancia por ejemplo: distancia euclidiana y un error Q (error global minimizado) definido como:
  • 2. FUZZY ARTMAP La red ART tiene la habilidad de crear nuevas categorias con una aproximacion arbitraria para clasificar entradas que no son clasificadas en las categorias existentes. Con la introduccion de conceptos difusos , la Fuzzy ARTMAP fue desarrollada por Carpenter y Grossberg en 1994. MAP se refiere al proceso de mapear las entradas a la salida. Esta red es una sintesis de la ART-1 y la logica difusa y es capaz de aceptar entradas continuas o binarias. La fuzzy ARTMAP es una arquitectura autoorganizativa que es capaz de aprender a reconocer rapidamente, y predecir las consecuencias de virtualmente cualquier entrada. La ARTMAP involucra una combinacion de operaciones neuronales y difusas, que juntas producen estas capacidades de la red. Como otras versiones de la ART, su uso es casi exclusivamente para clasificacion, y solo tiene un parametro de interfaz, el parametro de vigilancia, el cual determina la fineza o generalidad de las categorias en las cuales las entradas son clasificadas. La red puede aprender virtualmente cualquier patron de entrenamiento en pocas iteraciones de entrenamiento en un modo no supervisado. La Fuzzy ARTMAP opera determinando automaticamente que tanta generalizacion o precision es necesaria a la hora de clasificar una entrada. Las categorias mas generales aceptan entradas con valores caracteristicos mas difusos. El rango de aceptabilidad (o nivel difuso) de una categoria en particular es aprendido a través de una serie de iteraciones que involucran el uso de operadores de la logica difusa. Los operadores AND (min) y OR (max) son usados para definir el rango de valores que son tolerados por una categoria por cada variable linguistica o caracteristica. Una funcion de membresia en el rango de 0 a 1 se usa para determinar la aceptabilidad de un patron de entrada en una categoria particular. El operador min ayuda a definir caracteristicas que son criticamente presentes, mientras que el operador max ayuda a definir caracteristicas criticamente ausentes. El operador min puede ser usado por nodos que son activados por una entrada externa, mientras que el operador max puede ser usado por nodos que son desactivados por una entrada externa. De tal manera que los operadores min y max pueden ser introducidos en posiciones apropiadas de una red neuronal mediante switches on-off. La categoria que mas se acerca a un patron de entrada por medio de una operacion difusa. La logica difusa provee un metodo por medio del cual una fuzzy ARTMAP categoriza adaptativamente patrones de entrada analogicos y binarios. Por lo tanto, la fuzzy ARTMAP puede aprender autonomamente a reconocer.
  • 3. Kasuba desarrollo una fuzzy ARTMAP simplificada en 1993. Esta red reduce la sobrecarga computacional y la redundancia de la arquitectura de una red ARTMAP sin perder la capacidad de reconocimiento de patrones. Normalmente, cuando una red neuronal backpropagation es usada para la clasificacion de patrones, un nodo de salida es asignado a cada categoria de objetos que la red espera reconocer. La fuzzy ARTMAP simplificada tambien se encarga de crear estas categorias como la ARTMAP original. La siguiente figura muestra la estructura de una fuzzy ARTMAP simplificada, la cual consta de una capa de entrada y una de salida con conexiones de pesos, una capa de categoria que interpreta los resultados de la capa de salida, y un codificador de complemento para procesar el vector de entrada. Este codificador de complemento normaliza la entrada y la agranda dos veces su tamaño original para ayudar a la red a formar sus regiones de decisión. El parametro de vigilancia (0 a 1) determina la fineza de las categorias y por lo tanto tambien determina el numero de categorias a ser creadas. La entrada expandida I que sale del codificador de complemento entra a la capa de entrada. Los pesos de cada nodo de categoria de salida representan a las M categorias que la red tiene que aprender. Dado que un
  • 4. nodo de salida solo puede codificar a una categoria, este nodo solo puede apuntar a una posicion en la capa de categoria. La entrada de categoria solo se proporciona a la capa de categoria durante el entrenamiento supervisado. La parte de match tracker de la red sirve para que la red ajuste por si misma el parametro de vigilacia durante el aprendizaje, lo que permite la creacion de nuevas categorias. La codificacion de complemento es un proceso de normalizacion de la entrada que representa la presencia o ausencia de un vector caracteristico particular a con d componentes en la entrada. Su complemento â = 1 – a es valido dado que a es un valor entre 0 y 1. Por lo tanto, el complemento del vector de entrada I esta dado por el vector bidimensional: I = [a,â]=[a1,a2,...,ad,â1,â2,...,âd] Por ejemplo, el vector tridimensional (0.2,0.8,0.4) es transformado en un vector de seis dimensiones (0.2,0.8,0.4,0.8,0.2,0.6) cuando pasa a través del codificador de complemento. Este proceso automaticamente normaliza los vectores de entrada indicando que la norma de cualquier vector es la suma de todos los elementos del vector. Es decir, la suma de los elementos de un vector complemento es igual a la dimension del vector original. Cuando se le presenta un patron de entrada a esta red, todos los nodos de salida se activan a un determinado nivel. Esta activacion de salida es denotada por Tj para el nodo de salida j-esimo y sus pesos wj. La funcion para producir esta activacion esta dada por: I ∧ wj Tj ( I ) = a + wj Donde a es un valor pequeño cercano a cero, usualmente alrededor de . 0000001. El nodo de salida ganador es el nodo con el valor de activación mas alto; esto es, el ganador es max Tj. Por lo tanto, la categoria asociada con el nodo de salida ganador es la clasificacion de la red del actual patron de entrada. Una funcion match se utiliza para comparar las caracteristicas de la entrada complementada y los pesos de un particular nodo de salida para determinar si el aprendizaje ha ocurrido. Esta funcion match calcula el grado en el que I es un subconjunto de wj – esto es, el valor de la funcion match indica si la entrada es bien clasificada en el nodo j o si se tiene que crear otra categoria de salida. Si esta funcion match es mayor que el parametro de vigilancia, se dice que la red esta en un estado de resonancia. Si la funcion match es menor que el parametro de vigilancia, entonces un nuevo nodo es creado. Una vez que un nodo de salida ganador j ha sido seleccionado para aprender un particular patron de entrada I, el vector
  • 5. arroba-abajo wj que sale del nodo de salida j es actualizado. La red neuronal fuzzy ARTMAP simplificada es un clasificador de proposito general con pesos arriba-abajo que sirven para el proceso de decisión, lo cual son tan ilustrativos que sus reglas de clasificación pueden ser literalmente leidas de la red. Esta red puede ser comparada con un sistema experto autodidacta en que esta aprende de ejemplos. Representación de Datos en Sistemas Híbridos (Neuro Difusos)  Durante los últimos años se ha tenido un incremento importante en investigaciones para sintetizar la Lógica Difusa (LD) con las Redes Neuronales Artificiales (RNA’s).  Las RNA’s ofrece ventajas en áreas de aprendizaje, clasificación y optimización, mientras que la LD en áreas de razonamiento de alto nivel. Representación Difusa de variables que son entradas y salidas de RNA’s  Algunas veces la distribución de las posibles salidas de una RNA requiere un gran número de neuronas, lo cual implica un aumento en la complejidad y el entrenamiento.  Si se considera una representación difusa o lingüística de las variables, se pueden reducir de “n” salidas a solo algunas representadas por conjuntos que agrupan los posibles valores. Eventos que envuelve el usar datos difusos en RNA’s 1. Datos exactos o difusos se agrupan en funciones de membresía. 2. Estos valores son sujetos a operaciones lógicas difusas. 3. Los resultados son defusificados en valores exactos que se presentan a la RNA. 4. Las RNA’s pueden tener entradas exactas directas y no necesitar de la fusificación.
  • 6. 5. La salida de la RNA se convierte a una variable difusa. 6. Esta salida difusa es utilizada con LD. 7. Al final las salidas difusas se defusifican a fin de tener una salida exacta del sistema. Codificación Difusa “uno-de-n” de entradas a una RNA  Típicamente una entrada se representa por un nodo de entrada en las RNA’s.  Cuando una variable tiene una relación con otras variables sobre una pequeña porción del rango, el entrenamiento es difícil.  Esto se puede solucionar teniendo redes con neuronas enfocadas a esa región específica. El dominio es dividido en “n” (3,5 ó 7) regiones asignando una función difusa triángular.  El valor de membresía determina el nivel de activación asociado a la neurona de entrada.  Esta codificación (uno de n) expande el rango de la variable en n entradas, cubriendo cada una una fracción del dominio.  Esta técnica es ventajosa solo cuando la importancia de la variable cambia significativamente en el dominio. Aprendizaje de Retropropagación de un Control Difuso  Muchos métodos para acelerar el aprendizaje en redes de retropropagación han sido probados con variados grados de éxito.  Uno de los más comunes es ajustar la tasa de aprendizaje durante el entrenamiento usando un método adaptativo satizfaga algunos índices de desempeño (Delta-bar-delta).  Los sistemas difusos pueden ser vistos como una red feedforward multicapa y han desarrollado algoritmos de retropropgación para su entrenamiento, emparejando los pares de patrones o variables de entrada y salida deseadas.
  • 7. Algunas aplicaciones de Ingeniería  Las redes neuronales difusas ambicionan integrar el aprendizaje neuronal con la capacidad de representación de conocimiento de los sistemas difusos.  Las RNA’s son típicamente heterogéneas para un mejor reflejo lógico de un problema dado.  Las capas y nodos de una red neurodifusa pueden ser interpretadas como una realización de reglas difusas if/then.  Pedrycz y Rocha (1993) modelos neurodifusos usando operadores lógicos (AND,OR,NOT), así como normas T y S.  Hirota y Pedrycz (1993) Redes basadas en aprendizaje (clasificación de conocimiento), compuesto de neuronas básicas AND y OR usadas en clasificación de patrones.  Los términos difuso neuronal o neurodifusos se refieren en la literatura a combinaciones híbridas de herramientas lógico difusas y neuronales.  Zhang y Chen (1994) utilizan un híbrido que consistía de una red de parámetros estimables, una capa convertidora, y una basada en backpropagation para la clasificiación de problemas con características complejas. Ha sido aplicada a la clasificación de imágenes de satélites y determinación litográfica.  Sharpe (1994) presentó un método híbrido usando técnicas de LD para adaptar el criterio de configuración de una red convencional.  Hu y Hertz (1994) modelo híbrido donde la LD controla el proceso de aprendizaje de una RNA durante el entrenamiento ajustando la tasa de acuerdo al error de salida de una neurona y a reglas heurísticas establecidas.  Kwan y Cai (1994) estructura de cuatro capas feedforward de una red neuronal difusa y su algoritmo de aprendizaje asociado. Las 4 capas permiten resolver muchos problemas de reconocimiento de patrones.  En una aplicación biotecnológica, una red neuronal difusa de 5 capas fue desarrollada para el control de cultivo de Escherichia.
  • 8.  Karayiannis y Pai (1994) desarrollaron una familia de algoritmos difusos para la cuantización e introducción del vector de aprendizaje en redes feedforward inherentemente capaz de clasificación difusa o traslape de clases de patrones.