ACRÓNIMO DE PARÍS PARA SU OLIMPIADA 2024. Por JAVIER SOLIS NOYOLA
Red Neuronal Difusa
1. Aprendizaje y adaptación de una red neuronal
difusa
El procesos de entrenamiento en una red neuronal difusa consiste en
modificar los parámetros o pesos de la red para obtener una valor óptimo.
Esto requiere de una colección de pares de entrada-salida y esto requiere de
un índice que exprese el mapa de las entradas y los objetivos
correspondientes.
Para una neurona difusa, la conexión sináptica es representada como una
relación difusa de dos dimensiones, donde hay una entrada sináptica y una
salida. El entrenamiento en neuronas difusas, en el casos más general,
envuelve cambios en una relación bidimensional para cada sinapsis.
Considerando una conexión sináptica para la jth neurona, la cual tiene una
entrada externa para una tiempo k, Xi(k), el peso difuso Wij(k), un mínimo
error e(k) que se obtiene de la diferencia entre la respuesta de salida de la
neurona y el objetivo determinado. Para determinar o modificar el peso
Wij(k) se utiliza la siguiente regla:
Donde ∆Wij (k ) es el cambio de la relación difusa que existe del error e(k):
∆Wij ( k ) =F [t j ( k ) −y j ( k )]
En redes neuronales multicapa, involucra varios objetivos (t), con la salida
obtenida en la red neuronal y. Para esto, existe una función distancia por
ejemplo: distancia euclidiana y un error Q (error global minimizado) definido
como:
2. FUZZY ARTMAP
La red ART tiene la habilidad de crear nuevas categorias con una
aproximacion arbitraria para clasificar entradas que no son clasificadas en
las categorias existentes. Con la introduccion de conceptos difusos , la
Fuzzy ARTMAP fue desarrollada por Carpenter y Grossberg en 1994. MAP
se refiere al proceso de mapear las entradas a la salida. Esta red es una
sintesis de la ART-1 y la logica difusa y es capaz de aceptar entradas
continuas o binarias.
La fuzzy ARTMAP es una arquitectura autoorganizativa que es capaz de
aprender a reconocer rapidamente, y predecir las consecuencias de
virtualmente cualquier entrada. La ARTMAP involucra una combinacion de
operaciones neuronales y difusas, que juntas producen estas capacidades
de la red. Como otras versiones de la ART, su uso es casi exclusivamente
para clasificacion, y solo tiene un parametro de interfaz, el parametro de
vigilancia, el cual determina la fineza o generalidad de las categorias en las
cuales las entradas son clasificadas. La red puede aprender virtualmente
cualquier patron de entrenamiento en pocas iteraciones de entrenamiento en
un modo no supervisado.
La Fuzzy ARTMAP opera determinando automaticamente que tanta
generalizacion o precision es necesaria a la hora de clasificar una entrada.
Las categorias mas generales aceptan entradas con valores caracteristicos
mas difusos. El rango de aceptabilidad (o nivel difuso) de una categoria en
particular es aprendido a través de una serie de iteraciones que involucran
el uso de operadores de la logica difusa. Los operadores AND (min) y OR
(max) son usados para definir el rango de valores que son tolerados por una
categoria por cada variable linguistica o caracteristica. Una funcion de
membresia en el rango de 0 a 1 se usa para determinar la aceptabilidad de
un patron de entrada en una categoria particular. El operador min ayuda a
definir caracteristicas que son criticamente presentes, mientras que el
operador max ayuda a definir caracteristicas criticamente ausentes. El
operador min puede ser usado por nodos que son activados por una entrada
externa, mientras que el operador max puede ser usado por nodos que son
desactivados por una entrada externa. De tal manera que los operadores
min y max pueden ser introducidos en posiciones apropiadas de una red
neuronal mediante switches on-off. La categoria que mas se acerca a un
patron de entrada por medio de una operacion difusa. La logica difusa
provee un metodo por medio del cual una fuzzy ARTMAP categoriza
adaptativamente patrones de entrada analogicos y binarios. Por lo tanto, la
fuzzy ARTMAP puede aprender autonomamente a reconocer.
3. Kasuba desarrollo una fuzzy ARTMAP simplificada en 1993. Esta red
reduce la sobrecarga computacional y la redundancia de la arquitectura de
una red ARTMAP sin perder la capacidad de reconocimiento de patrones.
Normalmente, cuando una red neuronal backpropagation es usada para la
clasificacion de patrones, un nodo de salida es asignado a cada categoria
de objetos que la red espera reconocer. La fuzzy ARTMAP simplificada
tambien se encarga de crear estas categorias como la ARTMAP original. La
siguiente figura muestra la estructura de una fuzzy ARTMAP simplificada, la
cual consta de una capa de entrada y una de salida con conexiones de
pesos, una capa de categoria que interpreta los resultados de la capa de
salida, y un codificador de complemento para procesar el vector de entrada.
Este codificador de complemento normaliza la entrada y la agranda dos
veces su tamaño original para ayudar a la red a formar sus regiones de
decisión. El parametro de vigilancia (0 a 1) determina la fineza de las
categorias y por lo tanto tambien determina el numero de categorias a ser
creadas.
La entrada expandida I que sale del codificador de complemento entra a la
capa de entrada. Los pesos de cada nodo de categoria de salida
representan a las M categorias que la red tiene que aprender. Dado que un
4. nodo de salida solo puede codificar a una categoria, este nodo solo puede
apuntar a una posicion en la capa de categoria. La entrada de categoria
solo se proporciona a la capa de categoria durante el entrenamiento
supervisado. La parte de match tracker de la red sirve para que la red
ajuste por si misma el parametro de vigilacia durante el aprendizaje, lo que
permite la creacion de nuevas categorias.
La codificacion de complemento es un proceso de normalizacion de la
entrada que representa la presencia o ausencia de un vector caracteristico
particular a con d componentes en la entrada. Su complemento â = 1 – a es
valido dado que a es un valor entre 0 y 1. Por lo tanto, el complemento del
vector de entrada I esta dado por el vector bidimensional:
I = [a,â]=[a1,a2,...,ad,â1,â2,...,âd]
Por ejemplo, el vector tridimensional (0.2,0.8,0.4) es transformado en un
vector de seis dimensiones (0.2,0.8,0.4,0.8,0.2,0.6) cuando pasa a través
del codificador de complemento. Este proceso automaticamente normaliza
los vectores de entrada indicando que la norma de cualquier vector es la
suma de todos los elementos del vector. Es decir, la suma de los elementos
de un vector complemento es igual a la dimension del vector original.
Cuando se le presenta un patron de entrada a esta red, todos los nodos de
salida se activan a un determinado nivel. Esta activacion de salida es
denotada por Tj para el nodo de salida j-esimo y sus pesos wj. La funcion
para producir esta activacion esta dada por:
I ∧ wj
Tj ( I ) =
a + wj
Donde a es un valor pequeño cercano a cero, usualmente alrededor de .
0000001. El nodo de salida ganador es el nodo con el valor de activación
mas alto; esto es, el ganador es max Tj. Por lo tanto, la categoria asociada
con el nodo de salida ganador es la clasificacion de la red del actual patron
de entrada. Una funcion match se utiliza para comparar las caracteristicas
de la entrada complementada y los pesos de un particular nodo de salida
para determinar si el aprendizaje ha ocurrido. Esta funcion match calcula el
grado en el que I es un subconjunto de wj – esto es, el valor de la funcion
match indica si la entrada es bien clasificada en el nodo j o si se tiene que
crear otra categoria de salida. Si esta funcion match es mayor que el
parametro de vigilancia, se dice que la red esta en un estado de resonancia.
Si la funcion match es menor que el parametro de vigilancia, entonces un
nuevo nodo es creado. Una vez que un nodo de salida ganador j ha sido
seleccionado para aprender un particular patron de entrada I, el vector
5. arroba-abajo wj que sale del nodo de salida j es actualizado. La red
neuronal fuzzy ARTMAP simplificada es un clasificador de proposito general
con pesos arriba-abajo que sirven para el proceso de decisión, lo cual son
tan ilustrativos que sus reglas de clasificación pueden ser literalmente
leidas de la red. Esta red puede ser comparada con un sistema experto
autodidacta en que esta aprende de ejemplos.
Representación de Datos en Sistemas Híbridos
(Neuro Difusos)
Durante los últimos años se ha tenido un incremento importante en
investigaciones para sintetizar la Lógica Difusa (LD) con las Redes
Neuronales Artificiales (RNA’s).
Las RNA’s ofrece ventajas en áreas de aprendizaje, clasificación y
optimización, mientras que la LD en áreas de razonamiento de alto
nivel.
Representación Difusa de variables que son
entradas y salidas de RNA’s
Algunas veces la distribución de las posibles salidas de una RNA
requiere un gran número de neuronas, lo cual implica un aumento en
la complejidad y el entrenamiento.
Si se considera una representación difusa o lingüística de las
variables, se pueden reducir de “n” salidas a solo algunas
representadas por conjuntos que agrupan los posibles valores.
Eventos que envuelve el usar datos difusos en
RNA’s
1. Datos exactos o difusos se agrupan en funciones de membresía.
2. Estos valores son sujetos a operaciones lógicas difusas.
3. Los resultados son defusificados en valores exactos que se presentan
a la RNA.
4. Las RNA’s pueden tener entradas exactas directas y no necesitar de
la fusificación.
6. 5. La salida de la RNA se convierte a una variable difusa.
6. Esta salida difusa es utilizada con LD.
7. Al final las salidas difusas se defusifican a fin de tener una salida
exacta del sistema.
Codificación Difusa “uno-de-n” de entradas a una
RNA
Típicamente una entrada se representa por un nodo de entrada en las
RNA’s.
Cuando una variable tiene una relación con otras variables sobre una
pequeña porción del rango, el entrenamiento es difícil.
Esto se puede solucionar teniendo redes con neuronas enfocadas a
esa región específica. El dominio es dividido en “n” (3,5 ó 7) regiones
asignando una función difusa triángular.
El valor de membresía determina el nivel de activación asociado a la
neurona de entrada.
Esta codificación (uno de n) expande el rango de la variable en n
entradas, cubriendo cada una una fracción del dominio.
Esta técnica es ventajosa solo cuando la importancia de la variable
cambia significativamente en el dominio.
Aprendizaje de Retropropagación de un Control
Difuso
Muchos métodos para acelerar el aprendizaje en redes de
retropropagación han sido probados con variados grados de éxito.
Uno de los más comunes es ajustar la tasa de aprendizaje durante el
entrenamiento usando un método adaptativo satizfaga algunos
índices de desempeño (Delta-bar-delta).
Los sistemas difusos pueden ser vistos como una red feedforward
multicapa y han desarrollado algoritmos de retropropgación para su
entrenamiento, emparejando los pares de patrones o variables de
entrada y salida deseadas.
7. Algunas aplicaciones de Ingeniería
Las redes neuronales difusas ambicionan integrar el aprendizaje
neuronal con la capacidad de representación de conocimiento de los
sistemas difusos.
Las RNA’s son típicamente heterogéneas para un mejor reflejo lógico
de un problema dado.
Las capas y nodos de una red neurodifusa pueden ser interpretadas
como una realización de reglas difusas if/then.
Pedrycz y Rocha (1993) modelos neurodifusos usando operadores
lógicos (AND,OR,NOT), así como normas T y S.
Hirota y Pedrycz (1993) Redes basadas en aprendizaje (clasificación
de conocimiento), compuesto de neuronas básicas AND y OR usadas
en clasificación de patrones.
Los términos difuso neuronal o neurodifusos se refieren en la
literatura a combinaciones híbridas de herramientas lógico difusas y
neuronales.
Zhang y Chen (1994) utilizan un híbrido que consistía de una red de
parámetros estimables, una capa convertidora, y una basada en
backpropagation para la clasificiación de problemas con
características complejas. Ha sido aplicada a la clasificación de
imágenes de satélites y determinación litográfica.
Sharpe (1994) presentó un método híbrido usando técnicas de LD
para adaptar el criterio de configuración de una red convencional.
Hu y Hertz (1994) modelo híbrido donde la LD controla el proceso de
aprendizaje de una RNA durante el entrenamiento ajustando la tasa
de acuerdo al error de salida de una neurona y a reglas heurísticas
establecidas.
Kwan y Cai (1994) estructura de cuatro capas feedforward de una
red neuronal difusa y su algoritmo de aprendizaje asociado. Las 4
capas permiten resolver muchos problemas de reconocimiento de
patrones.
En una aplicación biotecnológica, una red neuronal difusa de 5 capas
fue desarrollada para el control de cultivo de Escherichia.
8. Karayiannis y Pai (1994) desarrollaron una familia de algoritmos
difusos para la cuantización e introducción del vector de aprendizaje
en redes feedforward inherentemente capaz de clasificación difusa o
traslape de clases de patrones.