Este documento describe diferentes tipos de redes neuronales artificiales, incluyendo modelos supervisados como perceptrones multicapa y backpropagation, y modelos no supervisados como redes de Hopfield y mapas de Kohonen. También discute brevemente los objetivos y procesos de aprendizaje de estos modelos.
Redes neuronales artificiales: Modelos supervisados y de entrenamiento competitivo
1. Universidad Santa María
Decanato de Postgrado y Extensión
Especialización en Planificación y Evaluación Educativas
Redes y Telecomunicaciones
REDES NEURONALES ARTIFICIALES
Modelos Supervisados y de
Entrenamiento Competitivo
Yulimar Parababire
2. REDES NEURONALES
ARTIFICIALES
Las Redes Neuronales Artificiales (Artificial Neural
Networks - ANNs) se constituyeron inicialmente
como una simulación abstracta de los sistemas
nerviosos biológicos formados por un conjunto de
unidades llamadas neuronas o nodos conectados
unos con otros. Las conexiones de estos nodos se
asemejan a las dendritas y axones de los sistemas
nerviosos biológicos.
MODELOS DE TIPO BIOLÓGICO
MODELOS DIRIGIDOS A APLICACIONES
3. MODELOS DE TIPO BIOLÓGICO
El objetivo de las redes neuronales de tipo biológico se constituye en desarrollar un
elemento sintáctico que permita verificar las hipótesis correspondientes a los demás
sistemas biológicos. Es decir, las redes neuronales de tipo biológico deben recibir y
procesar información de otros sistemas biológicos y devolver
una respuesta de acción efectiva.
4. REDES NEURONALES DE APLICACIONES CONCRETAS
Toda aplicación de redes neuronales consta de dos
fases: la fase de aprendizaje o entrenamiento y la
fase de prueba o funcionamiento directo. En la fase
de entrenamiento se usa un conjunto de datos o
patrones de entrenamiento para determinar los
pesos que definen el modelo neuronal. Este modelo
una vez entrenado, se usará en la fase de
funcionamiento directo en la que se procesarán
patrones de prueba que constituyen la entrada
habitual de la red con el objetivo de analizar las
prestaciones definitivas de la misma.
5. Backpropagation
Adaline-Madaline
Time Delay NN
Probabilistic NN
Perceptrón Multicapa
Perceptrón
Generelized Regresión NN
Modelos Supervisados
TAXONOMÍA DE LOS MODELOS
DE REDES NEURONALES
Modelos No Supervisados
Redes de Hopfield
Mapas de Kohonen
Modelos Competitivos
6. Modelos Supervisados
Perceptrón
Es un conjunto de neuronas no unidas
entre sí, de manera que cada una de las
entradas del sistema se conectan a cada
neurona, produciendo cada una de ellas
su salida individual.
Como su nombre indica,
se trata de unos cuantos
(dos
o
tres)
perceptrones de una
sola conectados en
Adaline-Madaline
cascada.
ADALINE que por sus siglas en inglés significa
Adaline
ADAptive LINear Element es un dispositivo que
consta de un solo elemento de procesamiento,
por lo que técnicamente no es una red.
MADALINE (por sus siglas en inglés Multiple
ADAptive LINear Element). Consta de una capa
Madaline
de ADALINES y una función de mayoría cuya
respuesta binaria depende de las respuestas de
las ADALINES.
Perceptrón
Multicapa
7. Generelized
Regresión NN
Red que por lo general no
necesita
un
entrenamiento
iterativo, se utiliza en problemas
de clasificación o estimación de
variables continuas.
Probabilistic NN
Red de tres capas, que en su
forma estándar no entrena.
Time Delay NN
Red
multicapa
feddforward
donde las salidas de cada capa
están retenidas durante un
tiempo, conectándose todas a la
vez a la siguiente capa.
Backpropagation
El principal defecto de este
enfoque consiste en la búsqueda
de la mejor arquitectura a través
de prueba y error.
Modelos Supervisados
8. Consiste de una red monocapa con N neuronas cuyos valores de salida son binarios 0/1 ó
-1/+1. En la versión original del modelo Discrete Hopfield, las funciones de activación de las
neuronas eran del tipo escalón.
Redes de Hopfield
Modelos No Supervisados
Mapas de Kohonen
Consiste en una Red Neuronal de dos capas, la primera de las cuales es una capa de entrada y
la segunda es una "capa de competición". Las células de ambas capas están conectadas entre
sí, de tal forma que una célula de la capa de entrada conecta con las de la capa de
competición.
9. Procedimiento
Problemas
Aprendizaje
Características Fundamentales
- No es capaz de producir una codificación estable ante entradas
arbitrarias.
Ecuaciones de
Arquitectura
-Si se perturba la red con valores aleatorios y Aprendizaje a
se vuelven
introducir los valores de entrada, puede producirse una respuesta
dWij
= (-Wij+θi) × g(bj)
incorrecta
dt
-Tiene una capacidad limitada de codificación en función de las
1 si j ganadora
g(bj) =
dimensiones de la red.
0 en caso contrario
-Es necesario establecer a priori el número de categorías de la
Ii
clasificación.
θi
=
ΣMj=1 Ij
En los esquemas de aprendizaje competitivo, no existe garantía explicita sobre la estabilidad
de los grupos de patrones de entrada durante el proceso de decrecimiento del factor de
aprendizaje en las sucesivas iteraciones.
Modelos No Supervisados Competitivos
Modelos No Supervisados
10. Procedimiento
Problemas
Aprendizaje
Características Fundamentales
- No es capaz de producir una codificación estable ante entradas
arbitrarias.
Ecuaciones de
Arquitectura
-Si se perturba la red con valores aleatorios y Aprendizaje a
se vuelven
introducir los valores de entrada, puede producirse una respuesta
dWij
= (-Wij+θi) × g(bj)
incorrecta
dt
-Tiene una capacidad limitada de codificación en función de las
1 si j ganadora
g(bj) =
dimensiones de la red.
0 en caso contrario
-Es necesario establecer a priori el número de categorías de la
Ii
clasificación.
θi
=
ΣMj=1 Ij
En los esquemas de aprendizaje competitivo, no existe garantía explicita sobre la estabilidad
de los grupos de patrones de entrada durante el proceso de decrecimiento del factor de
aprendizaje en las sucesivas iteraciones.
Modelos No Supervisados Competitivos
Modelos No Supervisados