3. El Perceptròn El perceptròn modela el comportamiento de una neurona biológica. Trabaja con funciones de activación.
4. Tipos de Perceptrones Existen varios tipos de perceptrones, dependiendo del número de capas que tenga. 1.- Perceptròn Simple (De dos capas): Corresponde a una capa de entrada con neuronas lineales y una salida con función de activación tipo escalón. Aplicaciones: Formulas trigonométricas, cálculo , ecuaciones. 2.- Perceptrón Múltiple (De más de 4 capas) Es un perceptròn que puede generar regiones de decisión bastante complejas. Aplicaciones: Puede ser utilizado para la predicción de una serie de datos en el tiempo, como cambios financieros, reconocimiento de caracteres, voz, facial, etc.
5. Perceptròn Simple El perceptrón simple es una red que consta de dos capas de neuronas una de entrada y una de salida. Ajusta los pesos de la neurona a fin de obtener la discriminación de datos de entrada en clases. Operación del Perceptròn Simple (Oi): g = función de activación W= pesos de neurona
6. Ejemplo: Si denotamos por X1 y X2 a las 2 neuronas de entrada, la operación efectuada por el perceptròn simple consiste en: Modificar pesos de las conexiones de las neuronas: n = tasa de aprendizaje t= salida deseada x= entrada del perceptòn
7. Perceptròn Multicapa El perceptrón multicapa es una red neuronal artificial (RNA) formada por múltiples capas, esto le permite resolver problemas que no son linealmente separables. Figura#4: Arquitectura de un perceptròn multicapa [4]
8. Se suele entrenar por medio de un algoritmo de retro propagación de errores o BP (Back Propagation). La minimización del error se llevará a cabo por el descenso del gradiente. Entre otras técnicas para minimizar el error esta el uso de regresión lineal (Técnicas estadísticas)
9. Algoritmo Backpropagation Se usa en el proceso de aprendizaje de las redes neuronales multicapa. Utiliza aprendizaje supervisado. Utiliza técnicas de calculo, matemáticas y estadísticas para minimizar el error. Calcular los errores de cada neurona en las capas anteriores a la capa de salida. Descripción del proceso del Algoritmo Backpropagation. Figura#1: Red neuronal de 3 capas (2 entradas y una salida)
10. Figura#2: Asignación de los pesos de entrada de la función de activación. Figura#3: Propagación de las señales hacia la capa de entrada. Proceso para el Primer Nodo
12. Figura#4:Propagación de las señales de entrada por la capa oculta Proceso para el cuarto nodo de la capa oculta Proceso para el quinto nodo de la capa oculta
13. Figura#5: Propagación de las señales por la capa de salida. PROCESO PARA CALCULAR EL ERROR Figura#6: Aplicación del algoritmo backpropagation para calcular el error de todas las neuronas. Propagación de las señales del error hacia la capa de atrás
14.
15.
16. Referencias: PDF [1]Casali A., Godo L. and Sierra C. Graded BDI Models For Agent Architectures. Leite J. and Torroni P. (Eds.) CLIMA V, LNAI 3487, pp. 126-143, Springer-Verlag, Berling Heidelberg, 2005. [2]Casali A., Godo L. and Sierra C. Modelling Travel Assistant Agents: a graded BDI Approach. Proceedings of the IFIP-AI, WCC, Volume 217, Artificial Intelligence in Theory and Practice, Max Bramer (ed.), Sringer,pp. 415-424, 2006. SitiosWeb [3] http://grad.uprm.edu/tesis/dinosrojas.pdf [4] http://www.monografias.com/trabajos12/inteartf/inteartf2.shtml