SlideShare una empresa de Scribd logo
1 de 35
UNIVERSIDAD NACIONAL 
Pedro Ruíz gallo 
FACULTAD DE CIENCIAS FÍSICAS Y MATEMÁTICAS 
REDES NEURONALES 
CAPITULO 4 
Reglas de Aprendizaje Perceptrón 
DOCENTE : Ing. Chamán Cabrera Lucia 
AlUMNOS : Chong Muguerza Hugo 
Fernandez Córdova Ivan 
Ciclo : 2014 – I 
05 de Septiembre del 2014
4 Regla de aprendizaje Perceptrón 
Objetivos 4-1 
Teoría y ejemplos de 4-2 
Aprendiendo reglas 4-2 
Arquitectura Perceptrón 4-3 
Única-neurona Perceptrón 4-5 
Múltiple-neurona Perceptrón 4-8 
Regla de aprendizaje Perceptrón 4-8 
Problema de Prueba 4-9 
Construyendo reglas de aprendiendo 4-10 
Regla de aprendizaje unificada 4-12 
Formación múltiple-neurona perceptrones 4-13 
Prueba de convergencia 4-15 
Notación 4-15 
Prueba 4-16 
Limitaciones 4-18 
Resumen de los resultados 4-20 
Problemas resueltos 4-21 
Epílogo 4-33 
Más lectura 4-34 
Ejercicios 4-36 
Objetivos 
Una de las preguntas que nos planteamos en el capítulo 3 era: ¿Cómo determinamos la matriz de 
pesos y el sesgo de redes perceptrón con muchos insumos, donde es imposible visualizar los 
límites de decisión? En este capítulo describirá un algoritmo para formación de redes perceptrón, 
de modo que puede aprender para resolver problemas de clasificación. Vamos a empezar por 
explicar lo que una regla de aprendizaje es y luego a desarrollar la regla de aprendizaje del 
perceptrón. Nosotros concluiremos analizando las ventajas y limitaciones de la monocapa red 
perceptrón. Esta discusión nos conducirá a futuros capítulos. 
TEORÍA Y EJEMPLOS 
En 1943, Warren McCulloch y Walter Pitts introdujo una de las primeras neuronas artificiales 
[McPi43]. La característica principal de su modelo de neurona es que una suma ponderada de las 
señales de entrada se compara con un umbral para determinar la salida de neurona. Cuando la 
suma es mayor o igual que el umbral, la salida es 1. Cuando la suma es menor que el umbral, la 
salida es 0. Ello pasó a mostrar que las redes de estas neuronas podrían, en principio, calcular 
cualquier función aritmética o lógica. A diferencia de las redes biológicas, los parámetros de sus
redes tuvieron que ser diseñadas, ya que ningún método de entrenamiento era disponible. Sin 
embargo, la conexión percibida entre la biología y digitales ordenadores generado un gran interés. 
A finales de 1950, Frank Rosenblatt y varios otros investigadores desarrollaron una clase de redes 
neuronales llama perceptrones. Las neuronas en estas redes fueron similares a los de McCulloch y 
Pitts. La contribución clave de Rosenblatt fue la introducción de una regla de aprendizaje para 
redes Perceptrón formación solucionar problemas de reconocimiento de patrón [Rose58] . 
Demostró que su regla de aprendizaje siempre convergerá a los pesos de red correcta, si existen 
pesos que resuelve el problema. El aprendizaje era simple y automático. 
Los ejemplos de un comportamiento adecuado se presentaron a la red, lo que aprendió de sus 
errores. El perceptrón podría incluso aprender cuando inicializado con valores aleatorios para los 
pesos y sesgos. 
Desafortunadamente, la red perceptrón está inherentemente limitado, estas limitaciones fueron 
ampliamente publicitada en el libro Perceptrons [MiPa69] Marvin Minsky y Seymour Papert. Ellos 
demostraron que las redes perceptrón fueron incapaces de implementar ciertas funciones 
elementales. Es No fue sino hasta la década de 1980 que estas limitaciones fueron superadas con 
la mejora (multicapas) redes perceptrón y reglas de aprendizaje asociados. Nosotros discutirá 
estas mejoras en los capítulos 11 y 12. 
Hoy el perceptrón se sigue viendo como una importante red. Sigue siendo un red rápida y 
confiable para la clase de problemas que puede resolver. Adicionalmente, una comprensión de las 
operaciones de la perceptrón proporciona una buena base para la comprensión de las redes más 
complejas. Por lo tanto, el perceptrón red, y su regla de aprendizaje asociada, son bien vale la 
pena la discusión aquí. 
En el resto de este capítulo vamos a definir lo que entendemos por un aprendizaje gobernar, 
explique la red perceptrón y regla de aprendizaje, y discutir el limitaciones de la red perceptrón. 
NORMAS DE APRENDIZAJE 
Al comenzar nuestra discusión de la regla de aprendizaje del perceptrón, queremos discutir las 
reglas en general el aprendizaje. Por regla de aprendizaje nos referimos a un procedimiento para 
modificar los pesos y sesgos de una red. (Este procedimiento también puede ser referido como un 
algoritmo de entrenamiento.) 
El propósito de la regla de aprendizaje es para entrenar la red para realizar alguna tarea. Hay 
muchos tipos de neural reglas de aprendizaje en red. Se dividen en tres grandes categorías: 
supervisados aprender, aprendizaje sin supervisión y refuerzo (o clasificadas) de aprendizaje. En 
aprendizaje supervisado, La regla de aprendizaje está provisto de un conjunto de ejemplos (la 
conjunto de entrenamiento) Del comportamiento de la red adecuada:
Donde es una entrada a la red y es el correspondiente correcta (objetivo) De salida. Como las 
entradas se aplican a la red, las salidas de la red son en comparación con los objetivos. La regla de 
aprendizaje se utiliza entonces para ajustar los pesos y sesgos de la red con el fin de mover las 
salidas de la red más cerca de los objetivos. La regla de aprendizaje del perceptrón cae en este 
supervisado aprendizaje categoría. También vamos a investigar algoritmos de aprendizaje 
supervisado en los capítulos 7-12. 
Aprendizaje por refuerzo es similar a la de aprendizaje supervisado, excepto que, en lugar de ser 
proporcionado con la salida correcta para cada entrada de red, el algoritmo sólo se le da un grado. 
El grado (o la puntuación) es una medida de la red el rendimiento en alguna secuencia de 
entradas. Este tipo de aprendizaje es actualmente mucho menos común que el aprendizaje 
supervisado. Parece ser más adecuado para el control de las aplicaciones del sistema (ver 
[BaSu83], [WhSo92]). En aprendizaje no supervisado, Los pesos y sesgos se modifican en respuesta 
a las entradas de red solamente. No hay salidas de destino disponibles. Al principio vista esto 
puede parecer poco práctico. ¿Cómo se puede entrenar a una red si usted no sabe lo que se 
supone que debe hacer? La mayoría de estos algoritmos realizan algún tipo de operación de 
agrupación. Ellos aprenden a clasificar los patrones de entrada en un número finito de clases. Esto 
es especialmente útil en tales aplicaciones como la cuantificación vectorial. Veremos en los 
capítulos 13 a 16 que no son un número de algoritmos de aprendizaje sin supervisión. 
ARQUITECTURA PERCEPTRÓN 
Antes de presentar la regla de aprendizaje del perceptrón, Letos ampliar nuestra investigación de 
la red perceptrón, que iniciamos en el Capítulo 3 El general red perceptrón se muestra en la Figura 
4.1. La salida de la red está dada por
Será útil en nuestro desarrollo de la regla de aprendizaje del perceptrón ser capaz de hacer 
referencia convenientemente elementos individuales de la salida de la red. Vamos a ver cómo se 
puede hacer esto. En primer lugar, consideremos la matriz de pesos de la matriz 
: 
Vamos a definir un vector formado por los elementos de la fila i de W: 
Ahora podemos dividir la matriz de pesos: 
Esto nos permite escribir la i-ésimo elemento del vector de salida de la red como 
Recordemos que hardlim la función de transferencia (que se muestra a la izquierda) se define 
como:
Por lo tanto, si el producto interior de la i ª fila de la matriz de peso con la vector de entrada es 
mayor que o igual a -bi , la salida será 1, de lo contrario la salida será 0. Así, cada neurona en la red 
divide la entrada espacio en dos regiones. Es útil para investigar los límites entre estas regiones. 
Vamos a comenzar con el simple caso de un perceptrón de una sola neurona con dos entradas. 
SIMPLE-NEURONA PERCEPTRÓN 
Vamos a considerar un perceptrón de dos entradas con una neurona, como se muestra en la figura 
4.2. 
Figura 4.2-Dos de Entrada / Salida única Perceptrón 
La salida de esta red se determina por: 
La frontera de decisión está determinado por los vectores de entrada para las que la red entrada n 
es cero: 
Para hacer el ejemplo más concreto, Letos asignar los siguientes valores:
El límite de decisión es 
Esto define una línea en el espacio de entrada. En un lado de la línea de la red salida será 0; en la 
línea y en el otro lado de la línea de la salida se ser 1. Para dibujar la línea, podemos encontrar los 
puntos donde se cruza la p1 y p2 ejes. Para encontrar la intersección p2 establecer p1 = 0 
Para encontrar la intersección p1, ajuste p2=0 
La frontera de decisión resultante se ilustra en la Figura 4.3. Para saber de qué lado de la frontera 
corresponde a una potencia de 1, que sólo tiene que probar un punto. Para la entrada p[ 2 0] la 
salida de la red será 
Por lo tanto, la salida de la red será 1 para la región por encima y hacia la derecha de la frontera de 
decisión. Esta región es indicado por el área sombreada en la figura 4.3 
Figura 4.3 Límites de decisión para dos de entrada Perceptrón
También podemos encontrar la frontera de decisión gráficamente. El primer paso es observar que 
el límite es siempre ortogonal a W, como se ilustra en las figuras adyacentes. El límite está 
definido por 
Para todos los puntos en el límite, el producto interno del vector de entrada con el vector de peso 
es el mismo. Esto implica que estos vectores de entrada hará todo tener la misma proyección 
sobre el vector de pesos, por lo que deben estar en una línea ortogonal al vector de peso. 
(Estos conceptos se explican con más detalle En el capítulo 5) Además, cualquier vector en la 
región sombreada de la figura 4.3 tendrá un producto interno mayor que -b, y los vectores en la 
región sin sombrear tendrán productos internos menos de -b. 
Por lo tanto el vector de pesos w siempre apuntará hacia la región donde la salida de la neurona es 
1. 
Después de haber seleccionado un vector de pesos con la orientación angular correcta, el valor de 
sesgo se puede calcular mediante la selección de un punto en el límite y ecuación satisfactoria. 
(4.15). Vamos a aplicar algunos de estos conceptos para el diseño de una red perceptrón a aplicar 
una función lógica simple: la puerta AND. Los pares de entrada / destinatarios de la puerta Y son: 
La figura de abajo muestra el problema gráficamente. Muestra la entrada espacio, con cada vector 
de entrada etiquetados de acuerdo a su objetivo. La oscuridad círculos negros indica que la meta 
es 1, y los círculos blancos de luz indican que el objetivo es 0. 
El primer paso del diseño es para seleccionar un límite de decisión. Queremos tener una línea que 
separa las ojeras y los círculos de luz. Hay un número infinito de soluciones a este problema. 
Parece razonable elegir la línea que cae "a medio camino" entre las dos categorías de insumos, 
como se muestra en la figura adyacente. Ahora vamos a elegir un vector de peso que es ortogonal
a la decisión límite. El vector de peso puede ser de cualquier longitud, por lo que hay posibilidades 
infinitas. Una opción es 
Como se muestra en la figura a la izquierda. 
Por último, tenemos que encontrar el sesgo,. Podemos hacer esto mediante la selección de un 
punto de la frontera de decisión y satisfactoria la ecuación. (4.15). Si utilizamos p= [1.5 0] nos 
encontramos. 
Ahora podemos probar la red en uno de los pares de entrada / destinatarios. Si aplicamos p2 a la 
red, la salida será 
Que es igual a la salida de destino. Compruebe por sí mismo que todas las entradas son 
correctamente clasificadas. Para experimentar con límites de decisión, utilizar el Diseño de Redes 
Neuronales Límites de decisión demostración 
MULTIPLE-NEURONA PERCEPTRÓN 
Nótese que para los perceptrones con múltiples neuronas, como en la Figura 4.1, hay será una 
frontera de decisión para cada neurona. El límite de decisión para neurona será definido por 
Una sola neurona perceptrón puede clasificar vectores de entrada en dos categorías, desde su 
salida puede ser 0 o 1 A-neurona múltiple perceptrón puede clasificar insumos en muchas 
categorías. Cada categoría está representada por una diferente vector de salida. Dado que cada
elemento del vector de salida puede ser 0 o 1, hay un total de posibles categorías, donde es el 
número de neuronas. 
PERCEPTRON REGLA DE APRENDIZAJE 
Ahora que hemos examinado el rendimiento de las redes perceptrón, nos están en condiciones de 
introducir la regla de aprendizaje del perceptrón. Este aprendizaje regla es un ejemplo de 
entrenamiento supervisado, en el que se proporciona la regla de aprendizaje con un conjunto de 
ejemplos de comportamiento de la red adecuada: 
Donde Pq es una entrada a la red y de Tq es la salida de destino correspondiente. A medida que se 
aplica cada entrada a la red, la salida de la red se compara a la meta. La regla de aprendizaje y 
luego ajusta los pesos y sesgos de la red con el fin de mover la salida de la red cerca del objetivo. 
PROBLEMA DE PRUEBA 
En nuestra presentación de la regla de aprendizaje del perceptrón vamos a comenzar con una 
problema simple prueba y será experimentar con posibles reglas para desarrollar alguna intuición 
acerca de cómo debe funcionar la regla. Los pares de entrada / destinatarios de nuestro problema 
de los exámenes 
El problema se muestra gráficamente en la figura adyacente, donde los dos vectores de entrada 
cuya meta es 0 se representan con un círculo blanco y la luz, el vector cuyo objetivo es 1 se 
representa con un círculo negro oscuro. Esta es un muy simple problema, y casi podía obtener una 
solución mediante inspección. Esta simplicidad nos ayudará a obtener una cierta comprensión 
intuitiva de los básicos conceptos de la regla de aprendizaje del perceptrón. La red para este 
problema debería tener-dos entradas y una salida. Para simplificar nuestro desarrollo de la regla 
de aprendizaje, vamos a empezar con una red sin sesgo. La red tendrá entonces sólo dos 
parámetros, w 1,1 y, W 2,2, como se muestra en la Figura 4.4.
Figura 4.4 Prueba de problemas de red 
Al eliminar el sesgo que nos quedamos con una red cuya decisión límite debe pasar por el origen. 
Tenemos que estar seguros de que esta red es todavía capaz de resolver el problema de prueba. 
Debe haber una decisión límite permisible que se puede separar la p2 y p3 vectores a partir del 
vector P1. La figura a la izquierda ilustra que de hecho hay un número infinito de tales límites. 
La figura adjunta muestra los vectores de peso que corresponden a los permitidos límites de 
decisión. (Recordemos que el vector de pesos es ortogonal a la frontera de decisión.) Nos gustaría 
una regla de aprendizaje que encontrará un peso vector que apunta en una de estas direcciones. 
Recuerde que la longitud del vector de peso no importa; sólo su dirección es importante. 
LA CONSTRUCCIÓN DE REGLAS DE APRENDIZAJE 
El entrenamiento comienza asignando unos valores iniciales para los parámetros de la red. En este 
caso estamos entrenando a / red-salida única de dos entradas sin un sesgo, por lo que sólo tiene 
que inicializar sus dos pesos. Aquí establecemos los elementos del vector de pesos, w, a los 
siguientes valores generados al azar:
Ahora comenzaremos presentando los vectores de entrada a la red. Comenzamos con p1: 
La red no ha devuelto el valor correcto. La salida de red es 0, mientras que la respuesta del 
objetivo, t1, es 1. Podemos ver lo que pasó mirando el diagrama adyacente. La inicial resultados 
de vectores de peso en una frontera de decisión que clasifica incorrectamente la p1 vector. 
Tenemos que modificar el vector de pesos para que apunte más hacia p1, Para que en el futuro 
tiene una mejor oportunidad de clasificar correctamente. Un enfoque sería establecer W igual a 
p1. Esto es simple y garantizaría que p1 fue clasificada correctamente en el futuro. 
Desafortunadamente, es fácil para construir un problema para el que esta regla no puede 
encontrar una solución. El diagrama a la parte inferior izquierda muestra un problema que no 
puede resolverse con el peso vector apuntando directamente a cualquiera de los dos vectores de 1 
clase. Si aplicamos la regla W = p cada vez que uno de estos vectores se mal clasificados, la red 
Pesos OS simplemente oscilar hacia atrás y adelante y nunca encontrarán una solución. Otra 
posibilidad sería añadir p1 a w. Adición de p1 a w haría w punto más en la dirección de p1. 
Presentaciones repetidas de p1 harían causar la dirección de w para acercarse asintóticamente la 
dirección de p1. Esta regla se puede afirmar. 
Aplicando esta regla a nuestro problema de prueba se traduce en nuevos valores para W: 
Esta operación se ilustra en la figura adyacente. Ahora vamos a pasar a la siguiente vector de 
entrada y seguiremos haciendo cambios a los pesos y recorrer las entradas hasta que todos se 
clasifican correctamente. 
El siguiente vector de entrada es p2. Cuando se presenta a la red nos encontramos con:
El t2 destino asociado con p2 es 0 y la salida a es 0 1. Una clase de vectores fue clasificada 
erróneamente como un 1. Desde ahora queremos mover el vector peso W de distancia de la 
entrada, podemos simplemente cambiar la adición de la ecuación. (4.23) para la resta: d: 
Si aplicamos esto al problema de prueba, encontramos: 
Que se ilustra en la figura adyacente. Ahora presentamos la tercera p3 vector: 
Los resultados actuales w en una frontera de decisión que misclassifies p3. Este es una situación 
para la cual ya tenemos una regla, por lo que W se actualizará de nuevo, de acuerdo con la 
ecuación. (4.26): 
El diagrama a la izquierda muestra que el perceptrón finalmente ha aprendido a clasificar los tres 
vectores correctamente. Si se presenta cualquiera de los vectores de entrada a la neurona, se dará 
salida a la clase correcta para ese vector de entrada. Esto nos lleva a nuestra tercera y última 
regla: si funciona, No te arregles.
Aquí están las tres reglas, que cubren todas las combinaciones posibles de salida y los valores 
objetivos: 
REGLA DE FORMACIÓN UNIFICADO 
Las tres reglas de la ecuación. (4.31) puede escribirse como una sola expresión. Primero vamos a 
definir una nueva variable, el error perceptrón correo: 
Ahora podemos volver a escribir las tres reglas de la ecuación. (4.31) como: 
Mirando cuidadosamente en las dos primeras reglas de la ecuación. (4.33) se puede observar que 
el signo de p es el mismo que el signo del error, e. Además, la ausencia de p en la tercera regla 
corresponde a un correo de 0 Por lo tanto, podemos unificar las tres reglas en una sola expre sión: 
Esta regla se puede extender a entrenar al sesgo por señalar que un prejuicio es simplemente un 
peso cuya entrada es siempre 1. Así, podemos reemplazar la entrada de p en la ecuación. (4.34) 
con la entrada a la polarización, que es 1 el resultado es el perceptrón descartar un sesgo: 
FORMACIÓN MÚLTIPLES-NEURON PERCEPTRONS
La regla perceptrón, dada por la ec. (4.34) y la ecuación. (4.35), actualiza el vector de peso de un 
único perceptrón neurona. Podemos generalizar esta regla para la múltiple-neurona perceptrón 
de la figura 4.1 de la siguiente manera. Para actualizar el iTh fila de la utilización de la matriz de 
peso: 
Para actualizar el elemento de orden i del uso sesgo vector: 
La regla perceptrón se puede escribir convenientemente en notación matricial: 
Y 
Para probar la regla de aprendizaje del perceptrón, considere de nuevo la manzana / 
reconocimiento de naranja problema del Capítulo 3 La entrada / salida vectores prototipo será 
(Tenga en cuenta que estamos usando 0 como la salida de destino para el modelo negro,, en lugar 
de -1, que se utilizó en el capítulo 3 Esto se debe a que estamos utilizando la hardlim función de 
transferencia, en lugar de hardlim.) Normalmente los pesos y sesgos se inicializan a los pequeños 
números aleatorios. Supongamos que aquí partimos de la matriz de peso inicial y el sesgo:
El primer paso es aplicar la primera vector de entrada, p1, a la red: 
Luego se calcula el error: 
La actualización de peso es 
La actualización de sesgo es 
Esto completa la primera iteración. 
La segunda versión de la norma perceptrón es: 
La tercera iteración comienza de nuevo con el primer vector de entrada:
Si continúa con las iteraciones, usted encontrará que los dos vectores de entrada se ahora ser 
clasificado correctamente. El algoritmo ha convergido a una solución. Nota que el límite decisión 
final no es el mismo que el que hemos desarrollado en Capítulo 3, aunque ambos límites clasifican 
correctamente los dos vectores de entrada. Para experimentar con la regla de aprendizaje del 
perceptrón, utilizar la red neuronal Diseño Demostración Regla Perceptron 
PRUEBA DE CONVERGENCIA 
Aunque la regla de aprendizaje del perceptrón es simple, es muy poderoso. en De hecho, se puede 
demostrar que la regla siempre convergerá a los pesos que logran la clasificación deseada 
(suponiendo que existan tales pesos). en esta sección vamos a presentar una prueba de 
convergencia para el aprendizaje del perceptrón gobernar para el perceptrón de una sola neurona 
se muestra en la Figura 4.5. 
Figura 4.5 sola neurona Perceptrón
La salida de este perceptrón se obtiene a partir 
La red dispone de los siguientes ejemplos de comportamiento de la red adecuada: 
Donde cada salida de destino, Tq, es o bien 0 o 1. 
NOTACIÓN 
Para presentar convenientemente la prueba que presente por primera vez una nueva notación. 
Vamos a combinar la matriz de pesos y el sesgo en un único vector: 
También vamos a aumentar los vectores de entrada con un 1, correspondiente a la sesgoentrada: 
Ahora podemos expresar la entrada neta a la neurona de la siguiente manera: 
La regla de aprendizaje perceptrón para un perceptrón-sola neurona (Eq. (4.34) y Eq. (4.35)) puede 
escribirse ahora 
El error e puede ser 1, -1 o 0. Si e = 0, entonces no se realiza ningún cambio en los pesos. Si e = 1, 
entonces el vector de entrada se añade al vector de peso. Si e = 1, entonces el negativo del vector
de entrada se añade al vector de peso. Si contamos sólo aquellos iteraciones para la que se cambia 
el vector de pesos, la regla de aprendizaje se convierte en 
donde Z '(k-1) es el miembro apropiado del conjunto 
Vamos a suponer que existe un vector de peso que puede categorizar correctamente todos Q 
vectores de entrada. Esta solución se denominará X. Para este vector de pesos vamos a suponer 
que 
Y 
PRUEBA 
Ahora estamos listos para comenzar la prueba del teorema de convergencia del perceptrón. El 
objetivo de la prueba es encontrar los límites superior e inferior en el longitud del vector de peso 
en cada etapa del algoritmo. 
Supongamos que el algoritmo se inicializa con el vector de pesos cero: x(0) = 0. (Esto no afecta a la 
generalidad de nuestro argumento.) Entonces, después de iteraciones (cambios en el vector de 
pesos), nos encontramos con la ecuación. (4.60): 
Si tomamos el producto interno del peso del vector solución con el vector peso en iteración k 
obtenemos 
De la ecuación (4,61) – EQ (4,63) podemos demostrar que
Por lo tanto 
De la desigualdad de Cauchy-Schwartz (véase [Brog91]) 
Donde 
Si combinamos la ecuación (4,67) y EQ (4.68) podemos poner un límite inferior en la longitud al 
cuadrado del vector peso en iteración k: 
A continuación queremos encontrar un límite superior para la longitud del vector peso. 
Empezamos por encontrar el cambio en la longitud de iteración: 
Tenga en cuenta que 
Puesto que los pesos no se actualizarían a menos que el vector de entrada anterior había sido mal 
clasificado. Ahora se puede simplificar a EQ (4,71). 
Podemos repetir este proceso para, , etc., para obtener
Si , este límite superior se puede simplificar a 
Ahora tenemos un límite superior (EQ (4.75)) y un límite inferior (EQ (4,70)) en la longitud al 
cuadrado del vector peso en iteración k. Si combinamos las dos desigualdades encontramos 
Porque k tiene un alto seguro, esto significa que las pesas sólo se cambiará un número finito de 
veces. Por lo tanto, la regla de aprendizaje del Perceptrón se reunirán en un número finito de 
iteraciones. 
El número máximo de iteraciones (cambios en el vector de peso) es inversamente proporcional al 
cuadrado de δ. Este parámetro es una medida de cuánto es el límite de la decisión de solución a 
los patrones de entrada. Esto significa que si las clases de entrada son difíciles de separar (se 
encuentra cerca de la frontera de decisión) llevará muchas iteraciones del algoritmo converger. 
Tenga en cuenta que existen sólo tres supuestos claves necesarios para la prueba: 
1. una solución para el problema existe, de modo que EQ (4.66) está satisfecha. 
2. los pesos sólo se actualizan cuando el vector de entrada está mal clasificado, 
por lo tanto EQ (4.72) está satisfecha. 
3. un alto obligado, existe para la longitud de los vectores de entrada. 
Debido a la generalidad de la prueba, hay muchas variaciones de aprendizaje regla que puede 
también ser demostrado para converger el Perceptrón. (Ver ejercicio E4.9). 
Limitaciones 
La regla de aprendizaje del Perceptrón está garantizada a converger a una solución en un número 
finito de pasos, mientras exista una solución. Esto nos lleva a una pregunta importante. ¿Qué 
problemas puede resolver un perceptrón? Hay que recordar que una sola neurona Perceptrón es 
capaz de dividir el espacio de entrada en dos regiones. 
El límite entre las regiones es definido por la ecuación 
Este es un límite lineal (hiperplano). El Perceptrón puede utilizarse para clasificar los vectores de 
entrada que pueden ser separados por un límite lineal. Llamamos a estos vectores linealmente
separables. El ejemplo de puerta y lógico en la página 4-7 muestra un ejemplo bidimensional de un 
problema linealmente separable. El problema de reconocimiento ple/naranja ap del capítulo 3 es 
un ejemplo tridimensional. 
Desafortunadamente, muchos problemas no son linealmente separables. El ejemplo clásico es la 
puerta XOR. Son los pares de entrada/de la blanco para la puerta XOR 
Este problema se ilustra gráficamente en el lado izquierdo de la figura 4.6, que también muestra 
otros dos problemas linealmente inseparables. Trata de trazar una línea recta entre los vectores 
con objetivos de 1 y los objetivos de 0 en cualquiera de los diagramas de la figura 4.6. 
Figura 4.6 problemas linealmente inseparables 
Fue la incapacidad de la Perceptrón básico para resolver tales problemas sencillos que condujo, en 
parte, a una reducción en el interés en la investigación de redes neuronales dur ing la década de 
1970. Rosenblatt había investigado en redes más complejas, que sintió capaz de superar las 
limitaciones de la básica Perceptrón, pero nunca fue capaz de extender efectivamente la regla del 
Perceptrón a dichas redes. En el capítulo 11 introduciremos perceptrones multicapa, que pueden 
resolver problemas de clasificación arbitraria y describen el algoritmo backpropagation, que puede 
utilizarse para entrenarlos. 
Resumen de los resultados 
Arquitectura del Perceptron
Límite de decisión 
El límite de la decisión es siempre ortogonal al vector peso. 
Monocapa perceptrones sólo pueden clasificar vectores linealmente separables. 
Regla de aprendizaje Perceptrón 
Donde e = t - a 
Problemas resueltos 
P4.1 Resolver los tres problemas de clasificación simple se muestra en la figura P4.1 dibujando 
un límite de decisión. Encontrar valores de sesgo que ocasionar una sola neurona perceptrones 
con los límites de decisión elegido y peso. 
Figura P4.1 Problemas de clasificación simple
Primero trazamos una línea entre cada conjunto de puntos de datos claras y oscuras 
El siguiente paso es encontrar los pesos y sesgos. Los vectores de peso deben ser ortogonal a los 
límites de decisión y apuntando en la dirección de puntos para ser clasificado como 1 (los puntos 
oscuros). Los vectores de peso pueden tener cualquier longitud que nos gusta. 
Aquí hay un conjunto de opciones para los vectores de peso: 
Ahora encontramos los valores de sesgo para cada Perceptrón escogiendo un punto en el límite de 
la decisión y satisface la ecuación (4.15). 
Esto nos da los siguientes tres sesgos:: 
Ahora podemos comprobar nuestra solución contra los puntos originales. Aquí ponemos a prueba 
la primera red en el vector de entrada
Podemos usar MATLAB para automatizar el proceso de pruebas e intentar nuevos puntos. Aquí la 
primera red se utiliza para clasificar a un punto que no estaba en el problema original. 
P4.2 Convertir el problema de clasificación definido a continuación en una definición de 
problema equivalente consiste en restringir los valores de peso y el sesgo de las desigualdades. 
Cada objetivo 푡푖 indica si la red de entrada en respuesta a 푝1 debo estar menos de 0, o mayor o 
igual a 0. Por ejemplo, puesto que 푡1 es 1, Sabemos que la entrada neta correspondiente a p1 
debe ser mayor o igual a 0. Así obtenemos la siguiente desigualdad 
Aplicando el mismo procedimiento a los pares de entrada/destino para y 
resultados en el siguiente conjunto de desigualdades. 
Para resolver un conjunto de desigualdades es más difícil que resolver un conjunto de igualdades. 
Añade una complejidad es que a menudo hay un número infinito de soluciones (como a menudo 
hay un número infinito de los límites de decisión lineal que puede resolver un problema de 
clasificación linealmente separables).
Sin embargo, debido a la simplicidad de este problema, podemos resolverlo graficando los 
espacios de solución definidos por las desigualdades. Tenga en cuenta que sólo aparece en 
las desigualdades (ii) y (iv), y sólo aparece en las desigualdades (i) y (iii). Nosotros podemos 
trazar cada par de desigualdades con dos gráficos. 
Cualquier peso y el sesgo de los valores que caen en ambas regiones gris oscuros para resolver el 
problema de la clasificación. 
Aquí está una tal solución: 
P4.3 tenemos un problema de clasificación con cuatro clases de vector de entrada. Las cuatro 
clases son 
Diseñar una red Perceptrón para resolver este problema. 
Para resolver un problema con cuatro clases de entrada vector necesitaremos un perceptrón con 
por lo menos dos neuronas, desde una - neurona Perceptrón puede categorizar 25 clases. El 
Perceptrón dos neuronas se muestra en la figura P4.2. 
Figura P4.2 dos neuronas Perceptrón
Vamos a empezar mostrando los vectores de entrada, como en la figura P4.3. Los círculos de luz 
indican vectores de clase 1, los luz cuadrados indican vectores de clase 2, los círculos oscuros 
indican vectores de clase 3 y los cuadrados oscuros indican vectores de clase 4. 
Un perceptrón dos neuronas crea dos límites de decisión. Por lo tanto, para dividir el espacio de 
entrada en las cuatro categorías, necesitamos tener un límite de decisión las cuatro clases se 
dividen en dos grupos de dos. Los restantes límites entonces deben aislar cada clase. Dos tales 
límites se ilustran en la figura P4.4. Ahora sabemos que nuestros patrones son linealmente 
separables. 
Figura P4.3 vectores entrados para problema P4.3 
Figura P4.4 decisión provisional límites para problema P4.3 
Los vectores de peso deben ser ortogonales a los límites de decisión y deben apuntar hacia las 
regiones donde las salidas de la neurona son 1. El siguiente paso es decidir qué lado de cada límite 
debe producir un 1. Una opción es ilustrada en la figura P4.5, donde las áreas sombreadas 
representan salidas de 1. El sombreado más oscuro indica que ambas salidas de neurona son 1. 
Tenga en cuenta que esta solución corresponde a los valores objetivo de
Ahora podemos seleccionar los vectores de peso: 
Tenga en cuenta que las longitudes de los vectores de peso no es importante, sólo sus direcciones. 
Deben ser ortogonales a los límites de decisión. Ahora podemos calcular el sesgo escogiendo un 
punto en un límite y satisface la ecuación (4.15): 
Figura P4.5 decisión regiones problema P4.3 
En forma de matriz que tenemos 
que completa nuestro diseño. 
P4.4 resolver el siguiente problema de clasificación con la regla del Perceptrón. Aplique cada 
vector de entrada en orden, para tantas repeticiones como sea necesario para asegurar que el 
problema está solucionado. Dibujar un gráfico del problema sólo después de que ha encontrado 
una solución.
Utilice el peso inicial y parcialidad: 
La salida de a no es igual el valor objetivo t1, así que usamos el Perceptrón 
regla para encontrar nuevos pesos y prejuicios basados en el error. 
La salida la hace no es igual la t_1 valor objetivo, así que usamos la regla del Perceptrón para 
encontrar nuevos pesos y prejuicios basados en el error. 
Ahora aplicamos el segundo vector de entrada p2, utilizando los pesos actualizados y sesgo. 
Esta vez la salida de a es igual a la meta t2. Aplicación de la regla del Perceptrón no resultará en 
cambios. 
Ahora aplicamos el tercer vector de entrada.
La salida en respuesta a p3 vector de entrada es igual a la t3 blanco, así que no habrá ningún 
cambio. 
Ahora pasamos a la última entrada vector p4. 
Esta vez la salida de un realiza no es igual la t4 objetivo apropiado. La regla del Perceptrón se 
traducirá en un nuevo conjunto de valores para W y b. 
Ahora debemos revisar el primer vector p1 otra vez. Esta vez la salida de una es igual a la t1 
objetivo asociado. 
Por lo tanto, no existen cambios 
La segunda presentación de p2 produce un error y por lo tanto, un nuevo conjunto de valores de 
peso y sesgo. 
Aquí están los nuevos valores:
Ciclismo a través de cada vector de entrada una vez más los resultados sin errores. 
Por lo tanto, el algoritmo ha convergido. Es la solución final : 
Ahora podemos ver los datos del entrenamiento y el límite de la decisión de la solución. El límite 
de decisión está dado por 
Para encontrar el intercepto p2 del límite de decisión, establecer 푝1 = 0: 
Para encontrar el intercepto p1, establecer 푝2 = 0: 
El límite de decisión resultante se ilustra en la figura P4.6.
Figura P4.6 decisión límite para problema P4.4 
Tenga en cuenta que el límite de decisión cae a través de uno de los vectores de entrenamiento. 
Esto es aceptable, dada la definición de problema, puesto que la función de límite devuelve 1 
cuando recibe una entrada de 0, y el objetivo para el vector en cuestión es de hecho 1. 
P4.5 considerar otra vez el problema de decisión cuatro clase que hemos introducido en 
problema P4.3. Formar una red Perceptrón para resolver este problema usando el Perceptrón 
regla de aprendizaje. 
Si usamos los mismos vectores objetivo que hemos introducido en problema P4.3, el 
entrenamiento conjunto será: 
Vamos a empezar el algoritmo con los siguientes pesos iniciales y sesgos: 
La primera iteración es 
La segunda iteración es
La tercera iteración es 
Iteraciones de cuatro a ocho no producen ningún cambio en los pesos. 
La novena iteración produce
En este punto el algoritmo ha convergido, puesto que todos los patrones de entrada se clasificará 
correctamente. Los límites de la decisión final se muestran en la figura P4.7. Compare este 
resultado con la red que se diseñó en problema P4.3. 
Figura P4.7 decisión Final límites para su problema P4.5
Epílogo 
En este capítulo hemos introducido nuestra primera regla de aprendizaje Ñ el Perceptrón regla de 
aprendizaje. Es un tipo de aprendizaje llamado aprendizaje supervisado, en el cual la regla de 
aprendizaje está proporcionada de un conjunto de ejemplos de comportamiento de red adecuada. 
Como cada entrada se aplica a la red, la regla de aprendizaje ajusta los parámetros de red para 
que la salida de la red se moverá más cerca a la 
blanco. 
La regla de aprendizaje del Perceptrón es muy simple, pero también es muy poderosa. Hemos 
demostrado que la regla se reunirán siempre a una solución correcta, si existe una solución. La 
debilidad de la red Perceptrón miente no con la regla de aprendizaje, pero con la estructura de la 
red. El Perceptrón estándar sólo es capaz de clasificar los vectores son linealmente separables. Lo 
veremos en el capítulo 11 que la arquitectura Perceptrón generalizable a mutlilayer perceptrons, 
que puede resolver problemas de clasificación arbitraria. El backpropagation aprendizaje regla, 
que se introduce en Cápitulo11, puede utilizarse para entrenar a estas redes. 
En los capítulos 3 y 4 se han utilizado muchos conceptos del campo del álgebra lineal, tales como 
producto interno, proyección, distancia (norma), etc.. Nos encontraremos en capítulos posteriores 
que una buena base en algebra lineal es esencial para nuestra comprensión de las redes 
neuronales. En los capítulos 5 y 6 vamos a revisar algunos de los conceptos fundamentales de 
álgebra lineal que serán más importantes en nuestro estudio de redes neuronales. Nuestro 
objetivo será obtener una comprensión fundamental de cómo neural redes de trabajo.

Más contenido relacionado

La actualidad más candente

Función de transferencia compet
Función de transferencia competFunción de transferencia compet
Función de transferencia competRichar León
 
Diseño de Redes Neuronales Multicapa y Entrenamiento
Diseño de Redes Neuronales Multicapa y EntrenamientoDiseño de Redes Neuronales Multicapa y Entrenamiento
Diseño de Redes Neuronales Multicapa y EntrenamientoESCOM
 
Inteligencia Artificial Clase 3
Inteligencia Artificial Clase 3Inteligencia Artificial Clase 3
Inteligencia Artificial Clase 3UNEFA
 
redes neuronales tipo Art3
redes neuronales tipo Art3redes neuronales tipo Art3
redes neuronales tipo Art3ESCOM
 
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...Sheyli Patiño
 
Hardlim hardlims en_matlab
Hardlim hardlims en_matlabHardlim hardlims en_matlab
Hardlim hardlims en_matlabjhymermartinez
 
Redes neuronales tipo Art
Redes neuronales tipo ArtRedes neuronales tipo Art
Redes neuronales tipo ArtESCOM
 
Utp 2015-2_ia_s2_intro a las rna
 Utp 2015-2_ia_s2_intro a las rna  Utp 2015-2_ia_s2_intro a las rna
Utp 2015-2_ia_s2_intro a las rna jcbp_peru
 
Regla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simpleRegla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simpleAndrea Lezcano
 
Funciones de activación Satlin y Satlins en Matlab
Funciones de activación Satlin y Satlins en MatlabFunciones de activación Satlin y Satlins en Matlab
Funciones de activación Satlin y Satlins en MatlabGabyta Rodríguez
 
Perceptrón simple y multicapa
Perceptrón simple y multicapaPerceptrón simple y multicapa
Perceptrón simple y multicapaJefferson Guillen
 
RED NEURONAL Backpropagation
RED NEURONAL BackpropagationRED NEURONAL Backpropagation
RED NEURONAL BackpropagationESCOM
 
Función Logsig y tansig
Función Logsig y tansigFunción Logsig y tansig
Función Logsig y tansigVane Erraez
 
Perceptron Multicapa back-propagation
 Perceptron Multicapa back-propagation  Perceptron Multicapa back-propagation
Perceptron Multicapa back-propagation Gin Pao
 
Teoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ARTTeoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ARTESCOM
 
MODELO DE RESONANCIA ADAPTATIVA (ART)
MODELO DE RESONANCIA ADAPTATIVA (ART)MODELO DE RESONANCIA ADAPTATIVA (ART)
MODELO DE RESONANCIA ADAPTATIVA (ART)ESCOM
 
Redes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapaRedes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapaLevy GT
 
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje SupervisadoPerceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje SupervisadoAndrea Lezcano
 

La actualidad más candente (20)

Función de transferencia compet
Función de transferencia competFunción de transferencia compet
Función de transferencia compet
 
Diseño de Redes Neuronales Multicapa y Entrenamiento
Diseño de Redes Neuronales Multicapa y EntrenamientoDiseño de Redes Neuronales Multicapa y Entrenamiento
Diseño de Redes Neuronales Multicapa y Entrenamiento
 
Inteligencia Artificial Clase 3
Inteligencia Artificial Clase 3Inteligencia Artificial Clase 3
Inteligencia Artificial Clase 3
 
Algoritmos
AlgoritmosAlgoritmos
Algoritmos
 
redes neuronales tipo Art3
redes neuronales tipo Art3redes neuronales tipo Art3
redes neuronales tipo Art3
 
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...
Redes Neuronales Artificiales: Aplicación de la función Hardlim para la clasi...
 
Hardlim hardlims en_matlab
Hardlim hardlims en_matlabHardlim hardlims en_matlab
Hardlim hardlims en_matlab
 
Redes neuronales tipo Art
Redes neuronales tipo ArtRedes neuronales tipo Art
Redes neuronales tipo Art
 
Utp 2015-2_ia_s2_intro a las rna
 Utp 2015-2_ia_s2_intro a las rna  Utp 2015-2_ia_s2_intro a las rna
Utp 2015-2_ia_s2_intro a las rna
 
Regla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simpleRegla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simple
 
Funciones de activación Satlin y Satlins en Matlab
Funciones de activación Satlin y Satlins en MatlabFunciones de activación Satlin y Satlins en Matlab
Funciones de activación Satlin y Satlins en Matlab
 
Perceptrón simple y multicapa
Perceptrón simple y multicapaPerceptrón simple y multicapa
Perceptrón simple y multicapa
 
RED NEURONAL Backpropagation
RED NEURONAL BackpropagationRED NEURONAL Backpropagation
RED NEURONAL Backpropagation
 
Función Logsig y tansig
Función Logsig y tansigFunción Logsig y tansig
Función Logsig y tansig
 
Perceptron Multicapa back-propagation
 Perceptron Multicapa back-propagation  Perceptron Multicapa back-propagation
Perceptron Multicapa back-propagation
 
Teoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ARTTeoría de Resonancia Adaptativa ART
Teoría de Resonancia Adaptativa ART
 
MODELO DE RESONANCIA ADAPTATIVA (ART)
MODELO DE RESONANCIA ADAPTATIVA (ART)MODELO DE RESONANCIA ADAPTATIVA (ART)
MODELO DE RESONANCIA ADAPTATIVA (ART)
 
Redes neuronales artificiales
Redes neuronales artificialesRedes neuronales artificiales
Redes neuronales artificiales
 
Redes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapaRedes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapa
 
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje SupervisadoPerceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
 

Similar a Redes neuronales

Redes de propagación hacia delante y aprendizaje supervisado
Redes de propagación hacia delante   y aprendizaje supervisadoRedes de propagación hacia delante   y aprendizaje supervisado
Redes de propagación hacia delante y aprendizaje supervisadoESCOM
 
Utp 2015-2_sirn_s4_red perceptron
 Utp 2015-2_sirn_s4_red perceptron Utp 2015-2_sirn_s4_red perceptron
Utp 2015-2_sirn_s4_red perceptronjcbp_peru
 
Utp 2015-2_ia_s4_red perceptron
 Utp 2015-2_ia_s4_red perceptron Utp 2015-2_ia_s4_red perceptron
Utp 2015-2_ia_s4_red perceptronjcbp_peru
 
Utp ia_s4_red perceptron
 Utp ia_s4_red perceptron Utp ia_s4_red perceptron
Utp ia_s4_red perceptronjcbp_peru
 
EL USO DE REDES NEURALES Y CONJUNTOS BORROSOS EN EL RECONOCIMIENTO DE PATRONE...
EL USO DE REDES NEURALES Y CONJUNTOS BORROSOS EN EL RECONOCIMIENTO DE PATRONE...EL USO DE REDES NEURALES Y CONJUNTOS BORROSOS EN EL RECONOCIMIENTO DE PATRONE...
EL USO DE REDES NEURALES Y CONJUNTOS BORROSOS EN EL RECONOCIMIENTO DE PATRONE...Academia de Ingeniería de México
 
48690471 redes-neuronales
48690471 redes-neuronales48690471 redes-neuronales
48690471 redes-neuronalesjcbenitezp
 
Counterpropagation
CounterpropagationCounterpropagation
CounterpropagationESCOM
 
Redes neuronales funciones de activación logsig y tansig
Redes neuronales funciones de activación logsig y tansigRedes neuronales funciones de activación logsig y tansig
Redes neuronales funciones de activación logsig y tansigJefferson Sarmiento
 
Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de RetropropagaciónESCOM
 
Mapas autoorganizados
Mapas autoorganizadosMapas autoorganizados
Mapas autoorganizadosJesus Rojas
 
Introduccion MODELO DE RESONANCIA ADAPTATIVA
Introduccion MODELO DE RESONANCIA ADAPTATIVAIntroduccion MODELO DE RESONANCIA ADAPTATIVA
Introduccion MODELO DE RESONANCIA ADAPTATIVAESCOM
 
redes neuronales Kohonen
redes neuronales Kohonenredes neuronales Kohonen
redes neuronales KohonenESCOM
 
Características de las redes neuronales ethan
Características de las redes neuronales ethanCaracterísticas de las redes neuronales ethan
Características de las redes neuronales ethanElik Castillo
 
Características de las redes neuronales ethan
Características de las redes neuronales ethanCaracterísticas de las redes neuronales ethan
Características de las redes neuronales ethanElik Castillo
 
RED De Retro-propagación Neuronal
RED De Retro-propagación NeuronalRED De Retro-propagación Neuronal
RED De Retro-propagación NeuronalESCOM
 
Red NEURONAL de Hamming
Red   NEURONAL    de HammingRed   NEURONAL    de Hamming
Red NEURONAL de HammingESCOM
 

Similar a Redes neuronales (20)

Aprendizaje de un perceptrón simple
Aprendizaje de un perceptrón simpleAprendizaje de un perceptrón simple
Aprendizaje de un perceptrón simple
 
Redes de propagación hacia delante y aprendizaje supervisado
Redes de propagación hacia delante   y aprendizaje supervisadoRedes de propagación hacia delante   y aprendizaje supervisado
Redes de propagación hacia delante y aprendizaje supervisado
 
Utp 2015-2_sirn_s4_red perceptron
 Utp 2015-2_sirn_s4_red perceptron Utp 2015-2_sirn_s4_red perceptron
Utp 2015-2_sirn_s4_red perceptron
 
Utp 2015-2_ia_s4_red perceptron
 Utp 2015-2_ia_s4_red perceptron Utp 2015-2_ia_s4_red perceptron
Utp 2015-2_ia_s4_red perceptron
 
Utp ia_s4_red perceptron
 Utp ia_s4_red perceptron Utp ia_s4_red perceptron
Utp ia_s4_red perceptron
 
EL USO DE REDES NEURALES Y CONJUNTOS BORROSOS EN EL RECONOCIMIENTO DE PATRONE...
EL USO DE REDES NEURALES Y CONJUNTOS BORROSOS EN EL RECONOCIMIENTO DE PATRONE...EL USO DE REDES NEURALES Y CONJUNTOS BORROSOS EN EL RECONOCIMIENTO DE PATRONE...
EL USO DE REDES NEURALES Y CONJUNTOS BORROSOS EN EL RECONOCIMIENTO DE PATRONE...
 
2020-T13 Redes Neuronales II
2020-T13 Redes Neuronales II2020-T13 Redes Neuronales II
2020-T13 Redes Neuronales II
 
48690471 redes-neuronales
48690471 redes-neuronales48690471 redes-neuronales
48690471 redes-neuronales
 
redes competitivas
redes competitivasredes competitivas
redes competitivas
 
Counterpropagation
CounterpropagationCounterpropagation
Counterpropagation
 
Redes neuronales funciones de activación logsig y tansig
Redes neuronales funciones de activación logsig y tansigRedes neuronales funciones de activación logsig y tansig
Redes neuronales funciones de activación logsig y tansig
 
Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de Retropropagación
 
Mapas autoorganizados
Mapas autoorganizadosMapas autoorganizados
Mapas autoorganizados
 
Introduccion MODELO DE RESONANCIA ADAPTATIVA
Introduccion MODELO DE RESONANCIA ADAPTATIVAIntroduccion MODELO DE RESONANCIA ADAPTATIVA
Introduccion MODELO DE RESONANCIA ADAPTATIVA
 
redes neuronales Kohonen
redes neuronales Kohonenredes neuronales Kohonen
redes neuronales Kohonen
 
Características de las redes neuronales ethan
Características de las redes neuronales ethanCaracterísticas de las redes neuronales ethan
Características de las redes neuronales ethan
 
Características de las redes neuronales ethan
Características de las redes neuronales ethanCaracterísticas de las redes neuronales ethan
Características de las redes neuronales ethan
 
2º asignacion redes neuronales
2º asignacion redes neuronales2º asignacion redes neuronales
2º asignacion redes neuronales
 
RED De Retro-propagación Neuronal
RED De Retro-propagación NeuronalRED De Retro-propagación Neuronal
RED De Retro-propagación Neuronal
 
Red NEURONAL de Hamming
Red   NEURONAL    de HammingRed   NEURONAL    de Hamming
Red NEURONAL de Hamming
 

Último

Informe Mensual MARZO DE SUPERVISION.docx
Informe Mensual MARZO DE SUPERVISION.docxInforme Mensual MARZO DE SUPERVISION.docx
Informe Mensual MARZO DE SUPERVISION.docxTAKESHISAC
 
I LINEAMIENTOS Y CRITERIOS DE INFRAESTRUCTURA DE RIEGO.pptx
I LINEAMIENTOS Y CRITERIOS DE INFRAESTRUCTURA DE RIEGO.pptxI LINEAMIENTOS Y CRITERIOS DE INFRAESTRUCTURA DE RIEGO.pptx
I LINEAMIENTOS Y CRITERIOS DE INFRAESTRUCTURA DE RIEGO.pptxPATRICIAKARIMESTELAL
 
MUROS Y CONEXIONES NTC 2017 CONCRETO REFORZADO.pptx
MUROS Y CONEXIONES NTC 2017 CONCRETO REFORZADO.pptxMUROS Y CONEXIONES NTC 2017 CONCRETO REFORZADO.pptx
MUROS Y CONEXIONES NTC 2017 CONCRETO REFORZADO.pptxIcelaMartnezVictorin
 
CUENCAS HIDROGRAFICAS CARACTERIZACION GEOMORFOLOGIAS DE LA CUENTA
CUENCAS HIDROGRAFICAS CARACTERIZACION GEOMORFOLOGIAS DE LA CUENTACUENCAS HIDROGRAFICAS CARACTERIZACION GEOMORFOLOGIAS DE LA CUENTA
CUENCAS HIDROGRAFICAS CARACTERIZACION GEOMORFOLOGIAS DE LA CUENTAvanessaecharry2511
 
EJERCICIOS DE -LEY-DE-OHM aplicaciones prácticas
EJERCICIOS DE -LEY-DE-OHM aplicaciones prácticasEJERCICIOS DE -LEY-DE-OHM aplicaciones prácticas
EJERCICIOS DE -LEY-DE-OHM aplicaciones prácticasEfrain Yungan
 
La mineralogia y minerales, clasificacion
La mineralogia y minerales, clasificacionLa mineralogia y minerales, clasificacion
La mineralogia y minerales, clasificacionnewspotify528
 
Proyecto de Base de Datos de César Guzmán
Proyecto de Base de Datos de César GuzmánProyecto de Base de Datos de César Guzmán
Proyecto de Base de Datos de César Guzmáncesarguzmansierra751
 
trabajos en altura 2024, sistemas de contencion anticaidas
trabajos en altura 2024, sistemas de contencion anticaidastrabajos en altura 2024, sistemas de contencion anticaidas
trabajos en altura 2024, sistemas de contencion anticaidasNelsonQuispeQuispitu
 
LIQUIDACION OBRAS PUBLICAS POR CONTRATA.pdf
LIQUIDACION OBRAS PUBLICAS  POR CONTRATA.pdfLIQUIDACION OBRAS PUBLICAS  POR CONTRATA.pdf
LIQUIDACION OBRAS PUBLICAS POR CONTRATA.pdfManuelVillarreal44
 
FORMACION-INTEGRAL-DE-LINIEROS modelo de curso.pdf
FORMACION-INTEGRAL-DE-LINIEROS modelo de curso.pdfFORMACION-INTEGRAL-DE-LINIEROS modelo de curso.pdf
FORMACION-INTEGRAL-DE-LINIEROS modelo de curso.pdfEfrain Yungan
 
Introduccion-a-los-tipos-de-cemento (1).pdf
Introduccion-a-los-tipos-de-cemento (1).pdfIntroduccion-a-los-tipos-de-cemento (1).pdf
Introduccion-a-los-tipos-de-cemento (1).pdfjhorbycoralsanchez
 
electricidad básica, ejemplos prácticos y ejercicios
electricidad básica, ejemplos prácticos y ejercicioselectricidad básica, ejemplos prácticos y ejercicios
electricidad básica, ejemplos prácticos y ejerciciosEfrain Yungan
 
METROLOGÍA ÓPTICA E INSTRUMENTACIÓN BÁSICA.pdf
METROLOGÍA ÓPTICA E INSTRUMENTACIÓN BÁSICA.pdfMETROLOGÍA ÓPTICA E INSTRUMENTACIÓN BÁSICA.pdf
METROLOGÍA ÓPTICA E INSTRUMENTACIÓN BÁSICA.pdfesparzadaniela548
 
S454444444444444444_CONTROL_SET_A_GEOMN1204.pdf
S454444444444444444_CONTROL_SET_A_GEOMN1204.pdfS454444444444444444_CONTROL_SET_A_GEOMN1204.pdf
S454444444444444444_CONTROL_SET_A_GEOMN1204.pdffredyflores58
 
Edificio residencial Becrux en Madrid. Fachada de GRC
Edificio residencial Becrux en Madrid. Fachada de GRCEdificio residencial Becrux en Madrid. Fachada de GRC
Edificio residencial Becrux en Madrid. Fachada de GRCANDECE
 
JimyPomalaza vivienda rural huancavelica .pdf
JimyPomalaza vivienda rural huancavelica .pdfJimyPomalaza vivienda rural huancavelica .pdf
JimyPomalaza vivienda rural huancavelica .pdfJimyPomalaza
 
Diseño de un aerogenerador de 400w de eje vertical
Diseño de un aerogenerador de 400w de eje verticalDiseño de un aerogenerador de 400w de eje vertical
Diseño de un aerogenerador de 400w de eje verticalEfrain Yungan
 
PPT - MODIFICACIONES PRESUPUESTARIAS - Anexo II VF.pdf
PPT - MODIFICACIONES PRESUPUESTARIAS - Anexo II VF.pdfPPT - MODIFICACIONES PRESUPUESTARIAS - Anexo II VF.pdf
PPT - MODIFICACIONES PRESUPUESTARIAS - Anexo II VF.pdfDarwinJPaulino
 
Estudio de materiales asfalticos para utilizar en obras viales
Estudio de materiales asfalticos para utilizar en obras vialesEstudio de materiales asfalticos para utilizar en obras viales
Estudio de materiales asfalticos para utilizar en obras vialesRamonCortez4
 

Último (20)

Informe Mensual MARZO DE SUPERVISION.docx
Informe Mensual MARZO DE SUPERVISION.docxInforme Mensual MARZO DE SUPERVISION.docx
Informe Mensual MARZO DE SUPERVISION.docx
 
I LINEAMIENTOS Y CRITERIOS DE INFRAESTRUCTURA DE RIEGO.pptx
I LINEAMIENTOS Y CRITERIOS DE INFRAESTRUCTURA DE RIEGO.pptxI LINEAMIENTOS Y CRITERIOS DE INFRAESTRUCTURA DE RIEGO.pptx
I LINEAMIENTOS Y CRITERIOS DE INFRAESTRUCTURA DE RIEGO.pptx
 
MUROS Y CONEXIONES NTC 2017 CONCRETO REFORZADO.pptx
MUROS Y CONEXIONES NTC 2017 CONCRETO REFORZADO.pptxMUROS Y CONEXIONES NTC 2017 CONCRETO REFORZADO.pptx
MUROS Y CONEXIONES NTC 2017 CONCRETO REFORZADO.pptx
 
CUENCAS HIDROGRAFICAS CARACTERIZACION GEOMORFOLOGIAS DE LA CUENTA
CUENCAS HIDROGRAFICAS CARACTERIZACION GEOMORFOLOGIAS DE LA CUENTACUENCAS HIDROGRAFICAS CARACTERIZACION GEOMORFOLOGIAS DE LA CUENTA
CUENCAS HIDROGRAFICAS CARACTERIZACION GEOMORFOLOGIAS DE LA CUENTA
 
EJERCICIOS DE -LEY-DE-OHM aplicaciones prácticas
EJERCICIOS DE -LEY-DE-OHM aplicaciones prácticasEJERCICIOS DE -LEY-DE-OHM aplicaciones prácticas
EJERCICIOS DE -LEY-DE-OHM aplicaciones prácticas
 
La mineralogia y minerales, clasificacion
La mineralogia y minerales, clasificacionLa mineralogia y minerales, clasificacion
La mineralogia y minerales, clasificacion
 
Proyecto de Base de Datos de César Guzmán
Proyecto de Base de Datos de César GuzmánProyecto de Base de Datos de César Guzmán
Proyecto de Base de Datos de César Guzmán
 
presentación manipulación manual de cargas sunafil
presentación manipulación manual de cargas sunafilpresentación manipulación manual de cargas sunafil
presentación manipulación manual de cargas sunafil
 
trabajos en altura 2024, sistemas de contencion anticaidas
trabajos en altura 2024, sistemas de contencion anticaidastrabajos en altura 2024, sistemas de contencion anticaidas
trabajos en altura 2024, sistemas de contencion anticaidas
 
LIQUIDACION OBRAS PUBLICAS POR CONTRATA.pdf
LIQUIDACION OBRAS PUBLICAS  POR CONTRATA.pdfLIQUIDACION OBRAS PUBLICAS  POR CONTRATA.pdf
LIQUIDACION OBRAS PUBLICAS POR CONTRATA.pdf
 
FORMACION-INTEGRAL-DE-LINIEROS modelo de curso.pdf
FORMACION-INTEGRAL-DE-LINIEROS modelo de curso.pdfFORMACION-INTEGRAL-DE-LINIEROS modelo de curso.pdf
FORMACION-INTEGRAL-DE-LINIEROS modelo de curso.pdf
 
Introduccion-a-los-tipos-de-cemento (1).pdf
Introduccion-a-los-tipos-de-cemento (1).pdfIntroduccion-a-los-tipos-de-cemento (1).pdf
Introduccion-a-los-tipos-de-cemento (1).pdf
 
electricidad básica, ejemplos prácticos y ejercicios
electricidad básica, ejemplos prácticos y ejercicioselectricidad básica, ejemplos prácticos y ejercicios
electricidad básica, ejemplos prácticos y ejercicios
 
METROLOGÍA ÓPTICA E INSTRUMENTACIÓN BÁSICA.pdf
METROLOGÍA ÓPTICA E INSTRUMENTACIÓN BÁSICA.pdfMETROLOGÍA ÓPTICA E INSTRUMENTACIÓN BÁSICA.pdf
METROLOGÍA ÓPTICA E INSTRUMENTACIÓN BÁSICA.pdf
 
S454444444444444444_CONTROL_SET_A_GEOMN1204.pdf
S454444444444444444_CONTROL_SET_A_GEOMN1204.pdfS454444444444444444_CONTROL_SET_A_GEOMN1204.pdf
S454444444444444444_CONTROL_SET_A_GEOMN1204.pdf
 
Edificio residencial Becrux en Madrid. Fachada de GRC
Edificio residencial Becrux en Madrid. Fachada de GRCEdificio residencial Becrux en Madrid. Fachada de GRC
Edificio residencial Becrux en Madrid. Fachada de GRC
 
JimyPomalaza vivienda rural huancavelica .pdf
JimyPomalaza vivienda rural huancavelica .pdfJimyPomalaza vivienda rural huancavelica .pdf
JimyPomalaza vivienda rural huancavelica .pdf
 
Diseño de un aerogenerador de 400w de eje vertical
Diseño de un aerogenerador de 400w de eje verticalDiseño de un aerogenerador de 400w de eje vertical
Diseño de un aerogenerador de 400w de eje vertical
 
PPT - MODIFICACIONES PRESUPUESTARIAS - Anexo II VF.pdf
PPT - MODIFICACIONES PRESUPUESTARIAS - Anexo II VF.pdfPPT - MODIFICACIONES PRESUPUESTARIAS - Anexo II VF.pdf
PPT - MODIFICACIONES PRESUPUESTARIAS - Anexo II VF.pdf
 
Estudio de materiales asfalticos para utilizar en obras viales
Estudio de materiales asfalticos para utilizar en obras vialesEstudio de materiales asfalticos para utilizar en obras viales
Estudio de materiales asfalticos para utilizar en obras viales
 

Redes neuronales

  • 1. UNIVERSIDAD NACIONAL Pedro Ruíz gallo FACULTAD DE CIENCIAS FÍSICAS Y MATEMÁTICAS REDES NEURONALES CAPITULO 4 Reglas de Aprendizaje Perceptrón DOCENTE : Ing. Chamán Cabrera Lucia AlUMNOS : Chong Muguerza Hugo Fernandez Córdova Ivan Ciclo : 2014 – I 05 de Septiembre del 2014
  • 2. 4 Regla de aprendizaje Perceptrón Objetivos 4-1 Teoría y ejemplos de 4-2 Aprendiendo reglas 4-2 Arquitectura Perceptrón 4-3 Única-neurona Perceptrón 4-5 Múltiple-neurona Perceptrón 4-8 Regla de aprendizaje Perceptrón 4-8 Problema de Prueba 4-9 Construyendo reglas de aprendiendo 4-10 Regla de aprendizaje unificada 4-12 Formación múltiple-neurona perceptrones 4-13 Prueba de convergencia 4-15 Notación 4-15 Prueba 4-16 Limitaciones 4-18 Resumen de los resultados 4-20 Problemas resueltos 4-21 Epílogo 4-33 Más lectura 4-34 Ejercicios 4-36 Objetivos Una de las preguntas que nos planteamos en el capítulo 3 era: ¿Cómo determinamos la matriz de pesos y el sesgo de redes perceptrón con muchos insumos, donde es imposible visualizar los límites de decisión? En este capítulo describirá un algoritmo para formación de redes perceptrón, de modo que puede aprender para resolver problemas de clasificación. Vamos a empezar por explicar lo que una regla de aprendizaje es y luego a desarrollar la regla de aprendizaje del perceptrón. Nosotros concluiremos analizando las ventajas y limitaciones de la monocapa red perceptrón. Esta discusión nos conducirá a futuros capítulos. TEORÍA Y EJEMPLOS En 1943, Warren McCulloch y Walter Pitts introdujo una de las primeras neuronas artificiales [McPi43]. La característica principal de su modelo de neurona es que una suma ponderada de las señales de entrada se compara con un umbral para determinar la salida de neurona. Cuando la suma es mayor o igual que el umbral, la salida es 1. Cuando la suma es menor que el umbral, la salida es 0. Ello pasó a mostrar que las redes de estas neuronas podrían, en principio, calcular cualquier función aritmética o lógica. A diferencia de las redes biológicas, los parámetros de sus
  • 3. redes tuvieron que ser diseñadas, ya que ningún método de entrenamiento era disponible. Sin embargo, la conexión percibida entre la biología y digitales ordenadores generado un gran interés. A finales de 1950, Frank Rosenblatt y varios otros investigadores desarrollaron una clase de redes neuronales llama perceptrones. Las neuronas en estas redes fueron similares a los de McCulloch y Pitts. La contribución clave de Rosenblatt fue la introducción de una regla de aprendizaje para redes Perceptrón formación solucionar problemas de reconocimiento de patrón [Rose58] . Demostró que su regla de aprendizaje siempre convergerá a los pesos de red correcta, si existen pesos que resuelve el problema. El aprendizaje era simple y automático. Los ejemplos de un comportamiento adecuado se presentaron a la red, lo que aprendió de sus errores. El perceptrón podría incluso aprender cuando inicializado con valores aleatorios para los pesos y sesgos. Desafortunadamente, la red perceptrón está inherentemente limitado, estas limitaciones fueron ampliamente publicitada en el libro Perceptrons [MiPa69] Marvin Minsky y Seymour Papert. Ellos demostraron que las redes perceptrón fueron incapaces de implementar ciertas funciones elementales. Es No fue sino hasta la década de 1980 que estas limitaciones fueron superadas con la mejora (multicapas) redes perceptrón y reglas de aprendizaje asociados. Nosotros discutirá estas mejoras en los capítulos 11 y 12. Hoy el perceptrón se sigue viendo como una importante red. Sigue siendo un red rápida y confiable para la clase de problemas que puede resolver. Adicionalmente, una comprensión de las operaciones de la perceptrón proporciona una buena base para la comprensión de las redes más complejas. Por lo tanto, el perceptrón red, y su regla de aprendizaje asociada, son bien vale la pena la discusión aquí. En el resto de este capítulo vamos a definir lo que entendemos por un aprendizaje gobernar, explique la red perceptrón y regla de aprendizaje, y discutir el limitaciones de la red perceptrón. NORMAS DE APRENDIZAJE Al comenzar nuestra discusión de la regla de aprendizaje del perceptrón, queremos discutir las reglas en general el aprendizaje. Por regla de aprendizaje nos referimos a un procedimiento para modificar los pesos y sesgos de una red. (Este procedimiento también puede ser referido como un algoritmo de entrenamiento.) El propósito de la regla de aprendizaje es para entrenar la red para realizar alguna tarea. Hay muchos tipos de neural reglas de aprendizaje en red. Se dividen en tres grandes categorías: supervisados aprender, aprendizaje sin supervisión y refuerzo (o clasificadas) de aprendizaje. En aprendizaje supervisado, La regla de aprendizaje está provisto de un conjunto de ejemplos (la conjunto de entrenamiento) Del comportamiento de la red adecuada:
  • 4. Donde es una entrada a la red y es el correspondiente correcta (objetivo) De salida. Como las entradas se aplican a la red, las salidas de la red son en comparación con los objetivos. La regla de aprendizaje se utiliza entonces para ajustar los pesos y sesgos de la red con el fin de mover las salidas de la red más cerca de los objetivos. La regla de aprendizaje del perceptrón cae en este supervisado aprendizaje categoría. También vamos a investigar algoritmos de aprendizaje supervisado en los capítulos 7-12. Aprendizaje por refuerzo es similar a la de aprendizaje supervisado, excepto que, en lugar de ser proporcionado con la salida correcta para cada entrada de red, el algoritmo sólo se le da un grado. El grado (o la puntuación) es una medida de la red el rendimiento en alguna secuencia de entradas. Este tipo de aprendizaje es actualmente mucho menos común que el aprendizaje supervisado. Parece ser más adecuado para el control de las aplicaciones del sistema (ver [BaSu83], [WhSo92]). En aprendizaje no supervisado, Los pesos y sesgos se modifican en respuesta a las entradas de red solamente. No hay salidas de destino disponibles. Al principio vista esto puede parecer poco práctico. ¿Cómo se puede entrenar a una red si usted no sabe lo que se supone que debe hacer? La mayoría de estos algoritmos realizan algún tipo de operación de agrupación. Ellos aprenden a clasificar los patrones de entrada en un número finito de clases. Esto es especialmente útil en tales aplicaciones como la cuantificación vectorial. Veremos en los capítulos 13 a 16 que no son un número de algoritmos de aprendizaje sin supervisión. ARQUITECTURA PERCEPTRÓN Antes de presentar la regla de aprendizaje del perceptrón, Letos ampliar nuestra investigación de la red perceptrón, que iniciamos en el Capítulo 3 El general red perceptrón se muestra en la Figura 4.1. La salida de la red está dada por
  • 5. Será útil en nuestro desarrollo de la regla de aprendizaje del perceptrón ser capaz de hacer referencia convenientemente elementos individuales de la salida de la red. Vamos a ver cómo se puede hacer esto. En primer lugar, consideremos la matriz de pesos de la matriz : Vamos a definir un vector formado por los elementos de la fila i de W: Ahora podemos dividir la matriz de pesos: Esto nos permite escribir la i-ésimo elemento del vector de salida de la red como Recordemos que hardlim la función de transferencia (que se muestra a la izquierda) se define como:
  • 6. Por lo tanto, si el producto interior de la i ª fila de la matriz de peso con la vector de entrada es mayor que o igual a -bi , la salida será 1, de lo contrario la salida será 0. Así, cada neurona en la red divide la entrada espacio en dos regiones. Es útil para investigar los límites entre estas regiones. Vamos a comenzar con el simple caso de un perceptrón de una sola neurona con dos entradas. SIMPLE-NEURONA PERCEPTRÓN Vamos a considerar un perceptrón de dos entradas con una neurona, como se muestra en la figura 4.2. Figura 4.2-Dos de Entrada / Salida única Perceptrón La salida de esta red se determina por: La frontera de decisión está determinado por los vectores de entrada para las que la red entrada n es cero: Para hacer el ejemplo más concreto, Letos asignar los siguientes valores:
  • 7. El límite de decisión es Esto define una línea en el espacio de entrada. En un lado de la línea de la red salida será 0; en la línea y en el otro lado de la línea de la salida se ser 1. Para dibujar la línea, podemos encontrar los puntos donde se cruza la p1 y p2 ejes. Para encontrar la intersección p2 establecer p1 = 0 Para encontrar la intersección p1, ajuste p2=0 La frontera de decisión resultante se ilustra en la Figura 4.3. Para saber de qué lado de la frontera corresponde a una potencia de 1, que sólo tiene que probar un punto. Para la entrada p[ 2 0] la salida de la red será Por lo tanto, la salida de la red será 1 para la región por encima y hacia la derecha de la frontera de decisión. Esta región es indicado por el área sombreada en la figura 4.3 Figura 4.3 Límites de decisión para dos de entrada Perceptrón
  • 8. También podemos encontrar la frontera de decisión gráficamente. El primer paso es observar que el límite es siempre ortogonal a W, como se ilustra en las figuras adyacentes. El límite está definido por Para todos los puntos en el límite, el producto interno del vector de entrada con el vector de peso es el mismo. Esto implica que estos vectores de entrada hará todo tener la misma proyección sobre el vector de pesos, por lo que deben estar en una línea ortogonal al vector de peso. (Estos conceptos se explican con más detalle En el capítulo 5) Además, cualquier vector en la región sombreada de la figura 4.3 tendrá un producto interno mayor que -b, y los vectores en la región sin sombrear tendrán productos internos menos de -b. Por lo tanto el vector de pesos w siempre apuntará hacia la región donde la salida de la neurona es 1. Después de haber seleccionado un vector de pesos con la orientación angular correcta, el valor de sesgo se puede calcular mediante la selección de un punto en el límite y ecuación satisfactoria. (4.15). Vamos a aplicar algunos de estos conceptos para el diseño de una red perceptrón a aplicar una función lógica simple: la puerta AND. Los pares de entrada / destinatarios de la puerta Y son: La figura de abajo muestra el problema gráficamente. Muestra la entrada espacio, con cada vector de entrada etiquetados de acuerdo a su objetivo. La oscuridad círculos negros indica que la meta es 1, y los círculos blancos de luz indican que el objetivo es 0. El primer paso del diseño es para seleccionar un límite de decisión. Queremos tener una línea que separa las ojeras y los círculos de luz. Hay un número infinito de soluciones a este problema. Parece razonable elegir la línea que cae "a medio camino" entre las dos categorías de insumos, como se muestra en la figura adyacente. Ahora vamos a elegir un vector de peso que es ortogonal
  • 9. a la decisión límite. El vector de peso puede ser de cualquier longitud, por lo que hay posibilidades infinitas. Una opción es Como se muestra en la figura a la izquierda. Por último, tenemos que encontrar el sesgo,. Podemos hacer esto mediante la selección de un punto de la frontera de decisión y satisfactoria la ecuación. (4.15). Si utilizamos p= [1.5 0] nos encontramos. Ahora podemos probar la red en uno de los pares de entrada / destinatarios. Si aplicamos p2 a la red, la salida será Que es igual a la salida de destino. Compruebe por sí mismo que todas las entradas son correctamente clasificadas. Para experimentar con límites de decisión, utilizar el Diseño de Redes Neuronales Límites de decisión demostración MULTIPLE-NEURONA PERCEPTRÓN Nótese que para los perceptrones con múltiples neuronas, como en la Figura 4.1, hay será una frontera de decisión para cada neurona. El límite de decisión para neurona será definido por Una sola neurona perceptrón puede clasificar vectores de entrada en dos categorías, desde su salida puede ser 0 o 1 A-neurona múltiple perceptrón puede clasificar insumos en muchas categorías. Cada categoría está representada por una diferente vector de salida. Dado que cada
  • 10. elemento del vector de salida puede ser 0 o 1, hay un total de posibles categorías, donde es el número de neuronas. PERCEPTRON REGLA DE APRENDIZAJE Ahora que hemos examinado el rendimiento de las redes perceptrón, nos están en condiciones de introducir la regla de aprendizaje del perceptrón. Este aprendizaje regla es un ejemplo de entrenamiento supervisado, en el que se proporciona la regla de aprendizaje con un conjunto de ejemplos de comportamiento de la red adecuada: Donde Pq es una entrada a la red y de Tq es la salida de destino correspondiente. A medida que se aplica cada entrada a la red, la salida de la red se compara a la meta. La regla de aprendizaje y luego ajusta los pesos y sesgos de la red con el fin de mover la salida de la red cerca del objetivo. PROBLEMA DE PRUEBA En nuestra presentación de la regla de aprendizaje del perceptrón vamos a comenzar con una problema simple prueba y será experimentar con posibles reglas para desarrollar alguna intuición acerca de cómo debe funcionar la regla. Los pares de entrada / destinatarios de nuestro problema de los exámenes El problema se muestra gráficamente en la figura adyacente, donde los dos vectores de entrada cuya meta es 0 se representan con un círculo blanco y la luz, el vector cuyo objetivo es 1 se representa con un círculo negro oscuro. Esta es un muy simple problema, y casi podía obtener una solución mediante inspección. Esta simplicidad nos ayudará a obtener una cierta comprensión intuitiva de los básicos conceptos de la regla de aprendizaje del perceptrón. La red para este problema debería tener-dos entradas y una salida. Para simplificar nuestro desarrollo de la regla de aprendizaje, vamos a empezar con una red sin sesgo. La red tendrá entonces sólo dos parámetros, w 1,1 y, W 2,2, como se muestra en la Figura 4.4.
  • 11. Figura 4.4 Prueba de problemas de red Al eliminar el sesgo que nos quedamos con una red cuya decisión límite debe pasar por el origen. Tenemos que estar seguros de que esta red es todavía capaz de resolver el problema de prueba. Debe haber una decisión límite permisible que se puede separar la p2 y p3 vectores a partir del vector P1. La figura a la izquierda ilustra que de hecho hay un número infinito de tales límites. La figura adjunta muestra los vectores de peso que corresponden a los permitidos límites de decisión. (Recordemos que el vector de pesos es ortogonal a la frontera de decisión.) Nos gustaría una regla de aprendizaje que encontrará un peso vector que apunta en una de estas direcciones. Recuerde que la longitud del vector de peso no importa; sólo su dirección es importante. LA CONSTRUCCIÓN DE REGLAS DE APRENDIZAJE El entrenamiento comienza asignando unos valores iniciales para los parámetros de la red. En este caso estamos entrenando a / red-salida única de dos entradas sin un sesgo, por lo que sólo tiene que inicializar sus dos pesos. Aquí establecemos los elementos del vector de pesos, w, a los siguientes valores generados al azar:
  • 12. Ahora comenzaremos presentando los vectores de entrada a la red. Comenzamos con p1: La red no ha devuelto el valor correcto. La salida de red es 0, mientras que la respuesta del objetivo, t1, es 1. Podemos ver lo que pasó mirando el diagrama adyacente. La inicial resultados de vectores de peso en una frontera de decisión que clasifica incorrectamente la p1 vector. Tenemos que modificar el vector de pesos para que apunte más hacia p1, Para que en el futuro tiene una mejor oportunidad de clasificar correctamente. Un enfoque sería establecer W igual a p1. Esto es simple y garantizaría que p1 fue clasificada correctamente en el futuro. Desafortunadamente, es fácil para construir un problema para el que esta regla no puede encontrar una solución. El diagrama a la parte inferior izquierda muestra un problema que no puede resolverse con el peso vector apuntando directamente a cualquiera de los dos vectores de 1 clase. Si aplicamos la regla W = p cada vez que uno de estos vectores se mal clasificados, la red Pesos OS simplemente oscilar hacia atrás y adelante y nunca encontrarán una solución. Otra posibilidad sería añadir p1 a w. Adición de p1 a w haría w punto más en la dirección de p1. Presentaciones repetidas de p1 harían causar la dirección de w para acercarse asintóticamente la dirección de p1. Esta regla se puede afirmar. Aplicando esta regla a nuestro problema de prueba se traduce en nuevos valores para W: Esta operación se ilustra en la figura adyacente. Ahora vamos a pasar a la siguiente vector de entrada y seguiremos haciendo cambios a los pesos y recorrer las entradas hasta que todos se clasifican correctamente. El siguiente vector de entrada es p2. Cuando se presenta a la red nos encontramos con:
  • 13. El t2 destino asociado con p2 es 0 y la salida a es 0 1. Una clase de vectores fue clasificada erróneamente como un 1. Desde ahora queremos mover el vector peso W de distancia de la entrada, podemos simplemente cambiar la adición de la ecuación. (4.23) para la resta: d: Si aplicamos esto al problema de prueba, encontramos: Que se ilustra en la figura adyacente. Ahora presentamos la tercera p3 vector: Los resultados actuales w en una frontera de decisión que misclassifies p3. Este es una situación para la cual ya tenemos una regla, por lo que W se actualizará de nuevo, de acuerdo con la ecuación. (4.26): El diagrama a la izquierda muestra que el perceptrón finalmente ha aprendido a clasificar los tres vectores correctamente. Si se presenta cualquiera de los vectores de entrada a la neurona, se dará salida a la clase correcta para ese vector de entrada. Esto nos lleva a nuestra tercera y última regla: si funciona, No te arregles.
  • 14. Aquí están las tres reglas, que cubren todas las combinaciones posibles de salida y los valores objetivos: REGLA DE FORMACIÓN UNIFICADO Las tres reglas de la ecuación. (4.31) puede escribirse como una sola expresión. Primero vamos a definir una nueva variable, el error perceptrón correo: Ahora podemos volver a escribir las tres reglas de la ecuación. (4.31) como: Mirando cuidadosamente en las dos primeras reglas de la ecuación. (4.33) se puede observar que el signo de p es el mismo que el signo del error, e. Además, la ausencia de p en la tercera regla corresponde a un correo de 0 Por lo tanto, podemos unificar las tres reglas en una sola expre sión: Esta regla se puede extender a entrenar al sesgo por señalar que un prejuicio es simplemente un peso cuya entrada es siempre 1. Así, podemos reemplazar la entrada de p en la ecuación. (4.34) con la entrada a la polarización, que es 1 el resultado es el perceptrón descartar un sesgo: FORMACIÓN MÚLTIPLES-NEURON PERCEPTRONS
  • 15. La regla perceptrón, dada por la ec. (4.34) y la ecuación. (4.35), actualiza el vector de peso de un único perceptrón neurona. Podemos generalizar esta regla para la múltiple-neurona perceptrón de la figura 4.1 de la siguiente manera. Para actualizar el iTh fila de la utilización de la matriz de peso: Para actualizar el elemento de orden i del uso sesgo vector: La regla perceptrón se puede escribir convenientemente en notación matricial: Y Para probar la regla de aprendizaje del perceptrón, considere de nuevo la manzana / reconocimiento de naranja problema del Capítulo 3 La entrada / salida vectores prototipo será (Tenga en cuenta que estamos usando 0 como la salida de destino para el modelo negro,, en lugar de -1, que se utilizó en el capítulo 3 Esto se debe a que estamos utilizando la hardlim función de transferencia, en lugar de hardlim.) Normalmente los pesos y sesgos se inicializan a los pequeños números aleatorios. Supongamos que aquí partimos de la matriz de peso inicial y el sesgo:
  • 16. El primer paso es aplicar la primera vector de entrada, p1, a la red: Luego se calcula el error: La actualización de peso es La actualización de sesgo es Esto completa la primera iteración. La segunda versión de la norma perceptrón es: La tercera iteración comienza de nuevo con el primer vector de entrada:
  • 17. Si continúa con las iteraciones, usted encontrará que los dos vectores de entrada se ahora ser clasificado correctamente. El algoritmo ha convergido a una solución. Nota que el límite decisión final no es el mismo que el que hemos desarrollado en Capítulo 3, aunque ambos límites clasifican correctamente los dos vectores de entrada. Para experimentar con la regla de aprendizaje del perceptrón, utilizar la red neuronal Diseño Demostración Regla Perceptron PRUEBA DE CONVERGENCIA Aunque la regla de aprendizaje del perceptrón es simple, es muy poderoso. en De hecho, se puede demostrar que la regla siempre convergerá a los pesos que logran la clasificación deseada (suponiendo que existan tales pesos). en esta sección vamos a presentar una prueba de convergencia para el aprendizaje del perceptrón gobernar para el perceptrón de una sola neurona se muestra en la Figura 4.5. Figura 4.5 sola neurona Perceptrón
  • 18. La salida de este perceptrón se obtiene a partir La red dispone de los siguientes ejemplos de comportamiento de la red adecuada: Donde cada salida de destino, Tq, es o bien 0 o 1. NOTACIÓN Para presentar convenientemente la prueba que presente por primera vez una nueva notación. Vamos a combinar la matriz de pesos y el sesgo en un único vector: También vamos a aumentar los vectores de entrada con un 1, correspondiente a la sesgoentrada: Ahora podemos expresar la entrada neta a la neurona de la siguiente manera: La regla de aprendizaje perceptrón para un perceptrón-sola neurona (Eq. (4.34) y Eq. (4.35)) puede escribirse ahora El error e puede ser 1, -1 o 0. Si e = 0, entonces no se realiza ningún cambio en los pesos. Si e = 1, entonces el vector de entrada se añade al vector de peso. Si e = 1, entonces el negativo del vector
  • 19. de entrada se añade al vector de peso. Si contamos sólo aquellos iteraciones para la que se cambia el vector de pesos, la regla de aprendizaje se convierte en donde Z '(k-1) es el miembro apropiado del conjunto Vamos a suponer que existe un vector de peso que puede categorizar correctamente todos Q vectores de entrada. Esta solución se denominará X. Para este vector de pesos vamos a suponer que Y PRUEBA Ahora estamos listos para comenzar la prueba del teorema de convergencia del perceptrón. El objetivo de la prueba es encontrar los límites superior e inferior en el longitud del vector de peso en cada etapa del algoritmo. Supongamos que el algoritmo se inicializa con el vector de pesos cero: x(0) = 0. (Esto no afecta a la generalidad de nuestro argumento.) Entonces, después de iteraciones (cambios en el vector de pesos), nos encontramos con la ecuación. (4.60): Si tomamos el producto interno del peso del vector solución con el vector peso en iteración k obtenemos De la ecuación (4,61) – EQ (4,63) podemos demostrar que
  • 20. Por lo tanto De la desigualdad de Cauchy-Schwartz (véase [Brog91]) Donde Si combinamos la ecuación (4,67) y EQ (4.68) podemos poner un límite inferior en la longitud al cuadrado del vector peso en iteración k: A continuación queremos encontrar un límite superior para la longitud del vector peso. Empezamos por encontrar el cambio en la longitud de iteración: Tenga en cuenta que Puesto que los pesos no se actualizarían a menos que el vector de entrada anterior había sido mal clasificado. Ahora se puede simplificar a EQ (4,71). Podemos repetir este proceso para, , etc., para obtener
  • 21. Si , este límite superior se puede simplificar a Ahora tenemos un límite superior (EQ (4.75)) y un límite inferior (EQ (4,70)) en la longitud al cuadrado del vector peso en iteración k. Si combinamos las dos desigualdades encontramos Porque k tiene un alto seguro, esto significa que las pesas sólo se cambiará un número finito de veces. Por lo tanto, la regla de aprendizaje del Perceptrón se reunirán en un número finito de iteraciones. El número máximo de iteraciones (cambios en el vector de peso) es inversamente proporcional al cuadrado de δ. Este parámetro es una medida de cuánto es el límite de la decisión de solución a los patrones de entrada. Esto significa que si las clases de entrada son difíciles de separar (se encuentra cerca de la frontera de decisión) llevará muchas iteraciones del algoritmo converger. Tenga en cuenta que existen sólo tres supuestos claves necesarios para la prueba: 1. una solución para el problema existe, de modo que EQ (4.66) está satisfecha. 2. los pesos sólo se actualizan cuando el vector de entrada está mal clasificado, por lo tanto EQ (4.72) está satisfecha. 3. un alto obligado, existe para la longitud de los vectores de entrada. Debido a la generalidad de la prueba, hay muchas variaciones de aprendizaje regla que puede también ser demostrado para converger el Perceptrón. (Ver ejercicio E4.9). Limitaciones La regla de aprendizaje del Perceptrón está garantizada a converger a una solución en un número finito de pasos, mientras exista una solución. Esto nos lleva a una pregunta importante. ¿Qué problemas puede resolver un perceptrón? Hay que recordar que una sola neurona Perceptrón es capaz de dividir el espacio de entrada en dos regiones. El límite entre las regiones es definido por la ecuación Este es un límite lineal (hiperplano). El Perceptrón puede utilizarse para clasificar los vectores de entrada que pueden ser separados por un límite lineal. Llamamos a estos vectores linealmente
  • 22. separables. El ejemplo de puerta y lógico en la página 4-7 muestra un ejemplo bidimensional de un problema linealmente separable. El problema de reconocimiento ple/naranja ap del capítulo 3 es un ejemplo tridimensional. Desafortunadamente, muchos problemas no son linealmente separables. El ejemplo clásico es la puerta XOR. Son los pares de entrada/de la blanco para la puerta XOR Este problema se ilustra gráficamente en el lado izquierdo de la figura 4.6, que también muestra otros dos problemas linealmente inseparables. Trata de trazar una línea recta entre los vectores con objetivos de 1 y los objetivos de 0 en cualquiera de los diagramas de la figura 4.6. Figura 4.6 problemas linealmente inseparables Fue la incapacidad de la Perceptrón básico para resolver tales problemas sencillos que condujo, en parte, a una reducción en el interés en la investigación de redes neuronales dur ing la década de 1970. Rosenblatt había investigado en redes más complejas, que sintió capaz de superar las limitaciones de la básica Perceptrón, pero nunca fue capaz de extender efectivamente la regla del Perceptrón a dichas redes. En el capítulo 11 introduciremos perceptrones multicapa, que pueden resolver problemas de clasificación arbitraria y describen el algoritmo backpropagation, que puede utilizarse para entrenarlos. Resumen de los resultados Arquitectura del Perceptron
  • 23. Límite de decisión El límite de la decisión es siempre ortogonal al vector peso. Monocapa perceptrones sólo pueden clasificar vectores linealmente separables. Regla de aprendizaje Perceptrón Donde e = t - a Problemas resueltos P4.1 Resolver los tres problemas de clasificación simple se muestra en la figura P4.1 dibujando un límite de decisión. Encontrar valores de sesgo que ocasionar una sola neurona perceptrones con los límites de decisión elegido y peso. Figura P4.1 Problemas de clasificación simple
  • 24. Primero trazamos una línea entre cada conjunto de puntos de datos claras y oscuras El siguiente paso es encontrar los pesos y sesgos. Los vectores de peso deben ser ortogonal a los límites de decisión y apuntando en la dirección de puntos para ser clasificado como 1 (los puntos oscuros). Los vectores de peso pueden tener cualquier longitud que nos gusta. Aquí hay un conjunto de opciones para los vectores de peso: Ahora encontramos los valores de sesgo para cada Perceptrón escogiendo un punto en el límite de la decisión y satisface la ecuación (4.15). Esto nos da los siguientes tres sesgos:: Ahora podemos comprobar nuestra solución contra los puntos originales. Aquí ponemos a prueba la primera red en el vector de entrada
  • 25. Podemos usar MATLAB para automatizar el proceso de pruebas e intentar nuevos puntos. Aquí la primera red se utiliza para clasificar a un punto que no estaba en el problema original. P4.2 Convertir el problema de clasificación definido a continuación en una definición de problema equivalente consiste en restringir los valores de peso y el sesgo de las desigualdades. Cada objetivo 푡푖 indica si la red de entrada en respuesta a 푝1 debo estar menos de 0, o mayor o igual a 0. Por ejemplo, puesto que 푡1 es 1, Sabemos que la entrada neta correspondiente a p1 debe ser mayor o igual a 0. Así obtenemos la siguiente desigualdad Aplicando el mismo procedimiento a los pares de entrada/destino para y resultados en el siguiente conjunto de desigualdades. Para resolver un conjunto de desigualdades es más difícil que resolver un conjunto de igualdades. Añade una complejidad es que a menudo hay un número infinito de soluciones (como a menudo hay un número infinito de los límites de decisión lineal que puede resolver un problema de clasificación linealmente separables).
  • 26. Sin embargo, debido a la simplicidad de este problema, podemos resolverlo graficando los espacios de solución definidos por las desigualdades. Tenga en cuenta que sólo aparece en las desigualdades (ii) y (iv), y sólo aparece en las desigualdades (i) y (iii). Nosotros podemos trazar cada par de desigualdades con dos gráficos. Cualquier peso y el sesgo de los valores que caen en ambas regiones gris oscuros para resolver el problema de la clasificación. Aquí está una tal solución: P4.3 tenemos un problema de clasificación con cuatro clases de vector de entrada. Las cuatro clases son Diseñar una red Perceptrón para resolver este problema. Para resolver un problema con cuatro clases de entrada vector necesitaremos un perceptrón con por lo menos dos neuronas, desde una - neurona Perceptrón puede categorizar 25 clases. El Perceptrón dos neuronas se muestra en la figura P4.2. Figura P4.2 dos neuronas Perceptrón
  • 27. Vamos a empezar mostrando los vectores de entrada, como en la figura P4.3. Los círculos de luz indican vectores de clase 1, los luz cuadrados indican vectores de clase 2, los círculos oscuros indican vectores de clase 3 y los cuadrados oscuros indican vectores de clase 4. Un perceptrón dos neuronas crea dos límites de decisión. Por lo tanto, para dividir el espacio de entrada en las cuatro categorías, necesitamos tener un límite de decisión las cuatro clases se dividen en dos grupos de dos. Los restantes límites entonces deben aislar cada clase. Dos tales límites se ilustran en la figura P4.4. Ahora sabemos que nuestros patrones son linealmente separables. Figura P4.3 vectores entrados para problema P4.3 Figura P4.4 decisión provisional límites para problema P4.3 Los vectores de peso deben ser ortogonales a los límites de decisión y deben apuntar hacia las regiones donde las salidas de la neurona son 1. El siguiente paso es decidir qué lado de cada límite debe producir un 1. Una opción es ilustrada en la figura P4.5, donde las áreas sombreadas representan salidas de 1. El sombreado más oscuro indica que ambas salidas de neurona son 1. Tenga en cuenta que esta solución corresponde a los valores objetivo de
  • 28. Ahora podemos seleccionar los vectores de peso: Tenga en cuenta que las longitudes de los vectores de peso no es importante, sólo sus direcciones. Deben ser ortogonales a los límites de decisión. Ahora podemos calcular el sesgo escogiendo un punto en un límite y satisface la ecuación (4.15): Figura P4.5 decisión regiones problema P4.3 En forma de matriz que tenemos que completa nuestro diseño. P4.4 resolver el siguiente problema de clasificación con la regla del Perceptrón. Aplique cada vector de entrada en orden, para tantas repeticiones como sea necesario para asegurar que el problema está solucionado. Dibujar un gráfico del problema sólo después de que ha encontrado una solución.
  • 29. Utilice el peso inicial y parcialidad: La salida de a no es igual el valor objetivo t1, así que usamos el Perceptrón regla para encontrar nuevos pesos y prejuicios basados en el error. La salida la hace no es igual la t_1 valor objetivo, así que usamos la regla del Perceptrón para encontrar nuevos pesos y prejuicios basados en el error. Ahora aplicamos el segundo vector de entrada p2, utilizando los pesos actualizados y sesgo. Esta vez la salida de a es igual a la meta t2. Aplicación de la regla del Perceptrón no resultará en cambios. Ahora aplicamos el tercer vector de entrada.
  • 30. La salida en respuesta a p3 vector de entrada es igual a la t3 blanco, así que no habrá ningún cambio. Ahora pasamos a la última entrada vector p4. Esta vez la salida de un realiza no es igual la t4 objetivo apropiado. La regla del Perceptrón se traducirá en un nuevo conjunto de valores para W y b. Ahora debemos revisar el primer vector p1 otra vez. Esta vez la salida de una es igual a la t1 objetivo asociado. Por lo tanto, no existen cambios La segunda presentación de p2 produce un error y por lo tanto, un nuevo conjunto de valores de peso y sesgo. Aquí están los nuevos valores:
  • 31. Ciclismo a través de cada vector de entrada una vez más los resultados sin errores. Por lo tanto, el algoritmo ha convergido. Es la solución final : Ahora podemos ver los datos del entrenamiento y el límite de la decisión de la solución. El límite de decisión está dado por Para encontrar el intercepto p2 del límite de decisión, establecer 푝1 = 0: Para encontrar el intercepto p1, establecer 푝2 = 0: El límite de decisión resultante se ilustra en la figura P4.6.
  • 32. Figura P4.6 decisión límite para problema P4.4 Tenga en cuenta que el límite de decisión cae a través de uno de los vectores de entrenamiento. Esto es aceptable, dada la definición de problema, puesto que la función de límite devuelve 1 cuando recibe una entrada de 0, y el objetivo para el vector en cuestión es de hecho 1. P4.5 considerar otra vez el problema de decisión cuatro clase que hemos introducido en problema P4.3. Formar una red Perceptrón para resolver este problema usando el Perceptrón regla de aprendizaje. Si usamos los mismos vectores objetivo que hemos introducido en problema P4.3, el entrenamiento conjunto será: Vamos a empezar el algoritmo con los siguientes pesos iniciales y sesgos: La primera iteración es La segunda iteración es
  • 33. La tercera iteración es Iteraciones de cuatro a ocho no producen ningún cambio en los pesos. La novena iteración produce
  • 34. En este punto el algoritmo ha convergido, puesto que todos los patrones de entrada se clasificará correctamente. Los límites de la decisión final se muestran en la figura P4.7. Compare este resultado con la red que se diseñó en problema P4.3. Figura P4.7 decisión Final límites para su problema P4.5
  • 35. Epílogo En este capítulo hemos introducido nuestra primera regla de aprendizaje Ñ el Perceptrón regla de aprendizaje. Es un tipo de aprendizaje llamado aprendizaje supervisado, en el cual la regla de aprendizaje está proporcionada de un conjunto de ejemplos de comportamiento de red adecuada. Como cada entrada se aplica a la red, la regla de aprendizaje ajusta los parámetros de red para que la salida de la red se moverá más cerca a la blanco. La regla de aprendizaje del Perceptrón es muy simple, pero también es muy poderosa. Hemos demostrado que la regla se reunirán siempre a una solución correcta, si existe una solución. La debilidad de la red Perceptrón miente no con la regla de aprendizaje, pero con la estructura de la red. El Perceptrón estándar sólo es capaz de clasificar los vectores son linealmente separables. Lo veremos en el capítulo 11 que la arquitectura Perceptrón generalizable a mutlilayer perceptrons, que puede resolver problemas de clasificación arbitraria. El backpropagation aprendizaje regla, que se introduce en Cápitulo11, puede utilizarse para entrenar a estas redes. En los capítulos 3 y 4 se han utilizado muchos conceptos del campo del álgebra lineal, tales como producto interno, proyección, distancia (norma), etc.. Nos encontraremos en capítulos posteriores que una buena base en algebra lineal es esencial para nuestra comprensión de las redes neuronales. En los capítulos 5 y 6 vamos a revisar algunos de los conceptos fundamentales de álgebra lineal que serán más importantes en nuestro estudio de redes neuronales. Nuestro objetivo será obtener una comprensión fundamental de cómo neural redes de trabajo.