7. La reproduccion no preserva la forma exacta del material genético Meiosis Recombinación de material genético crossover Mutaciones Mecanismos de corrección protegen parcialmente la fidelidad de la copia del ADN copiado 1 error / 10000 bases - correcciones = 1 error / 10 9 bases + Selección Natural Surpervivencia del mejor “adaptado” antes de la reproducción Crossover aleatorio y mutaciones filtrados por selección natural a lo largo de muchas generaciones lleva a especies mejor “adaptadas”. Grandes poblaciones vienen de unos pocos individuos Algoritmos genéticos
8.
9. Problema del viajante (Travelling Salesman Problem) Hallar el camino que visita n ciudades sólo una vez 1 2 n Problema NP Hay n! soluciones que explorar No existe un algoritmo eficiente para hallar la solución Mínimos locales, frustración Uso práctico frecuente si se añaden ligaduras (rutas, llamadas de teléfono,..) Parametrización e.g. A 1 = {1,7,4,3,8,2,6,9,5} mutación A 2 = {1,7,3,4,8,2,6,9,5} crossover A 3 = {1,8,2,6,7,4,3,9,5} premio dist = d(1,7) + d(7,4) + ... + d(9,5) + d(5,1) Algoritmos genéticos
10. 10 ciudades “ soluciones” ~ 362880 Mínimo exacto t ~ 1 min dist = 3.394975 AG mínimo t < 1s dist AG = 3.394975 11 ciudades “ soluciones” ~ 3628800 Mínimo exacto t ~ 10 min dist = 3.441836 AG mínimo t < 1s dist AG = 3.441836 100 generaciones Algoritmos genéticos TSP resultados
11. 101 ciudades “ soluciones” ~ 10 156 Búsqueda aleatoria entre un millón de recorridos (t ~ 30s) encuentra una solución de dist = 43.26733 AG mínimo t < 1s dist AG = 30.61271 Exploración de 10 6 “soluciones” Algoritmos genéticos
12. ¿Por qué funcionan los AGs? Esquema H = 0 1 1 * * 1 * Orden de un esquema O(H) = O(011**1*) =4 (# dígitos fijos ) Longitud de un esquema (H) = (011**1*) = 7 ( longitud de un patrón) Palabra A i bits l ex: A = { {1,0,1}, ...} población A = {A 1 , A 2 , ..., A n } esquema: 101, 10*,1*1, # esquemas posibles 3 l *01, 1**, *0*, # esquemas presentes en una población de n palabras n 2 l **1,*** Algoritmos genéticos
13. A tiempo t empezamos con m ejemplos de esquema H dentro de la población A ( hay n palabras en A y l bits en cada palabra ) Reproducción Cada palabra es copiada de acuerdo a su adecuación A i El destino de un esquema depende de Adecuación promedio de H Adecuación promedio total C>0 vida crecimiento exponencial C<0 muerte muerte exponencial Algoritmos genéticos
14. Crossover + mutación destruye y crea nuevos esquemas Crossover Si el crossover es seleccionado al azar uniformemente, el esquema H es destruido Con probabilidad La probabilidad de supervivencia es Mutación O (H) posiciones deben mantenerse inalteradas crossover con probabilidad p c mutación con probabilidad p m << 1 Algoritmos genéticos
15. Teorema fundamental de los Algoritmos Genéticos Esquemas de bajo orden tienen exponencialmente más descendientes en subsiguientes generaciones n 2 l (de entre 3 l ) esquemas son explorados (sólo n 3 son procesados eficientemente: paralelismo implícito ) Algoritmos genéticos
16. Un día en Las Vegas 0 1 El bandido de dos brazos (Loaded two-arm bandit) Juega una población de estrategias mutación-crossover-selección: Beneficio óptimo LL LR LL LL RL RR LR RR LL Algoritmos genéticos
17. Algoritmos genéticos ... y otro día dedicado a las quinielas 4 partidos: 3 4 =81 apuestas posibles Problema: halla el número mínimo de apuestas que aciertan tres resultados como mínimo 1-7-80 3-7-22-76-80 3-7-8-14-33-65-81 1-7-34-73 DNA= propuesta de apuestas Mutación y crossing Fiteness= errores + #apuestas 10 6 generaciones: solución óptima= 4apuestas !!! Problema 1: 13 partidos – 1 error ? Problema 2: 11 partidos – 2 errores ? Reducción = problema diofántico
22. ¿Qué controla el flujo de información? las sinápsis = pesos los umbrales y la arquitectura !!!! Redes Neuronales
23. ¡Hemos aprendido a aprender! En el año 1985 se ideó un método para encontrar los pesos y los umbrales a partir de ejemplos. No es necesario entender cómo se resuelve un problema. Podemos “entrenar” una red neuronal artificial con ejemplos. Redes Neuronales Construimos una función error ejemplo: ( in(p) ; out(p) ) p=1,...,patterns run NN: z (1) (p) = in(p) z (n) (p) = F( z (1) (p) ) error:
24. E = w + t E w E t w = - E w t = - E t E = - E w 2 E w 2 0 Redes Neuronales
25. Cambio de pesos Energía (error) Activación Para la última capa L=n h i Redes Neuronales
26. L L-1 .... l l-1 ....... 2 BACK-PROPAGATION Regla de la cadena Redes Neuronales
27. Aplicaciones de Redes neuronales artificiales Créditos Seguros Logística Sociología Control Optimización Fidelidad Bolsa Data Mining Aplicaciones Redes Neuronales