El documento describe la implementación del algoritmo LRTA* para un agente racional aplicado a la ciencia cognitiva. El agente aprende una función heurística admisible para estimar el costo del camino hacia el objetivo usando LRTA*. El algoritmo inicia una búsqueda A* y actualiza la heurística en cada iteración basado en el costo del movimiento detectado. El LRTA* siempre encuentra una solución y converge a soluciones óptimas al resolver el problema repetidamente.
Prueba de evaluación Geografía e Historia Comunidad de Madrid 4ºESO
Implementacion Algoritmo LRTA*
1. ESTUDIO Y ANÁLISIS DE LA INTELIGENCIA ARTIFICIAL EN UN AGENTE RACIONAL APLICADO A LA CIENCIA COGNITIVA BASTIN “Bastón Inteligente integrado para personas no videntes”. Implementación del algoritmo LRTA*
2. Implementación LRTA* El agente aprende la función heurística admisible, para estimar el costo del camino hacia el objetivo. Y dispone de h 0 en todos los nodos, para comenzar el proceso de aprendizaje. Inicia una búsqueda A*. Conoce el coste correspondiente al movimiento detectado desde el nodo captado en tiempo-on-line a sus nodos sucesores. -Expande n(i) que es el nodo origen, para generar sucesores S(n(i) obstáculos y/o rutas. Para el nodo objetivo h(n(i)), en base al coste de movimiento desde nodo origen n(i) al nodo objetivo n(j) Ec.1: Heurística para mejorar el rendimiento en la búsqueda heurística de tiempo real.
3. Como aprende el AGENTE: Fig.2 Heurísticas para la toma de decisiones basadas en el conocimiento, para utilizar una arquitectura híbrida.
4.
5. La función heurística h(n) ruta visitada y h’(n) ruta actualizada, siempre que esta sea admisible. No así cuando es 0, el algoritmo se comportaría como una búsqueda de anchura, porque aun no hay coste del camino recorrido.
6. Complejidad espacio temporal de LRTA* es su almacenamiento en la tabla de valores heurísticos de todos los estados de la ruta inicial al estado objetivo. Dado en:Ec.2: Heurística para mejorar el rendimiento en la búsqueda heurística de tiempo real.
7. Algoritmo en pseudocódigo S = Estado Si = Estado inicial. Sobj = estadoobjetivo. H(s) = heuristic aplicada a ese estado. Max = maximización de la función Min = minimización de la función. Succ(s) = sucesores de s->(S’) argMin = minimo valor de un dominio. s:= si. Si s=sobj, entonces detener con éxito. h(s):=max(h(s),min s’’succ(s)(c(s,s’’)+h(s’’))). s’:=argmins’’succ(s)(c(s,s’’)+h(s’’)). Solucionar empates aleatoriamente. s:=s’. Go to 2
8.
9.
10. Implementación LRTA* El algoritmo de aprendizaje en tiempo real (Learning Real-Time A*), Usa heurística en tiempo real, bajo las condiciones que siempre encuentra una solución a un problema y converge a soluciones óptimas cuando lo resuelve repetidas veces. Fig.7 Coste de los tiempos
11. BIBLIOGRAFIA [1] [Russell Stuart, 2004] Peter Norving. INTELIGENCIA ARTIFICIAL. UN ENFOQUE MODERNO]. Pearson Educación. 2da. Edición. Madrid. [2] [Rodriguez Jorge. 2008]. INTRODUCCIÓN A LOS SISTEMAS DE VISIÓN ARTIFICIAL]. Disponible en http://www.scribd.com/doc/8343510/Vision-Artificial último acceso. Úlitmo acceso 30/01/2010. [3]Artificial Intelligence: A Modern Approach. [ Disponible en: http://aima.cs.berkeley.edu [4][Mira José, 2001] Delgado Esperanza, etc. ASPECTOS BÁSICOS DE LA INTELIGENCIA ARTIFICIAL. Editorial Sanz y Torres. Madrid. [5]Burns Alan, Wellings Andy. 2003]. SISTEMAS DE TIEMPO REAL Y LENGUAJES DE PROGRAMACIÓN. 3ra. Edición. Pearson Educación S.A. Madrid. [6] Malagón Constantino. 2003] SISTEMAS BASADOS EN CONOCIMIENTO. February 17, 2003. Disponible en: http://www.nebrija.es/~cmalagon/inco/Apuntes/sistemas_basados_en_conocimiento.pdf Úlitmo acceso 27/01/2010. [6] http://www.bloggadgets.es/1455/eye-stick-el-baston-para-no-videntes-con-sensor/ [7] Hernandez Carlos, 2007]. Mejorando la convergencia en búsqueda heurística de tiempo real. Disponible en http://www.iiia.csic.es/~chernan/hernandezcarlos.doc Ültimo acceso 2/02/2010. [8] http://www.w3.org/RDF/Validator/