0% encontró este documento útil (0 votos)
101 vistas392 páginas

TEMAS Razonamiento

El documento aborda la toma de decisiones en sistemas inteligentes, destacando la complejidad del proceso y la importancia de evaluar riesgos y escenarios. Se presentan diferentes tipos de decisiones, como programadas y no programadas, y se discuten técnicas para la resolución de problemas y la creación de agentes inteligentes. Además, se enfatiza la necesidad de una buena calidad de información y la utilización de estrategias adecuadas para mejorar la toma de decisiones.

Cargado por

Diego Fernando
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
101 vistas392 páginas

TEMAS Razonamiento

El documento aborda la toma de decisiones en sistemas inteligentes, destacando la complejidad del proceso y la importancia de evaluar riesgos y escenarios. Se presentan diferentes tipos de decisiones, como programadas y no programadas, y se discuten técnicas para la resolución de problemas y la creación de agentes inteligentes. Además, se enfatiza la necesidad de una buena calidad de información y la utilización de estrategias adecuadas para mejorar la toma de decisiones.

Cargado por

Diego Fernando
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Tema 1

Razonamiento y Planificación Automática

Tema 1. Introducción a la
toma de decisiones
Índice
Esquema

Ideas clave

1.1. ¿Cómo estudiar este tema?

1.2. Problemas de toma de decisiones

1.3. Arquitectura de un agente inteligente

1.4. Tipos de agentes inteligentes

1.5. Referencias bibliográficas

A fondo

Agentes de la información

Agentes inteligentes

Arquitecturas de Agentes

It's a Risky Life

Técnicas para definir estrategias de resolución de


problemas

Ejemplos adicionales de tipos de agentes

Instituto de Tecnologías Creativas

Bibliografía adicional

Test
Esquema
Razonamiento y Planificación Automática 3
Tema 1. Esquema
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

1.1. ¿Cómo estudiar este tema?

En este tema estudiaremos los principios necesarios para entender el problema de la

toma de decisiones para los sistemas inteligentes. Describiremos la problemática

humana de la toma de decisiones y su influencia al construir agentes inteligentes.

Partiremos de las estrategias mentales que pueden ayudar a estructurar la toma de

decisiones y plantearemos los mecanismos tradicionales para estructurar los

problemas, dividiendo en etapas el proceso de definición del problema.

Completaremos los conceptos iniciales con la definición de agente inteligente y de

los tipos de agentes inteligentes que nos podemos encontrar según su funcionalidad

o servicio que ofrece. Presentaremos los distintos elementos que componen estas

arquitecturas y su utilidad.

Razonamiento y Planificación Automática 4


Tema 1. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

1.2. Problemas de toma de decisiones

La complejidad en el proceso de toma de decisiones es evidente, ya que es

necesario evaluar y conocer las condiciones del entorno. Como guías podemos

emplear la intuición y las reglas, pero en ocasiones es necesario realizar un análisis

exhaustivo de la totalidad de los posibles escenarios. Es en este contexto cuando las

matemáticas aplicadas a la toma de decisiones pueden servir de ayuda.

Todos tenemos dificultades para tomar decisiones, especialmente cuando la decisión

debe tomarse frente a una situación de riesgo. En este tipo de casos, la intuición no

suele ser una herramienta y las matemáticas son un buen recurso para ayudar a

tomar decisiones.

En la actualidad, existen varios desafíos que generan situaciones de riesgo

(terrorismo, crisis económico-financieras, ciberseguridad, cambio climático…) y la

toma de decisiones en estos casos es muy importante.

Cuando una situación necesita ser analizada y una decisión tomada, es necesario

asumir un riesgo; por tanto, es necesario evaluar e identificar el riesgo involucrado y

decidir cuáles son las medidas a adoptar para que este sea mínimo. La capacidad

que tenemos para tomar decisiones está relacionada con la asunción de riesgo, la

creatividad y la búsqueda de alternativas a los retos que aún no existen.

Los elementos para tener en cuenta en la toma de decisiones son:

▸ Efecto futuro: cómo afectará la decisión en el futuro. Cualquier decisión influye:

algunas lo hacen a corto plazo (decisiones de bajo nivel), pero otras influyen a largo
plazo (decisiones de alto nivel).

▸ Reversibilidad: es el esfuerzo necesario para revertir una decisión y la velocidad con

la que una decisión puede revertirse. Cuando es difícil revertir, es mejor realizar
decisiones a alto nivel. Si es simple, será necesario tomar decisiones a bajo nivel.

Razonamiento y Planificación Automática 5


Tema 1. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

▸ Impacto: está relacionado con otras actividades y áreas que se ven afectadas por la

decisión tomada. El impacto puede ser: extenso (abarca varias áreas o actividades y
es recomendable aplicar decisiones a alto nivel) o localizado, único (solo afecta a
una o pocas áreas o actividades y se asocia con una decisión de bajo nivel).

▸ Calidad: la ética, la legalidad, los principios que gobiernan el comportamiento, la

imagen y las relaciones laborales, entre otras, entran en juego en este punto.
Cuando muchos de estos factores están involucrados, es necesario tomar decisiones
a alto nivel. En cambio, cuando hay pocos implicados, es recomendable tomar la

decisión a bajo nivel.

▸ Periodicidad: este elemento se refiere a la frecuencia o excepcionalidad de una

decisión. Las decisiones excepcionales son de alto nivel, mientras que las decisiones
que deben ser tomadas con mayor frecuencia son decisiones de bajo nivel.

La toma de decisiones a alto nivel requiere seguir un proceso de análisis serio,

buscar alternativas, planificar, ejecutar y evaluar. La toma de decisiones a bajo

nivel implica poco esfuerzo y es posible tomar este tipo de decisiones en poco

tiempo. En el mundo de planning, las decisiones de alto nivel se toman con

planificadores deliberativos, es decir planificadores que pueden emplear todo el

tiempo necesario para encontrar una solución. Por el contrario, en las decisiones a

bajo nivel se emplean planificadores reactivos. Los cuales son planificadores que

deben encontrar una solución en un tiempo muy corto.

Resumen de elementos de toma de decisiones de alto nivel y decisiones de bajo

nivel.

Razonamiento y Planificación Automática 6


Tema 1. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Tabla 1. Comparativa entre las decisiones de alto y bajo nivel.

Por otra parte, es posible clasificar las decisiones en dos tipos: decisiones

programadas y decisiones no programadas.

Las decisiones programadas son de rutina y se repiten periódicamente. Tienen que

ver con problemas bien definidos y no requieren un proceso de decisión complejo.

Normalmente se administran con una secuencia de pasos, hay un método que es

capaz de manejar este tipo de decisiones y existen reglas que permiten dirigir el

pensamiento en una dirección específica definida. Por ejemplo: en una emergencia

en el hogar, llame al número de emergencia.

Las decisiones no programadas están relacionadas con condiciones o entornos

desconocidos, situaciones nuevas y no existen reglas o métodos establecidos que

puedan servir como guía. Este tipo de decisiones son exclusivas de la situación,

también única.

Las decisiones no programadas, en general, necesitan más tiempo para tomarse, ya

que hay múltiples variables que deben valorarse y ponderarse, y también la

información disponible es incompleta, ya que no es posible anticipar cuál será el

impacto en el resultado de la decisión tomada. Por ejemplo: frente al menú de un

restaurante que es la primera vez que visitamos.

Razonamiento y Planificación Automática 7


Tema 1. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

En cuanto al problema, podemos diferenciar el problema estructurado del no

estructurado.

▸ Problema estructurado: el enunciado contiene toda la información necesaria para

poder resolverlo.

▸ Problema no estructurado: el enunciado no contiene toda la información que sería

necesaria para resolverlo. Es necesario que la persona que se enfrenta a él busque

información adicional para añadirla.

Etapas necesarias para la resolución de problemas

A continuación, vamos a hablar sobre las diferentes etapas necesarias para la

resolución de problemas.

Primera etapa

Comprender la complejidad del problema es el objetivo de esta etapa. Analizaremos

el problema, sintetizándolo por medio del pensamiento hipotético-deductivo,

obteniendo una visión general del mismo.

▸ Identificar el problema.

Formularemos e intentaremos verificar la veracidad de una hipótesis que ilustre el

problema. La mayoría de las veces, en nuestro día a día, los problemas se presentan

de un modo claro y estructurado (en general, se encuentran a nuestro alrededor,

esperando ser descubiertos). Es importante tener una actitud activa y tener la

intención de hacer x o querer hacer y.

La visión correcta del problema es observar las tendencias, analizar la evolución de

los hechos y usar la creatividad para anticipar e imaginar qué es posible que suceda.

Es necesario tomar distancia al analizar los hechos, realizar un análisis con frialdad y

Razonamiento y Planificación Automática 8


Tema 1. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

confiar en las experiencias pasadas para predecir lo que sucederá en el futuro, pero

sin que estas o los datos entren en conflicto con decisiones futuras. La materia prima

para tomar decisiones es la información y, cuanto mejor sea, mejor será la calidad de

la decisión.

L a información es primordial en la toma de decisiones: a mayor calidad de esta,

mejor es la calidad de la toma de decisiones. La creatividad, la experiencia y la

intuición, junto con el conocimiento de las experiencias pasadas, ayudan a la hora

de elaborar las predicciones de lo que puede suceder en el futuro.

Todas estas claves deberán considerarse necesarias a la hora de crear mecanismos

automáticos para la toma de decisiones y resolución inteligente de problemas, ya sea

de forma natural o artificial.

¿Cómo identificar el problema?

En la siguiente tabla se muestran preguntas que sirven para ayudar a delimitar un

problema.

Tabla 2. Preguntas para delimitar un problema.

Razonamiento y Planificación Automática 9


Tema 1. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

E l análisis DAFO es otra técnica empleada para diseñar una estrategia para

determinar problemas. Se trata de realizar una valoración en grupo sobre el presente

y el futuro, valorando lo positivo y lo negativo.

Tabla 3. Análisis DAFO.

Por último, dentro de las técnicas para determinar problemas, vamos a describir la

reunión de discusión. Consiste en compartir ideas cuando se va a comenzar un

proyecto. Requiere una preparación previa concretando los temas que preocupan al

equipo, disponer a los asistentes en círculo para favorecer la comunicación y que

todos se vean las caras, no superar las dos horas de reunión y no complicarse

demasiado realizando los preparativos. Este tipo de técnica se emplea con mucha

frecuencia en la metodología Scrum.

Puedes ver más sobre Scrum en el siguiente enlace:

[Link]

Como vemos, existen varias técnicas para delimitar problemas: preguntarse por el

origen, lugar, magnitud, foco o historia; ponerse en el lugar del cliente; análisis DAFO

y reunión de discusión.

Razonamiento y Planificación Automática 10


Tema 1. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

▸ Explicar el problema. Es necesario explicar el problema para definir dónde se origina,

dónde ocurre, cómo se produce y a quién afecta. Es hora de realizar tareas para
profundizar en el problema, comprenderlo y desarrollar una explicación satisfactoria
basada en los elementos que lo causan (las causas). De esta manera, será posible
comenzar a crear una estrategia para [Link] explicar el problema, hay que

ir más allá de los síntomas y poner el foco en los aspectos que lo provocan: indagar
las causas. Para lograr explicarlo se pueden seguir los siguientes pasos:

• Valorar la importancia del problema: es clave determinar la importancia de un

problema con los criterios objetivos, haciendo un juicio de la importancia del


problema en nuestro objetivo.

• Definir límite: encontrar el límite concreto del problema. Los problemas se originan

de una manera difusa, mal definida. Antes de encontrar la solución, debemos


conocer bien el problema y definir cuál es y cuál no, y buscar el objeto relacionado

con el problema.

• Detectar las causas y las consecuencias: al reducir el problema (definir el límite),

también lo describimos. Pero es necesario detectar y analizar las causas, ir al origen


del problema, determinar y ayudar a predecir las consecuencias. Existen varias
técnicas para dar explicación a los problemas: clasificación ERIM de problemas,
método de los seis interrogantes, las veinte causas, diagrama de espina de pez y
mapas mentales.

Razonamiento y Planificación Automática 11


Tema 1. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

▸ ERIM: se basa en clasificar los problemas según dos criterios (urgencia e

importancia), elaborando una matriz del tipo:

Tabla 4. Clasificación ERIM.

▸ Seis interrogantes sobre el problema: ¿cuál es?, ¿cómo sucede?, ¿por qué ocurre?,

¿a quién afecta?, ¿dónde sucede? y ¿cuándo pasa?

▸ Las veinte causas: hay que crear una lista de los posibles elementos que causan el

problema, posteriormente se van eliminando causas para quedarse con las veinte
más importantes.

▸ Diagrama de espina de pez: también conocido como diagrama Ishikawa, permite

mostrar las causas de un problema, organizarlas y asignarles unos pesos o valores.

Consiste en una técnica llevada a cabo en varias sesiones divididas en fases.

Primero, se debe dibujar un diagrama en blanco y luego escribir brevemente el

problema a analizar. Se identifican las categorías del problema que se consideran

apropiadas. Se determina una causa principal y se pregunta sobre el origen de esa

causa, esto ayudará a establecer causas secundarias cuya consecuencia es la causa

principal (análisis de dispersión). Se analizan en detalle todas las causas, tanto

principales como secundarias.

Razonamiento y Planificación Automática 12


Tema 1. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Ejemplo de un diagrama de pez (causa-efecto) o diagrama Ishikawa:

Figura 1. Diagrama espina de pez. Fuente:

▸ Mapas mentales: sirven fundamentalmente para crear ideas a partir del análisis

sistemático y detallado del problema. Los mapas mentales son una forma de
expresar un razonamiento radiante (desde el interior hasta el final). La siguiente
imagen muestra el mapa mental para hacer un DAFO.

Figura 2. Ejemplo de mapa mental para especificar un análisis DAFO. Fuente: (Buzan, 1996).

Razonamiento y Planificación Automática 13


Tema 1. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Un problema bien definido: la capacidad de explicar el problema nos llevará a

construir definiciones consistentes y bien definidas, de tal manera que los agentes

inteligentes puedan diseñarse con un objetivo claro, entendiendo correctamente cuál

es el objetivo final de su desempeño y su entorno real de desarrollo.

Deberemos, por tanto, crear definiciones de problemas que presenten características

que nos permitan trabajar con ellos de modo eficiente. Algunas características o

asunciones que se pueden tener en entornos simples (problemas bien definidos) son:

▸ Discreto:

• Se puede concebir el mundo en estados.

• En cada estado hay un conjunto finito de percepciones y acciones.

▸ Accesible: el agente puede acceder a las características relevantes del entorno.

• Puede determinar el estado actual del mundo.

• Puede determinar el estado del mundo que le gustaría alcanzar.

▸ Estático y determinista: no hay presión temporal ni incertidumbre.

• El mundo cambia solo cuando el agente actúa.

• El resultado de cada acción está totalmente definido y es previsible.

Segunda etapa

Crear una estrategia para resolver el problema que reduzca al mínimo los efectos

Razonamiento y Planificación Automática 14


Tema 1. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

negativos y haga que sea posible alcanzar los logros.

Con el problema bien definido y delimitado, ingresamos en la fase que permite

encontrar las soluciones.

▸ Idear estrategias. Existen muchas técnicas para encontrar estrategias y soluciones.

Algunas de las empleadas en la toma de decisiones estratégica pueden ser:


brainstorming, 4x4x4, la pecera y seis sombreros para pensar. Son interesantes para

reflexionar acerca de la complejidad de la toma de decisiones.

▸ Elegir estrategia y tomar una decisión. Para tomar una decisión, es necesario elegir

de entre una serie de posibilidades aquella que sea la más adecuada para resolver

el problema. En este punto, es necesario valorar las estrategias que han surgido,
usando aquella metodología elegida en la fase de idear estrategias y tomar la
decisión. Para elegir hay que valorar:

• Beneficios.

• Probabilidad de éxito.

• Dependencias internas y externas (¿depende de nosotros llevarlo a cabo o depende

de más personas?).

• Medios, materiales y personas que son necesarios para llevar a cabo la estrategia.

• Estimación de tiempo necesario para poner en marcha la estrategia.

• Costes.

Desde el punto de vista de los agentes inteligentes, veremos que la estrategia a

utilizar dependerá mucho del problema al que nos enfrentemos, de ahí la importancia

de definir correctamente este.

Razonamiento y Planificación Automática 15


Tema 1. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Muchas técnicas son generalmente aplicables a muchos problemas, pero existen

técnicas que mejoran las posibilidades de éxito frente a ciertos problemas. Por

ejemplo, si tenemos que resolver un problema en el que el orden en el que se toman

las decisiones no es importante, pero sí el resultado final de ciertas variables, son

más eficientes las técnicas de CSP (Problema de Satisfacción de Restricciones) o los

algoritmos genéticos. Si encontramos un conocimiento a priori alto sobre el

problema, pero una definición vaga de los predicados y términos utilizados,

deberíamos buscar modelos de inferencia difusos, etc.

Por tanto, es cometido del especialista el conocer bien el problema antes de plantear
estrategias. El especialista debe saber también el mayor número de técnicas

posibles para emplear la más conveniente a cada problema.

▸ Diseñar intervención. A continuación, deberemos planificar las acciones que se van

a realizar, determinando una hoja de ruta. Deberemos emplear el mejor diseño


arquitectónico posible para poder garantizar la mejor toma de decisiones, de modo
eficiente y organizado.

Tercera etapa

Consiste fundamentalmente en conseguir resolver el problema. Es la etapa en la cual

se implementa la estrategia óptima ejecutando la intervención. Por último, el proceso


de toma de decisiones se cerrará con una evaluación de logros que servirá para

mejorar y como aprendizaje.

Razonamiento y Planificación Automática 16


Tema 1. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

1.3. Arquitectura de un agente inteligente

Definición de agente inteligente

De las múltiples interpretaciones y técnicas empleadas para construir sistemas que

resuelvan problemas, la inteligencia artificial es la disciplina derivada de los

conocimientos científicos e ingenieriles que estructura las metodologías, técnicas y


algoritmos que apoyan la resolución de estos problemas, intentando emplear

mecanismos sofisticados de razonamiento y usando de modo eficiente recursos y

conocimientos.

Dentro de la inteligencia artificial, la teoría de agentes inteligentes diseña los

sistemas de toma de decisiones por medio de la filosofía de inmersión de un

elemento (agente) en un entorno, con el cual debe interactuar por medio de sus

sistemas de percepción (que le proporcionan información de estado de dicho

entorno) y sistemas actuadores (que le permiten modificar el estado para conseguir

un objetivo).

Es importante resaltar la definición de agente inteligente que emplearemos a lo

largo de este curso. Para nosotros, un sistema se considerará inteligente siempre

que intente obtener una meta por medio de un comportamiento racional. Evitaremos

las definiciones de inteligencia artificial «fuerte» que consideran factores más allá de

la racionalidad para clasificar un agente como inteligente, dado que necesitaríamos

de definiciones reflejo del comportamiento humano para considerar estos agentes

«fuertes».

Por nuestra parte, un agente será más inteligente cuanto más autónomo sea, es

decir, que necesite menos conocimiento a priori para encontrar una solución racional

a su problema. El concepto de conocimiento a priori surge de cualquier información

previa sobre el comportamiento del entorno que se le tenga que proporcionar al

agente para tomar decisiones. Todo conocimiento de este tipo que le ofrezcamos a

Razonamiento y Planificación Automática 17


Tema 1. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

un agente le resta autonomía y, por tanto, capacidad de tomar decisiones.

L a racionalidad del agente se medirá a través de una medida de desempeño

(normalmente nos referiremos a ella como métrica o utilidad).

Figura 3. Representación gráfica de agente inteligente.

Elementos de un agente inteligente

En términos generales, un agente inteligente debe organizar su proceso de toma de

decisiones en tres fases principales:

Figura 4. Fases en las que un agente inteligente debe organizar su proceso de toma de decisiones.

Razonamiento y Planificación Automática 18


Tema 1. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

▸ Sentir: le proporciona al agente la percepción del entorno. Esta información tiene que

ser procesada por el sistema de percepción que debe:

• Extraer en estructuras de datos la información percibida. Las estructuras de datos


deben ser «amigables» para el razonamiento.

• Procesar dichas estructuras extraídas para generar una representación reducida de


elementos relevantes para el razonamiento, conceptos de alto nivel relacionados con
el proceso de razonamiento del agente.

▸ Pensar: es el proceso de toma de decisiones racionales del agente. Empleando la

información disponible del sistema de percepción y la memoria interna del agente,


inicia un proceso deliberativo o reactivo en el cual debe:

• Razonar, extrayendo de los hechos relevantes observados y recordados


conclusiones nuevas, por ejemplo, de la posición de un nuevo agente respecto a la
antigua: su trayectoria.

• Decidir: empleando mecanismos para la toma de decisión de acciones (los


algoritmos tradicionales de búsqueda, planificación…).

▸ Actuar: por medio de sus sistemas actuadores, el agente interactuará con el entorno

para producir aquellos cambios que le permitan obtener un estado que mejore su
valoración del desempeño para alcanzar sus metas. Para ello deberá:

• Generar sus acciones de alto nivel en estructuras de datos que puedan ser
manejadas en el futuro, empleando árboles, grafos, etc.

Razonamiento y Planificación Automática 19


Tema 1. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

▸ Convertir las acciones empleadas por el agente como resultado del razonamiento en

elementos entendibles por el sistema de actuadores (curvas de animación, trazas de


información del sistema, variable de estado…).

Arquitectura de un agente Inteligente

Una arquitectura de agentes es una metodología empleada para construir agentes.

Las arquitecturas de agente tienen un importante papel en el razonamiento práctico.

En ellas se especifica cómo el agente puede ser descompuesto en un conjunto de

módulos, y cómo estos módulos pueden interactuar. El conjunto total de módulos y

sus interacciones determinan las acciones y estados internos futuros. proponen, una
clasificación de arquitectura de agentes en tres categorías principales:

▸ Arquitecturas deliberativas.

▸ Arquitecturas reactivas.

▸ Arquitecturas híbridas.

Arquitecturas de agentes deliberativos

Contienen una representación explícita y lógica del mundo, con lo cual las decisiones

(por ejemplo, acerca de las acciones a realizar) son hechas por medio de un

razonamiento lógico. Se basan en un razonamiento práctico, en el que se decide el

conjunto de acciones a realizar para conseguir los objetivos. No existe límite de

tiempo para calcular el conjunto de acciones.

Razonamiento y Planificación Automática 20


Tema 1. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 5. Arquitectura de un Agente deliberativo. Fuente: (Guzman, 2020).

▸ Ejemplos de arquitecturas deliberativas:

• Agentes basados en planificación (planning agents): la comunidad de inteligencia


artificial dedicada a la planificación, desde principios de los años setenta, ha estado
estrechamente relacionada con el diseño de agentes. Parece razonable, entonces,
que muchas de las innovaciones en el diseño de agentes provengan de esa
comunidad. El objetivo es describir a los agentes que pueden encontrar un curso de
acciones que, cuando se ejecutan, logran algún objetivo deseado.

Razonamiento y Planificación Automática 21


Tema 1. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

• Belief, Desire & Intention (BDI) (Georgeff, Pell, Pollack, Tambe y Wooldridge, 1999):
la descripción del estado de un agente de estas características se realiza por medio
de creencias; que representan el conocimiento que el agente tiene de sí mismo y
de su entorno. Estas creencias pueden ser incompletas y/o incorrectas; deseos,

objetivos que el agente desea cumplir a largo plazo e intenciones, subconjunto de


las metas que el agente intenta conseguir. Además, de estos elementos básicos, los
agentes BDI generan planes por medio de explorar metas intermedias.

▸ Planes: combinación de intenciones. Las intenciones crean subplanes del plan global

del agente, de manera que el conjunto de todos los planes refleja las intenciones del
agente.

▸ Metas: subconjunto de los deseos que el agente puede conseguir. Han de ser

realistas y no tener conflictos entre ellas.

Figura 6. Modelo BDI de agentes. Fuente: Pavón (2006).

Razonamiento y Planificación Automática 22


Tema 1. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Arquitecturas de agentes reactivos

Una arquitectura para agente reactivo es aquella que no utiliza razonamiento

simbólico complejo. Pretenden resolver el problema puntual que se encuentran en

cada instante por medio de una toma de decisiones rápida.

Figura 7. Arquitectura de un Agente reactivo. Fuente: (Guzman, 2020).

▸ Ejemplos:

• Sumbsumption architecture: consiste en una jerarquía de comportamientos para la

consecución de tareas. Cada comportamiento intenta tomar el control del agente en


cada instante. Capas menores representan comportamientos de tipo más primitivo
(tal como evitar obstáculos, por ejemplo) y tienen precedencia sobre las capas
superiores de la jerarquía.

Razonamiento y Planificación Automática 23


Tema 1. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

▸ Arquitectura de red de agentes: Pattie Maes (Maes, 1990) ha desarrollado una

arquitectura de agentes en la cual un agente se define como un conjunto de


módulos de competencia. Estos módulos asemejan ligeramente el comportamiento
de la arquitectura subsunción. Cada módulo es especificado por el diseñador en
términos de pre- y poscondiciones, y un nivel de activación, que da una indicación

real de la relevancia del módulo en una situación particular.

▸ Reactive execution model : consiste en una arquitectura de ejecución reactiva para el

control de la ejecución de planes. Es independiente del dominio y opera con unas


estructuras precalculadas en tiempo de ejecución.

Arquitecturas para agentes híbridos

Un enfoque totalmente deliberativo o reactivo no es adecuado para diseñar agentes

en entornos complejos. En este tipo de entornos, se necesitan sistemas híbridos que

intentan unir estos enfoques. Un enfoque obvio es construir un agente compuesto

por dos subsistemas o planificadores:

▸ Deliberativo, que contiene un módulo simbólico del mundo, que desarrolla planes y

efectúa decisiones de la manera propuesta por la inteligencia artificial simbólica.

▸ Reactivo, que es capaz de reaccionar a eventos que ocurren en el ambiente sin

necesitar un razonamiento complejo. A menudo, al componente reactivo se le da


cierto grado de precedencia sobre el deliberativo, de tal manera que pueda proveer

una pronta respuesta a eventos ambientales importantes.

Este tipo de arquitecturas presenta controladores reactivos en los niveles de toma de

decisiones locales o inmediatas, delegando conductas planificadas a las capas

superiores con controladores de deliberación. Existen mecanismos para enviar

Razonamiento y Planificación Automática 24


Tema 1. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

información entre capas, en muchos casos como entradas a capas inferiores que se

combinan con las percepciones recibidas en los sensores.

Veamos algunos ejemplos:

▸ Procedural Reasoning System (PRS): PRS (Georgeff, 1987) es una arquitectura BDI,

es decir, basada en creencias, deseos e intenciones, que incluye una librería de

planes, así como una explícita representación simbólica de las creencias, deseos e
intenciones. Las creencias son hechos tanto derivados de la percepción del entorno
como del estado interno del agente. Estos hechos son expresados mediante lógica
de primer orden. Los deseos son representados como comportamientos del sistema.
La librería de planes del PRS contiene un conjunto de planes parcialmente
elaborados, llamados áreas de conocimiento (Kas, por sus siglas en ingles), cada

uno de los cuales se asocia con una condición para ser invocado.

Estas condiciones determinan cuando el KA debe ser activado. Los KAs pueden ser

activados por objetivos o por datos. Pueden ser también reactivos, permitiendo que

el PRS responda rápidamente a cambios en su ambiente. Las intenciones son el

conjunto actual de KAs.

▸ COSY (Burmeister, 1992): la arquitectura COSY es una arquitectura BDI. Aunque

está relacionada con agentes interactivos, también se considera una arquitectura


híbrida que incluye elementos tanto de PRS (Georgeff, 1987) como de IRMA. Tiene

cinco componentes principales:

• Sensores: reciben entradas perceptibles no comunicativas.

• Actuadores: permiten al agente realizar acciones no comunicativas.

• Comunicaciones: permiten al agente enviar mensajes.

Razonamiento y Planificación Automática 25


Tema 1. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

▸ Cognición: es responsable de mediar entre las intenciones del agente y sus

conocimientos acerca del mundo, y de elegir una acción apropiada para realizar.

▸ Intención: contiene objetivos a largo plazo, actitudes, responsabilidades y los

elementos de control que toman parte en el razonamiento y la toma de decisiones


del componente cognición.

Otros tipos de Arquitecturas

Arquitectura de tres capas (three-layer architecture)

Es posible agrupar los datos por niveles. Los robots móviles se basan en este tipo de

arquitectura.

Razonamiento y Planificación Automática 26


Tema 1. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 8. Modelos y arquitecturas de agentes. Fuente: Pavón (2006).

Niveles:

▸ De control reactivos.

▸ Gobernar secuencias.

▸ Consumidores de tiempo.

Razonamiento y Planificación Automática 27


Tema 1. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Arquitecturas multicapa (multilayer architectures) (Albus y Barbera, 2005).

Arquitectura de modelo de referencia, múltiples capas de sistemas de control en

tiempo real. Generación de comportamiento, modelado del mundo, procesamiento

sensorial, juicio de valor.

Figura 9. Modelos y arquitecturas de agentes. Fuente: Pavón (2006).

Razonamiento y Planificación Automática 28


Tema 1. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Arquitectura triple torre:

Figura 10. Arquitectura triple torre. Fuente: Pavón (2006).

Arquitecturas cognitivas

Su objetivo es definir las operaciones cognitivas y perceptivas básicas que posee la

mente humana. En teoría, cada tarea que los humanos pueden realizar debe

consistir en una serie de estas operaciones discretas. Los modelos formalizados

pueden usarse para refinar aún más una teoría integral de la cognición y, más

inmediatamente, como un modelo comercialmente utilizable.

El Institute of Creative Technologies (s.f.) define la arquitectura cognitiva como:

«hipótesis sobre las estructuras fijas que proporcionan una mente, ya sea en sistemas

naturales o artificiales, y cómo funcionan juntas —junto con el conocimiento y las

habilidades incorporadas dentro de la arquitectura— para producir un comportamiento

inteligente en una diversidad de entornos complejos».

Razonamiento y Planificación Automática 29


Tema 1. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Ejemplos:

▸ ACT-R: es una arquitectura cognitiva desarrollada principalmente por John Robert

Anderson en la Universidad Carnegie Mellon. La suposición más importante de ACT-

R es que el conocimiento humano se puede dividir en dos tipos de representaciones


irreductibles: declarativo y de procedimiento.

Dentro del código ACT-R, el conocimiento declarativo se representa en forma de

fragmentos, es decir, representaciones de vectores de propiedades individuales,

cada una de ellas accesible desde una ranura etiquetada.

Los fragmentos se mantienen y se hacen accesibles a través de búferes, que son el

front-end de lo que son módulos, es decir, estructuras cerebrales especializadas y en

gran medida independientes. Hay dos tipos de módulos:

▸ Módulo perceptivo-motor: encargado de la interacción con el entorno. Gestiona el

flujo de percepción y acción necesario para conectar al agente con el mundo.

▸ Módulo de memoria: la memoria está dividida en dos tipos. Por un lado, la memoria

a largo plazo o memoria productiva, que contiene las reglas de producción y, por
otro, la memoria a corto plazo (memoria de trabajo o memoria declarativa), que

contiene los hechos actuales del mundo.

Razonamiento y Planificación Automática 30


Tema 1. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 11. Esquema simplificado de arquitectura cognitiva. Fuente: Institute of Creative Technologies (s.f.)

Razonamiento y Planificación Automática 31


Tema 1. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 12. Esquema de un sistema ACT-R. Fuente: [Link]

▸ SOAR (Laird, Newell y Rosenbloom, 1987).: también creada en la Universidad de

Carnegie Mellon por Laird y Newell El objetivo final de una arquitectura cognitiva es
proporcionar una base para un sistema capaz de un comportamiento inteligente
general. Es decir, el objetivo es proporcionar la estructura subyacente que permitiría
a un sistema realizar toda la gama de tareas cognitivas, emplear toda la gama de
métodos de resolución de problemas y representaciones apropiadas para las tareas,

y conocer todos los aspectos de la tarea y su rendimiento en ellos.

Para alcanzar este objetivo se desarrollan los bloques de construcción

computacionales fijos necesarios para los agentes inteligentes generales: agentes

que pueden realizar una amplia gama de tareas y codificar, utilizar y aprender todo

tipo de conocimientos para comprender la gama completa de capacidades cognitivas

Razonamiento y Planificación Automática 32


Tema 1. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

que se encuentran en humanos, como la toma de decisiones, la resolución de

problemas, la planificación y la comprensión del lenguaje natural. Es, a la vez, una


teoría de lo que es la cognición y una implementación computacional de esa teoría.

Figura 13. Arquitectura SOAR. Fuente: Laird, Newell y Rosenbloom (1987)

El diseño de SOAR se basa en la hipótesis de que todo comportamiento deliberado

orientado a objetivos puede ser entendido como la selección y aplicación de

operadores a un estado. Un estado es una representación de la situación actual del

problema a resolver, un operador transforma un estado (realiza cambios en la

representación) y un objetivo es un resultado deseado para el problema.

SOAR se ejecuta continuamente intentando aplicar el operador actual y seleccionar

el siguiente operador (un estado puede tener solo un operador a la vez), hasta que

se logre el objetivo.

Razonamiento y Planificación Automática 33


Tema 1. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

SOAR tiene memorias separadas (con diferentes modos de representación) para la

descripción de su estado actual y de su conocimiento procedural a largo plazo. La

memoria a corto plazo almacena los datos producidos por los sensores, los

resultados de inferencias intermedias sobre los datos más actuales, las metas
actualmente activas para el agente y los operadores (acciones y planes) que están

también activos.

Mientras que la memoria a largo plazo o memoria de producción mantiene el

conocimiento de responder a situaciones por medio de procedimientos que

almacenan el conocimiento específico para la resolución del problema. Esto lo lleva a

cabo por medio de reglas de inferencia y conocimiento para la selección y aplicación

de operadores frente a estados específicos.

Razonamiento y Planificación Automática 34


Tema 1. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

1.4. Tipos de agentes inteligentes

Figura 14. Tipos de agentes inteligentes. Fuente: (Heredia, s.f.).

Puedes consultar el mapa conceptual completo y navegar a través de él para

ver en detalle los tipos de agentes inteligentes en:

[Link]

2805/tipos%20de%20agentes%[Link]

Razonamiento y Planificación Automática 35


Tema 1. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 15. Tipos de agentes inteligentes. Fuente: (Heredia, s.f.).

Puedes consultar el mapa conceptual completo y navegar a través de él para

ver en detalle los tipos de agentes inteligentes en:

[Link]

2JGW/Tipos%20de%20Agentes%[Link]

Razonamiento y Planificación Automática 36


Tema 1. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Agentes basados en búsquedas y planificación

Figura 16. Agentes basados en búsquedas y planificación.

Estos agentes resuelven el problema de alcanzar una meta u objetivo deseado en el

entorno en el que se encuentran por medio de la exploración del espacio de estados.

Para ello realizan una búsqueda de las posibles alternativas (acciones disponibles)

dado el estado en el que están. Con esta decisión simulan o estiman el estado

resultante del mundo al operar de esa manera e intentan encontrar qué secuencia de

acciones es la que les permite alcanzar la meta que desean.

Los algoritmos de búsqueda emplean la descripción del estado como punto de

partida para toda exploración, pero pueden tomar o no en consideración el hecho de

que los estados del mundo presentan estructura.

Razonamiento y Planificación Automática 37


Tema 1. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Empezaremos no teniendo en cuenta dicha estructura y presentaremos los

algoritmos generales de búsqueda en espacios de estados (amplitud, profundidad,

A*, multiagentes…), y luego introduciremos aquellos modelos de razonamiento en los

cuales la estructura del estado nos permita alcanzar unos mejores modelos de

exploración del espacio de estados, acelerando el proceso de toma de decisiones.

Razonamiento y Planificación Automática 38


Tema 1. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

1.5. Referencias bibliográficas

Albus, J. y Barbera, A. (2005). RCS: A cognitive architecture for intelligent multi agent

systems. Annual Reviews in Control, 29(1), 87-99.

Bratman, M. E. (1987). Toward an architecture for resource-bounded agents. SRI and

Stanford Univ., Stanford, CA, Centre for the Study of Language Information , (pp. 87-

104).

Burmeister, B. &. (1992). Cooperative problem-solving guided by intentions and

perception. ACM SIGOIS Bulletin, (pp. 13(3), 10).

Buzan, T. &. (1996). El libro de los mapas mentales. Barcelona: Ediciones Urano.

Georgeff, M. P. (1987). Reactive reasoning and planning. AAAI, (pp. Vol. 87, pp. 677-

682).

Georgeff, M., Pell, B., Pollack, M., Tambe, M. y Wooldridge, M. (1999). The Belief-

Desire-Intention Model of Agency. Conferencia presentada en Intelligent Agents V,

Agent Theories, Architectures, and Languages, París.

Guzman, C. C. (2015). Reactive execution for solving plan failures in planning control

applications. Integrated Computer-Aided Engineering, 22(4), 343-360.

Heredia, C. (s.f.) Tipos de agentes inteligentes. Recuperado de


[Link]

2805/tipos%20de%20agentes%[Link]

Ishikawa, K. (1976). Guide to Quality Control. Asian Productivity Organization.

Laird, J., Newell, A. y Rosenbloom, P. (1987). SOAR: An Architecture for General

Intelligence. Michigan: Carnegie-Mellon University. Recuperado de


[Link]

Razonamiento y Planificación Automática 39


Tema 1. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Maes, P. (1990). Designing Autonomous Agents. Cambridge, MA: The MIT Press.

Manya, F. &. (2003). Técnicas de resolución de problemas de satisfacción de

restricciones. Revista Iberoamericana de Inteligencia Artificial, 7(19), 0.

Müller, J. (1996). The design of intelligent agents: a layered approach. Lecture Notes

in Computer Science, Vol. 1177. Berlín: Springer-Verlag.

Pavón, J. (2006). Agentes inteligentes. Modelos y arquitecturas de agentes.

Recuperado de [Link]

USC Institute for Creative Technologies. (s. f.) Cognitive Architecture. Recuperado de

[Link]

Wooldridge, M. y. (1994). Agent Theories, Architectures and Languages: A Survey.

Intelligent Agents ECAI. Ámsterdam: Recuperado de

[Link]

Razonamiento y Planificación Automática 40


Tema 1. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
A fondo

Agentes de la información

Hípola, P. y Vargas-Quesada, B. (1999). Agentes inteligentes: definición y tipología:

los agentes de la información. El profesional de la información, 8(4), 13-21.

Recuperado de: [Link]

Artículo que define, identifica y clasifica los agentes inteligentes. Se centra, sobre

todo, en los encargados de la recuperación de información.

Razonamiento y Planificación Automática 41


Tema 1. A fondo
© Universidad Internacional de La Rioja (UNIR)
A fondo

Agentes inteligentes

Flores, E. (1997). Agentes inteligentes: el siguiente paso en la inteligencia artificial.

Revista de Información, Tecnología y Sociedad , 1. Recuperado de:

[Link]
40442008000200026&script=sci_arttext

En este artículo puedes profundizar en los agentes inteligentes (qué son y qué

características tienen), además de ver algunas de sus aplicaciones.

Razonamiento y Planificación Automática 42


Tema 1. A fondo
© Universidad Internacional de La Rioja (UNIR)
A fondo

Arquitecturas de Agentes

Müller, J. P. (1999). Architectures and applications of intelligent agents: A survey. The

Knowledge Engineering Review,13(4), 353-380. Recuperado de:

[Link]
ures_and_applications_of_intelligent_agents_A_survey/links/02e7e53c82028e81d50
[Link]

En este artículo se presenta un overview de las diferentes arquitecturas multiagentes

que podemos encontrar y aplicaciones de los agentes inteligentes.

Razonamiento y Planificación Automática 43


Tema 1. A fondo
© Universidad Internacional de La Rioja (UNIR)
A fondo

It's a Risky Life

Cultura matemática ICMAT. (2016). IT'S A RISKY LIFE! - Episodio 1: "Introducción"

[Vídeo]. YouTube. [Link]

v=2OAaU5Vtjug&list=PLH_XnVAPg2hw5P0K5GXW5yvH60xxI1ckn

David Ríos, titular de la cátedra AXA del ICMAT, presenta los vídeos It’s a risky life,

donde, en clave de humor, aborda conceptos matemáticos esenciales sobre la toma

de decisiones, el riesgo y la influencia que tienen en la sociedad actual.

Razonamiento y Planificación Automática 44


Tema 1. A fondo
© Universidad Internacional de La Rioja (UNIR)
A fondo

Técnicas para definir estrategias de resolución de


problemas

Crea Business Idea (2010). Manual de la creatividad empresarial. España: Sudoe.

Recuperado de: [Link]


id=172

Ejemplos y técnicas de resolución de problemas en el ámbito de la toma de

decisiones empresariales.

Razonamiento y Planificación Automática 45


Tema 1. A fondo
© Universidad Internacional de La Rioja (UNIR)
A fondo

Ejemplos adicionales de tipos de agentes

Universidad Politécnica de Madrid (2000). Informe técnico: Arquitecturas de agente.

Recuperado de: [Link]

[Link]?page=5

Puedes encontrar ejemplos de arquitecturas de agentes en el informe técnico del

Proyecto DAMMAD de 2000.

Razonamiento y Planificación Automática 46


Tema 1. A fondo
© Universidad Internacional de La Rioja (UNIR)
A fondo

Instituto de Tecnologías Creativas

USC. Institute for Creative Technologies. Recuperado de: [Link]

Página web del Instituto de Tecnologías Creativas de la University of Southern

California.

Razonamiento y Planificación Automática 47


Tema 1. A fondo
© Universidad Internacional de La Rioja (UNIR)
A fondo

Bibliografía adicional

Bratman, M., Israel, D. y Pollack, M. (1988). Plans and resource-bounded practical

reasoning. Computational Intelligence, 4, 349-355.

Brenner, W., Zarnekow, R. y Wittig, H. (1998). Intelligent Software Agents. Berlín:

Springer.

Brooks, R. (1991). Intelligence without representation. Artificial Intelligence, 47(1-3),

139-159.

Carver, N. y Lesser, V. R. (1992). The Evolution of Blackboard Control Architectures

(informe). Estados Unidos: Computer Science Department, University

Massachusetts.

Chapman, D. y Agre, P. (1986). Abstract reasoning as emergent from concrete

activity. En Georgeff, M. y Lansky, A. (Eds.), Reasoning About Actions and Plans (pp.

411-424). San Mateo, CA: Morgan Kaufmann Publishers.

Ferber, J. (1999). Multi-agent systems: an introduction to distributed artificial

intelligence. Harlow: Addison-Wesley.

Genesereth, M. y Ketchpel, (1994). Software Agents. Communications of the

Association for Computing Machinery, 48-53.

Shoham, Y. (1993). Agent-oriented programming. Artificial Intelligence, 60, 51-92.

Weiss, G. (1999). Multiagent Systems. Massachusetts: The MIT Press.

Wooldridge, M. y Jennings, N. R. (1995). Modelos y arquitecturas de agente.

Intelligent Agents: Theory and Practice. The Knowledge Engineering Review, 10(2),

115-152.

Razonamiento y Planificación Automática 48


Tema 1. A fondo
© Universidad Internacional de La Rioja (UNIR)
Test

1. ¿Todas las técnicas de inteligencia artificial son aplicables a todos los

problemas?

A. Sí, existen algoritmos que resuelven todos los problemas.

B. No, debemos buscar la técnica que mejor se adapta a un problema de

entre las distintas que son aplicables.

C. Sí, los algoritmos genéticos resuelven todos los problemas.

D. No, cada problema es solo resuelto por un único algoritmo.

2. ¿Se dice que en un problema bien definido un estado es discreto?

A. Sí, se puede concebir el mundo en estados.

B. En cada estado hay un conjunto finito de percepciones y acciones.

C. Cada estado presenta una cardinalidad inferior a diez elementos.

D. A y B son correctas.

3. La percepción de un agente…

A. Proviene de los sensores.

B. Es creada exclusivamente por el agente.

C. Contiene información no alcanzable por los sensores.

D. Se descompone en acciones.

4. ¿En la fase de razonamiento de un agente?

A. Se deciden las acciones a realizar.

B. Se crean juicios e inferencias derivadas de las percepciones actuales y de

los hechos recordados.

C. Se filtran los valores percibidos por los sensores.

D. La A y la C son correctas.

Razonamiento y Planificación Automática 49


Tema 1. Test
© Universidad Internacional de La Rioja (UNIR)
Test

5. Un agente reactivo…

A. No incluye ningún tipo de modelo simbólico central del mundo.

B. Tiene procesos cognitivos con semejanzas biológicas.

C. No emplea la percepción dentro del modelo de razonamiento.

D. Funciona de modo asistido por el usuario.

6. La arquitectura SOAR:

A. Ejecuta continuamente intentando aplicar el operador actual y seleccionar

el siguiente operador.

B. Es una arquitectura reactiva.

C. Emplea un sistema de creencias para representar sus intenciones.

D. La B y C son correctas.

7. Las arquitecturas multicapa:

A. Tienen dos capas.

B. Tienen un sistema de percepción reactivo que toma los componentes de

actuación.

C. Suele tener una capa reactiva para gestionar los eventos de corto plazo.

D. Son cognitivas.

8. Los algoritmos de búsqueda…

A. Emplean la descripción del estado como punto de partida para toda

exploración.

B. Crean sistemas de restricciones.

C. Son reactivos.

D. La B y C son correctas.

Razonamiento y Planificación Automática 50


Tema 1. Test
© Universidad Internacional de La Rioja (UNIR)
Test

9. ¿Qué arquitecturas se basan en modelos de la mente humana?

A. Arquitecturas reactivas.

B. Arquitecturas cognitivas.

C. Arquitecturas deliberativas.

D. Ninguna de las anteriores.

10. La memoria interna del agente…

A. Almacena solo las percepciones de un instante determinado.

B. Guarda una secuencia episódica.

C. Almacena las acciones.

D. Ninguna de las anteriores.

Razonamiento y Planificación Automática 51


Tema 1. Test
© Universidad Internacional de La Rioja (UNIR)
Tema 2

Razonamiento y Planificación Automática

Tema 2. Representación del


conocimiento y
razonamiento
Índice
Esquema

Ideas clave

2.1. ¿Cómo estudiar este tema?

2.2. Técnicas de representación simbólica

2.3. Clases de conocimiento

2.4. Tipos de razonamiento

2.5. Razonamiento lógico deductivo

2.6. Razonamiento lógico inductivo

2.7. Razonamiento lógico abductivo

2.8. Referencias bibliográficas

A fondo

Introducción a la representación del conocimiento

Fundamentos de la representación de la información

Tipos de argumentos

Razonamiento deductivo e inductivo

Glosario de filosofía

Bibliografía adicional

Test
Esquema
Razonamiento y Planificación Automática 3
Tema 2. Esquema
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

2.1. ¿Cómo estudiar este tema?

En este tema analizaremos cuatro puntos fundamentales para poder entender los

mecanismos de representación de la información para agentes inteligentes:

▸ La representación de la información: ¿por qué es necesaria?, ¿cómo puede

representar lo que configura el entorno?

▸ Del conocimiento que tenemos a priori y que podemos proporcionar al agente: ¿cuál

es útil?, ¿cómo lo expreso?

▸ De la información que recibimos en cada instante y que procesamos: ¿cómo

podemos almacenarla?, ¿en qué influye lo que ya ha experimentado un agente?

▸ Con toda la información que tenemos extraída de la percepción, ¿cómo podemos

crear más información?

Veremos a lo largo del tema que los distintos enfoques de agente que queramos

emplear para resolver un problema influyen notablemente en los esquemas de

diseño de la información y en cómo gestionamos su almacenamiento e inferimos

nuevos datos desde ello.

Además, trataremos brevemente los distintos tipos de razonamiento que emplea el

ser humano para resolver un problema. Describiremos en detalle los razonamientos

lógicos (inductivo, deductivo y abductivo), básicos para entender procesos

necesarios a la hora de implementar sistemas inteligentes.

Razonamiento y Planificación Automática 4


Tema 2. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

2.2. Técnicas de representación simbólica

Si tomamos en consideración el esquema de agente que debe realizar una toma de

decisiones de acuerdo con las percepciones recibidas de los cambios del entorno en

el que se encuentra, nos encontramos con un primer problema: ¿cómo

representamos la información que caracteriza el entorno y el conocimiento que

tenemos del problema?

Ya hemos visto la importancia de definir bien un problema. Ahora detallaremos los

modelos estándar de representación de dicha información y especificación del

problema.

¿Qué es la representación de la información?

Cualquier entidad inteligente que desee razonar sobre su mundo encuentra un hecho

importante e ineludible: el razonamiento es un proceso que ocurre internamente,

mientras que la mayoría de las cosas sobre las que desea razonar existen solo
externamente. Por ejemplo, Un agente (o persona) dedicado a planificar el montaje

de una bicicleta, puede tener que razonar sobre entidades como ruedas, cadenas,

piñones, manubrios, etc., pero tales cosas existen solo en el mundo externo.

Esta inevitable dicotomía es una razón fundamental y un rol para una representación:

funciona como un sustituto dentro del razonador, un sustituto de las cosas que

existen en el mundo. Las operaciones en y con representaciones sustituyen las

operaciones en lo real, es decir, sustituyen la interacción directa con el mundo. En

este punto de vista, el razonamiento en sí mismo es, en parte, un sustituto de la

acción en el mundo, cuando no podemos o no (todavía) queremos tomar esa acción

(Brachman, 1985).

Las representaciones que tengamos de la información funcionan como sustitutos de

nociones abstractas como acciones, procesos, creencias, causalidad, categorías,

Razonamiento y Planificación Automática 5


Tema 2. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

entre otros. Lo que les permite ser descritas dentro de una entidad para que pueda

razonar sobre ellas.

Técnicas de representación

La representación explícita y formal del conocimiento sobre un problema requiere el

uso de técnicas particulares. En el campo de la representación simbólica del

conocimiento dentro de la inteligencia artificial, se han propuesto diversas formas de

representación (Molina, 2006). Como muestra de estas técnicas tenemos, por

ejemplo:

Figura 1. Técnicas de representación.

Razonamiento y Planificación Automática 6


Tema 2. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

En general, una forma de representación del conocimiento debe satisfacer los

siguientes requisitos (Molina, 2006):

▸ Formal: la representación no debe presentar ambigüedades. Por ejemplo, el

lenguaje natural no se considera representación del conocimiento debido a las


ambigüedades que presenta.

▸ Expresiva: la representación debe ser suficientemente rica como para capturar los

diferentes aspectos que sea necesario distinguir. Por ejemplo, las fórmulas lógicas
de cálculo de predicados constituyen una representación más expresiva que la que
se maneja en cálculo proposicional.

▸ Natural: la representación debe ser suficientemente análoga a formas naturales de

expresar conocimiento. En este sentido, las representaciones matemáticas


tradicionales y cuantitativas (por ejemplo, las matrices) pueden resultar muy
artificiales para emular procesos de razonamiento.

▸ Tratable: la representación se debe poder tratar computacionalmente, es decir,

deben existir procedimientos suficientemente eficientes para generar respuestas a


través de la manipulación de los elementos de las bases de conocimiento.

En general, es conveniente crear representaciones de información basadas en una

única representación. Esto mejora el mantenimiento de la base de conocimiento.

Pero, en algunos casos, intentar representar todo el conocimiento en una única

representación nos puede limitar la aplicación de técnicas y algoritmos.

Para sistemas complejos que requieren tomar decisiones a distintos niveles, es

común emplear la idea de generar agentes multicapa (ver Figura 2) que

descomponen el problema en niveles y, para cada uno de ellos, establece un

tratamiento orientado a un agente especializado que necesita de una representación

concreta de parte de la información del entorno (Molina, 2006).

Razonamiento y Planificación Automática 7


Tema 2. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 2. Sistema modular multicapa. Fuente: (Molina, 2006).

Debido a esto, la propuesta actual es diseñar sistemas inteligentes basados en

arquitecturas que distribuyan y traten el problema de modo más organizado y

emplear técnicas especializadas para cada subtarea o subproblema.

Razonamiento y Planificación Automática 8


Tema 2. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

2.3. Clases de conocimiento

Para resolver problemas de modo natural es necesario llevar a cabo un análisis

preciso del conocimiento. Para ello, debemos tener en cuenta las distintas

clasificaciones de conocimiento que se emplean en la inteligencia artificial (Mira,

1995).

En el trabajo de (Molina, 2006) hay un detalle más extenso de los tipos de

conocimiento. Lo pueden ver en la Figura 3.

Razonamiento y Planificación Automática 9


Tema 2. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 3. Tipos de conocimiento.

Razonamiento y Planificación Automática 10


Tema 2. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 4. Esquema conceptual de las distintas fases del desarrollo de un sistema basado en el

conocimiento. Fuente: (Galán, 2008).

La Figura 4 muestra un esquema conceptual de las distintas fases del desarrollo de

un sistema basado en el conocimiento.

Razonamiento y Planificación Automática 11


Tema 2. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

2.4. Tipos de razonamiento

Cuando hablamos de razonamiento, nos referimos a un conjunto de actividades

mentales que conectan las ideas basándose en reglas que justifican una idea,

permitiendo resolver problemas a través de conclusiones.

Veamos algunas interpretaciones de la definición de razonamiento a través de varios

autores:

«El razonamiento es un conjunto de proposiciones relacionadas de tal manera que la

proposición final (conclusión) se obtiene de las proposiciones iniciales (premisas),

dando lugar a un conocimiento nuevo que supera el expresado en las premisas»

(Contreras, 1992)

«El razonamiento es el acto mediante el cual progresamos en el conocimiento con

ayuda de lo ya conocido. Las proposiciones de lo conocido se llaman premisas y el

conocimiento que se obtiene de las premisas es la conclusión» (Napolitano, 1989).

«El razonamiento es un proceso a través del cual, dadas unas premisas verdaderas,

o supuestamente verdaderas, se pasa a afirmar una nueva proposición (conclusión)

que se fundamenta en las premisas» (Muñoz, 1992).

Como se puede observar en estas definiciones, los autores se refieren a los mismos

conceptos implicados: premisas + conclusión.

Razonamiento y Planificación Automática 12


Tema 2. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 5. Razonamiento.

En todo razonamiento existen dos elementos: contenido y forma.

▸ Contenido: es lo que hace que una proposición sea verdadera o falsa. Es la

referencia a los objetos y las propiedades.

▸ Forma: es el nexo lógico entre los antecedentes (lo ya conocido) y los consecuentes

(la conclusión inferida a partir de los antecedentes). Este nexo que implica inferencia

se expresa mediante conjunciones. La forma es la que hace que la proposición sea


válida, y consiste en el uso de símbolos para expresar la validez de las
proposiciones.

El razonamiento puede clasificarse en: razonamiento deductivo y razonamiento

no deductivo.

Razonamiento y Planificación Automática 13


Tema 2. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 6. Clasificación del razonamiento.

Los tipos de razonamiento son:

▸ Analógico: método de procesamiento de la información donde se utilizan similitudes

para lograr una conclusión. Se parte del conocimiento de una característica común

entre dos objetos y se llega a la conclusión de que otros objetos similares tendrán las
mismas características. Es no deductivo. Emplea comparaciones. Establece el tipo
de relaciones: A es a B como C es a D.

▸ Válido e inválido: hablamos de razonamiento válido cuando la conclusión parte de

las premisas. Se considera que un razonamiento es válido, partiendo de la forma


lógica, aunque la conclusión o las premisas sean falsas; mientras que un
razonamiento inválido se produce cuando, a partir de premisas verdaderas, se

obtiene una conclusión falsa.

Razonamiento y Planificación Automática 14


Tema 2. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Tabla 1. Validez o no validez de un razonamiento. Fuente: (Seijas, 2012).

Todo argumento puede representarse mediante una proposición condicional con las

premisas como antecedente y con la conclusión como consecuente.

▸ Lógico: también llamado razonamiento formal, es el proceso mental que implica la

aplicación de la lógica. Se puede partir de una o varias premisas para obtener una
conclusión verdadera, falsa o posible. También se denomina razonamiento causal
cuando, a partir de uno o varios juicios, se deriva la validez, la posibilidad o la
falsedad de un juicio diferente. Puede iniciarse a partir de una observación o
hipótesis. Puede transformarse en un razonamiento inductivo o en un razonamiento
deductivo. Son tipos de razonamiento lógico: razonamiento inductivo,

razonamiento deductivo y razonamiento deductivo.

Razonamiento y Planificación Automática 15


Tema 2. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 7. Esquema de razonamiento lógico.

▸ No-lógico: también conocido como razonamiento informal. No solo se parte de

premisas (como ocurre en el razonamiento lógico), también se tiene en cuenta el

contexto y la experiencia.

▸ Argumentativo: un argumento es toda expresión lingüística de un determinado

razonamiento; por tanto, el razonamiento argumentativo refiere a la actividad


lingüística donde se puede argumentar. Establece una secuencia de ideas en un
argumento que, por medio de distintos mecanismos de razonamiento, intentamos
proceder desde una tesis hasta una conclusión. Podemos distinguir cinco modos
de razonamiento argumentativo: por analogía, por generalización, por signos, por

causa y por autoridad.

Razonamiento y Planificación Automática 16


Tema 2. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

▸ Por analogía: consiste en emplear el recurso de la analogía para explicar nuevos

fenómenos, comparando punto por punto un fenómeno desconocido con otro


conocido para llegar a comprender el primero. La analogía permite garantizar que, a
partir de una tesis aceptada, la misma tesis es válida para otro fenómeno u objeto.

Asumimos que, si dos cosas son muy parecidas entre sí, entonces la tesis válida
para una de ellas es también válida para la otra.

▸ Hipotético: es un análisis de consecuencias en un escenario imaginario o ficticio.

A continuación, vamos a centrarnos en los razonamientos más importantes para la

inteligencia artificial.

Razonamiento y Planificación Automática 17


Tema 2. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

2.5. Razonamiento lógico deductivo

Deducir es elaborar inferencias. Las inferencias deductivas son aquellas que pueden

ser válidas o inválidas. Es un razonamiento cuya conclusión es de consecuencia

necesaria; es decir, dadas unas determinadas premisas, se dice necesariamente una

conclusión (Napolitano, 1989).

Un razonamiento es deductivo cuando en él se exige que la conclusión se derive

necesariamente, forzosamente de las premisas. Por ello, se le considera

rigurosamente (Contreras, 1992).

Ejemplo de razonamiento deductivo:

▸ Si nieva, entonces hace frío.

▸ Nieva.

▸ Luego tengo frío.

Se entiende que existe validez cuando, a partir de las premisas verdaderas, no se

consigue una conclusión falsa. De premisas falsas pueden derivarse conclusiones

verdaderas y, sin embargo, el argumento ser válido.

La verdad se da cuando lo que se describe en las premisas se corresponde con la

realidad. Este tipo de razonamiento va de lo general a lo particular.

Dentro del razonamiento deductivo se distinguen varios tipos:

▸ Razonamiento deductivo categórico: parte de dos premisas verdaderas que darán

lugar a una conclusión verdadera.

Razonamiento y Planificación Automática 18


Tema 2. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

▸ Razonamiento deductivo proposicional: relaciona dos premisas donde una es

condición de la otra, antecedente y consecuente.

▸ Disyunción o dilema: la relación entre las premisas es de contrarios, por lo tanto, la

conclusión descarta una de ellas.

Existen dos formas de razonamiento deductivo: inmediato (la única operación lógica

es el cambio de juicio) y mediato (se establece una relación de mediación entre


juicios para llegar a la conclusión).

Deducción (Peirce, 1867):

Tabla 2. Deducción.

Los objetivos del razonamiento deductivo se alcanzan a través del método

deductivo, una serie de pasos prefijados que permiten alcanzar con éxito el objetivo.

El método deductivo, utilizado por Euclides (325-265 a. C.) en su geometría, y

basado en la lógica de Aristóteles, deduce teoremas a partir de principios

universales. Es un método que no proporciona información nueva.

Razonamiento y Planificación Automática 19


Tema 2. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Observa y analiza el siguiente esquema de funcionamiento del método deductivo:

Figura 8. El método deductivo. Fuente: (E-ducativa, 2020).

El método deductivo parte de lo general para llegar a lo particular.

Figura 9. Pasos que sigue el método deductivo.

Razonamiento y Planificación Automática 20


Tema 2. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

2.6. Razonamiento lógico inductivo

El razonamiento inductivo crea conclusiones probables de acuerdo con las premisas

dadas. Se basa en que, si diversos acontecimientos presentan la misma situación

que la de sus premisas, existe la probabilidad de que el resultado sea idéntico.

Inducir significa precisamente extraer conclusiones generales de experiencias

particulares.

La diferencia con el razonamiento deductivo es que la conclusión no se obtiene

obligatoriamente de las premisas. La conclusión del razonamiento inductivo se

obtiene con la observación directa de casos particulares.

Observa las diferencias en el siguiente esquema:

Figura 10. Diferencias entre razonamiento inductivo y deductivo. Fuente: ([Link], 2020)

Razonamiento y Planificación Automática 21


Tema 2. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Veamos el ejemplo de los griegos desde la perspectiva de la inducción (Peirce,

1867):

Tabla 3. Inducción.

Dentro del razonamiento inductivo hay distintos tipos:

▸ Razonamiento inductivo completo (también llamado razonamiento inductivo

perfecto): ocurre cuando todos los casos particulares están incluidos en las
premisas.

▸ Razonamiento inductivo incompleto o razonamiento inductivo imperfecto: en las

premisas únicamente se incluyen determinados casos particulares.

Los objetivos del razonamiento inductivo se alcanzan a través del método inductivo,

una serie de pasos prefijados que permiten alcanzar con éxito el objetivo.

El método inductivo fue propuesto por Francis Bacon para tratar de generalizar

conclusiones de carácter universal a partir de la observación de casos particulares.

El método inductivo tiene riqueza de información.

A continuación, se muestra un esquema de funcionamiento del método inductivo:

Razonamiento y Planificación Automática 22


Tema 2. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 11. Funcionamiento del método inductivo. Fuente: (E-ducativa, 2020).

El método inductivo parte de lo particular para llegar a lo general.

Figura 12. Pasos que sigue el método inductivo.

Razonamiento y Planificación Automática 23


Tema 2. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

2.7. Razonamiento lógico abductivo

El concepto clave en este tipo de razonamiento es el silogismo. A través del

silogismo, se considera la premisa mayor como cierta y la premisa menor como

probable, lo que conduce a obtener una conclusión que posee el mismo nivel de

probabilidad que la premisa menor. Es decir, el silogismo está constituido por al

menos dos premisas ‑particulares (se refieren solo a un caso o a un único individuo)

o universales (se aplican a todos los casos)‑ y una conclusión (resultado de

comparar las premisas). El primero en dar a conocer este tipo de razonamiento fue

Aristóteles.

A partir de un hecho se llega a las acciones que lo causaron. Es un método

empleado para encontrar explicaciones de hechos observados.

Por tanto, la abducción consiste en elaborar una hipótesis explicativa con base al

siguiente esquema: veo A con la característica Z. Como todos los A que veo son Z,

entonces cualquier elemento A tiene la característica Z.

La abducción parte de hechos y busca una teoría (del efecto a la causa). Es un

concepto que no puede ser directamente observado, relaciona lo observable con

algo diferente que posiblemente tampoco será observado. El razonamiento abductivo

implica un proceso que abarca tres pasos:

▸ El objeto o hecho.

▸ Hipótesis de por qué ocurre el objeto o hecho.

▸ Afirmar que la causa fue la responsable del objeto o hecho.

Razonamiento y Planificación Automática 24


Tema 2. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Para Charles S. Peirce (Peirce, 1867), la abducción o retroducción es un proceso

inferencial que está relacionado con la generación de hipótesis, ya sea en el

razonamiento científico o en el razonamiento ordinario. El ejemplo de los griegos

desde la abducción (Peirce, 1867):

Tabla 4. Abducción.

La lógica y el razonamiento abductivo son fundamentales, ya que permiten

enriquecer cualquier proceso en la fase de prueba, aportando una perspectiva de

cambio.

Figura 13. La lógica y el razonamiento abductivo en la innovación. Fuente: (Sobejano, 2013).

Razonamiento y Planificación Automática 25


Tema 2. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

El razonamiento abductivo permite pensar de manera alternativa, sin seguir los

caminos habituales de razonamiento, lo que conduce a soluciones disruptivas y

novedosas. Es contrario al razonamiento deductivo, que nos lleva a quedarnos en la

zona de confort. La innovación está fuertemente ligada al razonamiento abductivo

(Sobejano, 2013).

E l método abductivo nos permite enfrentar hechos que parecen inexplicables. Es

un proceso de creación basado en la observación de un fenómeno, que puede

clasificarse como sorprendente, y en la investigación del hecho. Los raptos son

conjeturas espontáneas de la razón. Para que surjan, la imaginación y el instinto son

necesarios, para ir más allá de lo que se conoce. El musement sense, del que habla

Peirce, es un momento más instintivo que racional en el que hay un flujo de ideas

hasta que de repente la idea aparece como una iluminación, según (Peirce, 1867) «el

secuestro es el primer paso del razonamiento científico» y eso dará comienzo a una

restricción de hipótesis aplicable a un fenómeno.

En la siguiente figura se resumen las diferencias entre los tres tipos de razonamiento

analizados en detalle en este tema.

Razonamiento y Planificación Automática 26


Tema 2. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 14. Diferencias entre tipos de razonamiento.

Razonamiento y Planificación Automática 27


Tema 2. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

2.8. Referencias bibliográficas

Brachman, R. y. (1985). Readings in Knowledge Representation. Los Altos: Morgan

Kaufman.

Contreras, B. (1992). Lógica simbólica. San Cristóbal: Universidad Católica del

Táchira.

E-ducativa. (2020). [Link] Obtenido de 4.1. El método inductivo


y el método deductivo: [Link]

[Link]/44700165/aula/archivos/repositorio/1000/1248/html/41_el_mtodo_

inductivo_y_el_mtodo_deductivo.html

Galán, S. F. (2008). Problemas resueltos de inteligencia artificial aplicada: búsqueda

y representación. Madrid: Pearson Educación.

Mira, J. D. (1995). Aspectos básicos de la inteligencia artificial. Madrid: Sanz y

Torres.

Molina, M. (2006). Métodos de resolución de problemas: aplicación al diseño de

sistemas inteligentes. Madrid: Fundación General de la UPM.. Obtenido de

Recuperado de [Link]

Muñoz, A. (1992). Lógica simbólica elemental. Venezuela: Miró.

Napolitano, A. (1989). Lógica Matemática. Caracas: Biosfera.

Peirce, C. (1867). On the Natural Classification of Arguments. Proceedings of the

American Academy of Arts and Sciences, (págs. 7, 261-287).

Seijas, L. (27 de 05 de 2012). Monografias. Obtenido de Elementos y tipos de

r a z o n a m i e n t o : [Link]

razonamiento/[Link]

Razonamiento y Planificación Automática 28


Tema 2. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Sobejano, J. (17 de 07 de 2013). La lógica de la innovación. Obtenido de Sintetia:

[Link]

Razonamiento y Planificación Automática 29


Tema 2. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
A fondo

Introducción a la representación del conocimiento

Béjar, J. (2006). Tema 3: Representación del conocimiento. Universidad Politécnica

de Catalunya. Barcelona. Recuperado de:

[Link]

Diapositivas en las que se explica brevemente la representación del conocimiento

(esquemas de representación, propiedades de un sistema de representación…).

Razonamiento y Planificación Automática 30


Tema 2. A fondo
© Universidad Internacional de La Rioja (UNIR)
A fondo

Fundamentos de la representación de la
información

Davis, R., Shrobe, H. y Szolovits, P. (1993). What is a Knowledge Representation? AI

Magazine, 14(1): 17-33. Recuperado de: [Link]


[Link]

Artículo en el que se puede ampliar el conocimiento sobre los fundamentos de la

representación de la información y su necesidad dentro del razonamiento automático.

Razonamiento y Planificación Automática 31


Tema 2. A fondo
© Universidad Internacional de La Rioja (UNIR)
A fondo

Tipos de argumentos

Muñoz, A. (2017). Tipos de argumentos. Recuperado de:


[Link]

Breve presentación en la que se explica de forma sencilla los argumentos

deductivos, inductivos, abductivos.

Razonamiento y Planificación Automática 32


Tema 2. A fondo
© Universidad Internacional de La Rioja (UNIR)
A fondo

Razonamiento deductivo e inductivo

Accede a la página web a través del aula virtual o desde la siguiente dirección web:
[Link]

deductivo/

Página web con ejemplos de razonamiento deductivo e inductivo.

Razonamiento y Planificación Automática 33


Tema 2. A fondo
© Universidad Internacional de La Rioja (UNIR)
A fondo

Glosario de filosofía

Página web con un glosario de términos de filosofía.

Accede a la página web a través del aula virtual o desde la siguiente dirección web:
[Link]

Razonamiento y Planificación Automática 34


Tema 2. A fondo
© Universidad Internacional de La Rioja (UNIR)
A fondo

Bibliografía adicional

Carretero, M., Almaraz, J. y Fernández, P. (1995). Razonamiento y comprensión.

Madrid: Trotta.

Davis, R. (1991). A Tale of Two Knowledge Servers. AI Magazine, 12(3): 118-120.

Nilsson, N. (1991). Logic and artificial intelligence, AI, 47: 31-56.

Peirce, C. S. (1903). Three types of Reasoning. En Harvard Lectures on Pragmatism:

Lecture VI. Harvard University: Massachusetts.

Steels, L. (1985). Second generation expert systems. Future Generation Computer

Systems, 1(4), 213-221.

Razonamiento y Planificación Automática 35


Tema 2. A fondo
© Universidad Internacional de La Rioja (UNIR)
Test

1. ¿Qué técnica no es una forma de representación explícita del conocimiento?

A. Reglas.

B. Morfológica.

C. Marcos.

D. Lógica.

2. La representación mediante reglas:

A. Emplea sentencias condicionales si-entonces.

B. Combina encadenamiento hacia atrás y hacia delante.

C. Representa estereotipos.

D. La A y la B son correctas.

3. ¿La representación del conocimiento no debe ser?

A. Formal.

B. Expresiva.

C. Natural.

D. Artificial.

4. El conocimiento del dominio:

A. Normalmente se expresa de modo declarativo.

B. Es un conjunto general de criterios aplicable a varios problemas.

C. Se separa del conocimiento de inferencia.

D. La A y la C son correctas.

Razonamiento y Planificación Automática 36


Tema 2. Test
© Universidad Internacional de La Rioja (UNIR)
Test

5. El conocimiento explícito:

A. Es descrito mediante análisis introspectivo del propio proceso de

razonamiento.

B. Es siempre completo.

C. Es análogo al conocimiento implícito.

D. Representa el conocimiento que se tiene del dominio del problema.

6. El conocimiento superficial:

A. Se extrae del análisis general del marco teórico del problema.

B. Es el derivado de la experiencia obtenida al resolver problemas similares.

C. Es eminentemente práctico.

D. La B y la C son correctas.

7. La diferencia entre razonamiento inductivo y razonamiento deductivo es:

A. Que en el razonamiento inductivo la conclusión no se obtiene

obligatoriamente de las premisas.

B. Que en el razonamiento deductivo la conclusión no se obtiene

obligatoriamente de las premisas.

8. El método abductivo:

A. Emplea abducciones que se definen como conjeturas espontáneas de la

razón.

B. Parte de hechos directamente observados.

Razonamiento y Planificación Automática 37


Tema 2. Test
© Universidad Internacional de La Rioja (UNIR)
Test

9. El siguiente ejemplo de razonamiento: Premisa mayor: «Toda planta tiene vida».

Premisa menor: «Todo rosal es una planta». Resultado: «Todo rosal tiene vida».

Corresponde a:

Premisa mayor: «Toda planta tiene vida».

Premisa menor: «Todo rosal es una planta».

Resultado: «Todo rosal tiene vida». Corresponde a:

A. Razonamiento inductivo.

B. Razonamiento deductivo.

C. Razonamiento abductivo.

10. El siguiente ejemplo de razonamiento: Premisa primera: «Veo un cisne

blanco». Premisa segunda: «Veo otro cisne blanco». Resultado: «Todos los cisnes

son blancos». Corresponde a:

A. Razonamiento inductivo.

B. Razonamiento deductivo.

C. Razonamiento abductivo.

Razonamiento y Planificación Automática 38


Tema 2. Test
© Universidad Internacional de La Rioja (UNIR)
Tema 3

Razonamiento y Planificación Automática

Tema 3. Lógica y
pensamiento humano
Índice
Esquema

Ideas clave

3.1. ¿Cómo estudiar este tema?

3.2. Tipos de lógica

3.3. Lógica matemática

3.4. Lógica de descripción ALC

3.5. Lógica de orden superior

3.6. Lógica multivaluada y lógica difusa

3.7. Referencias bibliográficas

A fondo

Lógica descriptiva ALC

Lógicas de segundo orden

Lógicas multivaluadas

Introducción a las lógicas multivaluadas

Web ontológica

Glosario de lógica

Bibliografía adicional

Test
Esquema
Razonamiento y Planificación Automática 3
Tema 3. Esquema
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

3.1. ¿Cómo estudiar este tema?

La lógica es clave para tratar de representar el pensamiento humano. A través de la

lógica podemos implementar sistemas que emulen el pensamiento. Es, por tanto,

una herramienta para explicar todo el conocimiento basado en los elementos de

razonamiento: categorías, definiciones, juicios y proposiciones.

A lo largo de la historia, desde Aristóteles hasta nuestros días, se han ido

produciendo avances que han evolucionado la lógica y han permitido que se

convierta en una herramienta potente a la hora de modelizar comportamiento dentro

del campo de la inteligencia artificial.

En el siguiente tema veremos algunos tipos de lógica y detallaremos los que tienen

más relevancia para inteligencia artificial.

Razonamiento y Planificación Automática 4


Tema 3. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

3.2. Tipos de lógica

La definición que podemos encontrar en el Diccionario de la lengua española para la

palabra lógica es la siguiente: «Ciencia que expone las leyes, modos y formas de las

proposiciones en relación con su verdad o falsedad».

La lógica (su etimología está en la palabra logĭca del latín, que a su vez proviene del

griego logike: «argumentativo, intelectual», y esta, a su vez, deriva de logos:

«pensamiento, razón, palabra») es una ciencia formal basada en las leyes del

conocimiento científico cuyo objetivo es estudiar los métodos y principios para

identificar el razonamiento correcto.

Básicamente, la lógica permite realizar una representación formal de las relaciones

existentes entre los objetos (y entre los objetos y sus propiedades).

El filósofo griego Aristóteles es considerado el padre de la lógica, ya que fue el

primero en mostrar interés por el razonamiento lógico y emplear sistemas de

validación de argumentos como indicadores de verdad, utilizando el silogismo

(razonamiento que está formado por dos premisas y una conclusión que es el

resultado lógico que se deduce de estas) como argumento válido y desarrollando un

sistema lógico que ha llegado a nuestros días.

Se distinguen varios tipos de lógica, todas centradas en entender los


razonamientos y diferenciar si son correctos o incorrectos. Para ello se basan en el

estudio de los enunciados, abarcando más allá del lenguaje natural (el discurso

verbal) y llegando a áreas muy variadas como las matemáticas y las ciencias de la

computación, con estructuras muy diferentes.

Razonamiento y Planificación Automática 5


Tema 3. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Generalmente, dentro del término lógica se engloban varias formas:

▸ Lógica proposicional: se utilizan proposiciones que representan afirmaciones que

pueden ser verdaderas o falsas. Las proposiciones se unen con (∧ [y], ∨ [o], ¬ [no])
y se construyen reglas con el operador de implicación lógica (→). Los mecanismos
de inferencia permiten obtener nuevos datos a partir de los datos ya conocidos (por
ejemplo, modus ponens y modus tollens…)

▸ Lógica de predicados: añade la posibilidad de utilizar cuantificadores:

• ∀ (para todo).

• ∃ (existe).

Emplean como mecanismos de inferencia los tradicionales: modus ponens, o modus

tollens. La Figura 1 muestra un ejemplo de lenguaje de programación que emplea la

modelización de lógica de predicados es PROLOG.

Razonamiento y Planificación Automática 6


Tema 3. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 1. Ejemplo de modelización en PROLOG. Fuente: (Caparrini, 2014)

▸ Lógica natural: directamente relacionada con el empirismo, aprender a base del

acierto-error. La lógica natural es aquella que previene al ser humano de cometer el

mismo error varias veces, es razón innata.

▸ Lógica científica: surge como la lógica natural de la experiencia, pero además se

incluye en ella la razón, creando planteamientos de todo lo que existe. Se

fundamenta en encontrar los motivos o justificaciones por los cuales sucede un


hecho.

Razonamiento y Planificación Automática 7


Tema 3. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

▸ Lógica material: se estudia desde la epistemología (una de las ramas modernas de

la filosofía). Incluye la incertidumbre, ya que las conclusiones implican cierto grado

de duda. El objetivo es probar la validez de un racionamiento basándose en la


realidad. Un ejemplo: si está nublado, es posible que llueva, como es posible que no
llueva, por lo que el razonamiento «es posible que caigan unas gotas» es correcto,
pero no es válido porque no existe total seguridad de que esto vaya a suceder.

▸ Lógica formal: se llama a la lógica clásica (aristotélica) que estudia las

proposiciones, los argumentos, desde el enfoque estructural. La motivación es


determinar si un enfoque es correcto o incorrecto a través de un método para
estructurar el pensamiento. El objeto de estudio no es empírico, sino que se centra
en la estructura del argumento y no en la falsedad o veracidad del contenido de un

argumento particular. En el ejemplo que usábamos para la lógica de materiales, bajo


el mismo escenario (cielo nublado, puede llover o no), el pensamiento «es posible
que caigan unas pocas gotas» sería válido. Incluidos en la lógica formal podemos
encontrar dos tipos muy importantes: lógica deductiva y lógica inductiva.

• Lógica deductiva: realizar inferencias a partir de teorías que ya existen. Por ejemplo:

si los humanos tienen orejas y Manuel es un humano, entonces Manuel tiene orejas.

• Lógica inductiva: consiste en crear conceptos generales a partir de argumentos

específicos. Por ejemplo: si un humano tiene orejas, existe otro humano con orejas y

otro más que también tiene orejas, entonces todos los humanos tienen orejas.

Razonamiento y Planificación Automática 8


Tema 3. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

▸ Lógica de primer orden: es un sistema formal diseñado para estudiar la inferencia en

los lenguajes de primer orden; son lenguajes cuantificadores que alcanzan variables
de individuos con predicados y funciones constantes o variables. En primer lugar, es
importante entender el concepto «enunciado declarativo», expresiones que son
verdaderas o falsas enunciadas con el lenguaje natural (idioma en el que se habla),
y la diferencia que existe con los enunciados interrogativos e imperativos. En la
lógica de primer orden, se establecen una serie de objetos y relaciones entre los

mismos. Son enunciados declarativos los siguientes ejemplos:

▸ Laura es madre y María es hija de Laura.

▸ Toda madre quiere a sus hijas.

El número 1 se refiere a los objetos sobre los que versa el discurso, describiendo las

propiedades de estos (ser madre, ser hija), mientras que 2 define las relaciones entre

los objetos. Esto sería el comienzo de la lógica computacional, en la que es

necesario definir las situaciones en objetos y las relaciones que se establecen entre

ellos.

Cuando sobre los enunciados (predicados) se aplican reglas de razonamiento, se

obtienen conclusiones. De este modo, se resuelven problemas. Sobre los

enunciados que exponemos más arriba (1 y 2) es posible inferir un tercer enunciado:

▸ Laura quiere a María.

También es posible utilizar funciones cuando queremos resolver un problema. Las

Razonamiento y Planificación Automática 9


Tema 3. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

funciones son relaciones en las que solo existe una correspondencia dado un valor.

Por ejemplo, es posible definir la función madre de.

Otros conceptos para tener en cuenta, como en todo sistema formal, son la sintaxis

(expresiones de lógica de primer orden) y la semántica (significado que hace que la

expresión sea verdadera o falsa).

▸ Lógica simbólica o matemática: utiliza símbolos para construir un nuevo lenguaje en

el cual se expresan los argumentos. La intención es traducir el pensamiento humano

a lenguaje matemático, es decir, conseguir convertir el pensamiento abstracto en


estructuras formales y emplear las leyes del cálculo (base de la exactitud),
permitiendo que los argumentos sean más exactos. Este tipo de lógica, en
matemáticas, se emplea para demostrar teoremas.

▸ Lógica de clases: la base de los principios de la lógica de clases se fundamenta en

la teoría de conjuntos. Se analiza una proposición lógica sobre la pertenencia, o no


pertenencia, de un elemento o individuo a una determinada clase (conjunto de

elementos o individuos que tiene en común alguna característica o propiedad


particular). Es la característica (propiedad) la que define la clase. Por ejemplo, no es
lo mismo decir «Einstein era un hombre» que afirmar «Einstein pertenecía a la clase
de los hombres».

También se suele hablar de otros tipos y subtipos de lógica:

▸ Lógica informal: se centra en el lenguaje y en el significado de las construcciones

semánticas y de los argumentos. Se diferencia de la lógica formal en que la lógica


informal se centra en el contenido de las oraciones y no en la estructura. El objetivo
es encontrar la manera de argumentar para conseguir el resultado que se desea
obtener.

Razonamiento y Planificación Automática 10


Tema 3. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

▸ Lógica moderna: nacida en el siglo XIX, se diferencia de la lógica clásica porque

incluye elementos matemáticos y simbólicos, teoremas que reemplazan las


carencias de la lógica formal. Se diferencian varios tipos de lógica moderna: lógica
modal, lógica matemática, lógica trivalente…

▸ Lógica modal: este tipo de lógica emplea los argumentos y añade elementos

(operadores modales) que hacen posible determinar si un enunciado es verdadero y

falso. La intención es estar en consonancia con el pensamiento humano; por tanto,


tiene en consideración expresiones como «siempre», «es muy probable», «a veces»,
«tal vez».

▸ Lógica computacional: deriva de la lógica simbólica (matemática o de primer orden) y

se aplica al área de las ciencias de la computación. A través de la lógica, es posible


trabajar con lenguajes de programación con el fin de ejecutar tareas específicas de
verificación.

En este tema profundizaremos en las lógicas que están más relacionadas con la

inteligencia artificial: lógica matemática, lógica descriptiva o de descriptores

ALC, lógica de orden superior, lógica multivaluada y lógica borrosa o difusa.

Razonamiento y Planificación Automática 11


Tema 3. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

3.3. Lógica matemática

L a lógica matemática consiste en el estudio matemático de la lógica y en la

aplicación de este a otras áreas de las matemáticas. Está en estrecha relación con

las ciencias de la computación y la lógica filosófica.

Estudia los sistemas formales en relación con el modo en el que codifican nociones

intuitivas de objetos matemáticos como conjuntos, números, demostraciones y

computación.

Se le aplica a las definiciones concretas y razonamientos rigurosos propios de la

matemática. Cada expresión del lenguaje tiene un significado exacto y un simbolismo

apropiado, sin ambigüedades.

El siguiente esquema muestra un resumen de la lógica matemática

([Link]

2JGW/Tipos%20de%20Agentes%[Link]):

Razonamiento y Planificación Automática 12


Tema 3. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 2. Resumen de la lógica matemática. Fuente: (Reina, 2016).

Una proposición es toda afirmación o expresión que tiene significado y de la que

podemos decir si es «falsa» (F/0) o «verdadera» (V/1). Las proposiciones pueden

enlazarse entre sí mediante conectivos lógicos para formar estructuras con un

significado preciso.

No son proposiciones: las frases para dar órdenes (lee esto), las frases exclamativas

e interrogativas (¿cómo te llamas?), e instrucciones (vuelve hacia atrás).

Las proposiciones se suelen representar con una letra minúscula. Por ejemplo, p,

q, r.

Relacionando proposiciones es posible obtener otras proposiciones. Todo

razonamiento lógico debe partir necesariamente de una adecuada vinculación de

algunas proposiciones elementales.

Razonamiento y Planificación Automática 13


Tema 3. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

La lógica matemática parte de proposiciones elementales como axiomas, postulados

o hipótesis y emplea razonamientos lógicos para determinar si las conclusiones

obtenidas son verdaderas o falsas.

Las proposiciones se pueden clasificar en:

▸ Tautologías: una proposición compuesta es una tautología si es verdadera para

todas las asignaciones de valores de verdad, para sus proposiciones componentes.


Es decir, su valor verdadero no depende de los valores de verdad de las
proposiciones que la forman, sino de la manera en que se establecen relaciones
sintácticas de unas proposiciones con las otras.

▸ Contradicciones: aquellas proposiciones que, en todos los casos posibles de su tabla

de verdad, su valor es falso siempre. Su valor falso no depende de los valores de

verdad de las proposiciones que la forman, sino de la manera en que se establecen


relaciones sintácticas de unas proposiciones con las otras.

▸ Contingentes, falacias o inconsistencias: también denominadas verdad de hecho, es

aquella proposición que puede ser verdadera o falsa, combinando tautología y


contradicción, según los valores de las proposiciones que la integran.

Los elementos que relacionan proposiciones son los conectivos lógicos u

operaciones lógicas.

Razonamiento y Planificación Automática 14


Tema 3. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Tabla 1. Conectivos lógicos.

Los conceptos para tener en cuenta en las relaciones entre proposiciones son:

▸ Implicación lógica: cualquier condicional que sea tautología.

▸ Equivalencia lógica: es toda bicondicional que sea tautología.

Las relaciones entre proposiciones se pueden reflejar en tablas de verdad, que son

tablas que muestran el valor de verdad de una proposición compuesta. Las tablas de

verdad fueron desarrolladas por C. S. Peirce hacia 1880, pero más tarde Ludwig
Wittgenstein dio el formato que es más popular, en su Tractatus logico-philosophicus

de 1921.

Las tablas de verdad son métodos sencillos con gran potencial, ya que sirven para

demostrar propiedades lógicas y semánticas de proposiciones del lenguaje humano

o de cálculo proposicional:

▸ Ver si son tautologías, contradictorias o contingentes.

Razonamiento y Planificación Automática 15


Tema 3. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

▸ Ver las condiciones de verdad.

▸ Ver el rol inferencial, las conclusiones lógicas y qué proposiciones se consiguen a

partir de otras, lógicamente hablando.

A continuación, veamos las tablas de los conectivos lógicos:

▸ Negación (también se representa con ~):

Figura 3. Negación.

▸ Conjunción:

Figura 4. Conjunción.

Razonamiento y Planificación Automática 16


Tema 3. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

▸ Disyunción no exclusiva:

Figura 5. Disyunción no exclusiva.

▸ Disyunción exclusiva:

Figura 6. Disyunción exclusiva.

▸ Condicional:

Figura 7. Condicional.

Razonamiento y Planificación Automática 17


Tema 3. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

▸ Bicondicional:

Figura 8. Bicondicional.

A continuación, se muestra un ejemplo de tabla de verdad de una relación entre

proposiciones:

(p → q) ↔ (¬p ^ q)

Tabla 2. Tabla de verdad.

Razonamiento y Planificación Automática 18


Tema 3. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

La aplicación de la lógica proposicional más común es la que se realiza en juegos, de

azar o estratégicos. También se ha aplicado en inteligencia artificial. La inteligencia

artificial trata de explicar cómo funciona la mente humana, ya que utiliza algoritmos

que controlan diferentes funciones. Tanto la robótica como los sistemas de agentes

inteligentes son sistemas creados con la idea de tomar decisiones por sí mismos; por

lo tanto, la conexión entre lógica matemática y lógica computacional que se utiliza en

varios niveles es clara: circuitos informáticos, programación lógica, optimización.

Razonamiento y Planificación Automática 19


Tema 3. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

3.4. Lógica de descripción ALC

Las lógicas descriptivas son más que los lenguajes para formalizar conceptos, son

un conjunto de lenguajes de representación del conocimiento que se utilizan para

representar el conocimiento terminológico de un dominio determinado de una manera

estructurada y formal, de modo que esté bien entendido.

Deben usarse para representar la ontología (formalización de un dominio) y permitir

el razonamiento al respecto. Aparecen nuevos elementos de lenguaje y semántica,

necesarios para formalizar las propiedades de objetos o individuos que pertenecen al

dominio y las relaciones entre conceptos y roles al establecer las bases del

conocimiento.

Usa lenguajes formales para definir vocabulario de dominio, compartir significado y

deducir nuevo conocimiento.

Las lógicas descriptivas son apropiadas para la web semántica porque son útiles

para agregar razonamiento a la red de redes. Tienen una sintaxis formal que permite

describir los conceptos de nociones importantes de un universo o dominio, las

relaciones que surgen o existen entre ellos y los constructores de nuevos conceptos.

Como toda lógica formal, hace posible razonar sobre la base de conocimiento que se

haya definido como tal. Son variantes de la lógica de primer orden (Huertas, 2006).

Características formales de la lógica descriptiva o lógica de descriptores:

▸ Como comentamos al principio, modelan ontologías, proporcionan descripciones a

los dominios y formalizan los elementos de una terminología o descripciones de una


ontología. La sintaxis y la semántica no tienen ambigüedad, ya que son formales.

▸ Formalismo descriptivo: roles, constructores y conceptos. Ejemplo de formalización

del concepto: «animal cuyos padres son humanos».

Razonamiento y Planificación Automática 20


Tema 3. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Donde los diferentes elementos que aparecen son:

▸ Un concepto primitivo:

▸ Un rol o relación: («todo hijo es humano»)

▸ Un constructor de nuevos conceptos: (conjunción de conceptos).

▸ Formalismo terminológico: emplea axiomas que introducen propiedades de la

terminología descriptiva y descripciones complejas. Por ejemplo:

(«una mujer es una persona»)

(«un hombre es una persona no mujer»)

▸ Formalismo asertivo que incluye propiedades de individuos. Por ejemplo:

í («el individuo María es una mujer»)

ú í («el individuo María tiene el hijo individuo Jesús»)

Razonamiento y Planificación Automática 21


Tema 3. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

▸ Es posible inferir un nuevo conocimiento a partir del dado. Se emplean cálculos o

algoritmos de conocimiento que deciden. Permiten implementar procesos


automatizados.

En resumen, la lógica descriptiva se compone de: conceptos (padre, madre,

humano); relaciones entre los conceptos, denominadas propiedades o roles


(tieneHijo, esHijoDe), y elementos del dominio, denominados individuos (María,

Jesús).

La base de conocimiento tiene dos niveles:

▸ TBox (términos): la descripción de los conceptos. Conjunto de axiomas

terminológicos.

▸ ABox (aserciones): la descripción de los individuos. Conjunto de axiomas asertivos.

Figura 9. TBox y ABox. Fuente: (Huertas, 2006).

Razonamiento y Planificación Automática 22


Tema 3. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Las proposiciones en lógica descriptiva pueden representarse en lógica de primer

orden:

Figura 10: Lógica de primer orden.

Tabla 3. Definición de conceptos.

Razonamiento y Planificación Automática 23


Tema 3. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Existen varias propiedades:

Existencial (Ǝ R C)

x pertenece a Ǝ R C si existe algún valor y ∈ C tal que R(x, y)

Universal ( R C)

x pertenece a R C si para todo y, si R(x, y), entonces y ∈ C

Cardinalidad (P = n)

x pertenece a (P = n) si existen n y ∈ C tales que R(x, y)

Cardinalidad máxima (P X n)

x pertenece a (P n) si existen n o menos y ∈ C tales que R (x, y)

Cardinalidad mínima (P X n)

x pertenece a (P a) si existen n o más y ∈ C tales que R(x, y)

Las propiedades pueden tener los siguientes atributos:

Tabla 4. Atributos de las propiedades.

Razonamiento y Planificación Automática 24


Tema 3. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Las relaciones que se establecen entre propiedades:

Tabla 5. Relaciones entre propiedades.

Y tienen una serie de propiedades de funcionalidad:

Tabla 6. Propiedades de funcionalidad.

Razonamiento y Planificación Automática 25


Tema 3. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

A partir de una base de conocimiento se puede realizar un razonamiento (inferencia):

Tabla 7. Razonamiento.

ALC es la lógica descriptiva básica. En la siguiente figura hay una presentación

formal de este sistema.

Razonamiento y Planificación Automática 26


Tema 3. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 11. ALC. Fuente: (Huertas, 2006).

Razonamiento y Planificación Automática 27


Tema 3. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

3.5. Lógica de orden superior

Una lógica de orden superior o de segundo orden es una extensión de una lógica de

primer orden en la que se añaden variables para propiedades, funciones y

relaciones, y cuantificadores que operan sobre esas variables. Así, se expande el

poder expresivo del lenguaje sin tener que agregar nuevos símbolos lógicos

(Enderton, 2009).

La necesidad de la lógica de segundo orden se refleja en el axioma de inducción de

la aritmética de Giuseppe Peano.

Se requiere un lenguaje en el que los cuantificadores puedan abarcar no solo las

variables que representan los elementos de hormigón, sino también las relaciones o

funciones.

En la lógica de primer orden, los cuantificadores solo se pueden aplicar a los objetos

(elementos de primer orden), mientras que los de mayor orden son extensiones de la

lógica de primer orden que permiten que los cuantificadores se apliquen a los

predicados definidos en los objetos de segundo orden.

La lógica de segundo orden tiene un poder expresivo mayor que la de primer

orden, lo que permite crear axiomas matemáticos de sistemas complejos que no son

formalizables por medio de la lógica de primer orden.

Existen varios tipos de lógica de segundo orden según el tipo de variables

adicionales introducidas con respecto a las de la lógica de primer orden:

▸ La lógica de segundo orden monádica (LSOM): añadimos variables para cierto

dominio dentro de sus subconjuntos.

▸ La lógica de segundo orden completa (LSOC): se añaden tanto variables como

cuantificadores que pueden referirse a cualquiera de estas variables.

Razonamiento y Planificación Automática 28


Tema 3. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Sintaxis de la lógica de segundo orden (LSO):

Dado: vocabulario X

Figura 12: Sintaxis de la lógica de segundo orden. Fuente: (Arenas, 2010).

Semántica de la lógica de segundo orden:

Figura 13: Semántica de la lógica de segundo orden. Fuente: (Arenas, 2010).

Razonamiento y Planificación Automática 29


Tema 3. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

La definición de LSO incluye tres casos extra:

Figura 14: Casos extra de la lógica de segundo orden. Fuente: (Arenas, 2010).

La definición de LSO incluye tres casos extra:

Razonamiento y Planificación Automática 30


Tema 3. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

3.6. Lógica multivaluada y lógica difusa

La lógica multivaluada es una lógica que permite valores intermedios (grande, tibio,

lejos, pocos, muchos, etc.) y en la que se emplean más de dos valores de verdad

para describir conceptos que van más allá de lo verdadero y lo falso. Las lógicas

multivaluadas ofrecen herramientas conceptuales que hacen posible describir

formalmente la información difusa, vaga o incierta.

L a lógica difusa (también llamada lógica borrosa) es una lógica multivaluada que

p e r m i t e representar matemáticamente la incertidumbre y la vaguedad,

proporcionando herramientas formales para su tratamiento. Lofti A. Zadeh es

considerado el padre de la lógica difusa. Su carrera se centró en trabajos sobre

conjuntos difusos y la aplicación de la lógica difusa en el razonamiento aproximado.

El término «lógica difusa» aparece por primera vez en 1974.

«Cuando aumenta la complejidad, los enunciados precisos pierden su significado y

los enunciados útiles pierden precisión.» Esto puede resumirse en «los árboles no te

dejan ver el bosque» (Zadeh, 1973).

El modelo de caracterizar un problema por medio de lógica difusa se basa en la

prerrogativa de que el mapeo entre conceptos se realiza por medio de la semántica,

no de la precisión numérica. Es muy adecuado para modelizar problemas a partir del

conocimiento de los expertos que, normalmente, detallan su base de conocimiento


en forma de expresiones poco precisas.

La aplicación de esta lógica en la Inteligencia artificial está orientada a manejar el

razonamiento bajo incertidumbre y con nociones imprecisas. También puede

emplearse para la gestión de bases de datos y sistemas basados en el conocimiento

cuando se sepa que la información es imprecisa.

Razonamiento y Planificación Automática 31


Tema 3. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

En procesos de automatización de las técnicas de prospección de datos, que suelen

estar ligadas a conjuntos difusos o multivaluados, también interesa disponer de

métodos de razonamiento automático para estas lógicas.

Un esquema de funcionamiento típico para un sistema difuso podría ser:

Figura 15: Esquema de funcionamiento para un sistema difuso.

Observando el esquema: el sistema de control hace los cálculos con base en sus

reglas heurísticas, de la forma SI (antecedente) ENTONCES (consecuente), donde el

antecedente y el consecuente son también conjuntos difusos. Por ejemplo: SI hace

calor, ENTONCES bajar temperatura. La salida final actuaría sobre el entorno físico y

los valores sobre el entorno físico de las nuevas entradas (modificados por la salida

del sistema de control) serían tomados por sensores del sistema.

Razonamiento y Planificación Automática 32


Tema 3. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Imaginemos que nuestro sistema difuso era el acondicionador de aire que regula la

temperatura de acuerdo con las necesidades. Los chips difusos del acondicionador

de aire recogen los datos de entrada, que en este caso podrían ser simplemente la

temperatura y la humedad. Estos datos están sujetos a las reglas del motor de

inferencia (como se discutió anteriormente, en la forma SI… ENTONCES…), lo que

deriva en un área de resultados. Desde esa área, se elegirá el centro de gravedad,

proporcionándolo como una salida. Según el resultado, el acondicionador de aire

podría aumentar la temperatura o disminuirla en función del grado de salida.

Razonamiento y Planificación Automática 33


Tema 3. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

3.7. Referencias bibliográficas

Arenas, M. (12 de 12 de 2010). [Link]. Obtenido de La lógica de

segundo orden: Sintaxis: [Link]

[Link]

Caparrini, F. S. (07 de 01 de 2014). Fernando Sancho Caparrini. Obtenido de Una

introducción a Prolog: [Link]

Enderton, H. (2009). Second-order and Higher-order Logic. En Zalta, E. (Ed.), The

Stanford Encyclopedia of Philosophy. Stanford: Metaphysics Research Lab, Stanford

University.

Huertas, A. (2006). Lógicas descriptivas: lógicas para la red. (págs. 8(85-102)).

Azafea.

Reina, A. (22 de 02 de 2016). DGETI - CBTis 137: Lógica . Obtenido de UNIDAD 4

EVALUAR ARGUMENTACIONES (EPR):


[Link]

Zadeh, J. (1973). Outline of a new approach to the analysis of complex system. IEEE

Transaction on System Man and Cybernetics, (págs. 1, 28-44).

Razonamiento y Planificación Automática 34


Tema 3. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
A fondo

Lógica descriptiva ALC

Alonso, J. A., Martín-Mateos, F. J., Hidalgo, M. y Ruiz, J. L. (2006). Formalización de

la lógica descriptiva ALC en PVS. Universidad de Sevilla. Sevilla. Recuperado de:

[Link]
scriptiva_ALC_en_PVS

Recurso para ahondar en la lógica descriptiva ALC.

Razonamiento y Planificación Automática 35


Tema 3. A fondo
© Universidad Internacional de La Rioja (UNIR)
A fondo

Lógicas de segundo orden

Márquez, D. (2008). Límites de la lógica de predicados de primer orden para análisis

l i n g ü í s t i c o . Lenguaje, 36(2), 617-628. Recuperado de:

[Link]
.617-628,[Link]

En este artículo se muestran algunas de las insuficiencias de la lógica de primer

orden en el análisis lingüístico.

Razonamiento y Planificación Automática 36


Tema 3. A fondo
© Universidad Internacional de La Rioja (UNIR)
A fondo

Lógicas multivaluadas

Arnold, O. Sobre lógicas Multivaluadas. Universidad del Tolima. Recuperado de:


[Link]

En este artículo se muestran introducciones muy generales a tres lógicas sin la

dualidad verdadero/falso y una formalización de la lógica difusa.

Razonamiento y Planificación Automática 37


Tema 3. A fondo
© Universidad Internacional de La Rioja (UNIR)
A fondo

Introducción a las lógicas multivaluadas

Ojeda, M. (2007). Breve introducción a las lógicas multivaluadas. Programa de

Doctorado en Computación, Universidad de Málaga. Málaga. Recuperado de:

[Link]

Diapositivas que permiten adentrarse en el mundo de las lógicas multivaluadas.

Razonamiento y Planificación Automática 38


Tema 3. A fondo
© Universidad Internacional de La Rioja (UNIR)
A fondo

Web ontológica

Accede a la página web a través del aula virtual o desde la siguiente dirección web:
[Link]

Página web en la que puedes profundizar en el lenguaje de web ontológica.

Razonamiento y Planificación Automática 39


Tema 3. A fondo
© Universidad Internacional de La Rioja (UNIR)
A fondo

Glosario de lógica

Página web en la que puedes consultar un glosario de lógica.

Accede a la página web a través del aula virtual o desde la siguiente dirección web:
[Link]

Razonamiento y Planificación Automática 40


Tema 3. A fondo
© Universidad Internacional de La Rioja (UNIR)
A fondo

Bibliografía adicional

Baader, F., McGuinness, D., Nardi, D. y Patel-Schneider, P. (2003). The Description

Logic Handbook. Cambridge: Cambridge U.P.

Razonamiento y Planificación Automática 41


Tema 3. A fondo
© Universidad Internacional de La Rioja (UNIR)
Test

1. ¿Cuáles de las siguientes son proposiciones?

A. Ayer fue martes.

B. El motor tiene un fallo.

C. (A + B)*(A-B) = 2A-2B.

D. Todas son correctas.

2. Señala qué enunciados no son declarativos:

A. La tierra es redonda.

B. Recoge las zapatillas, por favor.

C. Doce menos tres igual a nueve

D. ¿Cómo te encuentras?

3. La siguiente tabla de verdad es una tautología:

A. Verdadero.

B. Falso.

4. A qué tipo de lógica corresponde la siguiente definición: «deriva de la lógica

matemática y se aplica al área de las ciencias de la computación. Permite trabajar

con lenguajes de programación».

A. Lógica de primer orden.

B. Lógica computacional.

C. Lógica informal.

5. La lógica difusa permite:

A. Representar matemáticamente la vaguedad.

B. Representar matemáticamente la incertidumbre.

C. Ambas respuestas son correctas.

Razonamiento y Planificación Automática 42


Tema 3. Test
© Universidad Internacional de La Rioja (UNIR)
Test

6. En la lógica matemática:

A. Las expresiones no tienen por qué tener significado exacto.

B. Cada expresión tiene un significado exacto.

C. Las expresiones se formalizan de manera poco concreta y no se emplea el

simbolismo.

7. Un sistema difuso:

A. La salida final puede actuar sobre el entorno físico.

B. Emplea reglas de la forma «si antecedente, entonces consecuente».

C. Nunca produce ninguna salida.

8. La siguiente tabla de verdad corresponde a una contingencia:

A. Verdadero.

B. Falso.

9. El considerado padre de la lógica difusa es:

A. Aristóteles.

B. Zadeh.

C. Gödel.

10. ¿Cuál de los siguientes tipos de lógica permite valores intermedios como

templado, o cerca?:

A. Lógica multivaluada.

B. Lógica de segundo orden.

C. Lógica de primer orden.

Razonamiento y Planificación Automática 43


Tema 3. Test
© Universidad Internacional de La Rioja (UNIR)
Tema 4

Razonamiento y Planificación Automática

Tema 4. Búsqueda no
informada
Índice
Esquema

Ideas clave

4.1. ¿Cómo estudiar este tema?

4.2. Descripción general de un problema de búsqueda

4.3. Búsqueda en amplitud

4.4. Búsqueda en profundidad

4.5. Búsqueda de coste uniforme

4.6. Referencias bibliográficas

A fondo

Resolución de problemas

Problemas resueltos de inteligencia artificial

OpenNERO

Grupo de desarrolladores de OpenNero en


GoogleGroups

Test
Esquema
Razonamiento y Planificación Automática 3
Tema 4. Esquema
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

4.1. ¿Cómo estudiar este tema?

En este tema presentaremos la descripción general de los problemas de búsqueda

en un espacio de estados no estructurado. Este tipo de problemas representa gran

parte de los mecanismos de búsqueda autónoma de los agentes inteligentes.

Los planificadores que veremos en los temas finales se apoyan en los conceptos de

búsqueda que aparecen en los siguientes temas. Los agentes inteligentes deben

enfrentarse muchas veces a problemas que les obligan explorar el entorno al que

pueden acceder e intentar encontrar cuáles son las acciones que les permiten

alcanzar sus objetivos y metas.

Principalmente este tema, así como alguno de los siguientes, se apoyan en el texto

Inteligencia artificial: un enfoque moderno, de (Russell, 2004). Por lo tanto, se hace

un requisito necesario durante el desarrollo de la asignatura leer este texto.

Puedes encontrar mucha información (en inglés) en la web de los autores:


[Link]

Razonamiento y Planificación Automática 4


Tema 4. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

4.2. Descripción general de un problema de


búsqueda

Los problemas de búsqueda se pueden catalogar de distintas maneras. En este tema

nosotros vamos a explicar dos categorías o divisiones. La primera división toma en

cuenta una particularidad del algoritmo de búsqueda, si utiliza una función heurística

o no.

En caso de no utilizar heurística, lo llamaremos una búsqueda no informada. Por el

contrario, si el algoritmo utiliza una heurística, se considera una búsqueda informada.

Vamos a explicar un poco en más detalle estos dos términos:

▸ Búsqueda no informada: Decimos que una búsqueda es no informada cuando no

emplea ningún tipo de heurística (el termino heurística lo explicaremos en más


adelante con más detalle). Es decir, no tienen ningún modo de poder guiar la
búsqueda, siempre se evalúa el siguiente estado sin conocer a priori si este es mejor
o peor que el anterior.

▸ Búsqueda informada: representa aquellos algoritmos que emplean una función

heurística para guiar la búsqueda y de esta manera llegar a soluciones optimas del
problema.

La segunda división está más relacionada con el tipo de agente. Si es reactivo o

deliberativo.

Razonamiento y Planificación Automática 5


Tema 4. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Si es deliberativo el agente realiza una búsqueda más offline, en la que puede

emplear todo el tiempo necesario para encontrar un plan solución. Por el contrario, si

es reactivo el agente realiza una búsqueda más online, en la que cuenta con un

tiempo limitado para encontrar una solución parcial.

▸ Búsqueda offline: representa a aquellos agentes que realizan un proceso de

búsqueda de la secuencia de acciones que deben desarrollar desde el principio (el


estado actual en el que se encuentran) hasta el estado final (objetivo o meta que

desean alcanzar) y, una vez realizado el proceso de búsqueda, empiezan a ejecutar


el plan para conseguir el estado final del problema.

▸ Búsqueda online: engloba a aquellos agentes que realizan una búsqueda a «corto»

plazo, que no llega necesariamente a encontrar la meta, pero nos pone en el camino
para alcanzarla. Al contrario que la búsqueda offline, empieza a ejecutar acciones
durante el proceso de búsqueda. Normalmente, se emplean algoritmos que realizan
una búsqueda local.

Antes de empezar a discutir estos problemas y sus agentes asociados, debemos

definir el problema en general al que se enfrentan los agentes basados en

búsquedas.

¿Qué son los agentes basados en búsquedas?

Son aquellos que:

▸ Mantienen un modelo simbólico del entorno. Modelo que representa solo aquella

parte de la información del entorno que resulta relevante para el problema en


cuestión, definiendo aquellos parámetros que permiten diferenciar un estado de otro
del entorno.

Razonamiento y Planificación Automática 6


Tema 4. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

▸ Desean modificar el estado del entorno de acuerdo con sus objetivos. Es decir,

aplicar acciones que permitan modificar el entorno, de tal modo que se acabe
alcanzando un estado meta de los que satisfacen los objetivos del agente.

Figura 1. Dominio del mundo de bloques. El agente desea modificar el entorno para alcanzar un estado

determinado (meta).

Por ejemplo, la figura 1, representa un agente que desea modificar un entorno del

mundo de bloques. El entorno tiene 5 bloques, diferenciados por colores. El agente

relaciona cada color con una letra, C=Amarillo, E=Naranja, B=rosa, D=Violeta, y

A=Azul marino. Así, entonces en el entorno los bloques C, E y B se encuentran en la

mesa. El bloque D se encuentra sobre el bloque E. Y el bloque A se encuentra sobre

el bloque D. El objetivo del agente es colocar todos los bloques uno encima de otro.

Más exactamente, el agente desea colocar el bloque A sobre el B, el B sobre el C, el

C sobre el D, y el D sobre el E.

Razonamiento y Planificación Automática 7


Tema 4. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Para modificar el entorno de acuerdo con sus objetivos, los agentes de búsqueda

anticipan los efectos que tendrían sus acciones sobre el mundo (por medio de su

modelo del entorno), generando planes de actuación a través de una secuencia de

acciones que los llevan desde su estado actual hasta el objetivo buscado, tal como

se muestra en la figura 2. Esto lo realizan por medio de un proceso de búsqueda.

Figura 2. Dominio del mundo de bloques. Una búsqueda es la obtención de un plan de acciones para

alcanzar la meta.

Si son agentes deliberativos, esta tarea la realizan antes de ejecutar las acciones del

plan en el entorno real. Es decir, una vez encuentran el plan solución comienza la

ejecución de este.

Si son agentes reactivos, esta tarea la van realizando a la vez que van ejecutando

las acciones, corriendo el riesgo de equivocarse y tener que deshacer acciones que

en muchos casos pueden resultar costosas.

Cualquiera de los dos tipos de agentes puede usar búsquedas no informadas e

informadas.

Razonamiento y Planificación Automática 8


Tema 4. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Mecanismo para resolver estos problemas

Para resolver este tipo de problemas tenemos varios mecanismos que van desde

aquellos que no permiten al agente ser autónomo de ninguna manera a aquellos que

le permiten realizar procesos racionales de toma de decisiones.

Vamos a explicar algunos de estos mecanismos teniendo en cuenta el dominio de las

torres de Hanoi mostrado en la figura 3.

Figura 3. Domino de las Torres de Hanoi.

En este problema, se encuentran tres agujas A, B, y C. En la aguja A se encuentran

4 discos (1, 2, 3 y 4) de diferentes tamaños cada uno. Ubicados de mayor a menor,


siendo 1 el de menor tamaño (el disco de color amarillo en la Figura 4). El objetivo es

trasladar todos los discos a la aguja B. Los discos deben quedar en la aguja B en el

mismo orden que estaban en la aguja A. Como restricción adicional se tiene que un

disco mayor nunca puede estar sobre un disco de menor tamaño.

Tablas de actuación

En estos mecanismos, para cada situación hay una entrada en una tabla de

actuación específica para el problema; dicha tabla presenta la secuencia de acciones

Razonamiento y Planificación Automática 9


Tema 4. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

completa para llegar desde el estado inicial a uno de los estados finales.

Figura 4. Ejemplo de fragmento de tabla para el dominio de las torres de Hanoi con cuatro discos.

Figura 4, muestra un ejemplo de tablas de actuación para el dominio de las torres de

Hanoi de la figura 3. Por ejemplo, la línea 1 indica que lo primero que debemos hacer

es mover el disco 1 desde la aguja A a la aguja C.

Se puede mejorar la flexibilidad del agente por medio de técnicas que le permitan

aprender nuevas entradas, pero tiene un grave problema de escalabilidad dado que

rápidamente tiene problemas de memoria.

Algoritmos específicos del dominio

En esta técnica de resolución, el diseñador del agente conoce un método para

resolver problemas de un dominio concreto y codifica este método en un algoritmo

particular para el dominio. Generamos, en resumen, un código específico que

resuelve cualquier problema concreto que le planteamos de un dominio específico.

Razonamiento y Planificación Automática 10


Tema 4. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Se puede intentar mejorar su flexibilidad por medio de crear un código que admita

parámetros que configuren el problema y otro código que los resuelva de modo

general para cualquier valor admitido como parámetro.

El principal problema es que el diseñador de la solución debe prever todos los

escenarios posibles. En entornos reales, suele ser demasiado complejo anticipar

todas las posibilidades. Además, de que solo funciona para un dominio en particular.

En la figura 5, se puede ver un algoritmo específico para solucionar cualquier

problema de las torres de Hanoi.

Figura 5. Dominio de las Torres de Hanoi. Ejemplo de código que resuelve problemas de modo recursivo.

Razonamiento y Planificación Automática 11


Tema 4. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Como podemos ver, este algoritmo permite resolver problemas de las torres de

Hanoi con N discos. Es específico del problema porque solo puede ser usado para

este dominio. El mismo algoritmo no es válido para el dominio del mundo de bloques,

por ejemplo.

Métodos independientes del dominio

Son aquellos métodos que emplean un modelo simbólico del dominio y problema.

Por ejemplo, para el caso de las torres de Hanoi, definiríamos de modo general el
problema tal como se muestra en la siguiente figura 6.

Figura 6. Dominio de las Torres de Hanoi. Definición general para un problema.

Para resolver los problemas, este método emplea un algoritmo de búsqueda

genérico, representando el dominio y el problema mediante el modelo simbólico.

Permite una mayor flexibilidad, ya que no necesitamos conocer la solución

previamente y es fácil añadir nuevas características al problema.

Razonamiento y Planificación Automática 12


Tema 4. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Problemas de búsqueda en el espacio de estados

En estos problemas, nos encontramos con que el entorno se representa por medio

de estados, que se deben diferenciar entre sí de modo unívoco, pero que no

presentan características accesibles que los permitan diferenciar; es decir, que son

distintos, pero para el agente solo son «etiquetas distintas» que representan estados

distintos.

Para este tipo de problemas tenemos tres elementos que los definen:

▸ Espacio de estados: modelo del mundo representado por un grafo, en el cual

tenemos un conjunto de elementos que representan componentes del mundo, que


se traducen en elementos del modelo simbólico que simbolizaremos de una manera
determinada en el grafo.

Figura 7. Espacio de estados.

Razonamiento y Planificación Automática 13


Tema 4. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

▸ Problema de búsqueda: por medio de un mecanismo independiente del problema,

exploramos el espacio de estados aplicando la actitud del agente, que representa


el componente de racionalidad en el proceso de exploración.

Figura 8. Problema de búsqueda.

▸ Objetivo: queriendo encontrar el plan más eficiente que lleve del estado inicial a un

estado meta.

Por tanto, un problema de este tipo trata de encontrar el mejor camino dentro de un

grafo dirigido como el presentado en la figura 9. Pero, por desgracia, no conocemos

el grafo. Si lo conociésemos, realizaríamos una búsqueda de camino mínimo en

grafos como, por ejemplo, Dijkstra (Rosettacode, 2020).

Razonamiento y Planificación Automática 14


Tema 4. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 9. Grafo que representaría un espacio de estados de un problema.

Para este tipo de problemas disponemos de una serie de conocimientos a priori en el

agente que le van a permitir realizar una estrategia de búsqueda sobre el problema,

aun desconociendo el modelo completo del mismo. Así, tendremos una

representación del conocimiento del problema de búsqueda implícita.

Tabla 1. Conocimiento a priori del agente.

Razonamiento y Planificación Automática 15


Tema 4. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Con esta información a priori, emplearemos una estrategia basada en el método de

búsqueda, ver figura 10, que irá explorando el espacio de estados, expandiendo a

cada paso un estado y creando de modo progresivo un árbol de búsqueda tal como

el mostrado en la figura 11.

Figura 10. Método de búsqueda a partir de la elección de una hoja que representa un estado.

Razonamiento y Planificación Automática 16


Tema 4. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 11. Árbol de búsqueda.

Algoritmo general de búsqueda

Podemos definir un algoritmo general de búsqueda tal como está en la figura 12:

Razonamiento y Planificación Automática 17


Tema 4. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 12. Algoritmo general de búsqueda.

Donde el árbol se representa con base a un registro del tipo nodo, en su


representación más simple de un nodo enlazado a su antecesor (padre) por medio

de una referencia (línea 9). En este nodo almacenaremos el estado que se alcanza

en este instante de la exploración.

Existe una lista de nodos «abierta» (línea 1) con las hojas actuales del árbol, es

decir, aquellos estados y caminos que hemos expandido para explorar.

Si la lista está vacía, nos encontraremos con un problema sin solución. Sino está

vacía extraeremos el primer elemento de la lista de hojas abiertas.

Razonamiento y Planificación Automática 18


Tema 4. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Si el nodo es meta, entonces retornamos el camino haciendo un backtracking sobre

los nodos padres del nodo meta encontrado (línea 4).

Por último, añadiremos los estados nuevos obtenidos de la expansión en la lista de

abierto (línea 10).

En las siguientes secciones mostraremos el funcionamiento de los distintos

algoritmos de búsqueda no informados, que son empleados como base en muchos


problemas de agentes inteligentes.

En todos los mecanismos de búsqueda tenemos presente un posible problema que

puede aparecer, que son los estados repetidos. Para resolver este problema, que

puede causar en algunos casos errores graves como entrar en bucles infinitos,

tenemos distintas estrategias:

▸ Ignorarlo: por extraño que parezca, algunos algoritmos no tienen problemas con esta

solución debido a su propio orden de exploración.

▸ Evitar ciclos simples: evitando añadir el padre de un nodo al conjunto de sucesores.

▸ Evitar ciclos generales: de tal modo que ningún antecesor de un nodo se añada al

conjunto de sucesores.

▸ Evitar todos los estados repetidos: no permitiendo añadir ningún nodo existente en el

árbol al conjunto de sucesores.

Estas estrategias deben tener en cuenta el coste que conlleva tanto explorar de más

como buscar elementos repetidos para explorar menos.

Razonamiento y Planificación Automática 19


Tema 4. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

En los siguientes temas y en las siguientes secciones presentaremos distintos

algoritmos. Para todos ellos emplearemos un mecanismo de clasificación basado en

los siguientes conceptos y características:

Figura 13. Características de un algoritmo.

Razonamiento y Planificación Automática 20


Tema 4. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

4.3. Búsqueda en amplitud

La búsqueda en amplitud (BFS, por sus siglas en inglés) es una estrategia que

genera el árbol de búsqueda por niveles de profundidad, expandiendo todos los

nodos de nivel i antes de expandir los nodos de nivel i+1.

Considera, en primer lugar, todos aquellos estados que se encuentran en caminos de

longitud 1 (es decir, aquellos caminos que solo requieren una acción), luego los de

longitud 2 (caminos que solo requieren dos acciones), etc. De este modo, se

encuentra aquel estado meta que esté a menor profundidad.

La figura 14 muestra un ejemplo de cómo se va generando el árbol con este

algoritmo.

Razonamiento y Planificación Automática 21


Tema 4. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 14. Esquema de búsqueda en amplitud.

El algoritmo desarrollaría un mecanismo de búsqueda que, por ejemplo, en el

problema del puzzle-8, derivaría en el árbol de búsqueda mostrado en la figura 15.

Razonamiento y Planificación Automática 22


Tema 4. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 15. Árbol de búsqueda en amplitud para el puzzle-8.

Puzzle-8: es un popular juego que consiste en una matriz de 3x3, en la que se

encuentran unas fichas enumeradas del 1 al 8. Adicionalmente, existe una pieza

vacía o en blanco. El juego consiste en dado una configuración inicial llevar las

piezas a una configuración final. En cada turno las únicas piezas que se pueden

mover son las piezas adyacentes a la pieza vacía.

El algoritmo de búsqueda en amplitud lo podemos extraer del algoritmo de búsqueda

general anteriormente expuesto en la figura 15. Matizando las siguientes cuestiones:

▸ Para añadir nuevos sucesores, lo haremos al final de la lista abierta.

▸ Por su parte, la lista abierta funciona como cola (insertando al final y recuperando al

inicio), lo que conlleva que siempre se expandan primero aquellos nodos más
antiguos (es decir, los menos profundos).

▸ Adicionalmente, controlaremos los nodos que se han visitado previamente.

Razonamiento y Planificación Automática 23


Tema 4. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Este algoritmo es, por tanto, completo y óptimo, pero presenta una complejidad en

tiempo y espacio muy deficiente, ya que depende de modo proporcional al nivel de

profundidad d de la solución y, por tanto, al número de nodos expandidos o factor de

ramificación b.

Figura 16. Complejidad espacial y temporal de un grafo sin eliminación de nodos duplicados. El factor de

ramificación está en b y la solución está en una profundidad d.

Razonamiento y Planificación Automática 24


Tema 4. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

En la figura 16 se puede ver un análisis más exhaustivo de la complejidad

aproximada de este algoritmo para un problema general.

Figura 17. Análisis de la complejidad de un algoritmo de búsqueda en amplitud. Fuente: (Russell, 2004).

Razonamiento y Planificación Automática 25


Tema 4. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

4.4. Búsqueda en profundidad

La búsqueda en profundidad (DFS, por sus siglas en inglés) es otra estrategia de

búsqueda no informada (sin información adicional). En ella, al contrario de la

búsqueda en amplitud, se intenta desarrollar un camino de longitud indeterminada,

en el cual intentamos alcanzar metas profundas (aquellas que tienen un camino largo

para alcanzarlas) desarrollando las menores ramificaciones posibles.

En general, es un algoritmo que funcionará bien mezclado con otras informaciones

adicionales, pero que puede resolver problemas de la misma manera que un

algoritmo en amplitud.

La figura 18 muestra un ejemplo de cómo se va generando el árbol con este

algoritmo.

Razonamiento y Planificación Automática 26


Tema 4. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 18. Esquema de búsqueda en profundidad.

En esta estrategia, se expande el árbol de «izquierda a derecha», por lo tanto,

aquellos nodos más profundos se expanden primero. Si se llega a un nodo sin

sucesores, se retrocede y se expande el siguiente nodo más profundo.

Como resultado, el método va explorando un «camino actual» y no siempre se

encuentra el nodo de profundidad mínima. En este caso, el algoritmo general se ve

adaptado teniendo en cuenta las siguientes consideraciones:

▸ Los nuevos sucesores se añaden al inicio de la lista abierta,

Razonamiento y Planificación Automática 27


Tema 4. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

▸ La lista abierta funcionará como una pila (insertando al principio y extrayendo

también del principio) y siempre extraeremos el nodo más profundo. Al guardar todos
los sucesores de un nodo expandido en abierta, se permite la «vuelta atrás» o

backtracking.

▸ Solo procesaremos un nodo de la pila si este no ha sido visitado aún.

El análisis de este algoritmo nos muestra que es completo (si y solo si se garantiza

la eliminación de los estados repetidos dentro de una misma rama), pero no es

óptimo (para operadores de coste uno), dado que no garantiza que siempre se

encuentre aquella solución que está a la menor profundidad.

Razonamiento y Planificación Automática 28


Tema 4. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

4.5. Búsqueda de coste uniforme

En los casos anteriores de las búsquedas en amplitud y profundidad se empleaba

una asunción de que el coste de aplicación de cualquier acción (por tanto, el coste de

elegir una rama) era siempre igual a 1, por lo que el coste total del camino era el

número de niveles en el que se encontraba un determinado nodo. Pero ¿qué sucede

cuando el coste de transitar de un nodo a otro no es igual para todas las acciones

dentro del entorno?

Por ejemplo, en el caso de la figura 19, que representa el problema de encontrar la

ruta más corta en un grafo donde cada nodo es una ciudad y las aristas entre las

ciudades contienen un número que representa el coste del operador, distancia por

carretera de una ciudad a otra.

Figura 19. Grafo esquemático de carreteras.

Razonamiento y Planificación Automática 29


Tema 4. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

En este caso, como se puede observar en la figura 20, la exploración de caminos

empleando el algoritmo de búsqueda en amplitud que garantizaba la solución óptima

falla. El algoritmo en amplitud ofrece la solución de color rojo, A - S - F – B. La

solución óptima en este caso, es la que se encuentra en color verde, A – S – R – P –

B.

Figura 20. La búsqueda en amplitud, que asume coste 1, falla para encontrar el camino óptimo.

Para resolver este tipo de escenario donde el coste no es igual para todas las

acciones (pero sí positivo en todos los casos), tenemos el algoritmo de búsqueda de

coste uniforme (UCS por sus siglas en inglés).

Empleando el mismo algoritmo general de búsqueda, aplicamos la idea de dirigir la

búsqueda por el coste de los operadores. Supondremos que existe una función de

utilidad f(n) = g(n) que permite calcular el coste real para llegar del nodo inicial al

nodo n. En cada iteración del algoritmo expandiremos primero el nodo de menor

coste f.

Razonamiento y Planificación Automática 30


Tema 4. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Por simplicidad, en el resto de la explicación de este algoritmo, nos referiremos a la

función de utilidad indistintamente como f o g.

Las modificaciones que se realizan del algoritmo general de búsqueda son:

▸ Almacenaremos cada nodo por prioridad con base a su valor de g, por lo tanto, la

inserción de nuevos nodos en la lista abierta se ordenará de modo ascendente


según su valor g.

▸ Lo anterior hace que la lista abierta este definida como una cola de prioridad

ordenada por el valor de g.

▸ Solo agregamos un nodo a la lista abierta si este no se encuentra en la misma.

▸ En caso de encontrarse, reemplazamos el nodo si y solo si el coste f es menor.

La figura 21 muestra el resultado de aplicar el algoritmo UCS al problema planteado

en la figura 19. En cada nodo se observa el valor real de g.

Razonamiento y Planificación Automática 31


Tema 4. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 21. Árbol de exploración de una búsqueda de coste uniforme.

Este algoritmo es completo y óptimo al tener todos los costes con valores enteros

positivos y, por tanto, la sucesión de valores de g no está acotada y siempre se

expande de acuerdo con el orden de inserción que se basa en esta misma función.

Razonamiento y Planificación Automática 32


Tema 4. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

4.6. Referencias bibliográficas

Rosettacode. (14 de 03 de 2020). Obtenido de Dijkstra's algorithm:


[Link]

Russell, S. y. (2004). Inteligencia Artificial: Un Enfoque Moderno. Madrid: Pearson

Educación.

Razonamiento y Planificación Automática 33


Tema 4. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
A fondo

Resolución de problemas

Russell, S. y Norvig, P. (2004). Resolver problemas mediante búsqueda. En. Russell,

S. y Norvig, P. (Eds.), Inteligencia artificial. Un enfoque moderno (pp. 67-107).

Madrid: Pearson Educación.

Este capítulo cubre los aspectos que fundamentan todos los inconvenientes de la

resolución de problemas por medio de búsqueda.

Razonamiento y Planificación Automática 34


Tema 4. A fondo
© Universidad Internacional de La Rioja (UNIR)
A fondo

Problemas resueltos de inteligencia artificial

Billhardt, H., Fernández, A. y Ossowski, S. (2015). Inteligencia artificial. Ejercicios

resueltos. Madrid: Editorial Universitaria Ramón Areces.

Se presenta una amplia colección de ejercicios resueltos de varios temas tratados en

el curso. En este tema conviene repasar los ejercicios de búsquedas no informadas

(capítulo 1).

Razonamiento y Planificación Automática 35


Tema 4. A fondo
© Universidad Internacional de La Rioja (UNIR)
A fondo

OpenNERO

Accede a la página web a través del aula virtual o desde la siguiente dirección web:
[Link]

OpenNERO es una plataforma de software de código abierto diseñada para

investigación y educación en Inteligencia Artificial. El proyecto se basa en el juego

Neuro-Evolving Robotic Operatives (NERO), desarrollado por estudiantes de

posgrado y pregrado del Grupo de Investigación de Redes Neuronales y del

Departamento de Ciencias de la Computación de la Universidad de Texas, en Austin.

En particular, OpenNERO se ha utilizado para implementar varias demostraciones y

ejercicios para el libro de texto de Russell y Norvig: Inteligencia Artificial: Un Enfoque


Moderno. Estas demostraciones y ejercicios ilustran métodos de IA como la

búsqueda de fuerza bruta, búsqueda heurística, scripting, aprendizaje de refuerzo y

computación evolutiva, y problemas de IA como correr laberintos, pasar la aspiradora

y la batalla robótica. Los métodos y problemas se implementan en varios entornos

diferentes (o mods).

Razonamiento y Planificación Automática 36


Tema 4. A fondo
© Universidad Internacional de La Rioja (UNIR)
A fondo

Grupo de desarrolladores de OpenNero en


GoogleGroups

Accede a la página web a través del aula virtual o desde la siguiente dirección web:
[Link]

Grupo de Google en el que los desarrolladores opinan y en el que se pueden

resolver las dudas que vayan surgiendo.

Razonamiento y Planificación Automática 37


Tema 4. A fondo
© Universidad Internacional de La Rioja (UNIR)
Test

1. ¿Qué es una búsqueda offline?

A. Aquella que se realiza antes de empezar a ejecutar cualquier acción sobre

el entorno del agente.

B. La que se hace sin conexión a Internet.

C. En la que solo existen dos acciones en cada estado.

D Todas son correctas.

2. ¿Qué es una búsqueda online?

A. La que emplea buscadores de Internet para alcanzar el estado meta.

B. La que no tiene estados meta bien definidos.

C. La que realiza búsquedas en tiempos cortos, aunque no consigan la meta.

D. Todas son correctas.

3. ¿Qué es una acción en un modelo de búsqueda?

A. Es una operación que cambia el estado de alguna manera.

B. Es una variable del entorno.

C. Es una operación que el agente puede estudiar para ver si le permite

conseguir el estado meta.

D. La A y la C son correctas.

4. Un estado para este tipo de problemas es:

A. Una colección de variables que presentan estructura.

B. Un «identificador» sin estructura, pero diferenciable entre sí.

C. Un objetivo que no se puede alcanzar.

D. Todas son correctas.

Razonamiento y Planificación Automática 38


Tema 4. Test
© Universidad Internacional de La Rioja (UNIR)
Test

5. La búsqueda en amplitud es:

A. Completa, pero no óptima.

B. Completa y óptima.

C. Incompleta.

D. Poco compleja.

6. Una búsqueda es óptima…

A. Si encuentra la solución en poco tiempo.

B. Si encuentra la solución que tiene asociado un menor coste (por ejemplo,

número de acciones).

C. Si no comente errores al duplicar estados.

D. La A y la C son correctas.

7. La búsqueda en profundidad es:

A. Completa para todos los casos.

B. Óptima para todos los casos.

C. Muy eficiente si la profundidad de la solución es elevada y se toma dicha

rama.

D. Incompleta y óptima.

8. La búsqueda de coste uniforme:

A. Asume un coste positivo para todas las acciones.

B. Encuentra la solución óptima.

C. Es completa.

D. Todas son correctas.

Razonamiento y Planificación Automática 39


Tema 4. Test
© Universidad Internacional de La Rioja (UNIR)
Test

9. Los estados repetidos en un árbol de búsqueda, ¿son un problema?

A. No, nunca, todos los algoritmos los filtran automáticamente.

B. Sí, pero se pueden filtrar en muchos casos los bucles que se formen.

C. Sí, cuando el algoritmo explora siempre en el mismo orden los nodos

pendientes.

D. B y C son correctas.

10. Los algoritmos de búsqueda no informada:

A. Indican el orden de las acciones para que se pueda alcanzar un estado

meta.

B. Expanden nodos que representan estados alcanzados por medio de las

acciones del agente.

C. Tienen en cuenta el conocimiento a priori de los expertos que los

programan.

D. A y B son correctas.

Razonamiento y Planificación Automática 40


Tema 4. Test
© Universidad Internacional de La Rioja (UNIR)
Tema 5

Razonamiento y Planificación Automática

Tema 5. Búsqueda informada


Índice
Esquema

Ideas clave

5.1. ¿Cómo estudiar este tema?

5.2. Tipos de heurísticas

5.3. Búsqueda A*

5.4. Búsqueda por subobjetivos

5.5. Búsqueda online

5.6. Referencias bibliográficas

A fondo

Enfoque de búsqueda en tiempo real

Sesgos cognitivos

Test
Esquema
Razonamiento y Planificación Automática 3
Tema 5. Esquema
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

5.1. ¿Cómo estudiar este tema?

En este tema veremos cómo mejorar las búsquedas en entornos más complejos,

donde la expansión de nodos, debido a la complejidad del entorno, puede suponer

problemas para realizar la búsqueda.

Exploraremos inicialmente el concepto de heurística, como una formalización de la

experiencia que se puede proporcionar a un agente que debe resolver un problema y

que le permite guiarse a través del espacio de estados.

Con los conceptos de heurística definiremos tres nuevos modelos de búsqueda en

espacios no estructurados, que permitirán acelerar el proceso de exploración incluso

en entornos reactivos, donde la restricción temporal puede suponer un problema muy

restrictivo.

En este tema, nos volveremos a apoyar en el libro de Russell y Norvig: Inteligencia

artificial: un enfoque moderno (Russell, 2004).

Así, veremos los algoritmos de:

▸ Búsqueda A*.

▸ Búsqueda con horizonte limitado.

▸ Búsqueda online.

▸ Búsqueda por subobjetivos.

Razonamiento y Planificación Automática 4


Tema 5. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

5.2. Tipos de heurísticas

El término «heurística» (del griego: heuriskein) significa «encontrar», «descubrir». La

heurística surge resolviendo problemas y observando cómo se han resuelto otros.

Podemos definir la heurística como la manera de alcanzar la solución de problemas a

través de la evaluación de los progresos alcanzados durante la búsqueda del

resultado definitivo.

La heurística es una capacidad típica del ser humano, que le lleva a innovar para

alcanzar unos objetivos. En inteligencia artificial, muchos de los algoritmos que se

emplean son heurísticos o utilizan reglas heurísticas.

El método heurístico, ya que, como comentamos, se basa en resultados anteriores

para lograr nuevos objetivos, puede retornar soluciones verdaderas o falsas, aunque

esté correctamente aplicado. En inteligencia artificial, y en las ciencias de la

computación en general, el método heurístico se usa en determinadas

circunstancias, únicamente cuando no hay una solución óptima con una serie de

restricciones de partida.

Los programas heurísticos actúan encontrando algoritmos que proporcionen tiempo

de ejecución y soluciones adecuadas. Por ejemplo, en juegos que intentan predecir

lo que va a hacer el usuario. Para ello, se basan en la experiencia y en lo que ha


hecho el usuario en otras ocasiones.

Un ejemplo de algoritmo heurístico empleado en inteligencia artificial es el encargado

de determinar si un email debe ser catalogado como spam o como no spam. Y es

que las reglas, si se emplean de manera independiente, pueden provocar errores de

clasificación, pero al ser utilizadas en conjunto, cuando se utilizan muchas reglas

heurísticas a la vez, la solución mejora, siendo más robusta y aceptable.

Razonamiento y Planificación Automática 5


Tema 5. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

En definitiva, la heurística en inteligencia artificial representa el conocimiento

extraído de la experiencia dentro del dominio del problema.

Diferenciamos dos tipos de heurística:

▸ «Fuerte»: pensada para facilitar la resolución del problema, pero no nos garantiza la

resolución de este, ni su completitud ni su optimalidad. Es como una «regla de tres»


para solucionar un problema.

▸ «Débil»: buscamos aplicar un método riguroso junto a la información heurística para

guiar el proceso de búsqueda. Queremos mejorar el rendimiento medio de un


método de resolución de problemas, pero no garantiza una mejora en el peor caso.

El concepto de información heurística que aplicaremos a un método de exploración

se basa en las funciones heurísticas.

La función heurística es dependiente del estado y se usa para evaluar cómo de

prometedor es un nodo.

Estas funciones se basan en «el mejor primero», eligiendo el nodo más prometedor

para expandir. Una definición simplista es interpretar una heurística como la

«distancia» que separa a un nodo de la meta de modo aproximado.

Tabla 1. Funciones de coste real y de coste estimado (heurística).

Razonamiento y Planificación Automática 6


Tema 5. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Por ejemplo, los humanos saben que para ir de Madrid a Barcelona es mejor pasar

por Guadalajara que por Toledo; esto es así porque si trazamos una línea recta en el

mapa (la distancia euclídea) como estimación de la distancia a Barcelona, veremos

que la distancia estimada es mucho menor para Guadalajara que para Toledo.

Función heurística admisible u optimista

Definiremos una función heurística como admisible si para todo .

Por ejemplo, en el dominio del mundo de bloques, una heurística admisible es

considerar el número de bloques descolocados. O, en el caso de enfrentarnos a un

problema de encontrar rutas en una red de carreteras, por ejemplo, estimaríamos la

distancia en línea recta hasta un nodo meta. Un ejemplo se puede ver en la Figura
1, donde se muestra un grafo que representa una red de carreteras. Las aristas

tienen asociado el coste real de ir desde un nodo a otro, por ejemplo, Ir de A a S

tiene un costo de 140. La tabla de la derecha presenta el costo estimado para ir

desde cualquier nodo al nodo B, que es el nodo objetivo. De este modo, si nos

encontramos en la ciudad O y queremos ir a la ciudad B, nuestra heurística estimaría

un costo de 380.

Razonamiento y Planificación Automática 7


Tema 5. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 1. Ejemplo esquemático de un grafo que representaría una red de carreteras y su coste estimado
para ir hasta el nodo B.

Función heurística consistente

Una heurística consistente es aquella que cumple la propiedad de que el valor de la

función de evaluación de un hijo nunca es menor que el del

padre.

Por ejemplo, si el nodo s' es un sucesor de s y , entonces la heurística


no será consistente.

Esto implica que con una heurística consistente es monotónicamente creciente.

Por ejemplo, supongamos una solución de coste 10 y un estado inicial a partir del

cual una heurística consistente genera un valor de 6. Sus nodos sucesores podrían

tener la siguiente secuencia de valores en la función de evaluación: 6, 6, 6, 7, 7, 8, 8,

8, 9, 10, 10; es decir, el valor de la función de evaluación del hijo es, al menos, tan

grande como la del padre.

Razonamiento y Planificación Automática 8


Tema 5. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Dicho de otra forma, el valor heurístico del padre es menor o igual que el valor

heurístico del hijo más la distancia del padre al hijo, es decir,

Una heurística consistente siempre es admisible, pero no necesariamente ocurre

lo contrario.

Cuestiones

▸ ¿Cómo se pueden encontrar funciones heurísticas admisibles y/o consistentes?

▸ ¿Cómo se puede distinguir entre «buenas» y «malas» funciones heurísticas?

Diseño de funciones heurísticas

Para el diseño de estas funciones, nos plantearemos el concepto de planning de

problemas relajados. Es decir, aquellos en los que dado un problema real donde

tenemos un estado inicial, estado meta, y operadores o acciones, cada una con sus

precondiciones (elementos que se deben cumplir en un estado o nodo n, para que la

acción se pueda ejecutar sobre dicho nodo n generando un nodo n’) y efectos

(conjunto de elementos que se deben modificar en el nodo n como resultado de la

ejecución del operador o acción)., relajamos los efectos de cada operador quitando

cualquier efecto que elimine un elemento del nodo n donde se ejecuta la acción.. En

ellos, por tanto, todas las soluciones al problema original también lo son al problema

relajado y posiblemente a algunos más.

Partiremos de la idea de usar el coste exacto, , de llegar desde el estado n a

un nodo meta para generar en el problema relajado una función heurística

que nos permita resolver el problema original.

El problema lo consideramos relajado porque utilizamos una estimación de .

Razonamiento y Planificación Automática 9


Tema 5. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Por construcción, una función heurística implementada de esta manera se

considera admisible.

Figura 2. Ejemplo de problemas relajados para el puzle-8.

En la figura 2, podemos ver un ejemplo de problemas relajados para el dominio del

puzle-8.

Puzzle-8: es un popular juego que consiste en una matriz de 3x3, en la que se

encuentran unas fichas enumeradas del 1 al 8. Adicionalmente, existe una pieza

vacía o en blanco. El juego consiste en dado una configuración inicial (Estado inicial)

llevar las piezas a una configuración final (Estado meta). En cada turno las únicas

piezas que se pueden mover son las piezas adyacentes a la pieza vacía.

En el ejemplo, de la figura 2, se presenta el problema relajado de tres maneras. Por

ejemplo, podemos relajar el problema diciendo que a) una pieza puede moverse de A

a B directamente. En este supuesto, es como si estuviéramos desarrollando una

función heurística basada en a) el número de piezas descolocadas. Otra posible

relajación del problema es c) que una pieza se puede mover de A a B si A es

Razonamiento y Planificación Automática 10


Tema 5. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

adyacente a B. En este caso, es como si desarrolláramos una función heurística

basada en c) la distancia en Manhattan, donde realizamos la suma de las distancias

de las fichas mal colocadas. La distancia se mide como el número de movimientos

necesarios para situar la ficha en la posición final deseada.

Funciones heurísticas y su calidad

Si tenemos dos funciones heurísticas admisibles, y , diremos que es más


informada que si para todo nodo n se cumple que

De este modo, si es más informada que , entonces el algoritmo que emplee

expande al menos tantos nodos como aquel que emplee .

Por tanto, será preferible elegir aquellas funciones que presenten valores de

grandes, siempre que se mantengan admisibles. Si hay varias funciones

heurísticas admisibles, elegiríamos aquellas en cada caso que tengan mayor valor en

cada momento.

Razonamiento y Planificación Automática 11


Tema 5. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

5.3. Búsqueda A*

La idea es orientar la búsqueda de una solución en la que las acciones no tienen el

mismo coste y desconocemos, a priori, el coste de llegar hasta un estado meta, pero

podemos estimar, por medio de una función heurística, el coste restante que nos

queda desde el nodo actual para alcanzar el nodo meta. Por tanto, nuestro objetivo

es minimizar el coste estimado de un camino en el árbol de búsqueda, combinando

el coste de llegar al nodo n (conocido exactamente por g(n)) y el coste aproximado

de llegar de este nodo n hasta la meta por medio de la función heurística .

Para nuestro caso, siempre se debe establecer una función heurística que

subestime el coste real h(n) que nos resta para llegar a la meta desde un nodo

cualquiera .

Por lo tanto, contamos con una función de evaluación real que se define como:

coste mínimo que pasa por n, es decir, el coste real del plan.

Para ello, emplearemos la función de evaluación , que estimará una

aproximación de :

siendo:

▸ : coste estimado del nodo actual al nodo meta (h(n)=0 si n es un nodo meta).

▸ : coste real de llegar a n desde el estado inicial.

Razonamiento y Planificación Automática 12


Tema 5. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Por lo tanto, la función de evaluación f*(n) es el coste real de llegar al nodo n más el

coste estimado de llegar al nodo meta.

Durante el proceso de búsqueda, emplearemos la estrategia de elegir, entre las

hojas del árbol de búsqueda, aquella con un valor mínimo.

E l algoritmo A*, se puede explicar brevemente, basándonos en la búsqueda

general. Donde deberemos añadir el valor y como atributos a cada nodo

expandido y ordenar la lista abierta con base a los valores crecientes de . Por

tanto, añadiremos los nuevos nodos en la lista abierta según sus valores crecientes

de .

Figura 3. Algoritmo de búsqueda A*.

Razonamiento y Planificación Automática 13


Tema 5. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

La figura 3 muestra el algoritmo de búsqueda . Hay que tener en cuenta que esta

implementación del algoritmo no lleva un control de los nodos visitados (lista de

nodos cerrados). Aspecto que es bastante importante en una implementación optima

del algoritmo . El estudiante debe estar en la capacidad de buscar y agregar este

añadido al algoritmo ofrecido en la figura 3.

La lista de nodos cerrados se utiliza para controlar los elementos que ya se han

visitado. Cuando se evalúa un nodo sucesor (línea 13), siempre se verifica que en el

nodo no exista en la lista de nodos cerrados con un menor valor de , en cuyo caso

no lo agregamos en la lista de nodos abiertos (colaAbierta). En caso contrario lo

agregaríamos.

Figura 4. Ejemplo de búsqueda A*.

La estrategia A* continúa mientras se produce un crecimiento en el valor de a lo

largo de los caminos del árbol de búsqueda, tal como se muestra en la Figura 4.

Razonamiento y Planificación Automática 14


Tema 5. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Por tanto, si nos alejamos de la meta, y , que representan el coste real de ir

avanzando hacia la meta y el coste estimado de alcanzar la meta desde la posición

actual, crecen, por lo que , crece en gran medida. En cambio, si nos

acercamos a la meta, el valor de crece poco porque crece mientras que

disminuye.

Figura 5. Ejemplo de evolución de los valores de f* a lo largo de una búsqueda.

Si lo comparamos con la búsqueda de coste uniforme, los valores de crecen a lo

largo de todos los caminos del árbol de búsqueda porque en cada paso se suma el

coste de un operador (que es un número natural positivo).

En el ejemplo anterior, figuras 4 y 5, los valores de también crecen a lo largo de

todos los caminos del árbol de búsqueda. Pero esto no siempre ha de ser así, tal

como se muestra en la siguiente figura 6, donde se ve la diferencia entre el

comportamiento esperado del aumento del coste real respecto al coste estimado.

Razonamiento y Planificación Automática 15


Tema 5. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 6. Comportamiento esperado del aumento del coste real respecto al coste estimado.

En un camino del árbol de búsqueda, si un nodo es sucesor (no necesariamente

directo) de , entonces el valor de contiene una estimación del coste de

llegar de a y el coste real . Es decir, se puede

obtener el valor de a partir de , sumando y restando . Es

posible que .

La función heurística en la que nos apoyemos debe ser admisible.

Análisis del Algoritmo A*

El algoritmo A* es:

▸ Óptimo: si es admisible.

▸ Y completo, en caso de existir una solución, siempre dará con ella.

Razonamiento y Planificación Automática 16


Tema 5. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Presenta una complejidad dependiente del número de nodos expandidos, que

depende, a su vez, de la precisión de , de tal modo que si tuviésemos que la

función heurística fuese de perfecta información

, la complejidad sería lineal (sin contar

la complejidad de computar ). Mientras que, si carecemos de información,

, la búsqueda degenera en la

búsqueda de coste uniforme.

Aun así, suele haber una mejora notable en comparación con métodos no

informados.

Por ejemplo, en la figura 7, se muestra una comparativa del número de nodos

expandidos en el problema del 8-puzzle de un método no informado con el algoritmo

usando diferentes heurísticas. Suponemos que la profundidad de la solución se

encontrase tras d niveles.

Figura 7. Media estimada para cien ejecuciones. Fuente: basado en (Russell, 2004).

Razonamiento y Planificación Automática 17


Tema 5. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

5.4. Búsqueda por subobjetivos

El uso de heurísticas puede reducir drásticamente la complejidad de los algoritmos

de búsqueda. Por ello es una estrategia que debe considerarse en muchos

problemas, ya sea con una aplicación débil o con una aplicación más fuerte.

El Algoritmo emplea una aplicación «débil» de información heurística. Se usan

heurísticas para guiar la búsqueda, no para reducir el espacio de posibles

soluciones. Se mantienen propiedades de completitud y optimalidad.

En muchos casos, se requiere/prefiere una aplicación «fuerte» de heurísticas que

reduzca el espacio de búsqueda de forma efectiva (en anchura o profundidad),

aunque se corra el riesgo de no explorar posibles soluciones, dado que estas son

poco probables. Así, es posible que no se encuentre la mejor solución (no ser

óptimos). Pero el objetivo es encontrar soluciones «buenas» (no necesariamente

óptimas) y mejorar el rendimiento de forma substancial, aunque la optimalidad y

completitud no se garanticen.

L a búsqueda por subobjetivos tiene como finalidad principal reducir la

complejidad de un problema de búsqueda. La idea se fundamenta en disminuir la

profundidad de las búsquedas, subdividiendo el problema en varios subproblemas

más pequeños mediante una heurística fuerte.

Intenta determinar una secuencia de estados intermedios que con

mayor probabilidad van a encontrarse en el camino óptimo, ver figura 8. Con estos

estados intermedios, realizará búsquedas con un método base (amplitud, o

profundidad, por ejemplo) desde el estado inicial , …, y de al

estado meta . Por ejemplo, en la Figura 9, vemos el árbol generado para

solucionar el subproblema de , con la búsqueda en amplitud.

Razonamiento y Planificación Automática 18


Tema 5. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 8. Subobjetivos para el problema de Puzzle-8.

Figura 9. Método base: búsqueda en amplitud camino de s0 a i1.

Otro ejemplo se puede observar en la figura 10, donde se muestra el árbol que

soluciona el subproblema de encontrar un camino para ir del sub estado .

Figura 10. Camino de i1 a i2.

Razonamiento y Planificación Automática 19


Tema 5. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Complejidad de búsqueda por subobjetivos

En esta técnica nos encontramos con que la complejidad en tiempo y espacio


depende de condiciones diferentes:

▸ Complejidad en tiempo: nodos expandidos.

▸ Complejidad en espacio: nodos abiertos.

En general, si la elección de subobjetivos es buena, se obtiene una mejora en la

complejidad, siempre que los caminos entre los pares de subobjetivos estén «más

cortos» que la solución global.

Por ejemplo, en la figura 11, se muestra la complejidad algorítmica para un problema

cuyo factor de ramificación fuese , la profundidad de la solución fuese

y creásemos subobjetivos de profundidad (el camino

encontrado tiene una longitud de 25), y además empleáramos como técnica básica

un algoritmo de búsqueda en amplitud.

Razonamiento y Planificación Automática 20


Tema 5. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 11. Estimaciones de complejidad algorítmica.

Análisis de búsqueda por subobjetivos:

Permite reducir de forma substancial la complejidad, especialmente en problemas de

planes muy largos. La búsqueda por subobjetivos no es necesariamente completa ni

óptima.

Por tanto, es completo si el método base es completo y los subobjetivos se

encuentran en el camino que nos permite llegar desde el estado inicial al final.

Asimismo, será optimo si el método base es óptimo y los subobjetivos se encuentran

ordenados de tal modo que su camino sea el mínimo posible dentro del camino

solución.

En el caso de utilizar búsquedas heurísticas como método base (por ejemplo, ), se

puede alcanzar una reducción aún mayor de la complejidad, pero puede llegar a ser

necesario especificar distintas funciones heurísticas para cada subobjetivo.

Razonamiento y Planificación Automática 21


Tema 5. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

5.5. Búsqueda online

En algunos entornos no es posible/útil encontrar un plan completo. Por ejemplo, en

entornos reactivos, o en entornos no deterministas o dinámicos, donde no se pueden

determinar los resultados de las acciones, o el entorno y/o el estado meta puede

cambiar. Por ejemplo: seguir un objeto en movimiento (escalera de Hogwarts).

Tampoco es posible encontrar un plan completo en entornos (parcialmente)

inaccesibles, donde se desconoce parte del entorno (estados existentes, resultados

de las acciones). Por ejemplo: el dominio de un laberinto donde se conoce

parcialmente el laberinto y el mismo se va descubriendo a medida que el agente

camina por el laberinto.

Surgen de la necesidad que tienen los agentes reactivos de encontrar una solución

en un tiempo muy corto. Esta falta de tiempo para encontrar la solución hace que en

muchos casos baste con encontrar una buena acción, no un plan de acción completo

bueno.

La idea básica es combinar un paso de búsqueda con un paso de actuación. En la

tabla 2, podemos ver una comparación entre los dos tipos de búsqueda, online y

offline.

Razonamiento y Planificación Automática 22


Tema 5. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Tabla 2. Comparativa entre la búsqueda online y offline.

A continuación, vamos a ver, los siguientes tipos de búsqueda online:

▸ Búsqueda por ascenso de colinas.

▸ Búsqueda por horizonte.

▸ Optimización mediante búsqueda online.

Búsqueda por ascenso de colinas (hill climbing)

Tiene como idea inicial disminuir la profundidad del árbol de búsqueda e intentar

llevar a cabo la acción que parece más prometedora en cada momento, repitiendo el

ciclo percepción/acción de forma continua, tal como se muestra en la figura 12.

Razonamiento y Planificación Automática 23


Tema 5. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 12. Comportamiento de la búsqueda por ascenso de colinas.

El algoritmo de búsqueda por ascenso de colinas (Skiena, 2010), ver figura 13,

emplea una función heurística para calcular la distancia estimada al nodo meta más

cercano desde el nodo ; por otro lado, debe retornar el estado actual del
problema por medio de un mecanismo de percepción . En un

estado determinado por el nodo , debe evaluar cuál de las posibles acciones es la

mejor por medio de la estimación heurística de las opciones presentes

. Una vez decidida cuál es la mejor acción, la ejecutaremos dentro

del entorno.

Razonamiento y Planificación Automática 24


Tema 5. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 13. Algoritmo general de la búsqueda por ascenso de colinas.

Análisis de búsqueda por ascenso de colinas

En general, no se puede asegurar optimalidad ni completitud. Pero suele producir

resultados mejores, sobre todo en los casos en los que no existan bucles y la función

heurística sea buena. Si es completa , entonces es óptimo y completo.

Hay que vigilar la eliminación de ciclos y eliminar los estados repetidos.

Este algoritmo es utilizado para resolver problemas donde se debe encontrar un

óptimo local (una solución que no puede ser mejorada considerando una

configuración de la vecindad) pero no garantiza encontrar la mejor solución posible

(el óptimo o máximo global) de todas las posibles soluciones (el espacio de

búsqueda). Aun así, esto se puede remediar utilizando reinicios (búsqueda local

repetida), o esquemas más complejos basados en iteraciones (Lourenço, 2019),

como búsqueda local iterada, en memoria, como optimización de búsqueda reactiva

Razonamiento y Planificación Automática 25


Tema 5. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

(Battiti, Brunato, & Mascia, Reactive Search and Intelligent Optimization, 2008) y/o

búsqueda tabú (Battiti & Tecchiolli, The reactive tabu search, 1994).

Búsqueda con horizonte

Hacemos una expansión de los nodos hasta la profundidad k (horizonte) y

realizamos aquella acción que es más prometedora de todas las acciones de ese

nivel, repitiendo de forma continua hasta que encontramos una solución dentro del

horizonte de búsqueda.

El algoritmo general arranca en un estado , desde el cual aplicamos una búsqueda

no informada de profundidad , que puede ser suspendida en los nodos meta. De

las hojas adquiridas en el nivel , obtenemos la mejor empleando una función

heurística , de tal modo que optaremos por aquella acción que nos lleve a la hoja

de menor coste estimado. Repetiremos este proceso hasta alcanzar la meta. A

continuación, en las figuras 14, 15 y 16, se muestra un ejemplo de tres pasos.

Razonamiento y Planificación Automática 26


Tema 5. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 14. Ejemplo de búsqueda en profundidad limitada (paso 1).

Figura 15. Ejemplo de búsqueda en profundidad limitada (paso 2).

Razonamiento y Planificación Automática 27


Tema 5. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 16. Ejemplo de búsqueda en profundidad limitada (paso 3, final).

Análisis de búsqueda con horizonte

En general, no se puede asegurar optimalidad ni completitud, dado que esta está

ligada directamente con la función heurística. En el caso de tener una completa

, entonces es óptimo y completo.

La búsqueda por ascenso de colinas es un subtipo de la búsqueda con horizonte

(horizonte = 1). El aumento del horizonte de exploración permite evitar bucles de

longitud menor que .

Optimización mediante búsqueda online

Un subtipo de problemas a los que se puede aplicar con éxito las búsquedas online

(horizonte/ascenso de colinas) es el de los problemas de optimización, es decir,

aquellos en los que tenemos una función objetivo que deseamos alcanzar. En este

tipo de problemas no necesitamos obtener el valor máximo/mínimo de la función que

deseamos alcanzar, sino que nos basta con el valor que más se aproxime a dicho

óptimo.

Razonamiento y Planificación Automática 28


Tema 5. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

El camino para llegar al estado buscado puede ser irrelevante (coste 0). Algunos

ejemplos: juegos lógicos y de configuración, n-Reinas.

En los problemas de optimización con funciones heurísticas estimas el coste del

camino que parte del estado actual y va hasta el nodo meta más próximo, midiendo

la calidad de un nodo con respecto a una función de evaluación objetivo.

Razonamiento y Planificación Automática 29


Tema 5. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

5.6. Referencias bibliográficas

Battiti, R., & Tecchiolli, G. (1994). The reactive tabu search. ORSA Journal on

Computing, 6 (2): 126-140.

Battiti, R., Brunato, M., & Mascia, F. (2008). Reactive Search and Intelligent

Optimization. Springer Verlag ISBN 978-0-387-09623-0 archivado desde el original el

16 de marzo de 2012.

Lourenço, H. R. (2019). Iterated local search: Framework and applications. Springer,

Cham.

Russell, S. y. (2004). Inteligencia Artificial: Un Enfoque Moderno. Madrid: Pearson

Educación.

Skiena, S. S. (2010). The Algorithm Design Manual, Softcover reprint of hardcover

2nd. Springer.

Razonamiento y Planificación Automática 30


Tema 5. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
A fondo

Enfoque de búsqueda en tiempo real

Fernández, M. O. (1998). Algoritmos de búsqueda heurística en tiempo real.

Aplicación a la navegación en los juegos de vídeo. Universidad Nacional del Centro

de la Provincia de Buenos Aires, Argentina. Recuperado de:


[Link]

En este trabajo encontrarás información sobre cómo plantear una búsqueda online

en tiempo real en un entorno como podría ser el de los videojuegos.

Razonamiento y Planificación Automática 31


Tema 5. A fondo
© Universidad Internacional de La Rioja (UNIR)
A fondo

Sesgos cognitivos

González, J. (1 de enero de 2013). Heurísticos y sesgos cognitivos: los atajos de la

mente. Recuperado de:

[Link]
[Link]

Aquí se presenta una discusión sobre la integración de funciones heurísticas y de

sesgo cognitivo en el que nos basamos a la hora de realizar estimaciones optimistas.

Estos sesgos son importantes a la hora de evaluar nuestra neutralidad en las

estimaciones, tanto para realizar algoritmos de búsqueda como para modelizar

cualquier tipo de toma de decisiones.

Razonamiento y Planificación Automática 32


Tema 5. A fondo
© Universidad Internacional de La Rioja (UNIR)
Test

1. En el algoritmo A* se usan heurísticas para:

A. Reducir el espacio de posibles soluciones.

B. Guiar la búsqueda.

C. Se emplea una aplicación débil de información heurística.

2. La aplicación fuerte de heurísticas hace que:

A. Se reduzca el espacio de búsqueda.

B. Siempre encuentre la mejor solución.

C. Tiene como objetivo encontrar soluciones buenas, aunque no sean

necesariamente óptimas.

3. El objetivo de la búsqueda por subobjetivos es:

A. Ampliar la complejidad de un problema de búsqueda.

B. Reducir la complejidad de un problema de búsqueda.

C. Subdividir el problema en varios problemas pequeños mediante la

aplicación de una heurística fuerte.

4. En cuáles de los siguientes entornos no es posible o útil encontrar un plan

completo:

A. Entornos no deterministas.

B. Entonos inaccesibles.

C. Agentes reactivos que actúan de forma rápida o con objetivo continuo.

5. La idea básica de la búsqueda online es:

A. La combinación de un paso de búsqueda con un paso de actuación.

B. Realizar solo pasos de búsqueda de manera sucesiva.

C. Ninguna de las respuestas anteriores es correcta.

Razonamiento y Planificación Automática 33


Tema 5. Test
© Universidad Internacional de La Rioja (UNIR)
Test

6. La idea que subyace en la búsqueda por ascenso de colinas es:

A. Reducir profundidad del árbol expandido y realizar siempre la acción más

prometedora.

B. Expandir el árbol solo un nivel, realizar la acción hacia el mejor nodo y

repetir el ciclo percepción-acción de manera continuada.

C. Ninguna de las respuestas anteriores es correcta.

7. En la búsqueda por ascenso de colinas, se puede conseguir completitud si:

A. El conjunto de posibles estados es infinito.

B. El conjunto de posibles estados es finito.

C. Se eliminan todos los estados por los que se ha ido pasando.

8. En la búsqueda con horizonte:

A. La primera acción de un plan que lleva a un nodo con una evaluación

heurística óptima tiene una buena probabilidad de pertenecer al camino

óptimo.

B. Son reiteradas acciones de un plan las que llevan a un nodo con una

evaluación heurística óptima.

C. Asegura que hay optimalidad y completitud.

9. En un problema de optimización:

A. El camino para llegar al estado siempre es relevante.

B. No busca un estado exacto, sino que se acerque al máximo objetivo.

C. El objetivo es encontrar el mejor estado según una función objetivo.

Razonamiento y Planificación Automática 34


Tema 5. Test
© Universidad Internacional de La Rioja (UNIR)
Test

10. La búsqueda online para optimización es útil para problemas con:

A. Número infinito de estados.

B. Número finito de estados.

C. Tanto para número infinito como finito de estados.

Razonamiento y Planificación Automática 35


Tema 5. Test
© Universidad Internacional de La Rioja (UNIR)
Tema 6

Razonamiento y Planificación Automática

Tema 6. Búsqueda entre


adversarios
Índice
Esquema

Ideas clave

6.1. ¿Cómo estudiar este tema?

6.2. Introducción

6.3. Búsqueda minimax

6.4. La poda alfa-beta

6.5. Búsqueda expectiminimax

6.6. Referencias bibliográficas

A fondo

Computer Chess

Juegos de guerra

Algoritmos de juegos

Algoritmo minimax

Asociación Española para la Inteligencia Artificial

Bibliografía adicional

Test
Esquema
Razonamiento y Planificación Automática 3
Tema 6. Esquema
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

6.1. ¿Cómo estudiar este tema?

En este tema trataremos aquellos problemas en los que nos encontramos

compitiendo con más de un agente sobre el mismo entorno. Son problemas propios

de la Teoría de Juegos. En ellos deberemos tener en cuenta el objetivo de cada uno

de los agentes y sus interrelaciones.

En esta clase de problemas, es obvio que los agentes no siempre tienen los mismos

objetivos y, como buenos entes racionales, desean alcanzarlos del modo más

eficiente posible. En la mayoría de los casos, estos problemas se definen para

entornos en los que hay dos agentes enfrentados con metas contrapuestas, pero las

técnicas que se emplean pueden ser las mismas en otros muchos escenarios que no

son necesariamente bipersonales y/o competitivos.

Hablaremos principalmente del algoritmo minimax presentado por von Neumann, en

1928, en su demostración teórica sobre juegos bipersonales de «suma cero». .

Razonamiento y Planificación Automática 4


Tema 6. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

6.2. Introducción

Los problemas entre adversarios son aquellos en los que más de un agente

especializado actúa de modo concurrente en un mismo entorno. Los podemos

considerar como problemas que suceden en entornos con múltiples agentes, donde

cada agente es independiente e intenta conseguir sus propios objetivos. Cualquier

acción ejecutada por un agente influye en el rendimiento de los demás agentes del

entorno, que no pueden controlar las acciones que el resto va a realizar, aunque sí

pueden intentar predecir el comportamiento de los otros agentes.

Figura 1. Varios agentes que tienen que interactuar sobre un mismo entorno pueden o no compartir

objetivos.

En escenarios multi agentes, nos encontramos con distintos tipos de problemas,

atendiendo al comportamiento de los agentes entre sí:

▸ Escenarios cooperativos: en los que los agentes tienen metas compartidas y, por

tanto, las acciones de unos deberían facilitar los objetivos de todos los agentes.

Razonamiento y Planificación Automática 5


Tema 6. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

▸ Escenarios parcialmente cooperativos: aquellos escenarios en los que algunas

metas son compartidas por varios agentes, pero otras pueden ser opuestas.

▸ Escenarios antagónicos o competitivos: donde las metas de todos los agentes son

opuestas. El ejemplo «clásico» de escenarios antagónicos es el juego de la suma


nula, donde un (grupo de) jugador(es) solo puede ganar algo a coste de otro (grupo

de) jugador(es).

Tal como lo mencionamos anteriormente, los algoritmos que explicaremos en este

tema estarán relacionados con los escenarios antagónicos o de suma nula.

Se pueden distinguir diferentes tipos de juegos de suma nula en función de:

▸ Número de jugadores: juegos bipersonales (damas) frente a juegos de varios

jugadores (Monopoly o Catán).

▸ Elementos de azar: juegos con elementos de azar (parchís) frente a juegos sin

elementos de azar (ajedrez).

▸ Información: juegos con información perfecta (damas) frente a juegos con

información incompleta (black jack).

Ejemplo del juego de tres en raya

Emplearemos este juego durante el tema para ejemplificar el funcionamiento de los

distintos algoritmos.

En el juego de las tres en raya participan dos jugadores (que denominaremos min. y
máx.). Min. y máx. colocan fichas en las casillas de un tablero 3x3. Por convenio,

Razonamiento y Planificación Automática 6


Tema 6. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

máx. usa las fichas X y min. usa las fichas O.

En cada casilla solo puede haber una ficha. El tablero comienza vacío y máx.

empieza. Posteriormente, y de modo alternado, min pondrá otra pieza. Así, hasta que

se alcance un resultado (vence máx., vence min o empatan). Al ser un juego de

«suma cero», estos resultados siempre implican que o bien se empata, o bien todo lo

que gana un jugador es lo que pierde el otro.

Figura 2. Posibilidades en el juego de las tres en raya. Fuente: (Billhardt, 2015).

Modelos de juegos bipersonales

Nos vamos a centrar en los juegos bipersonales porque permiten ver claramente

cómo funcionan los distintos algoritmos que conforman el tema.

Los agentes máx. y min. tienen un conocimiento mínimo a priori que se puede ver

como:

Figura 3. Conocimiento a priori de un agente.

La función expandir crea los estados derivados de emplear cualquiera de las

acciones permitidas en el estado s.

Razonamiento y Planificación Automática 7


Tema 6. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

En este tipo de problemas, evaluaremos el desempeño de los agentes con base a

una función de utilidad, que solo se define, inicialmente, en los estados meta. Por

ejemplo, en los problemas de suma nula, máx. gana si y solo si min. pierde.

Por tanto, la función de utilidad de un estado s, U(s), es:

Tabla 1. Función de utilidad básica.

Al igual que en los algoritmos de búsqueda que vimos anteriormente, los algoritmos

de resolución de escenarios bipersonales o entre adversarios emplean la

construcción de árboles de búsqueda para gestionar el proceso de concesión de la

meta u objetivo del agente.

En el caso de escenarios de juego como los descritos en el presente tema, el árbol

que generamos se llama árbol de juego G. Y formalmente está formado por la tupla

, donde:

▸ , es un conjunto de nodos,

▸ E ฀ NxN es una función sobre N que asigna a cada nodo N sus hijos

▸ á , es una función sobre N que etiqueta a cada nodo N a que


jugador le toca el turno

En este árbol, empieza siendo vacío y etiquetaremos la raíz como máx., indicando

que el turno inicial es siempre de este. Todos los sucesores se irán entregando de

modo ordenado.

Razonamiento y Planificación Automática 8


Tema 6. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Cada nivel del árbol representa media jugada (un ply). Por otro lado, todas las hojas

de un árbol, si se expande completamente, representan nodos terminales del juego.

Ejemplo de árbol de juego para tres en raya:

Figura 4. Árbol de juego para tres en raya.

La mejor jugada del agente máx

La estrategia se centra en un solo agente, máx. Y define las jugadas de máx en


todos los estados alcanzables del juego. Es decir, da una respuesta a todas las

jugadas posibles de máx y del contrincante min. Las jugadas de min serán un

subárbol del árbol de juego.

Si aplicásemos únicamente algoritmos de búsqueda estándar, nos encontraríamos

con que min nunca querrá realizar acciones que se encuentren en el camino principal

de máx.

Razonamiento y Planificación Automática 9


Tema 6. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Estrategia óptima o racional

En los escenarios competitivos con agentes racionales siempre se asume que min

realizará la mejor acción para sí mismo de aquellas que el agente máx le haya

dejado en su momento. La estrategia óptima para máx es la estrategia minimax:

maximizar la utilidad mínima en cada jugada.

Razonamiento y Planificación Automática 10


Tema 6. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

6.3. Búsqueda minimax

Minimax es un método de decisión para minimizar la pérdida máxima esperada en juegos con
adversario y con información perfecta. Es un cálculo que se emplea de forma recursiva. Su

funcionamiento se resume en elegir el mejor movimiento para uno mismo partiendo de la suposición

de que el contrincante escogerá el peor para el adversario. La figura 5, describe a modo resumen las
características principales del algoritmo Mini-máx.

Figura 5. Método minimax.

En último lugar llegará el valor de utilidad desde un nodo terminal al nodo raíz. Y tendremos que la
acción que lleva al camino del nodo meta con mayor valor es la jugada óptima. En la figura 6, se

puede ver un ejemplo de selección de la mejor jugada de máx. Como función de utilidad tenemos
valores de 0, - infinito e infinito.

Figura 6. Estrategia óptima para una búsqueda minimax.

El algoritmo explorará los nodos del árbol y les asigna un valor numérico mediante una función de

Razonamiento y Planificación Automática 11


Tema 6. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

utilidad, empezando por nodos terminales y subiendo a la raíz. La función de utilidad definirá lo buena
que es la posición de un jugador (min o máx) cuando la alcanza.

En la figura 7, se puede ver una versión muy preliminar del algoritmo Mini-Max.

Figura 7. Algoritmo minimax (versión preliminar).

El principal problema de esta técnica es que, incluso en juegos muy simples, resulta imposible crear
un árbol completo de juego. Esto es debido al crecimiento exponencial del árbol de juego.

Minimax con suspensión

Cuando el problema manifiesta unos problemas graves de expansión de los nodos, la solución se

basa en heurísticas.

La idea es reemplazar la prueba terminal por una prueba de suspensión, es decir, en vez de tener que

desarrollar todo el árbol de juego, realizamos una expansión hasta el nodo de profundidad d. Para ello
deberemos emplear una función de evaluación e, que estima la utilidad esperada del juego

correspondiente a una posición s determinada (e debe coincidir con la función de utilidad u en los

nodos terminales).

Lo más habitual es emplear una función de tipo lineal ponderada:

Razonamiento y Planificación Automática 12


Tema 6. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Por ejemplo, para el ajedrez nos podríamos encontrar con una función de la forma:

Mientras que, en el juego de tres en raya, la función de evaluación puede ser de la forma:

ú í í á ú í í

Al emplear funciones heurísticas fuertes, dado que deseamos limitar la complejidad, no podremos
garantizar que la estrategia minimax sea óptima. Pero claro, esto dependerá de la calidad de las

heurísticas.

En el siguiente ejemplo se muestra minimax con suspensión:

Figura 8. Minimax con suspensión.

Razonamiento y Planificación Automática 13


Tema 6. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

El algoritmo lo podemos resumir de la siguiente manera:

Figura 9. Algoritmo minimax con suspensión.

Ejemplo de las tres en raya:

Figura 10. Ejemplo de algoritmo minimax con suspensión para el juego tres en raya.

El algoritmo minimax tiene un problema de complejidad importante en el caso general, (factor


de ramificación b; número de de profundidad del áborld).

Minimax genera el árbol de juego completo, en profundidad primero, hasta los nodos (o el nivel) de

suspensión.

Razonamiento y Planificación Automática 14


Tema 6. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Existen extensiones de la estrategia minimax, algunas las veremos en las secciones siguientes:

▸ Mejorar la complejidad (poda alfa-beta: descartar nodos irrelevantes).

▸ Juegos con elementos de azar (expectiminimax: hay un nuevo jugador «azar»).

▸ Juegos con información parcial (búsqueda en estados de creencias).

▸ Mejorar las heurísticas: aprender funciones de evaluación y suspensión (por ejemplo, por el «efecto

horizonte»).

Razonamiento y Planificación Automática 15


Tema 6. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

6.4. La poda alfa-beta

El crecimiento exponencial de los nodos que se deben explorar en la estrategia

minimax hace de él un algoritmo que presenta una complejidad poco deseable. Si

bien este exponente no se puede eliminar, por lo menos es posible dividir a la mitad

su valor, con la mejora de rendimiento que eso conlleva.

Es decir, que existe la posibilidad de tomar una decisión minimax correcta sin tener

que mirar todos los nodos en el árbol. La poda alfa-beta permite eliminar partes del

árbol.

La idea inicial es que, en muchas ocasiones, no es necesario evaluar todos los

sucesores de un nodo para obtener el valor exacto de dicho nodo.

Por ejemplo:

Figura 11. Ejemplo de poda alfa-beta

En la figura 11, se muestra un árbol en el que se aplica la poda alfa-beta. Se tienen


dos tipos de poda.

Poda alfa, sucede cuando es el turno de máx, y se mantienen los siguientes

parámetros actualizados.

Razonamiento y Planificación Automática 16


Tema 6. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

▸ Alfa ( ): evaluación más alta encontrada (de momento) en un nodo máx.

▸ Beta ( ): evaluación más baja encontrada (de momento) en su sucesor directo min.

Figura 12. Poda alfa.

Poda beta, sucede cuando es el turno de min, y se mantienen los siguientes

parámetros actualizados:

▸ Beta ( ): evaluación más baja encontrada (de momento) en un nodo min.

▸ Alfa ( ): evaluación más alta encontrada (de momento) en su sucesor directo máx.

Figura 13. Poda beta.

Razonamiento y Planificación Automática 17


Tema 6. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Estas dos podas se pueden presentar de manera profunda de la siguiente manera.

Poda alfa profunda:

Figura 14. Poda alfa profunda.

La poda beta profunda funciona de forma dual. Emplearemos dos funciones

mutuamente recursivas que irán creando las expansiones y podas de máx y min de

modo alternado.

Razonamiento y Planificación Automática 18


Tema 6. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Minimax con poda alfa-beta:

Figura 15. Minimax con poda alfa-beta.

Ejemplo minimax con poda alfa-beta:

Figura 16. Ejemplo minimax con poda alfa-beta.

Razonamiento y Planificación Automática 19


Tema 6. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

El algoritmo minimax con poda alfa-beta siempre produce el mismo

resultado que sin la poda. Pero existe una relación directa en la mejora del

rendimiento de la poda asociada al orden de exploración de los nodos. La eficiencia

de minimax con poda depende del orden en el que se exploran los nodos.

La Tabla 2 compara el tiempo computacional de la búsqueda minimax y la poda alfa-

beta.

Tabla 2. Análisis de complejidad del algoritmo minimax.

Razonamiento y Planificación Automática 20


Tema 6. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

6.5. Búsqueda expectiminimax

Para los juegos bipersonales con elementos de azar se suele emplear el algoritmo

expectiminimax . Cuando nos encontramos en un escenario donde aparecen

elementos de azar, hay que evolucionar la idea del minimax. Para ello, añadimos un

nuevo jugador «azar», que se incluye en el árbol siempre que haya un evento

independiente de los jugadores y cuyo resultado es aleatorio.

Los nodos sucesores de estas jugadas de «azar» son los posibles valores

resultantes de los elementos de azar. Por ejemplo, los distintos valores de una tirada

de dado o el éxito o fracaso de una acción azarosa. Cada uno de los sucesores de

un nodo «azar» tiene, por tanto, asociada una probabilidad de ocurrencia.

En un ejemplo como el del Backgammon simplificado en el que partimos de un

estado inicial como este:

Figura 17. Backgammon. El backgammon es un juego de mesa para dos jugadores que une el azar con

profundos conocimientos estratégicos. El objetivo es conseguir sacar fichas del tablero antes que el

jugador rival.

Tenemos el objetivo de mover nuestras fichas (por ejemplo, blanca para máx hasta el

campo cinco y min lo tendrá que hacer hasta el campo cero), contando con que

empieza máx y que en cada jugada primero se tira una moneda (donde obtener cara

tiene el valor uno y cruz el valor dos).

Razonamiento y Planificación Automática 21


Tema 6. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Después, se mueve una de las fichas uno o dos campos en la dirección deseada

(dependiendo del resultado de la tirada de la moneda), no siendo posible mover

fichas a un campo donde el adversario tenga ya una. Y, en el caso de que el jugador

no pueda mover, pierde el turno.

Figura 18. Árbol del juego. Representación de estados: (x 1, x2, y1, y2), donde x 1 y x2 son posiciones de las

fichas blancas y las y1 e y 2 posiciones de las fichas negras.

ExpectiMinimax tiene como objetivo, al igual que el minimax, elegir la mejor jugada

para máx. Para ello debemos propagar los valores de utilidad/evaluación hacia los

nodos padres.

Razonamiento y Planificación Automática 22


Tema 6. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

La figura 19, muestra formalmente como se obtienen los valores de evaluación

cuando el nodo es terminal (suspensión), máx, min o azar.

Figura 19. Valor propagado al padre en función del tipo de nodo.

Por ejemplo, partiendo de la situación de partida siguiente y tocándole a máx:

Figura 20. Situación de una partida de Backgammon.

Si el nivel de suspensión cinco y la función de evaluación que empleamos es la

siguiente:

Dado que los valores de a, b, c y d son mejores para máx cuanto más cerca del cinco

se encuentren, tendríamos una evaluación para el estado anterior de:

Razonamiento y Planificación Automática 23


Tema 6. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 21. Expansión de nodos para un algoritmo expectiminimax para el backgammon.

Criterios para las funciones de evaluación/utilidad

Es importante tener en cuenta que la escala de los valores de dichas funciones sí

importa (no como ocurría en el algoritmo minimax):

Figura 22. Dos ejemplos de árbol con distintos valores de escala generan distintos recorridos.

Razonamiento y Planificación Automática 24


Tema 6. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Por tanto, las funciones no deben devolver porque reservaremos estos

valores para los nodos de azar, por lo que es interesante escalar los valores a un

intervalo finito (por ejemplo, entre 0 y 1).

La función de evaluación e debe estimar la probabilidad de ganar. En el caso ideal,

e es una transformación lineal positiva de dicha probabilidad.

Figura 23. Estimación ideal de la probabilidad de victoria en función del valor e(nodo).

Habitualmente, no es sencillo establecer una función e que cumpla este criterio para

todos los estados del juego (nodos). Por lo que, normalmente, una función e es más

«exacta» cuanto más cerca está el estado actual del juego de un estado terminal. Es

preferible aplicar la búsqueda expectiminimax en el máximo número de plys posibles

y, solo al final, aplicar la función de evaluación e.

La complejidad expectiminimax es muy elevada y depende del nivel de profundidad d

(plys), el factor de ramificación b (jugadas posibles) y los elementos de azar con n

posibilidades, pero si incluimos los nodos de azar, nos encontramos con una

complejidad de .

Razonamiento y Planificación Automática 25


Tema 6. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Tabla 3. Ejemplo Backgammon: n=21 (2 dados) y b»20

Para más detalles sobre la aplicación de la poda al algoritmo

expectiminimax, puedes ver la sección 5.5.1. de (Russell, 2004).

Razonamiento y Planificación Automática 26


Tema 6. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

6.6. Referencias bibliográficas

Billhardt, H. G. (2015). Inteligencia artificial: Ejercicios resueltos. Editorial

Universitaria Ramon Areces.

Hazewinkel, M. (2013). Minimax Principle. En Hazewinkel, M. (Ed.), Encyclopaedia of

Mathematics, (Vol. Volume 6). Dordrecht: Springer.

Russell, S. y. (2004). Inteligencia Artificial: Un Enfoque Moderno. Madrid: Pearson

Educación.

Razonamiento y Planificación Automática 27


Tema 6. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
A fondo

Computer Chess

Bujalski, A. (2013). Computer Chess [Película].

Una comedia existencial de los hombres brillantes que enseñaban a jugar al ajedrez

a las máquinas antes, cuando las máquinas parecían torpes y nosotros inteligentes.

Razonamiento y Planificación Automática 28


Tema 6. A fondo
© Universidad Internacional de La Rioja (UNIR)
A fondo

Juegos de guerra

Badham, J. (1983). War games [Película].

Es una película que narra las aventuras de un muchacho fan de la informática que

por error entra en contacto con un «superordenador» del ejército americano.

Presenta una escena en la que se pone a jugar el superordenador contra sí mismo a

las tres en raya, claro ejemplo de búsqueda minimax.

Razonamiento y Planificación Automática 29


Tema 6. A fondo
© Universidad Internacional de La Rioja (UNIR)
A fondo

Algoritmos de juegos

Aguilar, P. (2008). IA - Algoritmos de juegos. Cataluña: Facultad de Informática de

Barcelona, Universidad Politécnica de Cataluña. Recuperado de:

[Link]

Este documento proporciona una visión divulgativa sobre el área de los algoritmos de

juegos de la inteligencia artificial. Proporciona un buen punto de partida para

profundizar en los algoritmos de búsqueda con adversarios. Presenta los algoritmos

avanzados que se basan en minimax, como Negamax u otros algoritmos como SSS*

o Scout.

Razonamiento y Planificación Automática 30


Tema 6. A fondo
© Universidad Internacional de La Rioja (UNIR)
A fondo

Algoritmo minimax

Adrigm. (2010). Algoritmo minimax, un jugador incansable [Mensaje en un blog].

Razón artificial. Recuperado de: [Link]

un-jugador-incansable/

Características y funcionamiento del algoritmo minimax en la teoría de juegos.

Razonamiento y Planificación Automática 31


Tema 6. A fondo
© Universidad Internacional de La Rioja (UNIR)
A fondo

Asociación Española para la Inteligencia Artificial

Accede a la página web a través del aula virtual o desde la siguiente dirección web:
[Link]

Página web de la AEPIA, Asociación Española para la Inteligencia Artificial, donde

podrás estar al día de todo lo relacionado con esta área.

Razonamiento y Planificación Automática 32


Tema 6. A fondo
© Universidad Internacional de La Rioja (UNIR)
A fondo

Bibliografía adicional

Trigozo-Galoc, G., Julca-Huancas, U. y Gómez-Díaz, M. (1994). Inteligencia Artificial

y Algorimo: Minimax. Perú: Facultad de Ingeniería y Arquitectura, EAP Ingeniería de

Sistemas, Universidad Peruana Unión.

Razonamiento y Planificación Automática 33


Tema 6. A fondo
© Universidad Internacional de La Rioja (UNIR)
Test

1. Se llama estrategia óptima la que:

A. Implica el mejor resultado garantizado para máx.

B. Implica el mejor resultado garantizado para min.

C. Implica que tanto máx como min obtengan el mejor resultado garantizado.

2. Los tipos de problemas multi agente contemplan:

A. Escenarios parcialmente cooperativos y escenarios con metas opuestas.

B. Escenarios con metas compartidas y escenarios con metas opuestas.

C. Escenarios con metas compartidas, escenarios parcialmente cooperativos

y escenarios con metas opuestas.

3. Los juegos se pueden clasificar en función de:

A. Número de jugadores, elementos de azar e información.

B. Información y número de jugadores.

C. Elementos de azar y número de jugadores.

4. En un juego en el que máx puede asumir que min hará lo mejor para sí mismo, lo

que implica que es lo peor para máx, la estrategia óptima para máx es:

A. Minimizar la utilidad mínima en cada jugada, minimax.

B. Maximizar la utilidad mínima en cada jugada, minimax.

C. No existe una estrategia óptima para estos casos.

5. Minimax genera:

A. El árbol de juego incompleto, primero en profundidad, pero no llega a cubrir

todos los nodos.

B. El árbol de juego completo, primero en profundidad, hasta los nodos

suspensión. C. No genera ningún árbol.

C. No genera ningún árbol.

Razonamiento y Planificación Automática 34


Tema 6. Test
© Universidad Internacional de La Rioja (UNIR)
Test

6. El algoritmo minimax con poda alfa-beta:

A. Produce el mismo resultado que sin poda.

B. Nunca produce el mismo resultado que sin poda.

C. El resultado depende de la exploración de los nodos, por lo que no se tiene

el mismo resultado nunca.

7. El algoritmo expectiminimax utiliza el algoritmo minimax y:

A. Añade un árbol complejo teniendo en cuenta el azar para que en cada uno

de los nodos ocurra siempre el mismo resultado.

B. Añade el azar como si fuera un jugador y lo incluye en el árbol siempre.

C. Añade el azar como si fuera un jugador, siempre que haya un evento con

independencia de los jugadores cuyo resultado sea aleatorio.

8. El caso ideal de la función de evaluación e en expectiminimax es:

A. Una transformación lineal positiva de dicha probabilidad.

B. Una regresión lineal positiva de dicha probabilidad.

C. Una transformación lineal negativa de dicha probabilidad.

9. La complejidad de expectiminimax es:

A. Inversamente proporcional al número de nodos del árbol.

B. Proporcional al número de nodos en el árbol.

C. No tiene relación con el número de nodos en el árbol.

10. La eficiencia de minimax con poda alfa-beta:

A. Es independiente del orden en el que se exploran los nodos.

B. El orden en el que se exploran los nodos no influye.


C. Depende del orden en el que se exploran los nodos.

Razonamiento y Planificación Automática 35


Tema 6. Test
© Universidad Internacional de La Rioja (UNIR)
Tema 7

Razonamiento y Planificación Automática

Tema 7. Problemas de
planificación
Índice
Esquema

Ideas clave

7.1. ¿Cómo estudiar este tema?

7.2. ¿Qué es un problema de planificación?

7.3. Tipos de problemas de planificación

7.4. Planificadores de orden total y de orden parcial

7.5. Referencias bibliográficas

A fondo

Acelerar la planificación de tareas

Classical Planning

ICAPS

Bibliografía adicional

Test
Esquema
Razonamiento y Planificación Automática 3
Tema 7. Esquema
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

7.1. ¿Cómo estudiar este tema?

En este tema introduciremos los matices que definen un problema de planificación y

sus diferencias principales respecto a los problemas de búsqueda generales.

Clasificaremos los problemas de planificación y presentaremos los conceptos

generales que hacen necesaria la planificación en situaciones que requieren

estrategias que construyan los planificadores de orden total y de orden parcial.

Expresaremos también el caso particular de los planificadores en un entorno

específico como es el de los simuladores en tiempo real.

En el capítulo 11 (Planificación) del libro (Russell, 2004), tenemos muchos conceptos

generales de la planificación clásica en inteligencia artificial.

Razonamiento y Planificación Automática 4


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

7.2. ¿Qué es un problema de planificación?

La planificación automática en inteligencia artificial apunta a secuencias ordenadas

de acciones que alcanzan objetivos específicos, que definimos como planes. Los

planes generados deben poder ser ejecutados por los agentes; de este modo, deben

ser secuencias de acciones que un agente inteligente, robot o máquina pueda

ejecutar.

«Desde principios de los años 70, la comunidad de IA especializada en planificación se

ha ocupado del problema del diseño de agentes artificiales capaces de actuar en un

entorno» (Vázquez-Salceda, 2011).

En los últimos años, se ha empezado a imponer el criterio de que los sistemas

planificadores deberían ser una pieza primordial de gran parte de los agentes

inteligentes artificiales, especialmente si queremos que usen estructuras cognitivas

de razonamiento.

La idea principal que subyace a este concepto es proporcionar a los agentes

inteligentes la capacidad de representar el objetivo a alcanzar, para lo cual

formalizan las acciones que pueden realizar y generan un modelo simbólico del

entorno.

Razonamiento y Planificación Automática 5


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Definición de planificación

Se define planificación como el proceso formalizado de búsqueda de

secuencias de acciones que partiendo del estado actual del entorno satisfacen

una meta. (Russell, 2004):

▸ Estado actual del entorno: es una representación estructura que crea el agente al

momento de percibir su entorno. Como, por ejemplo, su posición actual, si llueve o


no llueve, la posición de una mesa, etc.

▸ Meta: es cualquier condición que un agente quiera satisfacer. Un agente puede tener

varias posibles metas, pero en un instante determinado solo una puede estar

activa, controlando el comportamiento.

▸ Acción: es un paso simple y atómico dentro de un plan que hace que un agente

haga algo (ir a un punto, activar un objeto, etc.)

▸ Plan: secuencia de acciones.

▸ Proceso de planificación: Un agente proporciona a un sistema (planificador) un

estado actual del entorno, un conjunto de acciones y una meta que desea satisfacer,
y el planificador busca un plan que con la ejecución de sus acciones consiga esta
meta.

Razonamiento y Planificación Automática 6


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 1. Esquema de planner. Fuente: (Russell, 2004).

Razonamiento y Planificación Automática 7


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

7.3. Tipos de problemas de planificación

Comparación entre problemas de búsqueda y de planificación

La principal diferencia entre búsqueda y planificación es la representación de

estados. En la búsqueda, los estados se representan como una sola entidad (que

puede ser un objeto bastante complejo, pero su estructura interna no es utilizada por
el algoritmo de búsqueda). En la planificación, los estados tienen representaciones

estructuradas (colecciones de propiedades) que son utilizadas por el algoritmo de

planificación.

Si bien en el contexto de la planificación nos encontramos con la necesidad de

analizar diversas opciones dentro de la exploración de los estados, en los problemas

de búsqueda deberemos determinar varios pasos por medio de la selección de una

secuencia de acciones, con el objetivo de alcanzar un estado del mundo que sea lo

mejor posible para el agente. Este proceso de seleccionar acciones se realiza por

medio de búsqueda y lo único que debemos tener en cuenta es que el resultado de

una acción debe ser predecible.

En resumen, la planificación es el proceso de calcular varios pasos de un

procedimiento de resolución de problemas antes de ejecutar cualquiera de ellos. Este

problema se puede resolver mediante la búsqueda.

Planificación clásica

La planificación es una tarea compleja y por esta razón la mayoría de los

planificadores trabajan sobre un modelo restringido del entorno (planificación

clásica). Este modelo es determinista, estático y totalmente observable.

Concretamente fija las siguientes asunciones:

▸ Observable: considera que el entorno es totalmente observable y no existe

información desconocida para el planificador.

Razonamiento y Planificación Automática 8


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

▸ Estático: considera que el entorno solo cambia al momento de aplicar una acción en

el estado inicial completamente conocido. Es decir, no existen influencias externas


que afecten el entorno. Además, considera que los objetivos son conocidos y no
cambian durante la planificación.

▸ Determinista: considera que los efectos de aplicar una acción en un estado son

totalmente predecibles, conduciendo de forma determinista a un único nuevo estado.

▸ Proposicional: considera un enfoque proposicional para representar el estado del

entorno. Son variables del modelo de planificación que pertenecen al dominio lógico

y toman valores de cierto o falso.

▸ Duración de las acciones: considera que todas las acciones del modelo de

planificación tienen la misma duración (1) y se ejecutan de manera atómica e


instantánea.

▸ Offline: considera que la tarea de planificación para construir un plan completo que

satisface el estado meta se desarrolla antes de la ejecución de cualquier acción del


plan en el estado del mundo.

Aun considerando estas simplificaciones, el problema a resolver por un planificador

es PSPACE-Completo. Así bien, el empleo de técnicas clásicas de búsqueda o

demostración de teoremas no resulta factible del todo.

Planificación con incertidumbre

Como un caso opuesto a la planificación clásica, encontramos la planificación con

incertidumbre (Russell, 2004). Que se acerca más a lo que conocemos en el mundo

real.

Razonamiento y Planificación Automática 9


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Concretamente, en una planificación con incertidumbre se fijan como importantes las

siguientes asunciones:

▸ Parcialmente Observable: considera que el entorno es parcialmente observable, por

lo que puede existir información desconocida para el planificador.

▸ Dinámico: considera que el entorno puede cambiar en cualquier momento. Es decir,

existen influencias externas que afecten el entorno. Esto aplica también para los
estados metas.

▸ No Determinista: considera que los efectos de aplicar una acción en un estado no

son predecibles, conduciendo de forma no determinista a uno o varios nuevos


estados.

Por lo tanto, un agente puede no conocer todo el estado del mundo, entorno

parcialmente observable. O tener acciones cuyos efectos son no deterministas. En

estas situaciones, se requiere una planificación con incertidumbre donde el uso de la

probabilidad o de los modelos ocultos de markov toman bastante valor.

Clasificación de métodos y problemas

Atendiendo a su modo de búsqueda en el espacio de estados para obtener el

resultado u objetivo deseado, los sistemas de planificación pueden:

▸ Operar hacia delante (desde el estado inicial), buscando aquellas acciones que se

pueden aplicar desde el estado en el que nos encontramos y realizando una


búsqueda no informada para conseguir obtener las acciones precisas que alcancen
el objetivo.

▸ Aplicar las acciones hacia atrás (Guzman, 2015) (desde el objetivo a obtener), con el

fin de encontrar qué acciones pueden producir el resultado que deseo en último
lugar e ir explorando desde la meta al inicio el espacio de estados.

Razonamiento y Planificación Automática 10


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Estos enfoques se emplean principalmente cuando los valores que definen el estado

meta son independientes entre sí.

Cuando nos encontramos en escenarios en los que no podemos garantizar la

independencia entre los elementos que componen un estado deseado, suele ser

buena idea utilizar algoritmos que buscan dentro del espacio de los posibles planes

sin intentar obtener de una sola vez una secuencia completa de acciones totalmente

ordenada. Estos mecanismos se describen como planificación de orden parcial


(POP). Trabajan hacia atrás, desde el objetivo, y añaden acciones para planificar

cómo alcanzar cada subobjetivo.

Otra alternativa, en caso de que los problemas sean demasiado largos, es subdividir

el problema de forma jerárquica, ya sea mediante extensiones de los operadores de

planificación general o mediante extensiones del lenguaje y modificación de la

compartimentalización del problema, combinando de manera efectiva las soluciones

parciales en las que hay elementos comunes. Esta técnica se conoce como redes de

tareas jerárquicas.

Planificación generalizada

«Un plan generalizado brinda una solución única para un conjunto de problemas de

planificación. En muchos dominios, los planes generalizados solo pueden hacer

cálculos en ciertas funciones de alto nivel, por ejemplo, funciones capaces de

capturar conceptos clave o variables que distinguen cuidadosamente entre diferentes

estados posibles. En la planificación generalizada, estas funciones de alto nivel se


codificarán a mano» (Lotinac, 2016).

Razonamiento y Planificación Automática 11


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

7.4. Planificadores de orden total y de orden


parcial

La planificación de orden total tiene principalmente una limitación cuando los

objetivos que debemos alcanzar en un problema interactúan entre sí. En este caso,

el método GPS puede deshacer un subobjetivo mientras intenta satisfacer a otro

(Ghallab, 2004). La anomalía de Sussman describe esta situación perfectamente.

Figura 2. Anomalía de Sussman.

La figura2, muestra un ejemplo de la Anomalía de Sussman en el dominio del mundo


de bloques. En ella tenemos la posibilidad de completar un problema por medio de

un plan, pero nos encontramos con la imposibilidad de encontrar un plan global

óptimo a partir de concatenar subplanes parciales.

Razonamiento y Planificación Automática 12


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Como veremos, en muchos casos, las heurísticas de planificación global (como

STRIPS) implican que las submetas son independientes, pero para conseguir alguna

de ellas es necesario destruir otras metas ya conseguidas, degenerando en un bucle

en el que los subobjetivos se anulen continuamente.

Figura 3. Un posible estado puede alcanzar dos subobjetivos por medio de acciones que se anulan

continuamente.

Para resolver este tipo de problemas, veremos los planificadores de orden parcial.

En ellos, en lugar de buscar en el espacio de estados u objetivos, buscamos en un

espacio de planes no completamente especificados (planes parcialmente

ordenados).

Así, definiremos un plan parcialmente ordenado como un plan en el que solo se

especifican algunas de las precedencias entre sus acciones y buscaremos los

distintos planes que pueden concatenar acciones, de tal modo que podamos

satisfacer las restricciones de orden entre las acciones de un plan (Russell, 2004).

Razonamiento y Planificación Automática 13


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 4. Búsqueda en el espacio de planes, idea inicial del POP.

Planificadores de orden parcial

Para resolver aquellos problemas en los que la consecución de una submeta

conlleve, de modo endémico, una destrucción de otras metas conseguidas

anteriormente y para solucionar problemas de modo general, disponemos del

mecanismo basado en la búsqueda en el espacio de planes, en contraposición a la

búsqueda en el espacio de estados en el que se basa STRIPS.

Así, buscaremos en el espacio de planes no completamente especificado, es decir,


en el espacio de planes de orden parcial.

Definiremos plan parcialmente ordenado (partial order plan, POP) como un plan en

el que solo se especifican algunas de las precedencias entre sus acciones.

Razonamiento y Planificación Automática 14


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Componentes

Un POP está compuesto por los siguientes componentes:

▸ Nodos/acciones: forman los pasos del plan, seleccionados de entre los operadores

del agente. Cada uno con sus precondiciones y efectos.

• Con dos acciones especiales: inicio (sin precondiciones y con el efecto de crear las
propiedades del estado inicial) y final (sin efectos y que tiene como precondiciones

todas las propiedades que conforman el estado meta).

▸ Arcos: son las restricciones de orden parcial entre dos acciones,

Figura 5. Arcos.

▸ Arcos/enlaces causales: especifican la consecución de un efecto por parte de una

acción, que es precondición para otra acción a la que se enlazan.

Figura 6. Arcos/enlaces causales.

Razonamiento y Planificación Automática 15


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

▸ Precondiciones abiertas: representan aquellas propiedades que son precondición de

alguna acción presente en el plan y que todavía no se han enlazado por medio de
ningún arco causal.

Se define un plan parcial inicial como aquel que tiene, únicamente, las acciones de

inicio y final. Con la restricción implícita de orden y que


contiene todas las precondiciones de final abiertas.

El objetivo es conseguir un plan parcial final (de entre los posibles que existan) que

no tenga conflictos entre los enlaces causales, sin ciclos entre sus restricciones

de orden y sin precondiciones abiertas.

Donde definimos que la acción C entra en conflicto con el enlace causal entre

(que produce la propiedad p) si C tiene el efecto de eliminar p y, según las

restricciones de orden, C podría ir antes que B y después de A.

Para la obtención de una secuencia de planes parciales que nos permita alcanzar el

plan parcial debemos colocar las acciones una detrás de otra, sin contradecir

ninguna restricción de orden que se deduzca del plan parcial. Para ello deberemos

tener en cuenta que cualquier secuenciación de un plan parcial solución supone una

solución al problema original.

En este contexto elaboramos la idea de que debemos diseñar un algoritmo para

encontrar planes parciales finales. La idea principal es la creación de un POP

comenzando por el plan inicial e ir aplicando transformaciones u operadores a los

planes parciales, refinándolos.

En esencia, consiste en resolver las precondiciones abiertas evitando las amenazas.

En cada instante habrá varias alternativas para ir refinando el plan y no todas ellas

Razonamiento y Planificación Automática 16


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

conducen hacia el plan parcial final. Por tanto, el problema consiste en encontrar la

secuencia de refinamiento que, partiendo del plan parcial inicial, llegue a un plan

parcial solución (es decir, sin ciclos, sin amenazas y sin precondiciones abiertas).

Vuelve a ser una búsqueda en un espacio de estados, pero ahora los estados son

los planes parciales y los operadores son los refinamientos sucesivos de los planes

parciales.

Algoritmo

En consecuencia, un algoritmo POP simplemente emplea un algoritmo de búsqueda

(en profundidad, por ejemplo) en el espacio de los planes parciales para encontrar el

plan parcial final.

Figura 7. Búsqueda en profundidad en el espacio de planes.

Razonamiento y Planificación Automática 17


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Como todo algoritmo de búsqueda, contamos con dos componentes principales. Por

un lado, los estados, que en este caso es un plan parcial creado hasta ese instante,

con el conjunto de acciones enlazadas y precondiciones abiertas. Y, por otro lado,

los operadores o acciones que se pueden crear desde cada estado.

En este caso, dispondremos de dos tipos de acciones en cada estado.

▸ Acciones de resolución de precondiciones abiertas: dada una precondición p abierta

en una acción B dentro del plan del estado actual, por cada acción A que tiene como

efecto producir p, podemos obtener un plan refinado aplicando uno de los pasos
siguientes (siempre que no se produzcan ciclos): Establecimiento simple: si la acción

A ya estaba en el plan, se añade la restricción y el enlace causal

▸ Resolución de conflictos dentro del plan actual: supuesto el caso de que exista un

conflicto entre el enlace causal y la acción C, se puede crear un plan

sucesor (estado sucesor) aplicando alguno de los siguientes pasos, siempre que no
creemos ciclos:

• Promoción de la acción B: añadiendo la restricción de orden .

• Degradar la acción A: añadiendo la restricción .

Al realizar el proceso de creación del POP por medio de una técnica de búsqueda,

tenemos que crear el árbol de búsqueda en el que:

▸ Los nodos son planes parciales.

▸ Creamos tantas ramas como las necesarias originadas por las acciones anteriores

de resolución de precondiciones abiertas y conflictos.

Razonamiento y Planificación Automática 18


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

No es necesario expandir todas las precondiciones en un nivel, basta con ir

haciéndolo de modo ordenado a lo largo de la exploración de los siguientes niveles

(debemos ser cuidadosos con este proceso, esta exploración no influye en la

completitud del plan, pero sí puede ser muy determinante en la eficiencia).

Algunos mecanismos de búsqueda en árboles, como el de profundidad, pueden caer

en iteraciones infinitas. Para evitarlo es necesario contar con una cota de

profundidad de exploración en estos casos. Asimismo, existen heurísticas que

permiten acelerar el proceso de obtención de planes.

Razonamiento y Planificación Automática 19


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

7.5. Referencias bibliográficas

Ghallab, M. N. (2004). Automated Planning: theory and practice. San Francisco:

Elsevier.

Guzman, C. C. (2015). Reactive execution for solving plan failures in planning control

applications. Integrated Computer-Aided Engineering, 22(4), 343-360.

Lotinac, D. S.-A. (2016). Automatic Generation of High-Level State Features for

Generalized Planning. Proceedings of the Twenty-Fifth International Joint Conference

on Artificial Intelligence. Kambhampati, S.

Russell, S. y. (2004). Inteligencia Artificial: Un Enfoque Moderno. Madrid: Pearson

Educación.

Vázquez-Salceda, J. (2011). Agentes planificadores. Obtenido de Agentes

p l a n i fi c a d o r e s : [Link]
IntroPlanificaci%C3%[Link]

Razonamiento y Planificación Automática 20


Tema 7. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
A fondo

Acelerar la planificación de tareas

García, A., de la Rosa, T. y Borrajo, D. (2011). Using the Relaxed Plan Heuristic to

Select Goals in Oversubscription Planning Problems. Lecture Notes in Computer

Science, 7023, 183-192. Recuperado de:


[Link]
cia_artificial

Trabajo en el que se presenta un nuevo sistema de planificación de altas

prestaciones con recursos limitados.

Razonamiento y Planificación Automática 21


Tema 7. A fondo
© Universidad Internacional de La Rioja (UNIR)
A fondo

Classical Planning

Universidad Nottingham. (s.f.). Planning and search. Classical Planning. Recuperado

de: [Link]

Trabajo resumen de la Universidad de Nottingham en sus Lecture Notes de

planificación.

Razonamiento y Planificación Automática 22


Tema 7. A fondo
© Universidad Internacional de La Rioja (UNIR)
A fondo

ICAPS

Accede a la página web a través del aula virtual o desde la siguiente dirección web:
[Link]

Página web de ICAPS, la Conferencia Internacional de Planificación, donde puedes

estar al día de todo lo que se habla en este evento.

Razonamiento y Planificación Automática 23


Tema 7. A fondo
© Universidad Internacional de La Rioja (UNIR)
A fondo

Bibliografía adicional

Newell, A., Shaw, J. y Simon, H. (1959). Report on a general problem-solving

program. Proceedings of the International Conference on Information Processing (pp.

256-264).

Nilsson, N. (2009). The Quest for Artificial Intelligence. Cambridge: Cambridge

University Press.

Razonamiento y Planificación Automática 24


Tema 7. A fondo
© Universidad Internacional de La Rioja (UNIR)
Test

1. Se define planificación como:

A. La definición lógica de un escenario concreto de fases y tareas.

B. El proceso formalizado de búsqueda de secuencias de acciones que

satisfacen una meta.

C. La búsqueda de soluciones en un espacio de restricciones.

D. La creación de un proceso no estructurado.

2. Una meta es:

A. Cualquier condición que un agente quiera satisfacer.

B. Es un paso simple y atómico.

C. Es un objetivo no final.

D. Es una fase del desarrollo de un plan.

3. Una acción es:

A. Cualquier condición que un agente quiera satisfacer.

B. Es un paso simple y atómico.

C. Una planificación de entorno.

D. Un modelo de comportamiento del agente.

4. Un plan es:

A. Una secuencia de acciones.

B. Un paso simple y atómico.

C. Una meta no formalizada.

D. Una entrada proporcionada a un planificador.

Razonamiento y Planificación Automática 25


Tema 7. Test
© Universidad Internacional de La Rioja (UNIR)
Test

5. Una búsqueda se diferencia de una planificación en:

A. Nada, son lo mismo.

B. Las búsquedas generales no toman en consideración la estructura de los

estados y la planificación sí.

C. Que en la planificación no se realizan búsquedas.

D. Que las metas de los planificadores no son estados ni características de

ellos.

6. Los planificadores, atendiendo a su mecanismo de exploración, pueden ser:

A. Hacia delante o hacia atrás.

B. Estructurados o no estructurados.

C. Divisibles o indivisibles.

D. Ninguna de las anteriores.

7. La anomalía de Sussman:

A. Surge al tener objetivos que interaccionan entre sí.

B. Contempla el escenario en el que para cumplir un subobjetivo debemos

destruir otro ya alcanzado.

C. Presenta la complejidad de subdividir un plan en tareas jerárquicas.

D. La A y la B son correctas.

8. Un planificador de orden parcial:

A. Construye planes en los que solo se especifican algunas de las

precedencias entre sus acciones.


B. No resuelve problemas generales.
C. No busca en el espacio de planes.
D. Crea ordenes de subobjetivos concatenados hacia delante.

Razonamiento y Planificación Automática 26


Tema 7. Test
© Universidad Internacional de La Rioja (UNIR)
Test

9. Un plan se construye:

A. Por medio de acciones atómicas.

B. Para alcanzar una meta, que puede ser una combinación de características

del entorno en una configuración determinada.

C. Atendiendo a las precondiciones que se deben dar en el entorno para

poder activar una acción.

D. Todas las anteriores.

10. Una red de tareas jerárquica:

A. Subdivide el problema en metas.

B. Subdivide el problema en tareas complejas y simples.

C. Es un mecanismo de planificación de problemas complejos.

D. La B y la C son correctas.

Razonamiento y Planificación Automática 27


Tema 7. Test
© Universidad Internacional de La Rioja (UNIR)
Tema 8

Razonamiento y Planificación Automática

Tema 8. Sistemas basados en


STRIP
Índice
Esquema

Ideas clave

8.1. ¿Cómo estudiar este tema?

8.2. STRIPS

8.3. PDDL

8.4. GOAP

8.5. Referencias bibliográficas

A fondo

Charla sobre GOAP

GOAP C++

STRIPS en juegos

GOAP

Jeff Orking

Bibliografía adicional

Test
Esquema
Razonamiento y Planificación Automática 3
Tema 8. Esquema
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

8.1. ¿Cómo estudiar este tema?

En este tema trataremos de definir los planificadores tradicionales basados en la

descripción de STRIPS (Fikes y Nilsson, 1971) y su evolución en el lenguaje de

definición de planes PDDL (McDermott, Ghallab, Howe, Knoblock, Ram y Veloso,

1998).

Por último, presentaremos una adaptación de los sistemas STRIPS pensada para

sistemas con reacción en tiempo real, para poder crear sistemas que puedan

reaccionar a entornos cambiantes de modo eficiente. El sistema GOAP, ideado por

Jeff Orkin, adapta los estándares de STRIPS para estos entornos.

Razonamiento y Planificación Automática 4


Tema 8. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

8.2. STRIPS

Definición y Base

Partiremos de una información que conoce a priori un agente y tenemos una

representación de los conocimientos basada en la idea de los mecanismos de

búsqueda. Por ello contaremos con:

▸ Un estado inicial: símbolo (s0).

▸ Un conjunto de estados sucesores producidos por una función expandir(s, a) que a

partir de un estado s y una acción a genera un estado sucesor s’. Así, por ejemplo, a
partir de un estado s7 se pueden generar los estados sucesores
.

▸ Un estado meta G, que la función meta(s) evalúa como final o no. Por ejemplo, dado

el estado s112, la función meta evalúa si G está contenido en s112, en cuyo caso

diría que s112 es un estado meta (s112 true).

▸ Una función de coste c asociado a la aplicación de una acción a en un estado s. Por

ejemplo, aplicar la acción a en el estado s7 tendría un coste, c(s7, a) 5.

▸ Una o varias funciones heurísticas: h* (s7 235).

Con esta información tenemos una abstracción completa de las características de los

estados, pero en esta abstracción tenemos una pérdida de información acerca de la

conformación de los estados (por ejemplo: «¿bloque C encima de bloque A?», «¿el

agente se encuentra en Praga?»)

Esto nos genera varios problemas potenciales que derivan en un aumento de la

complejidad para poder representar la información y el conocimiento (por ejemplo,

para definir la función ), y hace más difícil el mantenimiento del conocimiento. Es

Razonamiento y Planificación Automática 5


Tema 8. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

por esto por lo que buscamos otros mecanismos para poder trabajar con la
información en estos agentes inteligentes. Para ello, tendremos en cuenta que los

estados presentan una «estructura» y definiremos un estado no por su nombre, sino

por el conjunto de sus propiedades o proposiciones.

Elementos básicos de STRIPS

A principios de los años 70, se creó el lenguaje estandarizado para formalizar un

problema de planificación (Fikes, 1971). STRIPS fue creado para describir los

componentes necesarios para que un agente planificador pudiera resolver problemas

complejos en los que la estructura de los estados era determinante para entender

qué proceso sería necesario llevar a cabo para resolver el problema de modo

racional.

Este estándar sigue muy vigente en la definición de paradigmas de planificación

actual con la creación de nuevos modelos como son PDDL (Planning Domain

Definition Language, de sus siglas en Ingles) y/o GOAP (Goal-Oriented Action

Planning, de sus siglas en Ingles).

Para esta sección emplearemos el problema de apilado de bloques, ver figura 1,

(dominio del mundo de los bloques), en el que, desde una configuración de partida

de un conjunto de bloques, deseamos crear una configuración final de los mismos

por medio de operaciones de apilado y desapilado.

Razonamiento y Planificación Automática 6


Tema 8. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 1. Bloques apilados.

Existen dos componentes básicos en una definición de problema de STRIPS:

▸ Proposiciones

▸ Operadores

Proposiciones

Para describir un estado, tendremos en cuenta el conjunto de proposiciones


relevantes que lo caracteriza. Estas proposiciones, inicialmente, son expresadas por

medio de valores booleanos, es decir, de existencia o no existencia en el estado

actual.

Razonamiento y Planificación Automática 7


Tema 8. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Por ejemplo, para el problema del mundo de los bloques, con tres bloques

tendríamos las siguientes proposiciones relevantes para caracterizar estados:

Figura 2. Proposiciones para el mundo de los bloques.

Para el caso del ejemplo de la figura 1, el estado representado en la imagen estaría

formado por las siguientes proposiciones:

Figura 3. Ejemplo de proposiciones de un apilado.

Es importante tener en cuenta que no todas las combinaciones de proposiciones son

consistentes. Por ejemplo {on(C,B), on(B,C)} no representa un estado válido porque

es inconsistente que B este sobre C y al mismo tiempo C este sobre B. A este tipo de

situaciones se les conoce como mutex.

Operadores

Expresan las acciones que el agente contempla en el problema y por las cuales

desea resolver el estado actual y transformar el entorno para alcanzar la meta o

estado final.

Razonamiento y Planificación Automática 8


Tema 8. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Se definen por una signatura del tipo:

Tabla 1. Componentes de un operador de STRIPS.

Figura 4. Ejemplos de operadores en el mundo de los bloques.

En el esquema definido por STRIPS, los operadores se ejecutan teniendo en cuenta

que un operador sea aplicable. Diremos que un operador es aplicable a un estado si

las precondiciones del operador son un subconjunto del estado S:

Cuando aplicamos un operador a un estado S, produciremos un nuevo estado S’

derivado en el cual deberemos eliminar las proposiciones descritas en E y

añadiremos las presentes en A.

Y asumiremos que, todas aquellas proposiciones que no se especifican, no se dan y,

aquellas que no se modifican, se quedan como estaban. Esto se define como la

Razonamiento y Planificación Automática 9


Tema 8. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

asunción de mundo cerrado.

Figura 5. Esquema de ejecución de un operador STRIPS.

Planificación hacia adelante

La primera idea que nos surge para resolver un problema de planificación expresado

por medio de estos operadores y propiedades STRIPS es crear una planificación que

explore el espacio de búsqueda de estados, comenzando desde el estado inicial, y

aplicando operadores como se hace en los problemas de búsqueda normales.

De este modo, y asumiendo el proceso de exploración y búsqueda que se basa en la

existencia de un conjunto de acciones candidatas en un estado determinado,

crearemos dicha función de expansión por medio de la identificación de todos

aquellos operadores que sean aplicables en el estado. Una vez identificamos todos

los operadores aplicamos la función de expansión (S, a) para todo a que pertenezcan

Razonamiento y Planificación Automática 10


Tema 8. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

a los operadores. Generando de esta manera nuevos estados S’ que serán los nodos

hijos del estado S.

Con esta idea, aplicamos algoritmos como los de búsqueda en amplitud, profundidad

e incluso búsquedas heurísticas de A*.

Figura 6. Ejemplo de planificación hacía adelante.

Pero rápidamente nos damos cuenta de que el factor de ramificación es muy elevado

y supone un problema porque el estado inicial se describe por todas las

proposiciones que podrían ser relevantes (por ejemplo, las posiciones de diez

bloques) y la descripción del estado meta suele ser parcial, es decir, solo contiene lo

que realmente importa (por ejemplo, las posiciones de tres bloques).

Planificación regresiva o hacia atrás

Dada la problemática de la planificación hacía adelante, surge la idea de aplicar

operadores en orden inverso; es decir, para poder reducir el conjunto de propiedades

no satisfechas de estado meta, aplicamos operadores de tal modo que podamos

conseguir encontrar la secuencia de operadores que nos regresan desde el estado

meta hasta el estado inicial.

Razonamiento y Planificación Automática 11


Tema 8. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Regresar un estado por un operador consiste en encontrar el conjunto de

proposiciones menos restrictivo (más débil) que permitiría aplicar el operador al

estado Para alcanzar dicho conjunto, lo que hacemos es eliminar del estado la

lista de A del operador y añadir aquellos elementos que no tenemos en PC.

Pero para conseguir la aplicabilidad de dicho operador, ningún elemento de S’ es

eliminado

Hay que tener cuidado porque en este proceso de aplicación no todos los estados

que se obtienen de la regresión son consistentes.

Figura 7. Regresión de un estado STRIPS de S’->S.

Razonamiento y Planificación Automática 12


Tema 8. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 8. Ejemplo de regresión en el mundo de los bloques. Eliminación de los estados inconsistentes.

Heurística STRIPS

Aun contando con un factor de ramificación menor y un crecimiento de la exploración

guiado por las metas, debemos combatir la complejidad de la planificación. Al igual

que en las búsquedas, la idea es buscar un conocimiento a priori que nos mejore la
complejidad, es decir, una heurística.

La heurística STRIPS consiste en encontrar los planes parciales para alcanzar cada

una de las proposiciones que se encuentran en el estado objetivo o meta. Para

construir el plan final, concatenaremos todos los subplanes parciales que tengamos

que construir.

Podemos definir la planificación de tipo STRIPS de la siguiente manera.

Razonamiento y Planificación Automática 13


Tema 8. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 9. Planificación de tipo STRIPS.

Figura 10. Uso de la heurística de STRIPS.

Pero pueden surgir problemas por el orden de exploración de las soluciones:

Razonamiento y Planificación Automática 14


Tema 8. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 11. El orden de exploración puede suponer problemas.

El orden de elección de metas y/u operadores influye en los planes obtenidos.

Figura 12. Algoritmo no determinista de la heurística STRIPS.

La heurística STRIPS es una heurística fuerte que implica que las metas son

independientes, pero para conseguir alguna propiedad o proposición se puede estar

destruyendo de modo cíclico otra proposición, quedando atrapado en un bucle de

destrucción de proposiciones. De este modo, no se podría alcanzar un plan global

Razonamiento y Planificación Automática 15


Tema 8. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

óptimo a partir de los subplanes parciales debido a que, por diseño, la linealización

de la heurística de STRIPS no permite intercalar acciones de dos submetas

independientes. Para poder solucionarlo, deberíamos poder intercalar operadores de

los distintos subplanes.

Razonamiento y Planificación Automática 16


Tema 8. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 13. El plan óptimo para un caso del mundo de los cubos.

Figura 14. Anomalía de Sussman

Hay metas que suponen la destrucción de submetas obtenidas: anomalía de

Sussman.

Razonamiento y Planificación Automática 17


Tema 8. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

8.3. PDDL

El Planning Domain Description Language (PDDL) fue creado por Drew McDermott y

su equipo. Se basaba en los estándares especificados de STRIPS y ADL

(McDermott, 1998). El objetivo inicial era crear un lenguaje común y estándar de

creación de planes para emplear como benchmark entre planificadores, y así poder

comparar agentes de planificación en competiciones o estudios. En la actualidad, es

un estándar que presenta varias versiones, desde la 1.0 a la 3.1, cada una de ellas

con diferentes niveles de expresividad (si bien es cierto que actualmente no hay

ningún planificador que soporte la versión 3.1 completa).

Se basa en una descripción de los componentes de un planificador en dos conjuntos:

uno de definición del dominio y otro de definición del problema.

Figura 15. Definición del dominio del planificador.

Razonamiento y Planificación Automática 18


Tema 8. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 16. Definición del problema.

En general, en las especificaciones de PDDL se representa el conjunto de objetos

del mundo (constantes, en mayúsculas) y se usan variables para representar

cualquier objeto del universo. Para expresar proposiciones de los objetos se emplean

símbolos de predicado y los operadores los representamos por medio de símbolos

de acciones.

Figura 17. Ejemplo de descripción de proposiciones. Fuente: (Graciani, 2016).

A la hora de construir un problema completo, usamos elementos atómicos formar

literales que pueden ser afirmativos o negativos. En nuestra definición de un

problema pueden existir átomos y literales o fluents. Los fluents son átomos

instanciados con objetos del estado del mundo. Por ejemplo, SOBRE (B, A) es un

fluent que indica que el objeto B se encuentra sobre el objeto A. En toda la definición,

Razonamiento y Planificación Automática 19


Tema 8. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

el elemento clave son los estados, que definiremos por medio de conjuntos de

fluents.

Figura 18. Ejemplo de objetivos en PDDL. Fuente: (Graciani, 2016).

Al igual que en la descripción de STRIPS, la hipótesis del mundo cerrado hace que

l o s fluents que no sean nombrados explícitamente en una descripción sean

considerados como falsos.

Razonamiento y Planificación Automática 20


Tema 8. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

8.4. GOAP

El sistema Goal - Oriented Action Planning (GOAP) fue creado por Jeff Orkin en 2004

(Symbolic Representation of Game World State: Toward real-time planning in games )

con el fin de adaptar un sistema planificador como STRIPS a un entorno de

simulación juegos. Fue implementado por primera vez en el videojuego F.E.A.R., de

Monolith (2005) (Orkin, 2006).

Puedes ver más sobre F.E.A.R en el siguiente enlace:


[Link]

Orkin se basó en la arquitectura de agentes C4 del MIT y extendió ideas del

planificador de STRIPS. Posee cuatro diferencias con STRIPS:

▸ Establece costes a las acciones con el fin de poder asignar prioridad a unas

acciones frente a otras, que es una consideración necesaria para el diseño de


agentes en videojuegos.

▸ Elimina las listas de añadir y eliminar objetos y las convierte en una única lista de

modificaciones del estado en la que las proposiciones pueden ser modificadas de


manera más flexible que por simple operación booleana.

▸ Añade precondiciones procedurales que permiten mayor flexibilidad a la hora de

expresar condiciones que se deban dar en el entorno para poder aplicar un

operador.

Razonamiento y Planificación Automática 21


Tema 8. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

▸ Añade efectos procedurales con la misma filosofía de poder modificar el entorno con

mayor flexibilidad.

La primera consideración es que representa las proposiciones de un estado dentro

de un vector multitipado, en lugar de considerar las proposiciones como valores

booleanos aislados.

Ejemplo: (AtLocation, Wearing) = (Home, Tie).

Figura 20. Ejemplo de par estado valor que representa una propiedad GOAP.

El resto de elementos de definición del dominio del problema y del entorno siguen las

especificaciones de STRIPS. Contamos con precondiciones necesarias en una

acción (operador) que produce cambios en las proposiciones del entorno para

alcanzar una meta.

Razonamiento y Planificación Automática 22


Tema 8. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 21. Ejemplo de problema análogo en STRIPS y GOAP. Fuente: adaptada de Orkin (2006).

La idea es tener varios modelos de agente que puedan emplear el mismo motor de

planificación con solo tener que definir distintos conjuntos de acciones, lo cual es de

mucha importancia en entornos como el de los videojuegos, donde debemos diseñar

varios tipos de agentes que resuelvan el problema con distintas capacidades.

Razonamiento y Planificación Automática 23


Tema 8. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 22. Varios agentes con el mismo problema, pero varios conjuntos de acciones distintas. Fuente:

adaptada de Orkin (2006).

En tiempo de diseño, en estos entornos es importante poder tener en cuenta distintas

preferencias que caractericen a los personajes de un modo sencillo. Para ello, en

GOAP se permite precisar un coste específico de cada acción y, en el proceso de

búsqueda de planes, se puede aplicar un algoritmo como A* para hacer una

búsqueda de costes mínimos en la consecución de un plan.

Razonamiento y Planificación Automática 24


Tema 8. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 23. Aplicando distintos costes a las acciones en GOAP. Fuente: adaptada de Orkin (2006).

Para resolver el problema de las cláusulas de mundo cerrado y permitir mecanismos

de aceleración del cómputo dentro del motor, se suprimen las listas de añadir y

eliminar y se crea una única lista de modificaciones.

Razonamiento y Planificación Automática 25


Tema 8. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 24. Ejemplo de operador de STRIPS. Fuente: adaptada de Orkin (2006).

Figura 25. Ejemplo de operador de GOAP. Fuente: adaptada de Orkin (2006).

Y un vector de proposiciones multitipado para almacenar los valores que alcanzarán

las variables del estado tras la aplicación de un operador.

Razonamiento y Planificación Automática 26


Tema 8. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 26. Posible vector de proposiciones para un sistema GOAP.

Entenderemos en GOAP que las acciones son clases y, como tales, representan las

precondiciones como un a r r a y de variables de estado del mundo. Estas

precondiciones serán como una función para permitir filtros adicionales. Esta función
permite la ejecución de cualquier trozo de código que fuera necesario.

Razonamiento y Planificación Automática 27


Tema 8. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 27. Acciones con precondiciones procedurales. Fuente: Orkin (2006).

Sucede lo mismo con las acciones que se podrán programar como un efecto

procedural. Esto nos permite delegar el proceso de cambio en el entorno y gestionar

interrupciones que se puedan producir del plan en tiempo real.

Razonamiento y Planificación Automática 28


Tema 8. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 28. Acciones procedurales. Fuente: Orkin (2006).

Razonamiento y Planificación Automática 29


Tema 8. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 29. Una acción puede suponer varios ciclos de reloj, por lo que no son atómicas.

Razonamiento y Planificación Automática 30


Tema 8. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

8.5. Referencias bibliográficas

Fikes, R. y. (1971). STRIPS: A New Approach to the Application of Theorem Proving

to Problem Solving. Artificial Intelligence, 2(3-4), 189-208.

Graciani, C. y. (2016). Curso de inteligencia artificial. Universidad de Sevilla.

McDermott, D. G. (1998). PDDL–the planning domain definition language–version

1.2. Yale Center for Computational Vision and Control, Tech. Rep. CVC TR-98-

003/DCS TR-1165.

Orkin, J. (2004). Symbolic Representation of Game World State: Toward real-time

planning in games. Proceedings of the AAAI Workshop on Challenges in Game

Artificial Intelligence, 5, 26-30.

Orkin, J. (2006). Three states and a plan: the AI of FEAR. Proceedings of the 2006

Game Developers Conference (GDC’06). San José, California.

Razonamiento y Planificación Automática 31


Tema 8. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
A fondo

Charla sobre GOAP

Accede al vídeo a través del aula virtual o desde la siguiente dirección web:
[Link]

La charla de Game Developers Conference 2015 sobre GOAP.

Razonamiento y Planificación Automática 32


Tema 8. A fondo
© Universidad Internacional de La Rioja (UNIR)
A fondo

GOAP C++

Gutiérrez, C. (s.f.). GOAP AI [Mensaje en un blog]. Carlosplusplus. Recuperado de:


[Link]

Un ejemplo de programación de GOAP en un engine de C++.

Razonamiento y Planificación Automática 33


Tema 8. A fondo
© Universidad Internacional de La Rioja (UNIR)
A fondo

STRIPS en juegos

Becker, K. (2015). Artificial Intelligence Planning with STRIPS, a Gentle Introduction.

[Mensaje en un blog]. Primary Objecs. Recuperado de:

[Link]
a-gentle-introduction/

Introducción sobre STRIPS y su aplicación en los juegos.

Razonamiento y Planificación Automática 34


Tema 8. A fondo
© Universidad Internacional de La Rioja (UNIR)
A fondo

GOAP

Accede a la página web desde la siguiente dirección web:


[Link]

Ejemplo de implementación de GOAP.

Razonamiento y Planificación Automática 35


Tema 8. A fondo
© Universidad Internacional de La Rioja (UNIR)
A fondo

Jeff Orking

Accede a la página web desde la siguiente dirección web:


[Link]

Página web de Jeff Orking en la que puedes encontrar información sobre el GOAP.

Razonamiento y Planificación Automática 36


Tema 8. A fondo
© Universidad Internacional de La Rioja (UNIR)
A fondo

Bibliografía adicional

McDermott, D. (2000). The 1998 AI Planning Systems Competition. AI Magazine,

21(2), 35-55.

Razonamiento y Planificación Automática 37


Tema 8. A fondo
© Universidad Internacional de La Rioja (UNIR)
Test

1. ¿Qué afirmación sobre STRIPS es verdadera?

A. STRIPS define problemas de búsqueda.

B. Los operadores STRIPS se pueden proyectar en las acciones de un

agente.

C. STRIPS es un planificador de orden parcial.

2. Una propiedad definida para STRIPS es:

A. De tipo entero.

B. De tipo booleano.

C. De cualquier tipo.

3. Una planificación hacia delante:

A. Tiene un factor de ramificación potencialmente muy alto.

B. Empieza en las metas a conseguir y explora las acciones hasta el estado

inicial.

C. Se descompone en tareas.

4. Un operador de STRIPS está compuesto de:

A. Precondiciones, lista de acciones y lista de estados.

B. Precondiciones, lista de adición y lista de eliminación.

C. Precondiciones y lista de modificación.

5. PDDL es:

A. Un lenguaje estándar para la definición de problemas de planificación.

B. Un algoritmo de tareas jerárquicas.

C. Un estándar con una especificación única, la 1.7.

Razonamiento y Planificación Automática 38


Tema 8. Test
© Universidad Internacional de La Rioja (UNIR)
Test

6. Las acciones en GOAP:

A. Son atómicas.

B. Son secuenciales.

C. Son procedurales.

7. La heurística de STRIPS:

A. Descompone el problema en subplanes que concatena para resolver cada

una de las proposiciones abiertas en el estado meta.

B. No usa operadores.

C. Emplea planificación hacia delante.

8. Las tareas pueden tener acciones que no se implementen directamente en el

entorno:

A. Sí, porque pueden ser parte de una jerarquía de controladores.

B. No, todas las tareas deben ejecutar acciones concretas del mundo.

C. No, porque las tareas pueden descomponerse siempre en subtareas.

9. La anomalía de Sussman:

A. Deriva de las acciones que se concatenan en orden inverso.

B. Presenta el problema de destruir y construir de modo infinito submetas.

C. No se da en STRIPS.

10. En GOAP:

A. Existe una lista de añadir y otra de eliminar en los operadores.

B. Todas las acciones deben tener el mismo coste.

C. Existe una única lista de modificación de proposiciones en los operadores.

Razonamiento y Planificación Automática 39


Tema 8. Test
© Universidad Internacional de La Rioja (UNIR)
Tema 9

Razonamiento y Planificación Automática

Tema 9. Redes de tareas


jerárquicas (HTN)
Índice
Esquema

Ideas clave

9.1. ¿Cómo estudiar este tema?

9.2. Definición

9.3. Planificación por medio de red de tareas

9.4. Descomposición jerárquica

9.5. Referencias bibliográficas

A fondo

Aplicación y desarrollo de planes por medio de HTN

HTN

Ejemplo de creación de tareas jerárquicas

Principles of Artificial Intelligence

Bibliografía adicional

Test
Esquema
Razonamiento y Planificación Automática 3
Tema 9. Esquema
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

9.1. ¿Cómo estudiar este tema?

En este tema presentaremos una estrategia basada en el concepto de «divide y

vencerás», por el que plantearemos un problema complejo y lo subdividiremos en

tareas más simples. El sistema inteligente se encargará de combinar todas las

subtareas disponibles del agente que sean relevantes para el problema, con el

objetivo de alcanzar la meta que se le ha planteado.

En el tema trataremos:

▸ La definición de red de tareas jerárquicas, empleando ejemplos para poder entender

cómo se diseñan.

▸ El mecanismo de planificación que emplean las tareas para construir un plan.

Razonamiento y Planificación Automática 4


Tema 9. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

9.2. Definición

En la investigación de planificación de IA, la práctica de planificación (tal como se

materializa en los sistemas de planificación implementados) tiende a ir muy por

delante de las teorías que explican el comportamiento de esos sistemas. Existe un

análisis muy reciente de las propiedades de los sistemas de planificación de orden

total y parcial que utilizan operadores de planificación de estilo STRIPS. Los

sistemas de planificación de estilo STRIPS, sin embargo, se desarrollaron hace más

de veinte años y la mayor parte del trabajo práctico sobre sistemas de planificación

de IA durante los últimos quince años se ha basado en la descomposición jerárquica

de la red de tareas (HTN).

L a planificación de la red jerárquica de tareas (HTA) es una técnica de

planificación de la IA que rompe con la tradición de la planificación (Ghallab, 2004).

La idea básica detrás de esta técnica incluye:

▸ Una descripción de estado inicial,

▸ Una red de tareas inicial como un objetivo a alcanzar

▸ Y un conocimiento de dominio, que consiste en redes de tareas primitivas y

compuestas.

Una red de tareas representa una jerarquía de tareas, cada una de las cuales puede

ejecutarse, si la tarea es primitiva, o ser descompuesta en subtareas refinadas.

Razonamiento y Planificación Automática 5


Tema 9. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

E l proceso de planificación comienza descomponiendo la red de tarea inicial y

continúa hasta que se descompongan todas las tareas compuestas, es decir, se

encuentre una solución. La solución es un plan que equivale a un conjunto de tareas

primitivas aplicables al estado mundial inicial.

Además de ser un factor que rompe la tradición, la planificación de la HTN también

parece ser controvertida. La controversia radica en su requisito de conocimiento del

dominio bien concebido y estructurado. Es probable que dicho conocimiento

contenga abundante información y orientación sobre cómo resolver un problema de

planificación, codificando así más la solución de lo que se previó para las técnicas de

planificación clásicas. Este conocimiento estructurado y rico brinda una ventaja

principal a los planificadores de HTN en términos de velocidad y escalabilidad

cuando se aplica a problemas del mundo real y se compara con sus contrapartes en

el mundo clásico (Georgievski, 2014).

La mayor contribución hacia la planificación de HTN ha surgido después de la

propuesta del planificador jerárquico simple (SHOP) (Nau D. S., 1999) y sus

sucesores. SHOP es un planificador basado en HTN que muestra un rendimiento

eficiente incluso en problemas complejos, pero a costa de proporcionar un

conocimiento de dominio bien escrito y posiblemente algorítmico. La disputa sobre si

proporcionar mucho conocimiento a un planificador debería considerarse una trampa


en el mundo de la planificación de la inteligencia artificial sigue vigente (Nau D. S.,

1999).

Razonamiento y Planificación Automática 6


Tema 9. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

9.3. Planificación por medio de red de tareas

Idea principal: muchas tareas en la vida real ya tienen una estructura jerárquica

incorporada. Por ejemplo: una tarea computacional, una misión militar o una tarea

administrativa.

Sería una pérdida de tiempo construir planes desde los operadores individuales que

forman las acciones propias del trabajo a realizar. Usar la jerarquía incorporada en el

dominio ayuda a escapar de la explosión exponencial de las posibles combinaciones

que tendrían las acciones atómicas.

Ejemplo de aplicación: la actividad de construir una casa consiste en obtener los

permisos necesarios, encontrar un constructor, construir el exterior/interior, etc. En el

enfoque de las HTN, se utilizan operadores abstractos al igual que operadores

primitivos durante la generación del plan.

Razonamiento y Planificación Automática 7


Tema 9. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 1. Ejemplo de descomposición de tareas. Fuente: (Onder, 2020).

En general, los componentes de un problema que intentamos resolver por medio de

un planificador HTN se basan en las propiedades que define el entorno y el dominio

de las tareas que componen las redes que estableceremos para crear los planes. En

el caso de los modelos basados en agentes, obtendremos las propiedades del

entorno por medio de los sensores del agente y crearemos planes que iremos

ejecutando para resolver los problemas a los que este deba hacer frente a lo largo

del tiempo.

Asimismo, tendremos en cuenta las acciones que ejecutemos, de tal modo que

apliquemos los efectos de dichas acciones sobre el mundo a la hora de evaluar la

viabilidad de un plan.

Razonamiento y Planificación Automática 8


Tema 9. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 2. Vista general de un HTN. Fuente: .

Razonamiento y Planificación Automática 9


Tema 9. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

9.4. Descomposición jerárquica

HTN es adecuado para dominios donde las tareas se organizan naturalmente en una

jerarquía. Para construir estos modelos empleamos operadores abstractos para

comenzar un plan. Utilizamos técnicas de planificación de orden parcial y

descomposición de acciones para llegar al plan final.

Una vez que hemos terminado de descomponer el plan, nos encontramos con un

conjunto ordenado de operadores primitivos.

No obstante, lo que debe considerarse primitivo es subjetivo: lo que un agente

considera primitivo pueden ser los planes de otro agente. Por tanto, la

descomposición de un plan puede derivar en acciones complejas que, desde el punto

de vista del plan, son consideradas operadores primitivos pero que, a la hora de

implementar las acciones finales, debamos descomponerlas en otras por medio de

controladores que en la jerarquía del agente se encarguen de detallar esas acciones.

Recordemos los primeros modelos sobre controladores apilados para tareas

complejas.

A la hora de descomponer las tareas tendremos una librería del plan que contendrá

tanto las tareas primitivas como las que no lo son. Las no primitivas (o compuestas)

tendrán un conjunto de precondiciones de ejecución y un conjunto de efectos

producidos en el entorno.

Razonamiento y Planificación Automática 10


Tema 9. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 3. Ejemplo de descomposición de tareas. Fuente: (Onder, 2020).

Pero podemos tener varias tareas que permitan construir un plan, como en la figura

anterior. Por ejemplo, podríamos tener otra serie de tareas que nos permitan edificar

una casa.

Figura 4. Ejemplo de descomposición de tareas. Fuente: (Onder, 2020).

Ambos conjuntos de tareas estarían a disposición del planificador para poder crear

distintos planes, teniendo en cuenta que ambos medios de creación del plan tienen

distintos efectos en el entorno (tener menos dinero o tener la espalda mal) al margen

de obtener el efecto deseado (tener la casa).

Razonamiento y Planificación Automática 11


Tema 9. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Definición de las tareas

Así, cuando definamos las tareas, tendremos que establecer dos elementos

principales: las precondiciones necesarias que deben darse en el entorno para

poder ejecutar una tarea y los efectos que se crean en el entorno.

Por ejemplo:

Figura 5. Ejemplo de precondiciones y efectos. Fuente: (Onder, 2020).

Cuando tengamos que desarrollar un plan, descompondremos las tareas de modo

que empleemos las acciones del sistema. Por ejemplo, para el primer caso

tendríamos que la descomposición del plan se produce de la siguiente manera:

Tabla 1. Descomposición de un plan.

Razonamiento y Planificación Automática 12


Tema 9. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

De esta manera, podremos descomponer varios planes que empleen distintas

acciones en distintos contextos para obtener planes posibles que resuelvan el

problema.

Figura 6. Ejemplo de descomposición de tareas. Fuente: (Onder, 2020).

Razonamiento y Planificación Automática 13


Tema 9. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

9.5. Referencias bibliográficas

Georgievski, I. y. (2014). An Overview of Hierarchical Task Network Planning.

Groningen: Johann Bernoulli Institute for Mathematics and Computer Science

University of Groningen. Obtenido de [Link]

Ghallab, M. N. (2004). Automated Planning: theory and practice. San Francisco:

Elsevier.

Humphrey, T. (2015). Exploring HTN Planners through Example. Game AIPro 2, (pp.

149-167.

Nau, D. S. (1999). SHOP: Simple Hierarchical Ordered Planner. IJCAI, (págs. 968-

975).

Nau, D. S. (2007). Current Trends in Automated Planning. AI Magazine, 28(4), 43-58.

Onder, N. (. (09 de 05 de 2020). Computer Science Course. Obtenido de Michigan

Technological University: [Link]


fall/lecture-slides-3e/cs5811-ch11b-htn

Razonamiento y Planificación Automática 14


Tema 9. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
A fondo

Aplicación y desarrollo de planes por medio de


HTN

Molina, M. (2006). Planificación jerárquica HTN. En Molina, M (Ed.), Métodos de

resolución de problemas (pp. 251-307). Madrid: Fundación General Universidad

Politécnica de Madrid.

El capítulo seis de este libro presenta varios ejemplos de aplicación y desarrollo de

planes por medio de HTN.

Razonamiento y Planificación Automática 15


Tema 9. A fondo
© Universidad Internacional de La Rioja (UNIR)
A fondo

HTN

Lección de la Universidad de Edimburgo que presenta de modo sencillo las HTN.

Accede al vídeo a través del aula virtual o desde la siguiente dirección

web:[Link]

Razonamiento y Planificación Automática 16


Tema 9. A fondo
© Universidad Internacional de La Rioja (UNIR)
A fondo

Ejemplo de creación de tareas jerárquicas

Humphreys, T. (2013). Exploring HTN Planners through Example . En Rabin, S (Ed.),

Game AI Pro (pp. 149-167). Florida: CRC Press. Recuperado de:

[Link]
ners_through_Example.pdf

Aquí podemos ver un ejemplo aplicado de creación de tareas jerárquicas.

Razonamiento y Planificación Automática 17


Tema 9. A fondo
© Universidad Internacional de La Rioja (UNIR)
A fondo

Principles of Artificial Intelligence

Accede a la página web a través del aula virtual o desde la siguiente dirección web:
[Link]

Curso de la universidad de Maryland a cargo del profesor Des Jardins.

Razonamiento y Planificación Automática 18


Tema 9. A fondo
© Universidad Internacional de La Rioja (UNIR)
A fondo

Bibliografía adicional

Molina, M. (2006). Métodos de resolución de problemas. Madrid: Fundación General

Universidad Politécnica de Madrid.

Razonamiento y Planificación Automática 19


Tema 9. A fondo
© Universidad Internacional de La Rioja (UNIR)
Test

1. ¿Qué afirmación es verdadera?

A. HTN es un ejemplo de STRIPS.

B. HTN es distinto de STRIPS.

C. HTN es admitido por todo el mundo.

2. HTN se basa en:

A. Planes de orden completo.

B. Tareas y subtareas.

C. Valores aleatorios de planes.

3. Una tarea…

A. Puede ser primitiva o no.

B. No se puede descomponer en subtareas.

C. Todas se descomponen en tareas.

4. Una tarea primitiva está compuesta de:

A. Precondiciones y valores.

B. Precondiciones y efectos.

C. Efectos y utilidad.

5. Los efectos de una tarea:

A. Afectan a valores de propiedades del mundo.

B. Forman todos parte del resultado objetivo de la búsqueda.

C. Se descomponen en subefectos.

Razonamiento y Planificación Automática 20


Tema 9. Test
© Universidad Internacional de La Rioja (UNIR)
Test

6. Dado un dominio de HTN:

A. Solo existe un plan que es solución al problema.

B. Nunca produce el mismo resultado para una misma búsqueda.

C. Puede crear varios planes que sean solución al problema y dependerá de

las propiedades de cada instante el que se creen unos u otros.

7. Los HTN:

A. Requieren de mucho conocimiento a priori de las tareas posibles.

B. No requieren de tareas.

C. Crea todas las tareas y subtareas por búsqueda.

8. Las tareas pueden tener acciones que no se implementen directamente el

entorno:

A. Sí, porque pueden ser parte de una jerarquía de controladores.

B. No, todas las tareas deben ejecutar acciones concretas del mundo.

C. No, porque las tareas pueden descomponerse siempre en subtareas.

9. Las HTN:

A. Emplean planificación de orden total.

B. Planificación de orden parcial.

C. No emplean planificación.

10. En una HTN:

A. Da igual el orden de aplicación de todas las tareas.

B. Todas las tareas tienen que ejecutarse en un orden determinado.

C. Algunas tareas pueden ejecutarse en órdenes no establecidos mientras


que guarden el orden parcial.

Razonamiento y Planificación Automática 21


Tema 9. Test
© Universidad Internacional de La Rioja (UNIR)
Tema 10

Razonamiento y Planificación Automática

Tema 10. Planificación multi


agente
Índice
Esquema

Ideas clave

10.1. ¿Cómo estudiar este tema?

10.2. ¿Qué es la planificación multi agente?

10.3. Planificación multi agente antes de la ejecución

10.4. Planificación multi agente durante ejecución

10.5. Referencias bibliográficas

A fondo

Planificación en sistemas complejos

Inteligencia Artificial

Test
Esquema
Razonamiento y Planificación Automática 3
Tema 10. Esquema
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

10.1. ¿Cómo estudiar este tema?

A lo largo de este tema profundizaremos en el concepto de planificación multi agente.

Este concepto será abordado desde dos puntos claramente identificables, desde la

planificación y la ejecución. Por un lado, profundizaremos en la planificación multi

agente que se realiza antes de enviar a ejecución cualquier acción de un plan, y

por otro lado profundizaremos en una línea de investigación relativamente nueva, en

la que se realiza una planificación multi agente durante la ejecución de las

acciones de un plan.

Considerando estos conceptos, ilustraremos el caso en el que deseamos construir

sistemas de planificación en entornos multi agentes.

Razonamiento y Planificación Automática 4


Tema 10. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

10.2. ¿Qué es la planificación multi agente?

Como lo hemos venido mencionando en temas anteriores los agentes se pueden

clasificar en dos categorías según su arquitectura y las técnicas que emplean en su

toma de decisiones:

▸ Agentes reactivos (Gúzman Álvarez, 2019): basan su toma de decisiones en forma

rápida y teniendo en cuenta su estado actual, evitando siempre tener que realizar un
proceso de búsqueda complejo.

▸ Agentes de deliberativos (Ghallab, 2004): basan su toma de decisiones con

procesos de búsqueda complejos que pueden emplear grandes cantidades de


tiempo. Durante la búsqueda simulan y predicen soluciones a situaciones futuras,
posiblemente como un resultado de sus propias acciones. Todo esto para decidir el

mejor plan de acciones (plan óptimo).

El decidir que un agente sea reactivo o deliberativo depende de la situación particular

en la que se encuentre el agente. Por ejemplo, en el problema de planificar una ruta

para ir de un lugar a otro. Un agente reactivo puede utilizar una brújula para guiar su

camino, por el contrario, un agente deliberativo consultaría un mapa. Obviamente, el

agente deliberativo generará un plan optimo (la ruta más corta) en la mayoría de los

casos porque de ante mano tomará decisiones de evitar colisiones, callejones sin

salida, u otras situaciones que se puedan encontrar durante el camino.

Razonamiento y Planificación Automática 5


Tema 10. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Figura 1. Situaciones donde se puede realizar planificación multi agente.

En la literatura (De Weerdt, 2009) (Guzman, 2015), los agentes reactivos son

considerados más como agentes de ejecución. Y los agentes deliberativos como

agentes de planificación. Ambos tipos de agentes pueden realizar una planificación,

una menos profunda para los reactivos, y una más profunda para los deliberativos.

Es decir, en el término más general, podemos tener una coordinación entre los
agentes durante la ejecución o durante la planificación.

Para resolver un problema de planificación multi agente (durante la ejecución o

planificación), en general, debemos resolver un conjunto de tareas (Durfee E. H.,

2001), si bien algunas de estas se pueden suprimir o matizar:

▸ Detallar y refinar la meta global.

▸ Asignar tareas a los agentes.

▸ Coordinar a los agentes antes de la planificación.

▸ Resolver los planes individuales de cada agente.

▸ Coordinar el plan resultante de todos los agentes antes de ejecutarlo.

Razonamiento y Planificación Automática 6


Tema 10. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

▸ Ejecutar el plan.

▸ Resolver fallos en los planes de los agentes durante la ejecución

En estos escenarios multi agente, nos podemos encontrar con entornos

cooperativos, competitivos o parcialmente cooperativos.

En el resto del tema, nos centraremos en la planificación multi agente que se realiza

antes de la ejecución y durante la ejecución.

Razonamiento y Planificación Automática 7


Tema 10. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

10.3. Planificación multi agente antes de la


ejecución

Es un tipo de planificación que sucede antes de enviar cualquier plan o acción a

ejecución.

La planificación puede ser desarrollada por:

▸ Un único agente de planificación centralizado;

▸ Un número de agentes de planificación que interactúan entre sí para generar, entre

todos, un plan libre de conflictos y en el que cada uno de los agentes involucra la
acción que quiere ejecutar;

▸ O un número de agentes de planificación que generan sus propios planes y luego

realizan un proceso de coordinación de planes o plan merge (Torralba, 2019), con el

fin de evitar conflictos entre los planes.

En cualquiera de los casos, las acciones del plan serán enviadas a los respectivos

agentes de ejecución para que sean ellos los que ejecuten las acciones en el

entorno.

Este tipo de planificación multi agente, donde múltiples agentes de planificación

intervienen en el proceso de búsqueda de un plan solución, a menudo de forma

distribuida, presenta dificultades adicionales sobre el ya difícil problema de la

planificación en sí mismo:

▸ Necesidad adicional de protocolos de coordinación,

▸ Comunicación, a menudo, limitada;

Razonamiento y Planificación Automática 8


Tema 10. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

▸ Y el resultado del plan final es poco óptimo.

Sin embargo, existen un número significativo de buenas razones para realizar la

planificación por y/o para múltiples agentes:

▸ Los agentes pueden ser entidades de la vida real que tienen principalmente sus

propios intereses. Por lo tanto, aprecian mantener su privacidad y autonomía.

▸ En muchos casos, un sistema distribuido (planificación por múltiples agentes) puede

resolver problemas más eficientemente que un sistema centralizado (planificación


para múltiples agentes).

▸ Crear y mantener planes localmente permite una reacción más eficiente en caso de

incidentes, especialmente cuando la comunicación es limitada.

▸ Dividir el problema de planificación en subproblemas más pequeños (asignación de

objetivos) y resolverlos en paralelo a veces puede ser más eficiente, especialmente


cuando los subproblemas de planificación individuales están poco vinculados.

Planificación para múltiples agentes

Es una técnica en la que se emplea un agente de planificación centralizado para

encontrar un plan solución que consiga los objetivos. Cada acción o tarea es luego

asignada (task allocation (Lee, 2017)) a su agente de ejecución para que se

encargue de llevarla a cabo.

La ventaja de esta técnica es que puede utilizar cualquier planificador del estado del

arte.

Razonamiento y Planificación Automática 9


Tema 10. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

En este tipo de planificación se asume que:

▸ Los objetivos son comunes entre todos los agentes, por lo que buscan cooperar

entre ellos para conseguirlos.

▸ Los agentes tienen una visión parcial del estado del mundo. Es decir, algunas

proposiciones pueden ser desconocidas para algunos agentes. Por ejemplo, porque
no están en su rango de visión.

▸ Cada agente tiene sus propias acciones, que pueden ser iguales (por ejemplo,

moverse) o diferentes en capacidades (por ejemplo, en el dominio de los robots de


Marte, un agente puede solo analizar rocas y otro agente puede solo comunicar los

resultados a la tierra).

El agente de planificación centralizado mantiene una visión global del estado del

mundo. Es un agente que genera y coordina los planes de otros agentes de

ejecución y distribuye a estos agentes las tareas o acciones que definen sus propios

planes mientras pueden negociar con otros sobre tareas o recursos (Clement B.,

2005).

Cada agente de ejecución debe sensorizar su parte del estado del mundo e

informarla al agente de planificación, quien se encargará de realizar las siguientes

tareas de manera centralizada:

▸ Unificar los estados del mundo recibidos por cada agente. Como mencionamos

anteriormente, los mismos pueden ser diferentes porque cada agente puede tener su
propia visión del estado del mundo.

▸ Generar un plan solución que a partir del estado del mundo global consiga los

objetivos comunes de los agentes de ejecución.

▸ Asignar las acciones del plan solución a cada agente de ejecución.

Razonamiento y Planificación Automática 10


Tema 10. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Un plan solución generado con planificación para múltiples agentes (PTMA, usando

siglas en inglés) tiene la garantía de:

▸ no presentar conflicto entre sus acciones,

▸ ser optimo (dependiendo del tipo de heurística que se utilice)

▸ y completo.

En resumen, un agente de planificación centralizado se orienta a tratar con

problemas cuyos agentes tienen fuertes interacciones. En estos diseños se asume

un entorno completamente cooperativo por parte de los agentes que comparten

bases de conocimiento y mecanismos de comunicación y coordinación.

Planificación por múltiples agentes

El término planificación por múltiples agentes (PBMA, usando siglas en inglés)

aborda el problema de la planificación en entornos donde varios agentes

independientes planifican de forma incremental para generar un plan que en la

mayoría de los casos tiene una representación centralizada del plan (Durfee E. H.,

1999).

Notar que el termino representación centralizada del plan se refiere a

que cada agente tiene una visión global de cómo va el plan. Es como

tener el plan en una pizarra que es común para todos los agentes. En

ningún momento se refiere a planificar de forma centralizada.

Razonamiento y Planificación Automática 11


Tema 10. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

PBMA puede referirse a la planificación distribuida, donde debemos tener en

cuenta varios agentes independientes no centralizados.

Existen dos elementos principales que diferencian la planificación clásica de los

modelos PBMA:

▸ La coordinación de las actividades de planificación. Implica, por ejemplo,

implementar un protocolo que permita planificar por turnos.

▸ La distribución de la información entre agentes. Implica que cada agente tiene su

propia visión del estado del mundo, y sus propias capacidades. Y que además
pueden o no comunicar dicha información entre ellos.

El framework Partial Global Planning (PGP) (Durfee E. H., 1987), implementa una

aproximación en la que cada agente tiene un conocimiento parcial de los planes de


los otros agentes a través de una representación especializada del plan. En este

método, la coordinación se logra de la siguiente manera:

Supongamos dos agentes de planificación A y B que desean resolver un problema.

▸ Si un agente A informa a otro agente B de una parte de su propio plan, B fusiona

esta información en su propio plan global parcial.

▸ El agente B puede entonces intentar mejorar el plan global. Como, por ejemplo,

eliminando acciones redundantes.

▸ El plan mejorado por el agente B se muestra a otros agentes, que pueden aceptar,

rechazar, o modificarlo.

▸ Se supone que este proceso se ejecuta simultáneamente con la ejecución del plan

local de cada agente.

Razonamiento y Planificación Automática 12


Tema 10. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

PGP se aplicó en un problema de programación de pacientes de un hospital.

Otro enfoque para la coordinación de agentes es a través de modelos de actitud

mental. El framework GRATE (Jennings, 1993) permite a los agentes coordinar su

planificación individual razonando sobre sus creencias, deseos, intenciones e

intenciones y compromisos conjuntos. La coordinación se intercala con la

planificación, creando y revisando compromisos a través de un agente organizador.

En resumen, una PBMA se orienta a tratar con problemas cuyos agentes tienen

interacciones medias y/o fuertes. En estos diseños se asumen entornos cooperativos

o parcialmente cooperativos. Los agentes en la mayoría de los casos tienen

capacidades diferentes y/o recursos limitados. Además, comparten bases de

conocimiento, protocolos de planificación y mecanismos de comunicación.

Coordinación de planes de múltiples agentes

Estas aproximaciones se centran en resolver problemas donde los agentes tienen

escasas interacciones entre sí. Los agentes en estos modelos diseñan los planes de

forma individual, de modo que el objetivo es coordinar a posteriori estos planes

individuales (Durfee E. H., 1999) (Van Der Krogt, 2005). Es decir, integran la

planificación individual con la coordinación de planes.

El esfuerzo se centra en cómo coordinar los planes que se construyeron por

separado. Estos métodos son llamados fusión de planes (plan merge) y apuntan a la

construcción de un plan conjunto dados los (sub) planes individuales de cada uno de

los agentes participantes.

(Georgeff., 1983) fue uno de los primeros en proponer un proceso de sincronización

de planes individuales. Definió un modelo para formalizar las acciones con

precondiciones abiertas en el plan de un agente. La esencia de dicho modelo son las

condiciones de corrección, que se definen en el estado del mundo y deben ser

Razonamiento y Planificación Automática 13


Tema 10. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

válidas antes de que la ejecución del plan se pueda llevar a cabo. Dos agentes

pueden ayudarse mutuamente cambiando el estado del mundo de tal manera que se
cumplan las condiciones de corrección del otro agente. Por supuesto, cambiar el

estado del mundo puede ayudar a un agente, pero también puede interferir con las

condiciones de corrección de otro agente.

Otro enfoque de fusión de planes, realizado de manera centralizada, se puede

observar en (Rosenschein, 1994). Aborda problemas de resolución de conflictos

entre acciones y/o acciones redundantes. Lo resuelven mediante el algoritmo de

búsqueda A*. Utilizan una heurística inteligente basada en costos. Llegan a

demostrar que al dividir el trabajo de construir subplanes sobre varios agentes, se

puede reducir la complejidad general del algoritmo de fusión (Rosenschein, 1994).

Otra técnica es intercalar la planificación y la coordinación de planes en múltiples

niveles de abstracción (Clement B. J., 1999). La idea es que los agentes

gradualmente vayan refinando sus planes a la vez que van coordinándolos. Los

planes se van realizando básicamente en una manera abstracta. Este razonamiento

abstracto también puede ser utilizado por los agentes para mantener la autonomía

mientras se explotan los resultados de otros agentes para mejorar la eficiencia del

plan y el rendimiento de la búsqueda. En esencia el algoritmo funciona de la

siguiente manera.

Razonamiento y Planificación Automática 14


Tema 10. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Durante la realización del plan se van agregando dependencias condicionales al

plan: si un agente logra la meta de otro, el agente puede ejecutar una rama más

eficiente del plan; de lo contrario, se puede seguir el curso normal de acción. Esto

funciona con éxito en un enfoque de agente único que utiliza una representación de

red temporal simple condicional (STN) para fusionar acciones / subplanes

redundantes en submetas (Tsamardinos, 2000).

En la vida real la fusión de planes se ha empleado de forma efectiva en los datos de

planificación de una compañía de taxis.

Razonamiento y Planificación Automática 15


Tema 10. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

10.4. Planificación multi agente durante ejecución

Una vez se ha generado un plan, estos se envían a ejecución. Los agentes de

ejecución normalmente son los encargados de ejecutar y monitorizar la correcta

ejecución de las acciones del plan.

La monitorización implica el poder detectar fallos que impidan la correcta ejecución

de las acciones del plan. Cuando esto sucede los agentes de ejecución pueden

intentar:

▸ Repararlo de forma individual,

▸ Repararlo de forma multi agente en el menor tiempo posible,

▸ Solicitar un nuevo plan a un agente de planificación.

La planificación multi agente durante la ejecución, es un tipo de planificación que

sucede cuando se están ejecutando las acciones de un plan. Es desarrollada por:

▸ Un número de agentes de planificación reactiva que interactúan entre sí para reparar

entre todos el plan de otro agente que ha fallado durante la ejecución.

Se orienta a tratar con problemas cuyos agentes tienen interacciones débiles y/o

medias. En estos diseños se asumen entornos cooperativos o parcialmente

cooperativos donde los agentes son independientes. Los agentes en la mayoría de

los casos tienen capacidades diferentes y/o recursos limitados. No comparten bases

de conocimiento, y cuentan con protocolos sencillos de planificación.

Es una línea de investigación relativamente nueva. En (Gúzman Álvarez, 2019),

desarrollaron MARPE, un framework de planificación y ejecución reactiva para

ambientes multi agentes. Se profundizará más en este tipo de planificación más

adelante.

Razonamiento y Planificación Automática 16


Tema 10. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

10.5. Referencias bibliográficas

Clement, B. (2005). Workshop on Multiagent Planning and Scheduling. Taller llevado

a cabo en el International Conference on Automated Planning and Scheduling

ICAPS-05. Monterrey (California).

Clement, B. J. (1999). Top-down search for coordinating the hierarchical plans of

multiple agents. In Proceedings of the third annual conference on Autonomous

Agents, (pp. 252-259).

De Weerdt, M. &. (2009). Introduction to planning in multiagent systems. Multiagent

and Grid Systems, 5(4), 345-355.

Durfee, E. H. (1987). Planning coordinated actions in dynamic domains.

Durfee, E. H. (1999). A survey of research in distributed, continual planning. Ai

magazine, 20(4), 13-13.

Durfee, E. H. (2001). Distributed problem solving and planning. In ECCAI Advanced

Course on Artificial Intelligence (pp. 118-149). Berlin, Heidelberg: Springer.

Georgeff., M. P. (1983). Communication and interaction in multi-agent planning. Third

National Conference on Artificial Intelligence (AAAI-83), (pp. 125-129). Menlo Park,

CA.

Ghallab, M. N. (2004). Automated Planning: theory and practice. San Francisco:

Elsevier.

Gúzman Álvarez, C. A. (2019). Reactive plan execution in multi-agent environments

(Doctoral dissertation).

Guzman, C. C. (2015). Reactive execution for solving plan failures in planning control

applications. Integrated Computer-Aided Engineering, 22(4), 343-360.

Razonamiento y Planificación Automática 17


Tema 10. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Jennings, N. R. (1993). Specification and implementation of a belief-desire-joint-

intention architecture for collaborative problem solving. International Journal of

Intelligent and Cooperative Information Systems, 2(03), 289-318.

Lee, B. H. (2017). Multi-UAV control testbed for persistent UAV presence: ROS GPS

waypoint tracking package and centralized task allocation capability. In 2017

International Conference on Unmanned Aircraft Systems (ICUAS) (pp. pp. 1742-

1750). IEEE.

Rosenschein, E. E. (1994). Divide and conquer in multi–agent planning. Proceedings

of the Twelfth National Conference on Artificial Intelligence (AAAI-94), (pp. 375-380).

Menlo Park, CA.

Torralba, A. &. (2019). Merge-and-shrink task reformulation for classical planning.

HSDIP, (p. 18).

Tsamardinos, I. P. (2000). Merging Plans with Quantitative Temporal Constraints,

Temporally Extended Actions, and Conditional Branches. AIPS, (pp. 264-272).

Van Der Krogt, R. y. (2005). Plan repair as an extension of planning . International

Conference on Automated Planning and Scheduling ICAPS-05. Monterrey

(California).

Razonamiento y Planificación Automática 18


Tema 10. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
A fondo

Planificación en sistemas complejos

Accede al vídeo a través del aula virtual o desde la siguiente dirección

web:[Link]

Vídeo sobre planificación en sistemas complejos de J. L. Iglesias.

Razonamiento y Planificación Automática 19


Tema 10. A fondo
© Universidad Internacional de La Rioja (UNIR)
A fondo

Inteligencia Artificial

Escolano, F., Cazorla, M. A., Alfonso, M. I., Colomina, O. y Lozano, M. A. (2003).

Inteligencia artificial. Madrid: Thomson.

Lee el capítulo cinco de este libro en el que se habla de la planificación clásica,

planificación disyuntiva y planificación como satisfacción de restricciones, entre otras

cosas.

Razonamiento y Planificación Automática 20


Tema 10. A fondo
© Universidad Internacional de La Rioja (UNIR)
Test

1. Son tareas que se deben resolver en un problema de planificación multi agente:

A. Detallar y refinar la meta global.

B. Asignar tareas a los agentes.

C. Ejecutar un plan.

D. Todas las anteriores.

2. En entornos multi agentes nos encontramos con:

A. Agentes no cooperativos, y competitivos.

B. Agente cooperativos, competitivos o parcialmente cooperativos.

C. Agentes parcialmente cooperativos, y altruistas.

3. Una de las razones para realizar la planificación multi agente antes de la

ejecución es:

A. Representa aquellas propiedades que son precondición de alguna acción

presente en el plan y que todavía no se han enlazado por medio de ningún

arco causal.

B. Un número de agentes de planificación que generan sus propios planes.

C. En muchos casos, resuelve problemas más eficientemente que un sistema

centralizado.

4. La ventaja principal de la planificación para múltiples agentes es:

A. Ofrece restricciones de orden parcial entre dos acciones.

B. Puede utilizar cualquier planificador del estado del arte.

C. Ofrece un efecto entre tres o más acciones conjuntas.

Razonamiento y Planificación Automática 21


Tema 10. Test
© Universidad Internacional de La Rioja (UNIR)
Test

5. Un agente de planificación centralizado:

A. Comunica el estado del mundo a los otros agentes de ejecución.

B. Genera y coordina los planes de otros agentes de ejecución.

C. Mantiene una visión global del estado del mundo.

D. B y C son correctas

6. Una de las tareas de un agente centralizado es:

A. Generar un plan solución que consiga los objetivos comunes de los

agentes de ejecución.

B. Aplicar heurísticas de tipo STRIPS.

C. Encontrar la secuencia de refinamiento que, partiendo del plan parcial

inicial, llegue a un plan parcial solución.

7. La PBMA son:

A. Aptos para entornos en los que varios agentes desean conseguir elaborar

un plan conjunto para resolver un problema.

B. Construcciones de redes de tareas jerárquicas de tipo STRIPS.

C. Aptos para entornos en los que un agente desea resolver varios problemas

a la vez.

8. La PBMA y la planificación clásica se diferencian en:

A. La coordinación de las actividades de planificación.

B. La distribución de la información entre agentes.

C. Las dos características anteriores.

Razonamiento y Planificación Automática 22


Tema 10. Test
© Universidad Internacional de La Rioja (UNIR)
Test

9. La coordinación de planes de múltiples agentes se realiza:

A. Antes de la planificación.

B. Después de la planificación.

C. Durante la ejecución del plan.

10. Un sistema distribuido de planificación:

A. Debe ser capaz de distribuir la información entre varios agentes por medio

de un sistema multiagente.

B. Tiene que ejecutar todas las tareas en un único agente en un orden

determinado.

C. Debe usar un planificador de tipo STRIPS en cada agente.

Razonamiento y Planificación Automática 23


Tema 10. Test
© Universidad Internacional de La Rioja (UNIR)
Tema 11

Razonamiento y Planificación Automática

Tema 11. Planificación por


múltiples agentes
Índice
Esquema

Ideas clave

11.1. ¿Cómo estudiar este tema?

11.2. Planificadores distribuidos

11.3. Formalización

11.4. Protocolos

11.5. FMAP

11.6. Referencias bibliográficas

A fondo

Entornos multiagente

Test
Esquema
Razonamiento y Planificación Automática 3
Tema 11. Esquema
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

11.1. ¿Cómo estudiar este tema?

En este tema profundizaremos en los planificadores distribuidos o planificación por

múltiples agentes. Definiremos formalmente este tipo de problemas y como se

solucionan. Hablaremos de los protocolos utilizados en la planificación multi agente.

Considerando esta base de planificadores, ilustraremos el caso en el que deseamos

construir sistemas de planificación en entornos multi agentes. Como sucedía en

el caso de los algoritmos de búsqueda, los entornos donde varios agentes tienen que

coexistir presentan problemas que deben ser tratados de modo específico. En

nuestro caso, presentaremos un modelo de planificador por múltiples agentes

diseñado por (Torreno Lerma A., 2016).

Razonamiento y Planificación Automática 4


Tema 11. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

11.2. Planificadores distribuidos

Un posible diseño de un planificador distribuido lo encontramos en (Torreno Lerma

A., 2012), en el que definimos un sistema basado en componentes que se puede

distribuir entre varios agentes.

Figura 1. Estructura de un sistema PMA. Fuente: (Torreno Lerma A., 2012).

Este sistema se basa en tres tipos de componentes:

▸ Una descripción formal del dominio y el problema, especificada por medio de un

lenguaje de planificación, aunque es necesario extender los estándares dado que


PDDL, en ninguna de sus versiones, cubre todas las necesidades del problema
descentralizado.

Razonamiento y Planificación Automática 5


Tema 11. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

▸ Un sistema multi agente distribuido para permitir la gestión y comunicación de varios

agentes, el intercambio de los planes construidos y la toma de decisiones del plan


inicial.

▸ Un POP (explicado en el Tema 7) que tendrá embebido cada uno de los agentes y

que le permitirá refinar el plan global inicial aportando sus subplanes elaborados.

Para este tipo de arquitecturas debemos tener en cuenta que necesitaremos de:

▸ Información compartida por los agentes que deberá expresar aquellas variables

instanciadas que son públicas y compartidas por estos. Así como los predicados que
se presentan y asociar conjuntos de ellos a los distintos agentes o dejar compartido

para todo el sistema elementos de esta información.

▸ Metas privadas y públicas (o globales): en esta diferenciación clave es donde

tenemos la responsabilidad de crear planes consistentes en aquellas metas públicas


y garantizar que todas las metas privadas son conseguidas en cada subplan.

▸ Permitir, en las variables instanciadas, información explícita de forma positiva y

negativa, añadiendo un sistema que nos simplifica el procesado. Se añade el


concepto de multifunciones que nos permite codificar parte de la información del
problema mediante una notación más compacta.

Razonamiento y Planificación Automática 6


Tema 11. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Con esta información emplearemos un algoritmo de planificación que, en esencia,

funciona de forma distribuida. En él, intercambiaremos inicialmente la información

entre los agentes para configurar el problema de planificación. Posteriormente,

procesaremos el plan por medio de refinamientos sucesivos. Para ello, cada agente,

que tiene un POP embebido, refina de modo individual el plan actual e intercambia

información con los otros agentes, enviando los nuevos planes refinados sobre el

plan actual y seleccionando cada uno el plan que le resulta más prometedor para

continuar con el refinamiento. Esto lo explicaremos en detalle más adelante.

Razonamiento y Planificación Automática 7


Tema 11. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

11.3. Formalización

Tarea en planificadores por múltiples agentes

En un PBMA (Torreno Lerma A., 2016), definiremos una tarea como una tupla <AG,

V, I, G, A> formada por:

▸ : Un conjunto finito no vacío de agentes de planificación.

▸ : Donde es un conjunto de variables estado que definen un


estado en el que se pueda encontrar un agente i en el entorno.

▸ : Es un estado inicial definido por un conjunto de variable instanciadas


(fluents). Como en este tipo de problemas pueden existir agentes especializados,
ellos pueden solo conocer un subconjunto de I. Como premisa, el estado inicial de
dos agentes nunca se contradice.

▸ G: Conjunto de metas que deben alcanzar entre todos los agentes, teniendo en

cuenta que se considerará cumplido el estado meta independientemente del agente


que consiga el última fluent buscado. Definen los objetivos de la tarea de
planificación multi agente.

▸ : Conjunto de acciones de planificación deterministas de los agentes.

A diferencia de STRIPS, en este tipo de diseños se admite la hipótesis de mundo

abierto, que permite instanciar las variables y asumir que aquella información que no

está definida de modo explícito es desconocida para el agente.

Un estado del mundo está definido a través de un conjunto finito de variables estado

V, la cual esta asociada a un dominio finito de valores Dv mutualmente exclusivo que

se refiere a objetos del mundo*. Asignar un valor d a una variable v de V genera una

variable instanciada o fluent, <v, d>. Un estado esta formado por un conjunto finito de

Razonamiento y Planificación Automática 8


Tema 11. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

fluents.

Una acción se compone de la forma a = PRE(a) -> EFF(a), donde PRE(a) y EFF(a)

son un conjunto finito de fluents que representan las precondiciones y los efectos de

la acción a, respectivamente. Ejecutar una acción a en un estado del mundo S

producirá un nuevo estado del mundo S’ como resultado de aplicar los EFF(a) sobre
S. Un efecto de la forma <v, d’> actualiza el estado S reemplazando el fluente <v, d>

S por <v, d’>. Teniendo en cuenta que los valores de Dv son mutualmente

exclusivos, incluir <v, d’> en S’ implica que

En los esquemas PBMA, los agentes son heterogéneos, con lo que pueden tener

conocimientos del entorno y habilidades distintas, con distintos sensores y

actuadores específicos para cada agente y distinta información a priori.

La tarea de planificación vista desde un agente está definida como

▸ : Conjunto de variables estado conocidas por el agente .

▸ : es el subconjunto de fluents conocidos por el agente del estado inicial .

▸ : es el estado objetivo, común para todos los agentes.

▸ : Es el conjunto de habilidades del agente (acciones de planificación).

Finalmente, como podemos observar un agente también puede tener una visión

parcial sobre un dominio de valores Dv de una variable v. Normalmente, esto lo


definimos como el subconjunto de valores de v conocidos por el agente

Así entonces, los mecanismos de comunicación implican, generalmente, la existencia

de un subconjunto de variables instanciadas que son compartidas por los distintos

agentes y que les permiten coordinar sus acciones sobre el entorno.

Razonamiento y Planificación Automática 9


Tema 11. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Los agentes pueden interactuar compartiendo información acerca de sus variables

estado. Por ejemplo, , lo que representa que el agente y

comparten un subconjunto de variables estado que está definida como la

intersección entre ambos subconjuntos y .

Existe también la posibilidad de tener acciones públicas, es decir, que varios agentes

comparten y saben que comparten acciones con otros agentes. En consecuencia,

pueden solicitar a otros agentes la ejecución de una acción de la cual son

conocedores de sus precondiciones y efectos.

Refinamiento de planes

Un posible modelo de planificador distribuido es aquel que considera un esquema de

refinamiento de planes en el que un agente propone un plan (vacío) para

solucionar un conjunto de metas abiertas en un problema global. A continuación, el


resto de los agentes refinan resolviendo alguna de las metas que quedan

abiertas en el entorno, aportando con refinamientos sucesivos fragmentos de planes

que completan las metas abiertas (Kambhampati, 1997).

Un sistema subyacente que permite este tipo de planificación sería la planificación de

orden parcial. Tomando la definición que nos presentan los POP como grafos

acíclicos dirigidos donde tenemos como nodos del grafo a las posibles acciones de

un agente y como arcos a las restricciones y efectos que estas acciones necesitan y

producen, podemos definir el esquema de planificación de orden parcial multi-

agente (Torreno Lerma A., 2016) como aquel en el que nuestros agentes cooperan

para refinar un plan base P inicialmente vacío por medio de una serie de pasos de

refinamiento en los que iremos resolviendo las metas abiertas que nos queden en el

plan.

Razonamiento y Planificación Automática 10


Tema 11. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Así, un paso de refinamiento desarrollado por un agente supondrá la resolución de

una meta abierta representada en una variable instanciada pública y de todas

aquellas metas abiertas que tuvieran que ver con las variables privadas del agente.

De este modo, garantizamos la consistencia de los planes, de forma que aquellas

tareas que son propias de un agente y que solo este sabe los efectos que producen

sus acciones privadas sobre el entorno son resueltas por el agente sin afectar al plan

global de los demás agentes con los que se coopera.

Consideraremos que un plan es solución a un problema si es un plan concurrente

entre varios agentes, si no existen metas abiertas en el entorno, no hay amenazas y

cada par de acciones podemos decir que son mutuamente consistentes (Torreño,

2012).

Razonamiento y Planificación Automática 11


Tema 11. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

11.4. Protocolos

Uno de los mayores retos para implementar una planificación multi agente es el

desarrollo de los protocolos de comunicación entre los agentes.

Estos protocolos permitirán, entre muchas otras cosas, la correcta comunicación

entre los agentes. Una estrategia muy atractiva es la utilizada en (Rosenschein,

1994), donde clasifica los diferentes dominios e identifica protocolos apropiados para

cada tipo de dominio.

Otra idea es implementar un protocolo en el que la planificación o refinamiento se

vaya realizando por turnos (Torreno Lerma A., 2016).

En ambientes más reactivos (Gúzman Álvarez, 2019) se eliminan de los protocolos

los conceptos de votación o turnos de espera demasiado largos. Por el contrario, se

implementa un protocolo en el que el agente que falla solicita ayuda por medio de un

broadcast a todos los posibles agentes que pueden contribuir para solucionar el fallo.

De esta manera, el agente que falla recibe todas las posibles soluciones y se adapta

a la más conveniente.

El protocolo es de vital importancia para la resolución de problemas multi agentes.

Razonamiento y Planificación Automática 12


Tema 11. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

11.5. FMAP

FMAP es un planificador multi agente que utiliza un POP y un algoritmo de

búsqueda multi agente. Implementa una planificación hacia adelante (Forward). El

algoritmo general de FMAP se divide en tres fases:

▸ Intercambio de información entre los agentes.

▸ Refinamiento individual.

▸ Proceso de coordinación.

Las fases 2 y 3 se repiten hasta que un plan solución es encontrado o el espacio de

búsqueda es completamente explorado.

Intercambio de información entre los agentes

El algoritmo comienza con una etapa inicial de comunicación entre los agentes,

donde intercambian la información declarada como compartida en el dominio de

planificación. Por ejemplo, la siguiente sintaxis extiende el PDDL para representar la

información compartida entre los agentes del dominio del transporte:

(:shared-data

((at?t - truck) - city)

((pos?p - package) - city)

Esto quiere decir que los agentes comparten los predicados relacionados con la

posición de los camiones ((at?t - truck) - city) y con la posición de los paquetes

((pos?p - package) – city). Esto lo hacen con el fin de generar estructuras de datos

(grafos de planificación relajados, grafos de transición de dominios, etc.) que luego

Razonamiento y Planificación Automática 13


Tema 11. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

les servirán durante el proceso de planificación.

Refinamiento individual

Inicialmente el plan se encuentra vacío con dos acciones ficticias i y f que no

pertenecen a las acciones de ningún agente en particular. La acción i representa el

estado inicial de la tarea de planificación, es decir, í y

, mientras que f representa los objetivos G de la tarea de

planificación, es decir, í .

Cada agente realiza un refinamiento del plan. En el que coloca las acciones que

consiguen precondiciones abiertas del actual plan que contiene solo las dos

acciones ficticias.

Las precondiciones abiertas son aquellas que:

▸ No están presentes en el estado inicial.

▸ O no se consiguen con ningún otro conjunto de acciones del plan.

La siguiente figura 2 muestra un ejemplo de refinamiento de nivel 1 para el dominio

de transporte.

Figura 2: Ejemplo de un refinamiento de nivel 1. Fuente: (Torreno Lerma A., 2016).

Razonamiento y Planificación Automática 14


Tema 11. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

En este nivel, los agentes ta1 y ta2 proponen cada uno un refinamiento de dos

planes, específicamente planes para conducir sus camiones dentro de sus áreas

geográficas.

En cada uno de esos refinamientos los agentes agregan una acción con sus

correspondientes enlaces de orden y causales.

Hay que recordar que, por definición (Russell, 2004), un enlace de orden es de la forma

, que se lee como «a antes de b» y significa que la acción a debe ser ejecutada en

algún momento antes de la acción b, pero no necesariamente en el estado

inmediatamente anterior. El enlace de orden describe un orden parcial apropiado.

Cualquier ciclo (del tipo ) representa una contradicción, que no podrá ser

añadida a un plan. Del mismo modo, un enlace causal, escrito como escrito como ,

y leído como la acción “a” alcanza la acción “b” a través del fluent P. Lo que expresa que

P es un efecto de “a” y una precondición de “b”. También nos informa que P debe ser

cierto durante el tiempo de acción que discurre desde la acción “a” a la acción “b”. Este

sistema de enlace causal ayuda bastante durante el proceso de planificación. Porque

obliga a no incluir entre las dos acciones “a” y “b” ninguna acción “c” que tenga como
efecto la negación del fluente P.

En siguientes refinamientos (expansión de los siguientes nodos del árbol), los

agentes pueden crear nuevos planes de refinamiento sobre el nuevo nodo

seleccionado. Por ejemplo, en la figura 2, si el nodo es seleccionado, los

agentes ta1 y ta2 pueden generar nuevos planes refinados sobre el nodo

agregando una de sus acciones y manteniéndolas con los enlaces orden y

causales necesarios.

Proceso de coordinación

Durante todo este proceso cada agente mantiene una copia del árbol de búsqueda

multi agente, guardando la vista local que ellos tienen de cada uno de los planes que
se encuentran en los nodos del árbol.

Razonamiento y Planificación Automática 15


Tema 11. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

La búsqueda multi agente implica explorar el árbol multi agente de la siguiente

manera:

▸ El agente selecciona una de las hojas no exploradas del árbol;

▸ El agente expande el plan seleccionado, generando todos los posibles planes

refinados sobre ese nodo;

▸ El agente genera y calcula el resultado de la función de evaluación de todos los

nodos sucesores;

▸ Y el agente comunica los resultados al resto de los agentes.

FMAP no utiliza un proceso de control por medio de mensajes broadcast. Por el

contrario, mantiene un liderazgo democrático en el cual un rol de coordinador es

planificado entre los agentes. Es decir, un agente en cualquier momento adopta el rol

de coordinador en cada iteración, permitiéndole liderar el procedimiento de

refinamiento. Inicialmente, el coordinador se elige de manera aleatoria.

Razonamiento y Planificación Automática 16


Tema 11. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

11.6. Referencias bibliográficas

Gúzman Álvarez, C. A. (2019). Reactive plan execution in multi-agent environments

(Doctoral dissertation).

Rosenschein, J. S. (1994). Rules of encounter: designing conventions for automated

negotiation among computers. MIT press.

Russell, S. y. (2004). Inteligencia Artificial: Un Enfoque Moderno. Madrid: Pearson

Educación.

Torreno Lerma, A. (2012). Diseño e implementación de un sistema de planificación

distribuido (Trabajo fin de carrera). Valencia: Universidad Politenica de Valencia.

Torreno Lerma, A. (2016). Cooperative planning in multi-agent systems (Doctoral

dissertation). Valencia: Universidad Politécnica de Valencia.

Razonamiento y Planificación Automática 17


Tema 11. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
A fondo

Entornos multiagente

Torreno Lerma, A. (2016). Cooperative planning in multi-agent systems (Doctoral

dissertation). Valencia: Universidad Politécnica de Valencia. Recuperado de:

[Link]

Explica el funcionamiento completo del algoritmo FMAP. Indicando entre otros

aspectos su arquitectura, formalización, y extensiones que se realizan al PDDL.

Razonamiento y Planificación Automática 18


Tema 11. A fondo
© Universidad Internacional de La Rioja (UNIR)
Test

1. ¿Un POP es?

A. Un plan el que se especifican todas las precedencias entre las acciones.

B. Un plan en el que solo se especifican algunas de las precedencias entre

sus acciones.

C. Una red de tareas jerárquicas.

2. Un POP está compuesto por:

A. Tareas y subtareas.

B. Nodos, arcos (causales y no causales) y precondiciones abiertas.

C. Planes, acciones y propiedades.

3. Una precondición abierta:

A. Representa aquellas propiedades que son precondición de alguna acción

presente en el plan y que todavía no se han enlazado por medio de ningún

arco causal.

B. Representa aquellas acciones que son precondición de alguna acción

presente en el plan y que todavía no se han enlazado por medio de ningún

arco causal.

C. Las acciones abiertas en el problema.

4. Un enlace causal:

A. Son las restricciones de orden parcial entre dos acciones.

B. Especifica la consecución de un efecto.

C. Es la causa de un efecto entre tres o más acciones conjuntas.

Razonamiento y Planificación Automática 19


Tema 11. Test
© Universidad Internacional de La Rioja (UNIR)
Test

5. Una acción entra en conflicto con un enlace causal:

A. Si la acción tiene el efecto de eliminar un efecto producido por el enlace

causal.

B. Si tiene más de dos propiedades a las que afecte con sus efectos.

C. Si no se puede descomponer.

6. En general, un algoritmo de POP debe:

A. Encontrar todas las acciones del plan global.

B. Aplicar heurísticas de tipo STRIPS.

C. Encontrar la secuencia de refinamiento que, partiendo del plan parcial

inicial, llegue a un plan parcial solución.

7. Los PMA (planificador multiagente) son:

A. Aptos para entornos en los que varios agentes desean conseguir elaborar

un plan conjunto para resolver un problema.

B. Construcciones de redes de tareas jerárquicas de tipo STRIPS.

C. Aptos para entornos en los que un agente desea resolver varios problemas

a la vez.

8. La PMA y la planificación clásica se diferencian en:

A. La coordinación de las actividades de planificación.

B. La distribución de la información entre agentes.

C. Las dos características anteriores.

9. Los PMA admiten la hipótesis de:

A. Mundo cerrado.
B. Mundo abierto.
C. Mundo distribuido.

Razonamiento y Planificación Automática 20


Tema 11. Test
© Universidad Internacional de La Rioja (UNIR)
Test

10. Un sistema distribuido de planificación:

A. Debe ser capaz de distribuir la información entre varios agentes por medio

de un sistema multiagente.

B. Tiene que ejecutar todas las tareas en un único agente en un orden

determinado.

C. Debe usar un planificador de tipo STRIPS en cada agente.

Razonamiento y Planificación Automática 21


Tema 11. Test
© Universidad Internacional de La Rioja (UNIR)
Tema 12

Razonamiento y Planificación Automática

Tema 12. Reparación


reactiva multi agente
Índice
Esquema

Ideas clave

12.1. ¿Cómo estudiar este tema?

12.2. Estructuras de reparación reactiva

12.3. Dificultades en la reparación multi agente

12.4. Búsqueda multi agente durante la ejecución

12.5. Referencias bibliográficas

A fondo

Planificación reactiva multi agente

Un asistente de planes de ejecución para los pilotos

AlphaGo La película

Test
Esquema
Razonamiento y Planificación Automática 3
Tema 12. Esquema
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

12.1. ¿Cómo estudiar este tema?

En este tema profundizaremos en la planificación multi agente durante la ejecución.

Hablaremos sobre las estructuras de reparación reactiva que se utilizan en este tipo

de planificación. Mencionaremos las dificultades con las que nos enfrentamos

durante una reparación multi agente.

Finalmente, explicaremos la arquitectura y algoritmos de búsqueda utilizados durante

la planificación en entornos donde varios agentes están ejecutando sus planes.

En nuestro caso, presentaremos un modelo de reparación reactiva por múltiples

agentes de ejecución diseñado por (Gúzman Álvarez, 2019).

Razonamiento y Planificación Automática 4


Tema 12. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

12.2. Estructuras de reparación reactiva

Nótese que en este tema hemos pasado de la planificación a la reparación de un

plan. Y no por un solo agente, sino por varios agentes.

En la reparación partimos de un plan que se encuentra en ejecución por un agente.

La filosofía consiste en intentar reparar el plan cambiando lo mínimo posible del

mismo. O, en otras palabras, reutilizando al máximo posible las acciones del plan

actual que ha fallado.

Por ejemplo, supongamos el siguiente plan compuesto por 5 acciones {A, B, C, D, E}:

Si durante la ejecución de este plan la acción B falla porque una de sus

precondiciones no se cumple en el estado actual. Una posible reparación es generar

la precondición de la acción B por medio de ejecutar nuevamente la acción A, o

cualquier otra acción que genere con sus efectos la precondición de B.

Otras posibles reparaciones implican:

▸ Reutilización de las acciones {C, D, E}, consiguiendo en el estado del mundo las

precondiciones de C.

▸ Reutilización de las acciones {D, E}, consiguiendo en el estado del mundo las

precondiciones de D.

▸ Reutilización de la acción {E}, consiguiendo en el estado del mundo las

precondiciones de E.

Razonamiento y Planificación Automática 5


Tema 12. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Si en cualquier caso no reutilizamos ninguna de las acciones, estaríamos haciendo

una replanificación. Es decir, generaríamos un nuevo plan desde cero.

Para hacer la reparación, podemos usar las mismas técnicas de planificación

(estudiadas en temas anteriores o las muchas disponibles en el estado del arte) con

algunas pequeñas modificaciones.

Por ejemplo, en un POP, podríamos asumir que el nodo inicial es el plan actual que

ha fallado. El mismo tendrá precondiciones abiertas que se tendrán que conseguir.

Otro ejemplo, puede ser LPG-Td (Gerevini, 2002), un planificador basado en

búsqueda local y grafos de planificación que puede resolver reparación de planes.

Utiliza estructuras basadas en grafos que representan planes parciales.

Las estructuras de datos basadas en árboles también son muy utilizadas para este

tipo de problemas (Gúzman Álvarez, 2019). La particularidad radica en que se

generan previamente después de la planificación y antes de la ejecución. Son

estructuras donde cada nodo representa una posible situación del estado inicial del

mundo. Desde cada nodo se puede llegar de una manera óptima al nodo raíz, que

representa el objetivo de la tarea de planificación inicial. Así, el problema de reparar

un plan se resume en buscar un nodo en el árbol que este contenido en el estado del

mundo y a partir de este nodo generar el camino hasta el nodo raíz o nodo objetivo.

Otras estructuras son simplemente bases de datos con reglas condicionales del

estilo:

SI X ENTONCES RETORNAR plan.

Lo que las hacen estructuras rápidas y eficientes para resolver problemas de

reparación reactiva.

Razonamiento y Planificación Automática 6


Tema 12. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

12.3. Dificultades en la reparación multi agente

En muchas ocasiones un agente no es capaz de reparar un plan debido a diferentes

situaciones. Por ejemplo, pierde una capacidad (no puede tomar imágenes, o

comunicarse), o tiene escases de un recurso (tal como la gasolina).

En tales situaciones el agente siempre puede pedir ayuda a un agente de

planificación especializado que trabaje de forma deliberativa. El problema es que

puede tardar mucho tiempo en generar el plan o incluso en recibir el plan (por

ejemplo, en el caso del dominio de marte donde la comunicación de los robots con la

tierra puede tardar 2 horas).

Una mejor solución radica en poder solicitar ayuda a agentes que se encuentren en

el mismo entorno de ejecución.

Se deben buscar soluciones que:

▸ Se generen de forma “rápida”

▸ Minimicen el costo de la comunicación entre los agentes

▸ Y permitan reparar el plan del agente que falla a la vez que permite conseguir los

objetivos de los demás agentes

Está claro que la comunicación siempre es un hándicap que impactará de alguna

forma en el tiempo de generación del plan solución. Por lo tanto, se deben

implementar soluciones que en la medida de lo posible minimicen las

comunicaciones entre los agentes.

Razonamiento y Planificación Automática 7


Tema 12. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

En todo lo que concierne a reparación reactiva se evita el uso de las técnicas de

planificación clásica que consumen tiempo y adicionalmente memoria. Se deben

pensar en técnicas más eficientes, aunque se sacrifique la optimalidad del plan

solución.

Razonamiento y Planificación Automática 8


Tema 12. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

12.4. Búsqueda multi agente durante la ejecución

A continuación, vamos a explicar un modelo de planificación reactiva multi agente

(Gúzman Álvarez, 2019). Como se mencionó anteriormente, esta es una línea de

investigación relativamente nueva.

En (Gúzman Álvarez, 2019), proponen la siguiente arquitectura de planificación y

ejecución multi agente:

Figura 1: Arquitectura del modelo de planificación y ejecución multi agente. Fuente: (Gúzman Álvarez,

2019).

El modelo describe dos agentes de ejecución, i y j. Ambos agentes tienen tres

módulos principales, módulo de ejecución (Execution), módulo de Monitorización

(Monitoring), y módulo de reparación reactiva (Reactive Planner). Adicionalmente,

cada agente de ejecución tiene asociado un agente de planificación deliberativa. Que

es el encargado de generar el plan inicial a ejecutar.

Razonamiento y Planificación Automática 9


Tema 12. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Veamos los pasos que se registran en este modelo al momento de ejecutar el

sistema.

Pasos del modelo

Los agentes de ejecución solicitan el plan inicial a los agentes de planificación.

Mientras se genera el plan inicial, los agentes de ejecución publicitan entre ellos una

información llamada servicios (caja publicization en la figura 1). Los servicios son los

fluents que aparecen en los efectos de las acciones de cada agente de ejecución. De

esta manera el agente que recibe información de un servicio puede saber de ante

mano los fluents que puede conseguir otro agente.

Por ejemplo, en el dominio de los robots de Marte que hemos venido tratando, si un

agente i puede comunicar los resultados de una roca r analizada en una localización

w1, enviará a los otros agentes el fluente <comunicar-r-w1, true>. De esta manera los

otros agentes saben que el agente i puede conseguir dicho fluent, comunicar el

análisis de la roca r desde la posición w1.

Una vez todos los agentes de ejecución reciben el plan inicial, comienza el proceso

de monitorización y ejecución. Este es un proceso que se va desarrollando hasta que

se ejecutan todas las acciones o la monitorización detecta un fallo, en cuyo caso se

inicia el proceso de reparación.

En (Gúzman Álvarez, 2019), el proceso de reparación implica varios pasos:

▸ Reparar de manera individual (usando un planificador reactivo propio del agente).

Sino se encuentra un plan,

▸ Se activa la reparación reactiva multi agente. Sino se logra reparar con ayuda de los

otros agentes, entonces finalmente,

▸ Se llama al agente de planificación deliberativo.

Razonamiento y Planificación Automática 10


Tema 12. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

Nosotros nos centraremos en detallar brevemente cómo funciona la reparación

reactiva multi agente. Temas relacionados con la reparación individual o con la

planificación del agente deliberativo, se deben profundizar en (Gúzman Álvarez,

2019).

Reparación reactiva multi agente

Figura 2: Algoritmo del flujo general del proceso de reparación colaborativa. Fuente: (Gúzman Álvarez,

2019).

En la figura 2 se muestra el algoritmo utilizado una vez se detecta un fallo que no

puede ser reparado de forma individual por el agente.

Los agentes de ejecución mantienen el plan de acciones que se está ejecutando

representado en estados parciales. Por ejemplo, suponiendo que el plan este

compuesto por las acciones [a1, a2, a3, a4]. Una representación del plan en estados

parciales sería de la forma [G0, G1, G2, G3, G4]. Donde cada estado parcial Gi

representa un conjunto de fluents necesarios para continuar ejecutando el resto de

las acciones desde el estado parcial Gi. De esta manera, conseguir que el estado

Razonamiento y Planificación Automática 11


Tema 12. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

parcial G0 se cumpla en el estado del mundo nos garantiza que se pueden ejecutar

las acciones [a1, a2, a3, a4]. Conseguir que el estado parcial G1 se cumpla en el

estado del mundo nos garantiza poder ejecutar [a2, a3, a4].

Cuando una acción del plan falla es porque algún fluent de los estados parciales no

se cumple en el estado del mundo. En este caso el algoritmo detecta el conjunto de

fluentes que han fallado (línea 2 en la Figura 2). En la línea 3 obtiene los agentes que

le pueden ayudar a conseguir dichos fluents (por medio de los servicios publicitados).

El agente que falla pide ayuda a estos agentes, informando los literales que han

fallado y desea conseguir (línea 7). Los posibles agentes colaboradores intentan

reparar los fallos usando pequeños árboles de búsqueda que son generados en

tiempo de ejecución con un algoritmo en anchura con el ánimo de encontrar

soluciones óptimas. Si una solución es encontrada, entonces la informan al agente

que falla. Quien debe decidir si acepta o no la solución como válida (líneas 16-20).

En caso de que una solución se acepte como válida, se genera un compromiso entre

los dos agentes que solo se puede romper, si existe un nuevo fallo durante la

ejecución de la posible solución.

Razonamiento y Planificación Automática 12


Tema 12. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave

12.5. Referencias bibliográficas

Gerevini, A. &. (2002). LPG: A Planner Based on Local Search for Planning Graphs

with Action Costs. In AIPS, (pp. Vol. 2, pp. 281-290).

Gúzman Álvarez, C. A. (2019). Reactive plan execution in multi-agent environments

(Doctoral dissertation).

Rosenschein, J. S. (1994). Rules of encounter: designing conventions for automated

negotiation among computers. MIT press.

Russell, S. y. (2004). Inteligencia Artificial: Un Enfoque Moderno. Madrid: Pearson

Educación.

Torreno Lerma, A. (2012). Diseño e implementación de un sistema de planificación

distribuido (Trabajo fin de carrera). Valencia: Universidad Politenica de Valencia.

Torreno Lerma, A. (2016). Cooperative planning in multi-agent systems (Doctoral

dissertation). Valencia: Universidad Politécnica de Valencia.

Razonamiento y Planificación Automática 13


Tema 12. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
A fondo

Planificación reactiva multi agente

Gúzman Álvarez, C. A. (2019). Reactive plan execution in multi-agent environments

(Doctoral dissertation). Recuperado de:

[Link]
%20Reactive%20plan%20execution%20in%20multi-agent%[Link]?
sequence=4

Explica el funcionamiento completo del modelo de planificación y ejecución reactiva.

Indicando entre otros aspectos su arquitectura, formalización, y técnicas que se usan

para la reparación multi agente.

Razonamiento y Planificación Automática 14


Tema 12. A fondo
© Universidad Internacional de La Rioja (UNIR)
A fondo

Un asistente de planes de ejecución para los


pilotos

Accede al vídeo a través del aula virtual o desde la siguiente dirección

web:[Link]

Vídeo sobre la ejecución de planes en tiempo real J. Benton.

Razonamiento y Planificación Automática 15


Tema 12. A fondo
© Universidad Internacional de La Rioja (UNIR)
A fondo

AlphaGo La película

Accede al vídeo a través del aula virtual o desde la siguiente dirección web:
[Link]

Película que muestra el uso de algoritmos de búsqueda y Deep learning para jugar el

juego del Go.

Razonamiento y Planificación Automática 16


Tema 12. A fondo
© Universidad Internacional de La Rioja (UNIR)
Test

1. ¿Qué es reparar un plan?

A. Generar un plan desde cero.

B. Encontrar un plan solución manteniendo el mayor número de acciones del

plan que falla.

C. Ejecutar un plan mientras se va arreglando el fallo del plan.

2. Para utilizar un POP como método de reparación, tendríamos que:

A. Comenzar con un plan vacío en el nodo raíz.

B. Comenzar con el plan actual en el nodo raíz.

C. Dejar de conseguir las precondiciones abiertas.

3. Una de las dificultados de la reparación multi agente es:

A. Alguna acción presente en el plan y que todavía no se han enlazado por

medio de ningún arco causal.

B. El tiempo en la comunicación entre los agentes.

C. Las acciones que faltan por ejecutar en el problema.

4. En la reparación reactiva se deben:

A. Usar técnicas de planificación clásica porque son más eficientes y

encuentran el plan óptimo.

B. Usar técnicas que mantengan la optimalidad del plan solución.

C. Usar técnicas más eficientes, aunque se sacrifique la optimalidad del plan

solución.

Razonamiento y Planificación Automática 17


Tema 12. Test
© Universidad Internacional de La Rioja (UNIR)
Test

5. En un modelo de planificación reactiva multi agente:

A. Los agentes son entidades de planificación.

B. Los agentes son entidades de ejecución que planifican empleando todo el

tiempo que necesiten.

C. Los agentes son entidades de ejecución que planifican en un tiempo

limitado.

6. En general, un algoritmo de POP debe:

A. Encontrar todas las acciones del plan global.

B. Aplicar heurísticas de tipo STRIPS.

C. Encontrar la secuencia de refinamiento que, partiendo del plan parcial

inicial, llegue a un plan parcial solución.

7. Los planificadores multi agentes (PMA) son:

A. Aptos para entornos en los que varios agentes desean conseguir elaborar

un plan conjunto para resolver un problema.

B. Construcciones de redes de tareas jerárquicas de tipo STRIPS.

C. Aptos para entornos en los que un agente desea resolver varios problemas

a la vez.

8. Los planificadores reactivos multi agente y la planificación por múltiples agentes

se diferencian en:

A. El punto donde se realiza la coordinación de las actividades de

planificación entre los agentes.


B. El tiempo que necesitan para encontrar un plan.
C. Las dos características anteriores.

Razonamiento y Planificación Automática 18


Tema 12. Test
© Universidad Internacional de La Rioja (UNIR)
Test

9. En algunos modelos los agentes pueden publicitarse servicios. Los servicios

ayudan a:

A. Distribuir la información de forma segura.

B. Conocer que agentes pueden ayudar para reparar un fallo.

C. Mantener la integridad en la información.

10. En general, todo sistema multi agente debe contener un protocolo:

A. Verdadero.

B. Falso.

Razonamiento y Planificación Automática 19


Tema 12. Test
© Universidad Internacional de La Rioja (UNIR)

También podría gustarte