hide
Free keywords:
-
Abstract:
Nous proposons dans cet article une nouvelle approche
pour représenter les politiques (stratégies)
dans les environnements stochastiques et partiellement
observables. Nous nous intéressons plus
particulièrement aux systèmes multi-agents, où
chaque agent connaît uniquement ses propres politiques,
et doit choisir la meilleure parmi elles selon
son état de croyance sur les politiques du reste des
agents. Notre modèle utilise moins de paramètres
que les méthodes de représentation usuelles, telles
que les arbres de décision ou les contrôleurs détats
finis stochastiques, permettant ainsi une accélération
des algorithmes de planification. Nous montrons
aussi comment ce modèle peut être utilisé
efficacement dans le cas de la planification multiagents
coopérative et sans communication, les résultats
empiriques sont comparés avec le modèle
DEC-POMDP (Decentralized Partially Observable
Markov Decision Process).