Jérémy Rivière - Interaction affective et expressive humain - compagnon artificiel

12:30
Wednesday
10
Oct
2012
Organized by: 

Jérémy Rivière

Speaker: 

Jérémy Rivière

Teams: 

Jury :

  • Jean-Claude Martin, PR Université de Paris-Sud (Rapporteur)
  • Nicolas Sabouret, PR Université de Paris-Sud / Supelec (Rapporteur)
  • Gaëlle Calvary, PR Grenoble INP (Examinateur)
  • Dominique Duhaut, PR Université de Bretagne Sud (Examinateur)
  • Dominique Longin, CR CNRS (Examinateur)
  • Frédérique Segond, Viseo (Examinateur)
  • Sylvie Pesty, PR Université de Grenoble (Directrice de thèse)

Le but de ce travail de thèse est de rendre sincère un Agent Conversationnel Animé (ACA) pour, d’une part, améliorer sa crédibilité du point de vue de l’humain, et d’autre part contribuer à le rendre acceptable dans une relation privilégiée compagnon artificiel - humain. La première partie de ce travail consiste en la création d’un Langage de Conversation Multimodal (LCM) pour ACA, constitué d’Actes de Conversation Multimodaux (ACM) tels que promettre, s’excuser ou exiger : ces ACM permettent à l’agent d’être crédible dans sa sincérité, en exprimant multimodalement ses états mentaux de façon appropriée. Les états mentaux portés par les ACM sont formalisés en logique : la volonté de représenter des états mentaux issus de raisonnements complexes (basés d’une part sur le raisonnement contrefactuel et d’autre part sur les normes et les buts de l’agent), dont l’expression se fait avant tout par le langage (Oatley 1987), a amené à mettre en place le modèle BIGRE (Beliefs, Ideals, Goals, Responsibility, Emotions). Ce modèle, basé sur une logique de type BDI (Belief, Desire, Intention), permet de représenter également des émotions que nous appelons complexes, telles que la réjouissance, la gratitude ou le regret. La catégorie expressive des ACM contient les actes exprimant ces émotions complexes (e.g. remercier, regretter) : l’expression se fait par le langage, conjointement aux autres expressions multimodales appropriées. Le LCM est implémenté dans l’ACA Greta, ce qui permet une évaluation de ce langage en termes de crédibilité et de sincérité perçues par l’humain. La deuxième partie de ce travail porte sur les capacités de raisonnement de l’ACA : dans le but de permettre à l’agent de raisonner dans le dialogue, c’est-à-dire mettre à jour ses états mentaux et ses émotions et sélectionner son intention communicative, un moteur de raisonnement a été mis en place. Ce moteur de raisonnement est basé sur le cycle de comportement BDI – Perception, Décision, Action - et les opérateurs du modèle BIGRE, permettant ainsi la manipulation d’états mentaux issus de raisonnements complexes (dont les émotions complexes). Les ACM qui composent notre langage sont intégrés dans le moteur, et sont utilisés pour atteindre l’intention communicative de l’ACA : par exemple, si l’agent a l’intention d’exprimer sa gratitude, il construit un plan pour satisfaire son intention, formé des ACM remercier ou féliciter, selon le degré de l’émotion. Un type d’intention communicative, déclenché par des règles d’obligation du discours, participe à la régulation locale du dialogue. L’ACA étant de plus affectif, sa sincérité l’amène à exprimer toutes ses émotions. La généricité de ce moteur de raisonnement permet de l’implémenter dans l’ACA Greta (où il est en lien avec le LCM) et dans l’agent MARC. L’expression multimodale des ACM avec l’agent MARC a été rendue possible par l’intégration des checks de Scherer dans le moteur de raisonnement que nous avons adapté au contexte du dialogue. Une évaluation du moteur de raisonnement avec l’agent MARC montre que les états mentaux déduits par le moteur sont appropriés à la situation, et que leur expression (l’expression de la sincérité de l’agent) est également appropriée.