“Je me tiens actuellement à 20 cm du mur”

et autres informations complètement inutiles !

Salut tout le monde! Si on parlait de communication aujourd’hui ? Et plus précisément de communication raisonnée. Ça vous dirait ? Si oui, continuez de lire. Si non… bah à la prochaine j’imagine !

Ceci est le premier article d’une série sur le sujet de la communication multi-agents, notamment la communication entre humain et agent artificiel. Dans cet article, on va commencer par couvrir les bases et définir le problème. Par la suite, on explorera les différentes parties plus en détails et regardera les modèles que j’utilise.

Communication Raisonnée

On a tous une assez bonne idée de ce qu’est une “communication”. C’est l’action d’échanger de l’information entre plusieurs personnes. Mais savez-vous ce qu’est la “communication raisonnée” ? Ce terme est une traduction personnelle du terme anglais “purposeful communication”, terme qui est très en vogue dans le monde du management et leadership. Dans ce monde, les “communicants raisonnants”1 sont considérés efficaces, car ils sont capables de raisonner sur le “pourquoi” derrière chaque communication, la rendant ainsi percutante et efficace.

En Intelligence Artificielle, le terme est assez nouveau et assez peu répandu 2, mais est utilisé pour décrire une idée similaire : les agents artificiels devraient être capables de choisir leur communication en fonction des buts qu’ils cherchent à atteindre.

Pour le moment, les types d’agents communicants les plus utilisés sont les agents conversationnels. Vous avez tous vu passer ces “chatbots” sur des sites web de vente en ligne. Cette petite fenêtre qui apparaît en bas à droite, souvent un peu intrusive, et vous demande “Que puis-je faire pour vous aider ?”. Ces agents sont un parfait exemple de communication non-raisonnée. L’agent lui-même n’a aucun but : il ne fait que réagir à votre dernière phrase. Le plus souvent, ils n’ont même aucune mémoire de ce dont vous avez parlé auparavant.

D’autres types d’agents conversationnels existent, plus performants, pour d’autres types d’applications (formation, conseils médicaux, aide psychologique…). Par exemple, un programme qui me tient à cœur est Woebot. Si vous n’en avez jamais entendu parler 3, c’est un agent conversationnel programmé pour vous enseigner certaines techniques de thérapie cognitivo-comportementale afin de vous aider à gérer votre anxiété, votre stress et plus généralement d’améliorer votre humeur. C’est un petit bot super sympa !

Le programme Woebot

Tous ces agents, aussi avancés soient-ils, ont néanmoins une chose en commun : ils n’ont aucun “but” incorporés dans leur intelligence. Pour être plus précise, leur seul but est de vous parler. Leurs concepteurs et conceptrices avaient sans doute, eux-mêmes, un but lorsqu’ils et elles ont conçu l’agent (par exemple dans le cas de Woebot, celui de vous aider avec les problèmes sus-nommés) mais ce but n’est pas encodé directement dans le modèle de l’agent, et l’agent lui-même ne planifie pas et ne raisonne pas pour atteindre ce but. Il suit une stratégie pré-définie.

Et vous vous en doutez sans doute maintenant, la communication raisonnée consiste à permettre à un agent de communiquer afin d’atteindre un but. Ce but peut être de secourir une victime de catastrophe naturelle, d’aider une personne âgée à nettoyer leur appartement, d’informer l’utilisateur d’une voiture autonome à propos d’un bouchon et afin de lui permettre d’arriver plus vite à destination… Certains systèmes sont déjà capables, dans une certaine mesure, d’effectuer de la communication raisonnée. Par exemple votre GPS qui vous dit qu’il existe une route plus rapide et vous demande si vous souhaitez l’emprunter fait de la communication raisonnée.

Pour un agent, être capable de communication raisonnée signifie être capable de planifier ses communications, et donc d’évaluer leur pertinence.

Pour un agent, être capable de communication raisonnée signifie être capable de faire de la communication de planification, et donc d’évaluer la pertinence des informations communiquées.

Contenu, timing et média

Considérons l’exemple suivant, que nous réutiliserons dans la suite de cet article :

Alice vient du Portugal. Cet été, elle a décidé de voyager en Suède pour les vacances. Pas de bol, il pleut beaucoup cette année en Suède 4. L’ami d’Alice, Bob, a prévu de la rejoindre quelques jours plus tard en Suède. Après deux jours sur place, Alice appelle Bob au téléphone. Elle sait que Bob s’attend à ce que le temps soit ensoleillé5. Après tout, c’est l’été. Du coup, Alice va dire à Bob, sans que celui-ci le demande, que le temps n’est pas optimal et qu’il ferait mieux de préparer un manteau. Peu après Alice appelle son amie Carol pour lui demander où et quand elles peuvent se voir. Carol vivant en Suède, elle a donc pu se rendre compte de la mauvaise météo. Alice ne va donc pas mentionner la pluie lors de leur conversation, car elle suppose que Carol sait déjà.

Illustration du problème de communication entre Alice, Bob et Carol

Cet exemple est assez simple, mais illustre parfaitement le genre d’interactions que nous, humains, sommes capables d’avoir. Nous choisissons les informations que nous souhaitons transmettre à nos proches en fonction de ce que l’on suppose être pertinent pour eux (et pour nous).

Trois aspects sont particulièrement importants lorsque l’on parle de pertinence lors d’une communication :

  1. Le contenu
  2. Le timing
  3. Le médium.

Dans notre exemple, le contenu de la communication entre Alice et Bob est le fait que le temps est assez mauvais. La raison pour laquelle le contenu de la communication est un élément prédominant de sa pertinence est assez évidente. Si Alice disait à Bob “je me tiens en ce moment à 1 mètre du mur ! “, cela serait particulièrement inutile, non ? Au contraire, dans ce cas, Alice donne une information à Bob qui va changer ses plans futurs (il va mettre un manteau dans sa valise).

Le timing de la communication est le moment où la communication est effectuée et est également important. Une information peut être particulièrement importante à un moment donné et complètement inutile un peu plus tard. Par exemple, si Alice dit à Bob “il pleut tellement ici” quand Bob arrive à l’aéroport de Stockholm, l’information devient beaucoup moins pertinente pour Bob dont le manteau est resté chez lui au Portugal.

Enfin, un aspect souvent oublié, mais néanmoins important est le médium a travers lequel la communication est transmise. Par exemple, Alice peut appeler Bob sur son téléphone et lui parler. Elle peut également envoyer un message par Facebook ou utiliser un enregistrement en code morse. Les trois média transmettent le même contenu à des timings similaires, mais les résultats seront très différents. Bob va sans doute décrocher son téléphone et recevoir l’information rapidement. En revanche, il ne consulte pas Facebook souvent et pourrait manquer l’information (ou la consulter trop tard, ce qui résulterait en un problème de timing). Enfin, Bob ne connaît pas du tout le code morse et il serait donc très difficile pour lui de déchiffrer un tel message, le rendant ainsi inutile6.

L’importance du média. Il est écrit “Important : veuillez-lire le panneau en braille”. Dessin par Royston -Robertson-

Planification avec communication

Pour le moment, je me suis plutôt concentrée sur la “planification pour la communication” et le fait de décider quelle information communiquer afin d’informer. Mais la planification de communication concerne également l’action de planifier avec des actions de communications. Par exemple, je peux demander à mon voisin d’ouvrir la fenêtre parce que j’ai trop chaud, ou un robot peut demander à un autre agent d’ouvrir la porte pour lui. Planifier avec des actions de communication signifie utiliser la communication comme moyen de rejoindre son but. Cela ne signifie pas forcément que l’agent qui utilise la communication ne peut pas effectuer l’action lui-même (je suis parfaitement capable d’ouvrir la fenêtre et certains robots sont très doués pour ouvrir des portes), cela signifie simplement que dans le contexte courant, à cet instant du plan donné, c’est mieux pour l’agent qui planifie de demander à quelqu’un d’autre d’effectuer une action dont il a besoin7.

Planifier avec actions de communication est un sujet relativement nouveau dans le monde de la planification multi-agents, particulièrement sous incertitude8. Un tel comportement nécessite que l’agent soit capable d’introspection afin de détection ses propres besoins et qu’il soit capable de raisonner sur les capacités de ses co-équipiers pour déterminer qui peut rendre le service. L’agent doit également être capable de déterminer s’il est plus intéressant de demander ou de le faire lui-même. Et, en plus de tout ça, il doit être capable d’insérer ce type d’action dans le reste de son plan.

Conclusion

Cet article n’a sans doute pas été une révélation pour vous. Après tout, planifier pour et avec de la communication est quelque chose que nous, humains, faisons tous les jours et souvent inconsciemment. Mais il s’agit d’un comportement assez nouveau pour des agents artificiels, et je suis personnellement en train de travailler sur trois lignes de recherche:

  1. Communication raisonnée sous incertitude. Dans cet axe de recherche, je me concentre sur la construction d’un modèle permettant à des agents de planifier pour des actions de communication, sous l’hypothèse d’incertitude d’états et d’action. Cela signifie que l’agent ne peut percevoir que partiellement son environnement et donc l’état exact du système lui est inconnu. De plus, il n’est pas certain à 100% que les actions qu’il effectue auront le résultat escompté. Dans notre cas, cela signifie aussi que notre agent ne sait pas avec certitude ce que savent les autres agents. Après tout, peut-être que Bob a consulté les prévisions météo avant de partir…
  2. Modèle pour planification de tâche et de communication. Cet aspect concerne la planification avec communication : comment peut-on utiliser des actions de communication dans un plan afin d’atteindre un but ?
  3. Le point de vue du receveur. Un aspect dont on n’a pas beaucoup parlé dans cet article, mais qui m’intéresse également est le point de vue de Bob : comment Bob va-t-il intégrer la communication de la part d’Alice et comment cette nouvelle information va changer son état de connaissance et ses actions futures ?

Dans les prochains articles de cette série, je m’attarderai sur ces trois aspects et expliquerai les modèles que j’utilise et développe. En attendant, j’espère que cette introduction vous a plu, et je vous dis à la prochaine !

  1. Purposeful Communicators dans la langue de Stan Lee.
  2. D’où l’absence de traduction française aujourd’hui
  3. Ce qui est assez probable, car il n’est pas encore très connu.
  4. Ce qui est très rare ! Nous avons des étés très ensoleillés :P
  5. Le problème de la représentation de “A sait que B sait” sera le sujet du deuxième article de cette série.
  6. Cet aspect est relié à un concept apparemment assez présent en Apprentissage Artificiel dont j’ai entendu parlé récemment, qui est la différence entre une information “intéressante” et une information “utile”. En fonction de l’information communiquée et la façon dont elle est communiquée, elle peut être intéressante mais inutile.
  7. À cet égard, l’idée se rapproche un peu des techniques de répartition de tâches utilisées dans les systèes multi-agents, tels que le Protocole de Réseau Contractuel (Contract Net Protocol), les systèmes d’enchères… J’en parlerai peut-être un autre jour.
  8. Qui est mon hypothèse de recherche principale.
0 réponses

Répondre

Se joindre à la discussion ?
Vous êtes libre de contribuer !

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.