Par Jean Poitras, Ph.D.
Dans mes cours de gestion de conflits, j’utilise souvent des études de cas. Récemment, j’ai fait une expérience simple : j’ai soumis un de ces cas à une intelligence artificielle comme ChatGPT. Le résultat m’a surpris. L’IA identifiait correctement les principaux enjeux, expliquait les dynamiques du conflit et proposait un plan d’action clair. J’ai poussé l’expérience un peu plus loin. Lorsque je fournissais aussi à l’intelligence artificielle certains modèles d’analyse, la qualité des réponses devenait encore meilleure. L’IA appliquait les modèles de façon systématique et produisait des diagnostics très structurés. Dans plusieurs cas, les solutions proposées ressemblaient beaucoup à celles que pourraient donner des praticiens expérimentés. Cela m’a amené à me poser une question : si une intelligence artificielle peut proposer un bon plan pour régler un conflit, est-ce qu’elle peut réellement régler ce conflit ? Analyser un conflit : une situation « compliquée »
Pour comprendre l’apparente efficacité de l’IA en gestion de conflits, il est utile de se référer à un modèle bien connu en gestion appelé le Cynefin Framework. Ce modèle explique que les situations ne se ressemblent pas toutes. Certaines sont simples, d’autres sont compliquées, et d’autres encore sont complexes.
Une situation compliquée est une situation où il faut analyser plusieurs facteurs pour comprendre ce qui se passe. Les causes d’un problème ne sont pas immédiatement évidentes, mais avec de bons outils d’analyse, il est possible de les identifier.
L’analyse d’un conflit correspond souvent à ce type de situation. On peut examiner les intérêts des acteurs, les tensions dans le groupe, les alliances possibles ou les sources d’irritation. Il existe plusieurs modèles pour faire ce type d’analyse.
Lorsqu’on fournit ces modèles à une intelligence artificielle, elle peut les appliquer de manière très efficace. Elle peut comparer les informations, repérer certains patterns et structurer un plan d’intervention cohérent.
C’est pour cette raison que les réponses produites par l’IA peuvent être très convaincantes : elle est très performante pour analyser un problème et organiser une solution logique.
Les limites stratégiques du plan proposé
Cependant, un plan d’intervention ne repose pas seulement sur une bonne analyse. Il repose aussi sur une compréhension du contexte dans lequel ce plan devra être appliqué.
Le modèle du Cynefin Framework aide à comprendre cette limite. Même si l’analyse d’un conflit peut relever d’une situation compliquée, la mise en œuvre du plan se déroule souvent dans un domaine complexe, où les réactions humaines ne sont pas entièrement prévisibles.
C’est pourquoi, même si un plan semble logique sur le papier, plusieurs questions demeurent essentielles :
- le groupe est-il prêt à discuter ouvertement du problème ?
- le climat dans l’organisation permet-il d’aborder certains sujets sensibles ?
- les personnes impliquées sont-elles prêtes à entendre certaines critiques ?
Ces éléments sont importants parce qu’ils déterminent si un plan peut réellement fonctionner. Un plan peut être très cohérent sur le plan analytique, mais échouer si les conditions ne sont pas réunies pour l’appliquer.
Or, ces dimensions sont souvent difficiles à saisir pour une intelligence artificielle. Elles reposent sur une lecture du contexte, de la culture du groupe et de la psychologie des personnes impliquées.
Autrement dit, l’IA peut proposer un plan bien structuré, mais elle peut difficilement juger si le moment est bon pour l’appliquer et si les acteurs sont réellement prêts à l’accepter.
La mise en œuvre : un système complexe
Le modèle Cynefin explique aussi que la mise en œuvre est complexe. Les comportements des personnes s’influencent mutuellement et les réactions peuvent varier d’une intervention à l’autre.
La gestion réelle d’un conflit appartient souvent à cette catégorie. Lorsqu’une discussion commence, les réactions humaines peuvent surprendre : une personne peut se sentir attaquée, une autre peut être émue, quelqu’un peut perdre la face ou se fermer complètement.
Dans ces moments-là, la personne qui intervient doit constamment ajuster sa manière d’agir. Elle peut devoir ralentir la discussion, reformuler une intervention, changer l’ordre des étapes ou modifier son approche.
Le modèle Cynefin suggère que, dans les situations complexes, il faut souvent avancer par petits essais : on intervient, on observe les réactions, puis on ajuste la suite de l’intervention.
Ces ajustements sont principalement fondés sur l’expérience et sur la compétence de l’individu à interpréter les dynamiques du groupe. Ils requièrent une attention aux réactions humaines, aux émotions, ainsi qu’aux signaux subtils émis au cours d’une discussion. Cette capacité à analyser la situation demeure complexe pour une intelligence artificielle, qui excelle davantage dans l’analyse des problèmes que dans l’adaptation en temps réel aux interactions humaines.
Conclusion
L’intelligence artificielle peut donc donner l’impression qu’elle est capable de régler un conflit, parce qu’elle peut produire rapidement un diagnostic et un plan d’action crédibles. En réalité, elle ne fait qu’une partie du travail.
Elle peut être très utile pour identifier une direction possible, c’est-à-dire une manière dont le conflit pourrait évoluer vers une situation plus stable. Elle peut aussi aider à structurer la réflexion et à proposer un point de vue qui semble relativement objectif. En ce sens, elle peut jouer un rôle intéressant de réduction du bruit dans l’analyse d’une situation : en appliquant les mêmes modèles de manière systématique, elle peut aider à clarifier les enjeux et à éviter certaines interprétations trop rapides ou trop émotionnelles.
Mais tout le travail avant le plan, qui consiste à comprendre si les conditions sont réunies pour agir, et tout le travail pendant l’intervention, qui consiste à ajuster le processus aux réactions humaines, reste largement entre les mains de l’expert.
L’intelligence artificielle peut donc devenir un outil très utile pour réfléchir à un conflit. Mais la gestion réelle des conflits demeure profondément humaine.
Références
KAHNEMAN, Daniel, SIBONY, Olivier, et SUNSTEIN, Cass R. Noise: A flaw in human judgment. Hachette UK, 2021.
SNOWDEN, David J., BOONE, Mary E., et al. A leader's framework for decision making. Harvard business review, 2007, vol. 85, no 11, p. 68.
Aucun commentaire:
Enregistrer un commentaire