L’IA et la Médiation : les nouvelles lignes directrices de l’IBA
L’IA et la Médiation : les nouvelles lignes directrices de l’IBA
Introduction – Une lecture Médiation Concorde
L’intelligence artificielle s’impose aujourd’hui comme un acteur incontournable de notre monde professionnel. Elle transforme nos métiers, nos rythmes, nos modes de réflexion.
Dans le domaine de la médiation, cette évolution suscite à la fois curiosité, enthousiasme et prudence.
En juin 2025, le Comité de médiation de l’International Bar Association (IBA) a publié son “Guidelines on the Use of Generative Artificial Intelligence in Mediation”. C’est la première initiative pour encadrer l’usage de l’IA dans la médiation, à la croisée du droit, de la technologie et de l’éthique.
Si nous considérons que la médiation ne doit pas être figée dans des cadres ancestraux, nous croyons que des principes doivent être pérennisés afin que l’esprit de Médiation Concorde conserve ses fondements.
Ce guide, inédit par sa portée, ne se limite pas à un encadrement technique : il offre une réflexion éthique et pratique sur la manière d’intégrer l’IA sans trahir l’essence même de la médiation — l’écoute, la confiance et la présence humaine.
Notre objectif ici n’est pas seulement de résumer ces lignes directrices, mais d’en dégager le sens profond, dans la perspective de la philosophie humaniste qui guide Médiation Concorde.
1. Un texte fondateur pour une pratique mondiale
L’IBA, en publiant ces lignes directrices, marque une étape importante :
la reconnaissance officielle de l’IA générative comme un outil désormais indissociable de la pratique du droit et de la médiation.
L’objectif affiché est double :
- Encadrer les usages de l’IA dans la médiation afin d’éviter les dérives (biais, atteinte à la confidentialité, influence indue).
- Encourager l’innovation responsable, en permettant aux médiateurs d’utiliser ces outils pour renforcer leur efficacité et leur accessibilité.
L’IBA adopte une position d’équilibre : ni rejet, ni fascination. L’IA n’est pas présentée comme une menace, mais comme un outil dont l’usage doit être réfléchi, documenté et transparent.
2. L’IA comme outil de soutien, non comme acteur du processus
L’étude distingue clairement les usages acceptables et les usages problématiques.
L’IA générative (type ChatGPT, Claude, Gemini, etc.) peut intervenir en amont du processus ou en appui, mais jamais au cœur de la relation entre les parties.
Les usages considérés comme pertinents sont :
- La préparation administrative et documentaire : organisation de réunions, synthèse de dossiers, rédaction de courriels ou d’agendas.
- La clarification et la reformulation : transformer des textes techniques en langage accessible, reformuler une phrase conflictuelle en termes neutres.
- L’accessibilité linguistique : traduction, simplification, aide à la compréhension interculturelle.
Mais la ligne rouge est claire : l’IA ne doit jamais produire de décisions, ni interpréter des émotions, ni intervenir directement dans l’échange entre les parties.
La médiation est un espace de confiance : il ne peut être partagé avec une machine sans un contrôle humain total.
3. Les risques identifiés : entre fascination et vigilance
L’IBA consacre une large place aux risques éthiques et techniques liés à l’usage de l’IA en médiation. Ils sont multiples et parfois subtils :
a) Les biais et la partialité
Les modèles d’IA reproduisent les biais présents dans leurs données d’entraînement.
Ils peuvent donc introduire des distorsions culturelles, linguistiques ou sociales qui nuisent à la neutralité du processus. Un mot “anodin” dans une langue peut être chargé d’émotion dans une autre ; l’IA ne le perçoit pas toujours.
b) La confidentialité
La médiation repose sur la parole protégée. Or, nombre d’outils d’IA stockent ou réutilisent les données soumises pour entraîner leurs modèles.
Une vigilance extrême s’impose : il faut privilégier des outils sécurisés, non ré-entraînants, et hébergés dans un cadre de confiance.
c) Le manque de transparence
Les IA génératives fonctionnent selon des logiques internes souvent opaques (“boîte noire”). Elles peuvent produire des résultats plausibles mais inexacts — les fameuses “hallucinations”. Dans un processus où chaque mot compte, cette opacité est un danger.
d) Le risque de dépendance
En déléguant trop à la machine, le médiateur risque de perdre le sens du discernement.
La technologie devient alors un intermédiaire plutôt qu’un appui, altérant la spontanéité et la responsabilité humaine.
4. Les principes proposés par l’IBA
Pour prévenir ces risques, les Guidelines définissent une série de principes concrets, applicables à toute médiation intégrant l’IA :
- Consentement éclairé des parties : toute utilisation d’un outil d’IA doit être connue, expliquée et acceptée.
- Contrôle humain permanent : aucune décision ni proposition ne doit être adoptée sans validation par le médiateur.
- Minimisation et anonymisation des données : seules les informations nécessaires peuvent être transmises.
- Neutralité des requêtes (prompts) : le médiateur doit veiller à ne pas influencer le résultat en formulant des demandes biaisées.
- Transparence et traçabilité : garder trace des outils, versions, et finalités d’usage.
- Formation et compétence : les médiateurs doivent développer une compréhension suffisante de ces technologies pour en mesurer les impacts.
Le texte inclut également un modèle de déclaration d’usage de l’IA à remettre aux parties, afin d’assurer la transparence et la confiance.
5. Un cadre souple et évolutif
L’IBA précise que ces Guidelines ne constituent pas une norme figée, mais une base de réflexion évolutive. Elles sont appelées à s’adapter à mesure que la technologie progresse et que les médiateurs acquièrent de l’expérience.
L’objectif est d’instaurer un dialogue international autour des pratiques responsables.
6. Conclusion – Une humanité augmentée, pas remplacée
Les Guidelines on the Use of Generative AI in Mediation ne cherchent pas à domestiquer la technologie, mais à rappeler la primauté de l’humain. Elles ouvrent une ère nouvelle, celle d’une médiation augmentée, mais sous contrôle humain conscient.
Les gains sont évidents : gain de temps, meilleure accessibilité, outils de traduction et de clarté, amélioration de la préparation. Mais les dangers le sont tout autant : perte de confidentialité, standardisation du langage, dépendance aux algorithmes, érosion progressive de l’intuition et de la sensibilité.
C’est là tout l’enjeu éthique : comment bénéficier des apports de l’IA sans en devenir prisonnier ?
Comment préserver la dimension de rencontre, de lenteur et d’écoute active qui fait la noblesse du métier de médiateur ?
Ces lignes directrices appellent donc à une maturité collective : apprendre à collaborer avec la machine, sans lui déléguer ce qui fait de nous des êtres humains.
L’intelligence artificielle peut analyser un texte, mais elle ne peut pas écouter une hésitation. Elle peut générer un accord, mais elle ne saura jamais réparer une relation.
La conviction de Médiation Concorde est que l’avenir de la médiation ne sera ni technologique ni nostalgique, mais profondément humain et intelligemment accompagné.
Dans un prochain article, nous présenterons comment Médiation Concorde entend tirer parti de ces lignes directrices pour bâtir un modèle d’usage concret, respectueux de la confidentialité, de l’écoute et de la bienveillance — les valeurs cardinales qui fondent notre engagement.