Comment nous intégrons les Guidelines de l’IBA sur l’usage de l’IA en médiation
Les Guidelines on the Use of Generative Artificial Intelligence in Mediation publiées par le Mediation Committee de l’IBA offrent un cadre clair et souple à la fois et posent des principes éthiques universels, tout en laissant aux institutions de médiation la liberté de les adapter à leur culture (voir notre précédent article).
Dans ce contexte, au sein de Médiation Concorde, nous disposons de plusieurs atouts naturels pour mettre ces recommandations en œuvre, tout en préservant ce qui fait notre spécificité : la personnalisation, l’écoute et la confiance humaine.
1. Comment suivre concrètement ses Guidelines
Les principes de l’IBA sont déjà en cohérence profonde avec la philosophie de Médiation Concorde.
Lorsque c’est le cas, l’usage de l’IA peut s’articuler autour de quatre axes opérationnels :
a) Créer un cadre de gouvernance de l’IA
- Cadrer en interne de Médiation Concorde les règles d’usage de l’outil en fixant les finalités autorisées : synthèse, préparation, traduction, reformulation.
 - Identifier un référent éthique et technologique chargé d’évaluer les outils utilisés (sécurité, hébergement, absence de vérification).
 - Intégrer une procédure de consentement éclairé dans les conventions de médiation, reprenant l’esprit du modèle IBA.
 
b) Garantir la transparence et la traçabilité
- Mentionner explicitement l’usage de l’IA lorsqu’utilisée pour la préparation d’une réunion ou l’exploitation des discussions.
 - Tracer l’usage de l’outil et l’exploitation de ses générations : date, finalité, type de tâche, validation humaine, ...
 - Créer un protocole de divulgation clair en informant les parties que l’IA est un instrument de soutien, non un acteur du processus.
 
c) Assurer la compétence technique et renforcer la culture éthique
- Renforcer l’éducation sur l’IA centrée sur la compréhension des biais, la maîtrise du langage de prompts, la vérification humaine des résultats, ...
 - Créer une veille sur les évolutions légales, éthiques et techniques, en particulier en lien avec les recommandations de l’IBA, du CNM, du RGPD et de l’AI Act européens.
 
- Formaliser une règle simple : ce que le médiateur n’oserait pas confier à un tiers humain, il ne le confiera jamais à une IA.
 
2. Quels atouts en retirer
Suivre les Guidelines de l’IBA ne relève pas seulement d’une exigence de conformité, c’est aussi une opportunité stratégique et philosophique.
a) Une crédibilité renforcée
En se plaçant dans le sillage des standards internationaux, nous nous positionnons pour une médiation responsable à l’ère numérique. Cela contribue à assurer nos médiés, nos partenaires et les institutions de la rigueur de notre démarche.
b) Un gain d’efficacité et de clarté
Les tâches répétitives (relecture, synthèse, rédaction de lettres types, tri de pièces) peuvent être partiellement automatisées, libérant du temps pour l’écoute et l’analyse relationnelle. L’IA devient un outil de clarté, non de décision.
c) Une meilleure accessibilité
Les outils de traduction ou de simplification de texte permettent d’ouvrir la médiation à des publics plus larges, moins familiers du langage juridique ou venant d’horizons linguistiques variés.
d) Une réflexion collective renouvelée
En adoptant ces pratiques, nous participons ainsi activement aux débats sur l’éthique de l’IA en médiation et contribuons à façonner une culture professionnelle du discernement numérique.
3. Quels risques à anticiper et à prévenir
Toute innovation éthique suppose une vigilance constante. Les principaux risques identifiés par l’IBA s’appliquent directement à nous au sein de Médiation Concorde, mais peuvent être maîtrisés par une approche méthodique.
a) Risque de biais et de perte de neutralité
L’IA peut reproduire des biais implicites (sociaux, culturels, linguistiques). Pour les éviter, nous ne devons pas nous contenter d’un texte généré automatiquement et procéder systématiquement à une validation humaine.
b) Risque de dépendance cognitive
L’IA peut devenir un réflexe : “l’outil pense pour moi”. Nous devons maintenir des rituels humains tels que la prise de notes manuelles, le temps de réflexion, les échanges entre pairs, … pour préserver la nécessaire autonomie intellectuelle du médiateur.
c) Risque de déshumanisation
Si l’outil prend trop de place, il peut affaiblir la qualité relationnelle du processus.
L’usage de l’outil doit être strictement limité à la préparation et à la structuration, jamais à la conduite ou à l’interprétation des échanges.
4. Conclusion : conjuguer rigueur technologique et fidélité à l’esprit de la médiation
Les Guidelines de l’IBA ne sont pas un simple texte de recommandations. Elles constituent une boussole morale et opérationnelle pour toutes les structures qui souhaitent concilier innovation et intégrité.
Nous retrouvons naturellement l’esprit dans nos démarches au sein de Médiation Concorde. En choisissant de suivre ces lignes directrices, nous affirmons que la technologie n’est pas une menace, mais un outil au service du lien à condition qu’elle soit utilisée avec lucidité, maîtrise et éthique.
Si les gains sont considérables : clarté, efficacité, inclusion, professionnalisation, nous savons que les dangers sont réels : dilution de la responsabilité, affaiblissement de la confiance, perte du sens du dialogue.
Le défi est donc de maintenir la primauté du regard humain, de l’écoute et de la bienveillance. L’IA peut aider à mieux comprendre, mais seule la présence humaine permet de réconcilier.
Nous pensons que la médiation de demain ne se construira pas contre la technologie mais avec elle, sous le signe de la conscience et de la mesure.