L’IA et la médiation : Ce que l’IA peut faire… et ce qu’elle ne doit pas faire (Épisode 3)

Après avoir dans un premier article analysé les Guidelines on the Use of Generative Artificial Intelligence in Mediation publiées par le « Comité de médiation de l’International Bar Association », puis dans un second temps exposé la manière dont ces lignes directrices peuvent être intégrées concrètement dans la pratique de Médiation Concorde, une question demeure centrale et mérite un examen spécifique : Où s’arrête l’assistance technique légitime apportée par l’intelligence artificielle et où commence le risque d’une atteinte à la neutralité du médiateur ?

Autrement dit : à partir de quand l’outil cesse-t-il d’aider pour commencer à influencer le médiateur ? Cette distinction, rarement formulée de manière explicite, est pourtant déterminante pour préserver la confiance des parties et l’intégrité du processus de médiation.

 

1. Ce que l’IA peut faire : une assistance strictement instrumentale

Les conditions de l’usage de l’intelligence artificielle sont claires sur un point fondamental : elle peut être utilisée comme un outil à disposition du médiateur mais jamais comme un acteur du processus de médiation. Dans cette perspective, elle peut trouver naturellement sa place en amont ou en périphérie du processus, lorsqu’elle se limite au traitement de l’information, sans interprétation ni jugement.

Cette assistance technique admissible peut donc se traduire pour :

  • Synthétiser de dossiers volumineux ou de documents préparatoires ;
  • Clarifier les textes juridiques ou administratifs ;
  • Traduire ou réaliser une adaptation interculturelle ;
  • Structurer factuellement des informations (chronologies, listes de points abordés) ;
  • Préparerl’organisation des séances (agendas, supports, notes).

Dans ce cadre, l’IA n’exprime aucune préférence, ne hiérarchise aucun intérêt et ne propose aucune orientation mais elle peut clarifier, organiser, simplifier, toutes ces activités assistées devant rester sous le contrôle humain systématique, condition indispensable pour éviter toute dérive ou erreur factuelle.

 

2. Ce que l’IA ne doit pas faire : franchir le seuil de la dimension humaine de la médiation

La ligne rouge est franchie dès lors que l’IA intervient dans ce qui relève de l’orientation ou de l’évaluation de la situation des médiés. Ainsi, l’usage de l’IA serait incompatible avec l’éthique de la médiation si elle intervenait pour :

  • Analyser des émotions, des intentions ou des rapports de force ;
  • Évaluer la crédibilité ou la cohérence d’un discours ;
  • Hiérarchiser des intérêts ou des concessions possibles.

Même présentées comme indicatives ou probabilistes, ces fonctions introduisent une influence. Or, la médiation repose précisément sur l’absence d’orientation suggérées par le médiateur, a fortiori par l’IA et qui seraient susceptibles d’altérer la neutralité du processus.

 

3. Ce que l’IA ne peut pas faire : Empiéter que la responsabilité du médiateur

La neutralité, l’impartialité, la liberté du médiateur ne se décrètent pas mais se construisent dans une succession de microdécisions humaines prises tout au long de la médiation :

  • Quand reformuler,
  • Quand se taire,
  • Quand relancer,
  • Quand suspendre.

Ces choix reposent sur l’écoute active, l’expérience, la perception fine du contexte ainsi que l’intuition professionnelle qui ne peut être modélisée sans être appauvrie, voire dénaturée.

Confier à une IA une part de cette appréciation reviendrait à externaliser une responsabilité éthique centrale qui doit en réalité rester de la stricte analyse du médiateur dans sa conduite du processus.

 

4. Une règle simple et opératoire

La distinction entre assistance technique etintervention humaine peut se résumer par une règle claire :

  • Tout ce qui concerne l’information bénéficier d’une assistance cybernétique
  • Tout ce qui concerne la relation, le jugement et la prise de décision doit rester humain.

Cette règle permet :

  • De sécuriser la pratique du médiateur ;
  • De préserver la confiance des parties ;
  • De maintenir une parfaite lisibilité du rôle de chacun ;
  • De rester fidèle à l’esprit de la médiation

 

Conclusion : préserver le cœur humain de la médiation à l’ère de l’IA

L’intelligence artificielle n’est pas, en soi, une menace pour la médiation, le danger n’apparaissant que lorsque la frontière entre outil et acteur devient floue.

Pour Médiation Concorde, l’IA doit être mise à disposition du médiateur comme une assistance technique, le processus de médiation demeurant intégralement humain. Avec ces limites, il est alors possible de conjuguer innovation, rigueur éthique et fidélité aux principes fondateurs de la médiation.

Le véritable enjeu n’est donc pas de savoir jusqu’où l’IA peut aller, mais jusqu’où le médiateur reste pleinement responsable de son activité vis-à-vis des médiés.

La médiation ne se délègue pas. Elle s’exerce, avec discernement, présence et humanité, y compris à l’ère des outils les plus sophistiqués.


Articles similaires

Derniers articles

Comment nous intégrons les Guidelines de l’IBA sur l’usage de l’IA en médiation

L'IA et la médiation : Comment intégrer les Guidelines de l’IBA en médiation (Épisode 2)

L’IA et la Médiation : les nouvelles lignes directrices de l’IBA

L’IA et la médiation : les nouvelles lignes directrices de l’IBA (Épisode 1)

Catégories

Création et référencement du site par Simplébo Simplébo

Connexion