Aktuelles

KI in der Mediation und Konfliktberatung – Chance mit Verantwortung?


Künstliche Intelligenz (KI) verändert zunehmend professionelle Arbeitsfelder – auch Mediation und Konfliktberatung. Zwischen Effizienzgewinn und ethischer Verantwortung stellt sich die Frage: Wie kann KI sinnvoll eingesetzt werden, ohne die Grundprinzipien der Mediation zu gefährden?

 

Potenziale und Vorteile

Richtig eingesetzt kann KI Mediationsprozesse unterstützen, etwa durch:

  • Strukturierung komplexer Sachverhalte
  • Zusammenfassung von Gesprächsinhalten
  • Visualisierung von Themenfeldern und Interessen
  • Erstellung von Leitfragen oder Prozessdesigns
  • Unterstützung in Ausbildung und Rollensimulation


Insbesondere in organisationalen Kontexten mit vielen Beteiligten kann KI helfen, Transparenz zu schaffen und administrative Aufwände zu reduzieren. Sie kann Muster in Kommunikationsverläufen sichtbar machen und als Reflexionsinstrument dienen.

 

Grenzen und Risiken

Mediation ist jedoch mehr als Informationsverarbeitung. Sie lebt von:

  • Beziehungsgestaltung
  • Vertrauen
  • Empathie
  • Wahrnehmung nonverbaler Signale
  • situativer Intuition
  • Fehlinterpretation komplexer Dynamiken
  • Scheinsicherheit durch algorithmische Auswertungen
  • Abhängigkeit von technischen Systemen


KI kann Daten analysieren – aber keine Beziehung tragen.

Ein unreflektierter Einsatz kann zudem Vertrauen untergraben, wenn Beteiligte befürchten, sensible Inhalte würden extern verarbeitet oder gespeichert.

Die Verantwortung für Prozessführung und Entscheidungen bleibt immer beim Mediator.

 

Rechtliche Rahmenbedingungen

In Deutschland regelt das Mediationsgesetz die Verschwiegenheitspflicht (§ 4). Mediatorinnen und Mediatoren sind verpflichtet, sämtliche im Verfahren bekannt gewordenen Informationen vertraulich zu behandeln. Sobald personenbezogene Daten verarbeitet werden, greift zudem die Datenschutz-Grundverordnung (DSGVO).


Das bedeutet insbesondere:

  • Klare Rechtsgrundlage der Datenverarbeitung
  • Zweckbindung und Datenminimierung
  • Transparenz gegenüber den Parteien
  • Schutz sensibler Informationen
  • ggf. Abschluss von Auftragsverarbeitungsverträgen


Cloudbasierte KI-Anwendungen können problematisch sein, wenn Daten in Drittstaaten übertragen oder zu Trainingszwecken weiterverarbeitet werden.

 

Ethische Verantwortung

Neben rechtlichen Fragen ist die ethische Dimension zentral:

• Werden die Parteien über den Einsatz von KI informiert?

• Können sie der Nutzung zustimmen oder widersprechen?

• Ist klar geregelt, wofür KI eingesetzt wird – und wofür nicht?


KI darf nicht zur verdeckten Analyse von Personen oder zur Bewertung von Aussagen genutzt werden. Sie darf den Mediator unterstützen – aber nicht ersetzen.

Transparenz, Freiwilligkeit und Selbstverantwortung bleiben Kernprinzipien.


Fazit

Künstliche Intelligenz eröffnet auch in der Mediation und Konfliktberatung neue Möglichkeiten – insbesondere bei Strukturierung, Dokumentation und organisatorischer Unterstützung von Prozessen. Richtig eingesetzt kann sie Effizienz steigern und als ergänzendes Reflexionsinstrument dienen.


Gleichzeitig bleibt Mediation ein zutiefst zwischenmenschlicher Prozess. Vertrauen, Empathie, Beziehungsgestaltung, das Wahrnehmen von Zwischentönen und nonverbalen Signalen lassen sich nicht digitalisieren. Gerade in sensiblen oder hoch eskalierten Konflikten entscheidet nicht die technische Analyse, sondern die Qualität der menschlichen Begegnung.


Aus meiner Sicht als Mediator ist der Einsatz von KI daher mit einer gewissen Skepsis zu betrachten. Sie kann unterstützen – aber nicht tragen. Die zwischenmenschliche Komponente ist der Kern jeder Mediation. Sie schafft den geschützten Raum, in dem Offenheit möglich wird und echte Verständigung entstehen kann.


Technologie darf diesen Raum strukturieren, aber niemals ersetzen. Die Verantwortung, die Haltung und die Beziehung bleiben – und müssen bleiben – menschlich.


23.02.2026 Martin Ritschel