Seit der Verfügbarkeit generativer Sprachmodelle wird im Coaching intensiv diskutiert, ob Künstliche Intelligenz (KI) eine Bedrohung für die Zunft darstellt oder als wirksames Tool dienen kann. In der Praxis greifen beide Extreme zu kurz. Systemtheoretisch bietet sich ein dritter Weg an: Die KI als „digitale Expertin“ in einem triadischen Coaching-Setting.
Warum die Entweder-oder-Debatte nicht weiterhilft
In der aktuellen Diskussion lassen sich idealtypisch zwei Positionen unterscheiden. Auf der einen Seite steht das Verständnis von KI als reines Werkzeug – vergleichbar mit einem digitalen Methodenhandbuch. Coaches nutzen KI für Strukturvorschläge oder Interventionsideen, dabeil liegt der Vorteil in einem umfangreicheren und durch gezieltes Prompting präziserem Angebot an Optionen. Systeme wie ChatGPT können hier als Resonanzräume dienen, in denen ein produktiver Dialog entsteht (Noy und Zhang, 2023).
Dem gegenüber steht das Szenario der Vollautomatisierung, in dem die KI die Rolle des Coaches komplett übernimmt. Studien deuten darauf hin, dass KI-Coaches für spezifische Aufgaben durchaus akzeptiert werden und in ihrer Kompetenz menschlichen Coaches ebenbürtig sein können (Passmore, Olafsson und Tee, 2025). Doch hier zeigt sich die Grenze: Klienten erleben die Beziehung zu einer KI fundamental anders als zu einer realen Person (Barger, 2025). Vertrauen, echte Verantwortlichkeit und das Gespür für feine Nuancen bleiben Besonderheiten einer personalen Beziehung (Bachkirova und Kemp, 2024).
Aus professioneller Sicht ist keine dieser Positionen befriedigend. Wir brauchen eine klarere Definition der Rolle, die KI im Coaching einnimmt, um sowohl das technische Potenzial zu nutzen als auch die Qualität der Coaching-Beziehung zu schützen.
Von der Dyade zur Triade: Das Konzept der „digitalen Expertin“
Einen innovativen Ansatz bietet die funktionale Einbettung der KI als „digitale Expertin“. Systemtheoretisch verändert dies das klassische Coachingsystem grundlegend: Aus der Dyade (Coach – Klient) wird eine Triade (Coach – Klient – Expertin). Hierbei greifen wir auf die Personale Systemtheorie zurück, die soziale Systeme als Konstellationen von Personen versteht, die auf Basis ihrer subjektiven Deutungen und Emotionen handeln (König und Volmer, 2019).
In diesem triadischen System hat jede Rolle eine spezifische Funktion:
- Der Coach steuert den Prozess, achtet auf die Beziehungsdynamik und sichert die Passung der Interventionen.
- Der Klient behält die Entscheidungshoheit und trägt die Verantwortung für die Umsetzung im eigenen Kontext.
- Die digitale Expertin (KI) liefert alternative Deutungen, Hypothesen und methodische Optionen auf Basis einer gigantischen Datenbasis.
Die KI wird somit zum „kybernetischen Teamkollegen“ (Dell'Acqua et al., 2025). Sie ist kein Coach, aber auch mehr als ein passives Tool. Sie bringt eine zusätzliche Expertise ein, die – wie bei einem menschlichen Experten – jedoch stets kritisch geprüft und in das System integriert werden muss.
„Die Rolle der KI im Coaching ist nicht die des Heilers, sondern die des Horizont-Erweiterers. Sie liefert Varianten, wo wir oft nur noch Routinen sehen.“
Wo KI im Coaching substanziellen Mehrwert liefert
In der Beratungspraxis zeigt sich, dass KI dort besonders stark ist, wo es um die Erweiterung von Möglichkeiten geht. Dies deckt sich mit Erkenntnissen zur Wissensarbeit, nach denen KI die Bearbeitungszeit reduziert und gleichzeitig die Qualität der Erstentwürfe steigert (Noy und Zhang, 2023).
1. Alternative Deutungen entwickeln
Ein häufiges Problem in festgefahrenen Coaching-Situationen ist die Einseitigkeit der Problembeschreibung. KI kann helfen, ein Problem parallel aus verschiedenen Perspektiven zu beleuchten: Ist es ein struktureller Konflikt, ein Rollenproblem oder eine Frage der psychologischen Sicherheit? In diesem Sinne agiert die KI als „Stochastic Parrot“, der jedoch durch die schiere Menge an Kombinationen den hermeneutischen Zirkel des Verstehens neu befeuern kann (Bender et al., 2021).
2. Strukturierung und Optionenbildung
KI kann komplexe Situationen blitzschnell entlang theoretischer Modelle (wie VUCA, BANI oder OKR) strukturieren. Teams, die KI zur Unterstützung nutzen, übertreffen in der Detailtiefe und Qualität ihrer Lösungen oft andere Gruppen (Dell'Acqua et al., 2025). Im Coaching bedeutet das: Wir erhalten fundierte Vorschläge für das nächste Team-Offsite oder für schwierige Feedbackgespräche in Sekundenschnelle.
3. Operationalisierung und Transfer
Der Transfer in den Alltag ist die Achillesferse vieler Coaching-Prozesse. Hier kann die digitale Expertin konkrete 14-Tage-Pläne, Reflexionsfragen für Team-Reviews oder Leitlinien für Verhaltensänderungen entwerfen. Diese Form der Unterstützung passt hervorragend zu einer systemischen Logik, die auf kleine, wirksame Irritationen und Regeländerungen setzt (König und Volmer, 2020).
Grenzen der Technik: Sinneinheit versus Wahrscheinlichkeit
Trotz aller Euphorie müssen wir die fundamentale Grenze anerkennen: KI prozessiert Wahrscheinlichkeiten, keinen Sinn. Large Language Models (LLM) bilden keine symbolischen Repräsentationen der Welt, sondern statistische Repräsentationen der Sprache (Hiltmann, 2024). Das Modell kann nicht zwischen wahr und falsch unterscheiden, es arrangiert Informationen lediglich plausibel (Hiltmann, 2024, S. 229).
Ein professioneller Coach hingegen handelt auf Basis von „Fremdverstehen“ (Wittgenstein, 1953). Er kann biografische, emotionale und relationale Kontexte gewichten, die für eine KI unsichtbar bleiben. In der persönlichen Begegnung entsteht eine „Resonanz“, eine wechselseitige Schwingung, in der das Subjekt berührt wird (Rosa, 2016). Dieser emotionale Prozess des „schnellen Denkens“ (Kahneman, 2012) ist intuitiv und hochgradig simultan – eine Qualität, die rein sequenzielle KI-Prozesse nicht erreichen.
Zudem birgt die Technik das Risiko von Biases. Sprachmodelle lernen aus Internetdaten, in denen hegemoniale Diskurse und Stereotype überrepräsentiert sind (Bender et al., 2021). Ohne kritische Reflexion besteht die Gefahr, dass veraltete Weltbilder oder einseitige Selbstoptimierungs-Imperative ungefiltert in den Coaching-Prozess einfließen.
Ein Regelset für die Praxis: Die KI sicher steuern
Damit die „digitale Expertin“ zum Gewinn wird, habe ich ein einfaches Regelset für den Einsatz in Beratungsprozessen entwickelt:
- Transparenz schaffen: Der Einsatz von KI wird gegenüber allen Beteiligten offen kommuniziert.
- Rolle klären: Die KI liefert Optionen, der Mensch füllt sie mit Sinn und trifft die Entscheidung.
- Kontextprüfung: Jede KI-Empfehlung muss auf ihre Passung zum spezifischen System (Teamkultur, Historie) geprüft werden.
- Datenhygiene: Personenbezogene Daten werden strikt gemäß Compliance-Vorgaben geschützt.
- Gatekeeper-Funktion: Der Coach achtet darauf, dass technologische Rationalität im Dienst menschlicher Werte bleibt (Habermas, 1981).
Fazit: Präzision durch Technik, Tiefe durch Begegnung
KI wird professionelles Coaching nicht ersetzen, aber sie wird es verändern. Wo Coaching sich auf die reine Anwendung von Tools reduziert, wird Technik überlegen sein. Wo Coaching jedoch als beziehungsorientierte, wertegebundene Prozessbegleitung verstanden wird, bietet die KI als digitale Expertin eine enorme Bereicherung. Es geht nicht um „Mensch oder Maschine“, sondern um eine triadische Rollenarchitektur, die methodische Präzision mit menschlicher Intuition verbindet.
Der professionelle Coach der Zukunft ist somit auch ein Gatekeeper der technologischen Rationalität: Er sorgt dafür, dass die Beiträge der digitalen Expertin den Wertehorizont des Klienten nicht überrollen, sondern dessen Autonomie stärken.
Drei Reflexionsfragen für Ihre eigene Coaching-Praxis:
- An welcher Stelle Ihres Prozesses könnte eine „digitale Expertin“ Ihre eigene Variantenbildung produktiv herausfordern?
- Wie stellen Sie sicher, dass die Entscheidungshoheit und der Sinn immer beim Menschen bleiben, wenn technische Vorschläge vorliegen?
- Welche „blinden Flecken“ in Ihrer Beratung könnten durch eine KI-gestützte Perspektive sichtbar gemacht werden?
Literatur
Bachkirova, T. und Kemp, R. (2024) 'AI coaching: democratising coaching service or offering an ersatz?', Coaching: An International Journal of Theory, Research and Practice, doi: 10.1080/17521882.2024.2368598 (Zuletzt abgerufen am: 23.02.2026).
Barger, A. S. (2025) 'Artificial intelligence vs. human coaches: Examining the development of working alliance in a single session', Frontiers in Psychology, 15, Article 1364054. doi: 10.3389/fpsyg.2024.1364054 (Zuletzt abgerufen am: 23.02.2026).
Bender, E. M., Gebru, T., McMillan-Major, A. und Shmitchell, S. (2021) 'On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?', in Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, S. 610-623. doi: 10.1145/3442188.3445922 (Zuletzt abgerufen am: 23.02.2026).
Dell'Acqua, F., McFowland, E., Mollick, E., Lifshitz-Assaf, H., Kellogg, K., Rajendran, S. und Lakhani, K. R. (2025) The Cybernetic Teammate: A Field Experiment on Generative AI Reshaping Teamwork and Expertise. NBER Working Paper 33641.
Habermas, J. (1981) Theorie des kommunikativen Handelns. Frankfurt am Main: Suhrkamp.
Hiltmann, T. (2024) 'Hermeneutik in Zeiten der KI', in Schreiber, G. und Ohly, L. (Hg.) KI: Text-Diskurse über KI-Textgeneratoren. Berlin: De Gruyter, S. 201-232.
Kahneman, D. (2012) Schnelles Denken, langsames Denken. München: Siedler Verlag.
König, E. und Volmer, G. (2019) Handbuch Systemisches Coaching. Weinheim: Beltz (3. Aufl.).
König, E. und Volmer, G. (2020) Einführung in das systemische Denken und Handeln. Weinheim: Beltz.
Noy, S. und Zhang, W. (2023) 'Experimental evidence on the productivity effects of generative artificial intelligence', Science, 381(6654), S. 187-192. doi: 10.1126/science.adj1466 (Zuletzt abgerufen am: 23.02.2026).
Passmore, J., Olafsson, B. und Tee, D. (2025) 'A systematic literature review of artificial intelligence (AI) in coaching', Journal of Work-Applied Management, doi: 10.1108/jwam-11-2024-0164 (Zuletzt abgerufen am: 23.02.2026).
Rosa, H. (2016) Resonanz. Eine Soziologie der Weltbeziehung. Berlin: Suhrkamp.
Wittgenstein, L. (1953) Philosophische Untersuchungen. Oxford: Blackwell.