Wie Künstliche Intelligenz Organisationen verändert
Ein systemischer Blick auf Führung, Kultur und den Wandel durch künstliche Intelligenz
Seit der Veröffentlichung von generativer Künstlicher Intelligenz wie ChatGPT oder Microsoft Co-Pilot hat sich die Entwicklung künstlicher Intelligenz deutlich beschleunigt. Was früher als Zukunftstechnologie galt, ist heute Teil alltäglicher Kommunikations-, Entscheidungs- und Lernprozesse. Inzwischen entstehen KI-Agenten, die, wenn auch noch nicht fehlerfrei, Aufgaben eigenständig ausführen, auf interne Daten zugreifen, Prozesse steuern und Entscheidungsvorlagen generieren. Stand: 19. Mai 2025
Während viele Organisationen in erster Linie nach spezifischen Tools oder praktischen Einsatzmöglichkeiten suchen, richten wir als systemische Organisationsentwickler:innen den Fokus auf eine andere, grundlegende Frage: Wie verändern sich die Muster von Kommunikation, Entscheidungsfindung und Verantwortung, wenn künstliche Intelligenz zum festen Bestandteil von Organisationen wird? (Diesen Artikel können Sie übrigens auch als KI-Podcast hören!)
KI ist mehr als ein Tool
Tobias Lütke, CEO von Shopify, bringt die große Dimension der KI-Transformation auf den Punkt. In einem internen Memo forderte er seine Teams auf, sich bei jeder Entscheidung eine zentrale Frage zu stellen: „What would this area look like if autonomous AI agents were already part of the team?“
Mitarbeitende sind aufgefordert, jede Aufgabe und jeden Prozess daraufhin zu prüfen, ob und wie KI sinnvoll eingebunden werden kann. Neue Stellen werden nur dann bewilligt, wenn klar ist, dass die Arbeit nicht effizienter von KI erledigt werden kann. Reflexhafte Nutzung von KI – also das Mitdenken und Einbeziehen maschineller Intelligenz – wird zur Grunderwartung.
Shopify betrachtet KI nicht als externes Werkzeug, sondern als integralen Bestandteil des Systems. Die Organisation wird so gestaltet, dass KI mitdenken, mitwirken und mitentscheiden kann. Das verändert Verantwortungszuweisungen, Führungshaltung und Entscheidungsarchitekturen – und eröffnet neue Räume für Autonomie und Innovation.
KI wird relevanter Kommunikationspartner
Unsere Hypothese ist: KI verändert nicht nur Abläufe oder Prozesse. Sie fordert heraus, wie Organisationen und Mitarbeiter:innen sich selbst verstehen und wie sie zusammenwirken. Sie verschiebt die Bedeutungen zentraler Konzepte wie Führung, Vertrauen und Zusammenarbeit.
Künstliche Intelligenz produziert, im Sinne des Systemtheoretikers Niklas Luhmanns, anschlussfähige Kommunikation, auf die andere reagieren. Ob Protokolle, Analysen oder Vorschläge: KI generiert Inhalte, die für Menschen und Organisationen relevant werden und Entscheidungen strukturieren. KI wird so zu einem relevanten Kommunikationspartner. Allerdings geschieht dies ohne soziale Absicht. KI wirkt nicht durch Wollen, sondern durch Struktur: „Wenn Algorithmen in der Lage sind, angemessen, relevant und (für uns) informativ auf die Anfragen ihrer Nutzer:innen zu reagieren, können wir sagen, dass sie in der Lage sind zu kommunizieren – auch wenn sie dies tun, ohne zu denken und ohne die Information zu verstehen.“ (Esposito 2024, S. 34) So wird KI zum aktiven Mitspieler im organisationalen Geschehen. Rollen verschieben sich, Entscheidungslogiken verändern sich, das Zusammenspiel zwischen Mensch und Maschine wird neu verhandelt. „KI ist jetzt schon ein sozial wirksames Gegenüber, in dem die Ich-Du Relationen erprobt und durchdacht werden. Im Gegensatz zu Katzen regt KI nicht nur zur Interaktion, sondern auch zur Reflexion an – und ist gerade dadurch ein anderer Anderer.“ (Harth/ Feißt 2022, S. 97).
So entstehen neue Spannungsfelder und Fragen, die nicht technisch, sondern systemisch beantwortet werden müssen: Was heißen Führung und Verantwortung, wenn KI mitentscheidet? Was bedeutet Vertrauen, wenn unklar ist, wie die KI zu Entscheidungen kommt? Wie verändert sich Kommunikation, wenn Maschinen mitlesen? Und wie wandelt sich Zusammenarbeit, wenn sie mitgestalten oder gar Aufgaben selbstständig übernehmen?
KI als Thema für Organisationsentwicklung
Aus systemtheoretischer Sicht verstehen wir Organisationen als soziale Systeme, die sich durch Entscheidungen fortsetzen (vgl. Luhmann, 2006). Nicht Menschen stehen im Zentrum, sondern die Art und Weise, wie Entscheidungen kommuniziert, verknüpft und formalisiert werden. Organisationen entstehen, weil ständig entschieden wird – was wichtig ist, wer zuständig ist und wie etwas gemacht wird. Diese Entscheidungen sind miteinander verknüpft und strukturieren die Organisation. Sie helfen dabei mit der Komplexität der Umwelt umzugehen – also mit all den Fragen, Möglichkeiten und Unsicherheiten, die täglich auf ein Unternehmen einwirken.
In der ‚alten Welt‘ vor der breiten Einführung generativer KI beruhen Organisationen in hohem Maß auf rollenbasierten und personengebundenen Strukturen. Entscheidungen werden an Rollen geknüpft, an Positionen, an Fachwissen. Führungskräfte sind jene, die Überblick haben, koordinieren, priorisieren und letztverantwortlich entscheiden. Kommunikation verläuft entlang etablierter Linien von Meetings, Memos und Mails. Wissen liegt verteilt in Köpfen, Tools und Teams. Entscheidungen werden meist sequenziell getroffen, mit langen Abstimmungen und verteilten Zuständigkeiten. Vieles funktioniert gut, manches exzellent, aber immer fragmentiert und abhängig von Menschen.
Wenn nun KI in diese Entscheidungsprozesse eingebunden wird – z. B. durch automatische Vorschläge, Bewertungen oder Priorisierungen – verändert das, welche Entscheidungen mehr oder weniger getroffen werden und wie Entscheidungen vorbereitet, begründet und verteilt werden.
Ebenso zentral ist die Frage, auf welcher Art von Datenbasis KI operieren soll: Welche Informationen fließen ein? Was wird formalisiert, strukturiert, standardisiert – und was bleibt unberücksichtigt? KI kann nur mit dem arbeiten, was maschinenlesbar gemacht wurde. Das wirft nicht nur Fragen nach Qualität und Verzerrung auf, sondern auch nach ethischer Vertretbarkeit und gesellschaftlicher Anschlussfähigkeit.
An der Schnittstelle von Mensch und Maschine
Ein weiterer wichtiger Fragenkomplex, der zunehmend an Bedeutung gewinnt, betrifft die Schnittstelle zwischen Mensch und Maschine. Gerade in diesem Zusammenspiel verändert KI bestehende Logiken, an die wir uns im Arbeitsalltag gewöhnt haben, oft schleichend, aber mit weitreichenden Folgen.
- Entscheidungsgrundlagen werden unverständlich.:
KI liefert Vorschläge, Analysen oder Bewertungen in Sekundenschnelle, auf Basis riesiger Datenmengen und Kriterien, die für Menschen oft nicht mehr nachvollziehbar sind. Was früher Fachwissen, Erfahrung oder Gruppenprozesse erforderte, wird nun algorithmisch vorstrukturiert. Der Mensch trifft vielleicht noch Folgeentscheidungen, aber oft auf Grundlage eines Outputs, dessen Entstehung er nicht verstehen kann.[1] - Zuständigkeit und Verantwortung werden diffuser.
Wer entscheidet, wenn eine KI eine Empfehlung abgibt – die Führungskraft, die sie übernimmt? Das Team, das sie trainiert hat? Die Organisation, die sie eingeführt hat? Die klare Zuweisung von Verantwortlichkeit, wie sie bisher funktionierte, gerät ins Wanken.
Der EU AI Act greift genau hier ein: Für sogenannte „Hochrisiko-Systeme“ gelten strenge Anforderungen an Transparenz, Risikoabschätzung und Nachvollziehbarkeit. KI darf unterstützen – aber sie entbindet nicht von der Pflicht, Verantwortung strukturell abzusichern. - Relevanz wird zum Kriterium, nicht Verstehen.
Meetingnotizen, Feedbacks, Zusammenfassungen, Priorisierungsvorschläge – viele Texte erstellt KI in Sekunden. Diese Texte werden gelesen, weitergeleitet und in Entscheidungen einbezogen. Sie funktionieren wie menschliche Kommunikation – aber sie sind keine. Denn sie stammen nicht aus sozialer Intention, sondern aus statistischen Berechnungen. Gleichzeitig schreiben wir KI ‚Intelligenz‘ zu (nicht umsonst die Bezeichnung!). Genau hier entsteht eine neue Herausforderung: Was passiert, wenn KI interpretiert – aber nicht eigentlich versteht? Können wir ihr dann ‚vorwerfen‘ (in unserem Sinne) falsch entschieden zu haben? - Empfehlungen werden zu stillen Standards.
„Hier ist ein Vorschlag“ schreibt die KI – und schon übernehmen wir ihn. Oft ohne kritisches Hinterfragen, aus Zeitdruck oder Gewohnheit. Was als Option gedacht war, wird zur faktischen Vorgabe. Diese Dynamik – bekannt als Automation Bias – birgt Risiken: Vielfalt geht verloren, kritisches Denken wird verdrängt, Lernen wird flach. Die Herausforderung, die daraus entsteht, ist den Raum zwischen Vorschlag und Entscheidung wieder bewusst zu gestalten.
[1] Exkurs: Auch Menschen sind keine gläsernen Systeme. Auch menschliches Entscheiden ist im Grunde intransparent. Aber die Unterschiede liegen im sozialen Vertrauen und in der Zuschreibung von Ähnlichkeit. Wir schreiben Menschen Intentionen zu, KI nicht. Und wir schreiben Menschen zu ähnlich zu sein, wie wir. Daher erwarten wir, dass sie ihren Entscheidungen ähnliche (oder sogar gleiche) Kriterien zugrunde legen, wie wir.
Neu-alte Spannungsfelder in Organisationen
Mit der Integration von KI geraten Organisationen in neue – oder altbekannte, aber verschärfte – Spannungsfelder.
- Vertrauen ↔ Kontrolle (und der Umgang mit Biases)
KI setzt Vertrauen in Systeme voraus, deren Funktionsweise nicht vollständig durchschaubar ist. Gleichzeitig steigt der Wunsch nach Kontrolle, Transparenz und Absicherung. Besonders deutlich wird dies beim Thema Bias: Künstliche Intelligenz arbeitet mit Daten, die nie neutral sind. Verzerrungen, Lücken oder historische Schieflagen in den Datensätzen, können von der KI fortgeschrieben und, scheinbar objektiv, legitimiert werden. Der Vertrauensvorschuss gegenüber maschinellen Vorschlägen verstärkt diese Gefahr. - Formalisierung ↔ Informalität
Um für KI nutzbar zu sein, muss Wissen formalisiert werden – doch was passiert mit dem impliziten, erfahrungsbasierten Wissen und informellen Routinen? KI kann nur auf das zugreifen, was formell gemessen wurde und auch messbar ist. Was nicht formalisierbar ist, ‚verschwindet‘ aus der Sichtbarkeit und aus dem gesellschaftlichen Gedächtnis. Damit verbunden ist das Thema der Transparenz: KI-Nutzung braucht Offenheit. Gleichzeitig müssen Daten, Geschäftsgeheimnisse und sensible Entscheidungen geschützt bleiben. - Effizienz / Schnelligkeit ↔ Resonanz
KI beschleunigt Arbeit. Echte Verbindung, Beziehung und Sinn entstehen jedoch oft jenseits der Effizienzlogik. Resonanz (vgl. Hartmut Rosa, 2016) entsteht nicht durch Tempo, sondern durch wechselseitige Beziehung – durch ein „Antwortgeschehen“. Resonanz ist kein Output, sondern ein Nebenprodukt gelingender Kommunikation. KI kann Prozesse effizienter machen, aber Resonanz braucht Zeit und Präsenz. Hier entsteht eine Spannung zwischen dem Bedarf nach Räumen, in denen Unbestimmtheit bestehen bleiben darf und dem Zug nach Effizienz und ständiger Verfügbarkeit. - Standardisierung ↔ Individualisierung
KI arbeitet auf Basis großer Datenmengen, erkennt Muster und liefert standardisierte Lösungen – schnell, skalierbar und konsistent. Doch Menschen und Kontexte sind individuell. Was auf dem Papier effizient erscheint, kann im Einzelfall unpassend sein. Organisationen müssen entscheiden, wo Standardisierung sinnvoll ist. Und wo es bewusste Abweichung braucht, um Anschlussfähigkeit und Passung zu sichern. - Automatisierung ↔ Autonomie
KI übernimmt Routinen und entlastet damit den Menschen. Gleichzeitig werden Handlungen vorstrukturiert – durch Empfehlungen, Rankings oder automatische Entscheidungen. Das birgt die Gefahr, dass Entscheidungsspielräume schrumpfen, ob unbemerkt oder nicht. Hier entsteht ein Spannungsfeld zwischen der Erleichterung oder Vereinfachung, die KI bringen kann, der Autonomie des Menschen, die zuweilen auch Anstrengung und Willenskraft braucht. Organisational heißt es daher Räume zu gestalten, in denen Menschen bewusst entscheiden, statt bloß umzusetzen. - Befähigung ↔ Verlust von Selbstwirksamkeit
KI unterstützt Menschen bei der Bewältigung einfacher wie komplexer Aufgaben und kann so als Katalysator für Produktivität, Zugang zu Wissen und neue Lernmöglichkeiten wirken. Gleichzeitig besteht die Gefahr, dass wichtige Kompetenzen verkümmern, wenn sie nicht mehr aktiv genutzt werden. Was als Krücke beginnt, wird zur Prothese: Wir verlernen das, was wir nicht mehr selbst tun müssen. Die Herausforderung besteht darin, KI so einzusetzen, dass sie stärkt, ohne menschliche Selbstwirksamkeit schleichend zu ersetzen.
Die genannten Spannungsfelder sind keine abschließende Aufzählung. Sie sind der Versuch einer ersten Einordnung von Phänomenen. Sie sind auch keine Probleme, die sich ‚lösen‘ lassen, sondern Polaritäten, die dauerhaft reflektiert und balanciert werden müssen. Systemtheoretisch gesprochen handelt es sich um unentscheidbare Unterscheidungen (Luhmann 2006), die nie endgültig entschieden, sondern nur kontextsensitiv gestaltet werden können. Wichtig ist dabei nicht festzulegen, welches Ende der Skala das ‚richtige‘ ist. Sondern die Fähigkeit, beide Pole im Blick zu behalten. Und dafür braucht es Organisationen, die diese Spannungsfelder bearbeiten. Das tun sie auf der Ebene von Metaentscheidungen.
Polaritäten bearbeitbar machen durch Metaentscheidungen
In unserer Arbeit nutzen wir das Neuwaldegger Dreieck als strukturierenden Kompass für organisationale Entwicklung. Wir unterscheiden Metaentscheidungen, die grundsätzliche Festlegungen für alle weiteren Entscheidungen mit sich bringen. KI hat für alle drei Hebel und die daraus resultierende Kultur Relevanz
Vision / Purpose, Strategie & Ziele:
Wie unterstützt KI dabei, unsere strategischen Ziele zu erreichen? Geht es um Effizienzsteigerung, Innovationskraft oder eine stärkere Ausrichtung auf unseren Purpose? Welcher ethische Sinnrahmen leitet unsere technologischen Entscheidungen – und wer legt den fest? Wie ist KI darin eingebettet?
Strukturen & Prozesse:
Wie verändert KI unsere Kommunikationswege, Entscheidungslogiken oder Rollenklarheit? Welche neuen Schnittstellen entstehen – und was braucht es, damit Mensch und Maschine gut interagieren?
Kompetenzen & Führung:
Welche Fähigkeiten rücken ins Zentrum – z. B. kritische Urteilsfähigkeit, Datenkompetenz, Prompting? Und wie gestalten wir Führung in hybriden Teams, in denen KI ein aktiver Mitspieler ist?
Kultur (Mitte):
Wie gehen wir mit Nichtwissen, Irritation oder Kontrollverlust um? Welche Lernkultur fördern wir – und welche Haltung brauchen wir, um KI als Einladung zur Weiterentwicklung zu begreifen?
Durch diese Meta-Perspektive werden KI-Implementierungen nicht zu isolierten IT-Projekten, sondern sind eingebettet in eine konsistente, reflektierte Organisationsentwicklung.
Beispiele aus der Praxis
„Oft heißt es: ‚Wir brauchen erst einen klaren Use Case.” Doch gerade in dynamischen Kontexten entsteht Wirksamkeit häufig erst durch das Tun. Wer KI ausprobiert, entwickelt nicht nur erste Anwendungen – sondern vor allem auch die nötige Kompetenz, um zukünftige Anwendungsfelder überhaupt erkennen zu können. Gleichzeitig gilt: Ausprobieren allein reicht nicht. Ohne systematische Reflexion und strategische Verankerung auf der Ebene der Metaentscheidungen bleiben viele KI-Initiativen wirkungslos. Es braucht also exploratives Handeln mit Sinn für Muster – und Strukturen, die aus Lernerfahrungen echte Use Cases machen.
Fall 1
Einer unserer Kunden aus dem Mobilitätssektor zum Beispiel hat einen Bot programmiert, der interne Dokumente, Vorgaben und Richtlinien zusammenführt. Leider, so der begeisterte Projektleiter, werde der Bot nur wenig von den Mitarbeitenden genutzt. Von uns gefragt, welchem Zweck dieser Bot diene und welche Vorteile Mitarbeitende davon haben sollten, wusste der Projektleiter keine Antwort.
Hier wurde ein neues Tool pragmatisch genutzt, ohne den Rahmen (Purpose, Vision, Ziele) des Bot-Projekts bedacht zu haben. Insofern war auch unklar, welche Daten (Dokumente, Vorgaben, Richtlinien, …) überhaupt in den Bot eingespeist werden sollten und welche nicht. Und, welche Fähigkeiten, die Mitarbeitenden erwerben oder haben sollten, um diesen Bot zu verwenden. Die Diskussion ‚Use Case first oder Use first?‘ greift an dieser Stelle zu kurz. Denn entscheidend ist nicht nur die Reihenfolge, sondern auch die Verankerung in Sinn und System. KI braucht einen Platz im Zielbild der Organisation, nicht nur in der IT-Abteilung. Erst wenn klar ist, welchen Beitrag ein System zur Gesamtentwicklung leisten soll, kann es Wirkung entfalten. Alles andere bleibt Aktionismus – technikgetrieben, aber wirkungslos.
Fall 2
Bei einem anderen Kunden, einer Versicherung, wurde ein KI-basiertes Assistenzsystem im Kundenservice eingeführt. Die Erleichterung war messbar durch schnellere Antworten, weniger Nachfragen, höhere Effizienz. Und dennoch: Es regte sich stiller Widerstand. In einem Reflexionsworkshop zeigte sich, dass viele Mitarbeiter:innen den Einsatz von KI unbewusst als Angriff auf ihr berufliches Selbstverständnis empfanden. Für sie stand Kundenkontakt nicht nur für Service, sondern für persönliche Nähe, Beziehung und Menschlichkeit.
Die KI wurde (systemtheoretisch gesprochen) als Irritation der bisherigen Sinnstruktur erlebt – als etwas, das nicht nur Abläufe, sondern Identität berührt. Für viele Mitarbeitende stand der persönliche Kontakt im Zentrum ihres Selbstverständnisses. Die KI wurde deshalb nicht als hilfreiche Entlastung, sondern als kultureller Bruch wahrgenommen. Im Sinne des Neuwaldegger Dreiecks wurde deutlich: Die gelebte Kultur – Nähe und Beziehung im Kundenkontakt – stand im Widerspruch zur strategischen Zielsetzung, Prozesse durch KI effizienter zu gestalten. Erst durch die gemeinsame Auseinandersetzung, mit Raum für Ambivalenz und ohne Technikfeindlichkeit, konnte eine neue Perspektive entstehen. KI konnte so nicht als Ersatz, sondern als Erweiterung menschlicher Präsenz verstanden werden.
Wir begleiten Organisationen nicht bei der Auswahl von Tools, sondern bei der Integration von Künstlicher Intelligenz in Kultur, Strukturen und strategische Ausrichtung. Denn KI ist kein IT-Projekt. Sie verändert, wie gedacht, entschieden und geführt wird und bringt neue Rollen, neue Dialoge und neue Verantwortlichkeiten mit sich.
Jede KI-Einführung ist damit mehr als eine technische Umsetzung – sie ist ein tiefgreifendes Veränderungsvorhaben, das bestehende Routinen, Entscheidungslogiken und Formen der Zusammenarbeit neu verhandelt.
Und genau darum geht es: einen neuen Rahmen zu gestalten, um mit den neu-alten Spannungsfeldern in Organisationen bewusst umzugehen.
Nicht nur effizienter zu werden – sondern gemeinsam zu klären, wie wir kommunizieren, wie wir entscheiden und wie wir in Beziehung bleiben wollen.
Literatur
Esposito, Elena (2024): Kommunikation mit unverständlichen Maschinen. Residenz Verlag, Wien.
Harth, Jonathan (2022): „Neue soziale Kontingenzmaschinen. Überlegungen zu künstlicher sozialer Intelligenz am Beispiel der Interaktion mit GPT-3.“ In: Begegnungen mit künstlicher Intelligenz, hrsg. Von Martin W. Schnell und Lukas Nehlsen. Velbrück Verlag, Weilerswist, SS. 70-103.
Luhmann, Niklas (2006): Organisation und Entscheidung. 2. Auflage, VS Verlag, Wiesbaden.
Rosa, Hartmut (2016): Resonanz. Eine Soziologie der Weltbeziehung. 2. Auflage. Suhrkamp Verlag, Berlin.
Über die Autor:innen
David Max Jeggle ist systemischer Organisationsberater, Change Experte und KI-Explorer. Seit mehr als 24 Jahren begleitet er Führungskräfte und Organisationen durch komplexe Veränderungsprozesse. Im Umgang mit KI ist er neugierig, testet neue Tools, entwickelt GPTs und experimentiert mit kleinen Anwendungen auf No-Code-Plattformen. Er stellt gern die unbequemen Fragen – und staunt immer wieder, wie viel die KI über ihn zu wissen scheint.
Auf LinkedIn teilt er regelmäßig Impulse zu Organisationsentwicklung, Change und dem sinnvollen Einsatz von Künstlicher Intelligenz im Alltag komplexer Systeme.
Astrid Reinprecht ist seit 10 Jahren als systemische Organisationsberaterin, Mediatorin und Prozessbegleiterin aktiv. Sie hat zu mehreren Themen geforscht und publiziert; zuletzt ein Buch zum Thema der positiven Psychologie in der Mediation. Sie ist fasziniert von den umfassenden Verschiebungen, die sich durch KI abzeichnen. KI ist für sie dabei einerseits eine positiv-anregende Herausforderung für unser Selbstverständnis als Mensch. Und eine Chance für Kreativität und Innovation. Gleichzeitig bedeutet KI für sie aber auch eine potenzielle Gefahr für Umwelt und gesellschaftlichen Zusammenhalt.
Ihr Fazit: Wie jede Dual-Use-Technologie hängt es von uns Menschen ab, zu welchem Zweck wir Technologie bauen und wie wir sie verwenden. Und daran möchte sie – im konkreten Rahmen von Organisationen – mitwirken.