• Verän­de­rung
  • Führung
  • Purpose und Stra­tegie
  • Agile Orga­ni­sa­tion
  • Weiter­bil­dung
  • DE
  • EN
search close

Vereinbaren Sie jetzt ein unverbindliches Beratungsgespräch

Lassen Sie uns bei einem gemeinsamen Telefonat auf Ihre aktuelle Situation schauen! Wir rufen Sie gern zurück!

Fehler: Kontaktformular wurde nicht gefunden.

  • Start­seite
  • Über uns
    • Purpose
    • Team
    • Kunden
    • Geschichte
    • Nach­hal­tig­keit
  • Bera­tung
    • Verän­de­rung
    • Führung
    • Purpose & Stra­tegie
    • Agile Orga­ni­sa­tion
  • Weiter­bil­dung
    • Neuwald­egger Curri­culum
    • Neuwald­egger Change Campus
    • Neuwald­egger Coaching Campus
    • Gender Equa­lity Lab
    • Moving Leader­ship
    • Duale Trans­for­ma­tion in disrup­tiven Zeiten Manage­ment Campus
    • Agiler Frei­raum
    • Rema­king Orga­niza­tions
    • Events
  • Publi­ka­tionen
    • Bücher & Artikel
    • Blog
    • News­letter
    • Podcast
  • Kontakt
    • Abon­nieren
    • Anreisen
  • Fokus
    • Agiles Universum
    • Agile Trans­for­ma­tion
    • Purpose Driven Orga­niza­tion
AI gene­riert von shut­ter­stock

Wie Künst­liche Intel­li­genz Orga­ni­sa­tionen verän­dert

Ein syste­mi­scher Blick auf Führung, Kultur und den Wandel durch künst­liche Intel­li­genz

Seit der Veröf­fent­li­chung von gene­ra­tiver Künst­li­cher Intel­li­genz wie ChatGPT oder Micro­soft Co-Pilot hat sich die Entwick­lung künst­li­cher Intel­li­genz deut­lich beschleu­nigt. Was früher als Zukunfts­tech­no­logie galt, ist heute Teil alltäg­li­cher Kommu­ni­ka­tions-, Entschei­dungs- und Lern­pro­zesse. Inzwi­schen entstehen KI-Agenten, die, wenn auch noch nicht fehler­frei, Aufgaben eigen­ständig ausführen, auf interne Daten zugreifen, Prozesse steuern und Entschei­dungs­vor­lagen gene­rieren. Stand: 19. Mai 2025
Während viele Orga­ni­sa­tionen in erster Linie nach spezi­fi­schen Tools oder prak­ti­schen Einsatz­mög­lich­keiten suchen, richten wir als syste­mi­sche Organisationsentwickler:innen den Fokus auf eine andere, grund­le­gende Frage: Wie verän­dern sich die Muster von Kommu­ni­ka­tion, Entschei­dungs­fin­dung und Verant­wor­tung, wenn künst­liche Intel­li­genz zum festen Bestand­teil von Orga­ni­sa­tionen wird? (Diesen Artikel können Sie übri­gens auch als KI-Podcast hören!)

KI ist mehr als ein Tool

Tobias Lütke, CEO von Shopify, bringt die große Dimen­sion der KI-Trans­for­ma­tion auf den Punkt. In einem internen Memo forderte er seine Teams auf, sich bei jeder Entschei­dung eine zentrale Frage zu stellen: „What would this area look like if auto­no­mous AI agents were already part of the team?“

Mitar­bei­tende sind aufge­for­dert, jede Aufgabe und jeden Prozess daraufhin zu prüfen, ob und wie KI sinn­voll einge­bunden werden kann. Neue Stellen werden nur dann bewil­ligt, wenn klar ist, dass die Arbeit nicht effi­zi­enter von KI erle­digt werden kann. Reflex­hafte Nutzung von KI – also das Mitdenken und Einbe­ziehen maschi­neller Intel­li­genz – wird zur Grund­er­war­tung.

Shopify betrachtet KI nicht als externes Werk­zeug, sondern als inte­gralen Bestand­teil des Systems. Die Orga­ni­sa­tion wird so gestaltet, dass KI mitdenken, mitwirken und mitent­scheiden kann. Das verän­dert Verant­wor­tungs­zu­wei­sungen, Führungs­hal­tung und Entschei­dungs­ar­chi­tek­turen – und eröffnet neue Räume für Auto­nomie und Inno­va­tion.

KI wird rele­vanter Kommu­ni­ka­ti­ons­partner

Unsere Hypo­these ist: KI verän­dert nicht nur Abläufe oder Prozesse. Sie fordert heraus, wie Orga­ni­sa­tionen und Mitarbeiter:innen sich selbst verstehen und wie sie zusam­men­wirken. Sie verschiebt die Bedeu­tungen zentraler Konzepte wie Führung, Vertrauen und Zusam­men­ar­beit.

Künst­liche Intel­li­genz produ­ziert, im Sinne des System­theo­re­ti­kers Niklas Luhmanns, anschluss­fä­hige Kommu­ni­ka­tion, auf die andere reagieren. Ob Proto­kolle, Analysen oder Vorschläge: KI gene­riert Inhalte, die für Menschen und Orga­ni­sa­tionen rele­vant werden und Entschei­dungen struk­tu­rieren. KI wird so zu einem rele­vanten Kommu­ni­ka­ti­ons­partner. Aller­dings geschieht dies ohne soziale Absicht. KI wirkt nicht durch Wollen, sondern durch Struktur: „Wenn Algo­rithmen in der Lage sind, ange­messen, rele­vant und (für uns) infor­mativ auf die Anfragen ihrer Nutzer:innen zu reagieren, können wir sagen, dass sie in der Lage sind zu kommu­ni­zieren – auch wenn sie dies tun, ohne zu denken und ohne die Infor­ma­tion zu verstehen.“ (Espo­sito 2024, S. 34) So wird KI zum aktiven Mitspieler im orga­ni­sa­tio­nalen Geschehen. Rollen verschieben sich, Entschei­dungs­lo­giken verän­dern sich, das Zusam­men­spiel zwischen Mensch und Maschine wird neu verhan­delt. „KI ist jetzt schon ein sozial wirk­sames Gegen­über, in dem die Ich-Du Rela­tionen erprobt und durch­dacht werden. Im Gegen­satz zu Katzen regt KI nicht nur zur Inter­ak­tion, sondern auch zur Refle­xion an – und ist gerade dadurch ein anderer Anderer.“ (Harth/ Feißt 2022, S. 97).

So entstehen neue Span­nungs­felder und Fragen, die nicht tech­nisch, sondern syste­misch beant­wortet werden müssen: Was heißen Führung und Verant­wor­tung, wenn KI mitent­scheidet? Was bedeutet Vertrauen, wenn unklar ist, wie die KI zu Entschei­dungen kommt? Wie verän­dert sich Kommu­ni­ka­tion, wenn Maschinen mitlesen? Und wie wandelt sich Zusam­men­ar­beit, wenn sie mitge­stalten oder gar Aufgaben selbst­ständig über­nehmen?

KI als Thema für Orga­ni­sa­ti­ons­ent­wick­lung

Aus system­theo­re­ti­scher Sicht verstehen wir Orga­ni­sa­tionen als soziale Systeme, die sich durch Entschei­dungen fort­setzen (vgl. Luhmann, 2006). Nicht Menschen stehen im Zentrum, sondern die Art und Weise, wie Entschei­dungen kommu­ni­ziert, verknüpft und forma­li­siert werden. Orga­ni­sa­tionen entstehen, weil ständig entschieden wird – was wichtig ist, wer zuständig ist und wie etwas gemacht wird. Diese Entschei­dungen sind mitein­ander verknüpft und struk­tu­rieren die Orga­ni­sa­tion. Sie helfen dabei mit der Komple­xität der Umwelt umzu­gehen – also mit all den Fragen, Möglich­keiten und Unsi­cher­heiten, die täglich auf ein Unter­nehmen einwirken.

In der ‚alten Welt‘ vor der breiten Einfüh­rung gene­ra­tiver KI beruhen Orga­ni­sa­tionen in hohem Maß auf rollen­ba­sierten und perso­nen­ge­bun­denen Struk­turen. Entschei­dungen werden an Rollen geknüpft, an Posi­tionen, an Fach­wissen. Führungs­kräfte sind jene, die Über­blick haben, koor­di­nieren, prio­ri­sieren und letzt­ver­ant­wort­lich entscheiden. Kommu­ni­ka­tion verläuft entlang etablierter Linien von Meetings, Memos und Mails. Wissen liegt verteilt in Köpfen, Tools und Teams. Entschei­dungen werden meist sequen­ziell getroffen, mit langen Abstim­mungen und verteilten Zustän­dig­keiten. Vieles funk­tio­niert gut, manches exzel­lent, aber immer frag­men­tiert und abhängig von Menschen.

Wenn nun KI in diese Entschei­dungs­pro­zesse einge­bunden wird – z. B. durch auto­ma­ti­sche Vorschläge, Bewer­tungen oder Prio­ri­sie­rungen – verän­dert das, welche Entschei­dungen mehr oder weniger getroffen werden und wie Entschei­dungen vorbe­reitet, begründet und verteilt werden.

Ebenso zentral ist die Frage, auf welcher Art von Daten­basis KI operieren soll: Welche Infor­ma­tionen fließen ein? Was wird forma­li­siert, struk­tu­riert, stan­dar­di­siert – und was bleibt unbe­rück­sich­tigt? KI kann nur mit dem arbeiten, was maschi­nen­lesbar gemacht wurde. Das wirft nicht nur Fragen nach Qualität und Verzer­rung auf, sondern auch nach ethi­scher Vertret­bar­keit und gesell­schaft­li­cher Anschluss­fä­hig­keit.

An der Schnitt­stelle von Mensch und Maschine

Ein weiterer wich­tiger Fragen­kom­plex, der zuneh­mend an Bedeu­tung gewinnt, betrifft die Schnitt­stelle zwischen Mensch und Maschine. Gerade in diesem Zusam­men­spiel verän­dert KI bestehende Logiken, an die wir uns im Arbeits­alltag gewöhnt haben, oft schlei­chend, aber mit weit­rei­chenden Folgen.

  • Entschei­dungs­grund­lagen werden unver­ständ­lich.:
    KI liefert Vorschläge, Analysen oder Bewer­tungen in Sekun­den­schnelle, auf Basis riesiger Daten­mengen und Krite­rien, die für Menschen oft nicht mehr nach­voll­ziehbar sind. Was früher Fach­wissen, Erfah­rung oder Grup­pen­pro­zesse erfor­derte, wird nun algo­rith­misch vorstruk­tu­riert. Der Mensch trifft viel­leicht noch Folge­ent­schei­dungen, aber oft auf Grund­lage eines Outputs, dessen Entste­hung er nicht verstehen kann.[1]
  • Zustän­dig­keit und Verant­wor­tung werden diffuser.
    Wer entscheidet, wenn eine KI eine Empfeh­lung abgibt – die Führungs­kraft, die sie über­nimmt? Das Team, das sie trai­niert hat? Die Orga­ni­sa­tion, die sie einge­führt hat? Die klare Zuwei­sung von Verant­wort­lich­keit, wie sie bisher funk­tio­nierte, gerät ins Wanken.
    Der EU AI Act greift genau hier ein: Für soge­nannte „Hoch­ri­siko-Systeme“ gelten strenge Anfor­de­rungen an Trans­pa­renz, Risi­ko­ab­schät­zung und Nach­voll­zieh­bar­keit. KI darf unter­stützen – aber sie entbindet nicht von der Pflicht, Verant­wor­tung struk­tu­rell abzu­si­chern.
  • Rele­vanz wird zum Krite­rium, nicht Verstehen.
    Meeting­no­tizen, Feed­backs, Zusam­men­fas­sungen, Prio­ri­sie­rungs­vor­schläge – viele Texte erstellt KI in Sekunden. Diese Texte werden gelesen, weiter­ge­leitet und in Entschei­dungen einbe­zogen. Sie funk­tio­nieren wie mensch­liche Kommu­ni­ka­tion – aber sie sind keine. Denn sie stammen nicht aus sozialer Inten­tion, sondern aus statis­ti­schen Berech­nungen. Gleich­zeitig schreiben wir KI ‚Intel­li­genz‘ zu (nicht umsonst die Bezeich­nung!). Genau hier entsteht eine neue Heraus­for­de­rung: Was passiert, wenn KI inter­pre­tiert – aber nicht eigent­lich versteht? Können wir ihr dann ‚vorwerfen‘ (in unserem Sinne) falsch entschieden zu haben?
  • Empfeh­lungen werden zu stillen Stan­dards.
    „Hier ist ein Vorschlag“ schreibt die KI – und schon über­nehmen wir ihn. Oft ohne kriti­sches Hinter­fragen, aus Zeit­druck oder Gewohn­heit. Was als Option gedacht war, wird zur fakti­schen Vorgabe. Diese Dynamik – bekannt als Auto­ma­tion Bias – birgt Risiken: Viel­falt geht verloren, kriti­sches Denken wird verdrängt, Lernen wird flach. Die Heraus­for­de­rung, die daraus entsteht, ist den Raum zwischen Vorschlag und Entschei­dung wieder bewusst zu gestalten.

[1] Exkurs: Auch Menschen sind keine gläsernen Systeme. Auch mensch­li­ches Entscheiden ist im Grunde intrans­pa­rent. Aber die Unter­schiede liegen im sozialen Vertrauen und in der Zuschrei­bung von Ähnlich­keit. Wir schreiben Menschen Inten­tionen zu, KI nicht. Und wir schreiben Menschen zu ähnlich zu sein, wie wir. Daher erwarten wir, dass sie ihren Entschei­dungen ähnliche (oder sogar gleiche) Krite­rien zugrunde legen, wie wir.

Neu-alte Span­nungs­felder in Orga­ni­sa­tionen

Mit der Inte­gra­tion von KI geraten Orga­ni­sa­tionen in neue – oder altbe­kannte, aber verschärfte – Span­nungs­felder.

  • Vertrauen ↔ Kontrolle (und der Umgang mit Biases)
    KI setzt Vertrauen in Systeme voraus, deren Funk­ti­ons­weise nicht voll­ständig durch­schaubar ist. Gleich­zeitig steigt der Wunsch nach Kontrolle, Trans­pa­renz und Absi­che­rung. Beson­ders deut­lich wird dies beim Thema Bias: Künst­liche Intel­li­genz arbeitet mit Daten, die nie neutral sind. Verzer­rungen, Lücken oder histo­ri­sche Schief­lagen in den Daten­sätzen, können von der KI fort­ge­schrieben und, scheinbar objektiv, legi­ti­miert werden. Der Vertrau­ens­vor­schuss gegen­über maschi­nellen Vorschlägen verstärkt diese Gefahr.
  • Forma­li­sie­rung ↔ Infor­ma­lität
    Um für KI nutzbar zu sein, muss Wissen forma­li­siert werden – doch was passiert mit dem impli­ziten, erfah­rungs­ba­sierten Wissen und infor­mellen Routinen? KI kann nur auf das zugreifen, was formell gemessen wurde und auch messbar ist. Was nicht forma­li­sierbar ist, ‚verschwindet‘ aus der Sicht­bar­keit und aus dem gesell­schaft­li­chen Gedächtnis. Damit verbunden ist das Thema der Trans­pa­renz: KI-Nutzung braucht Offen­heit. Gleich­zeitig müssen Daten, Geschäfts­ge­heim­nisse und sensible Entschei­dungen geschützt bleiben.
  • Effi­zienz / Schnel­lig­keit ↔ Reso­nanz
    KI beschleu­nigt Arbeit. Echte Verbin­dung, Bezie­hung und Sinn entstehen jedoch oft jenseits der Effi­zi­enz­logik. Reso­nanz (vgl. Hartmut Rosa, 2016) entsteht nicht durch Tempo, sondern durch wech­sel­sei­tige Bezie­hung – durch ein „Antwort­ge­schehen“. Reso­nanz ist kein Output, sondern ein Neben­pro­dukt gelin­gender Kommu­ni­ka­tion. KI kann Prozesse effi­zi­enter machen, aber Reso­nanz braucht Zeit und Präsenz. Hier entsteht eine Span­nung zwischen dem Bedarf nach Räumen, in denen Unbe­stimmt­heit bestehen bleiben darf und dem Zug nach Effi­zienz und stän­diger Verfüg­bar­keit.
  • Stan­dar­di­sie­rung ↔ Indi­vi­dua­li­sie­rung
    KI arbeitet auf Basis großer Daten­mengen, erkennt Muster und liefert stan­dar­di­sierte Lösungen – schnell, skalierbar und konsis­tent. Doch Menschen und Kontexte sind indi­vi­duell. Was auf dem Papier effi­zient erscheint, kann im Einzel­fall unpas­send sein. Orga­ni­sa­tionen müssen entscheiden, wo Stan­dar­di­sie­rung sinn­voll ist. Und wo es bewusste Abwei­chung braucht, um Anschluss­fä­hig­keit und Passung zu sichern.
  • Auto­ma­ti­sie­rung ↔ Auto­nomie
    KI über­nimmt Routinen und entlastet damit den Menschen. Gleich­zeitig werden Hand­lungen vorstruk­tu­riert – durch Empfeh­lungen, Rankings oder auto­ma­ti­sche Entschei­dungen. Das birgt die Gefahr, dass Entschei­dungs­spiel­räume schrumpfen, ob unbe­merkt oder nicht. Hier entsteht ein Span­nungs­feld zwischen der Erleich­te­rung oder Verein­fa­chung, die KI bringen kann, der Auto­nomie des Menschen, die zuweilen auch Anstren­gung und Willens­kraft braucht. Orga­ni­sa­tional heißt es daher Räume zu gestalten, in denen Menschen bewusst entscheiden, statt bloß umzu­setzen.
  • Befä­hi­gung ↔ Verlust von Selbst­wirk­sam­keit
    KI unter­stützt Menschen bei der Bewäl­ti­gung einfa­cher wie komplexer Aufgaben und kann so als Kata­ly­sator für Produk­ti­vität, Zugang zu Wissen und neue Lern­mög­lich­keiten wirken. Gleich­zeitig besteht die Gefahr, dass wich­tige Kompe­tenzen verküm­mern, wenn sie nicht mehr aktiv genutzt werden. Was als Krücke beginnt, wird zur Prothese: Wir verlernen das, was wir nicht mehr selbst tun müssen. Die Heraus­for­de­rung besteht darin, KI so einzu­setzen, dass sie stärkt, ohne mensch­liche Selbst­wirk­sam­keit schlei­chend zu ersetzen.

Die genannten Span­nungs­felder sind keine abschlie­ßende Aufzäh­lung. Sie sind der Versuch einer ersten Einord­nung von Phäno­menen. Sie sind auch keine Probleme, die sich ‚lösen‘ lassen, sondern Pola­ri­täten, die dauer­haft reflek­tiert und balan­ciert werden müssen. System­theo­re­tisch gespro­chen handelt es sich um unent­scheid­bare Unter­schei­dungen (Luhmann 2006), die nie endgültig entschieden, sondern nur kontext­sen­sitiv gestaltet werden können. Wichtig ist dabei nicht fest­zu­legen, welches Ende der Skala das ‚rich­tige‘ ist. Sondern die Fähig­keit, beide Pole im Blick zu behalten. Und dafür braucht es Orga­ni­sa­tionen, die diese Span­nungs­felder bear­beiten. Das tun sie auf der Ebene von Meta­ent­schei­dungen.

Pola­ri­täten bear­beitbar machen durch Meta­ent­schei­dungen

In unserer Arbeit nutzen wir das Neuwald­egger Dreieck als struk­tu­rie­renden Kompass für orga­ni­sa­tio­nale Entwick­lung. Wir unter­scheiden Meta­ent­schei­dungen, die grund­sätz­liche Fest­le­gungen für alle weiteren Entschei­dungen mit sich bringen. KI hat für alle drei Hebel und die daraus resul­tie­rende Kultur Rele­vanz

Vision / Purpose, Stra­tegie & Ziele:

Wie unter­stützt KI dabei, unsere stra­te­gi­schen Ziele zu errei­chen? Geht es um Effi­zi­enz­stei­ge­rung, Inno­va­ti­ons­kraft oder eine stär­kere Ausrich­tung auf unseren Purpose? Welcher ethi­sche Sinn­rahmen leitet unsere tech­no­lo­gi­schen Entschei­dungen – und wer legt den fest? Wie ist KI darin einge­bettet?

Struk­turen & Prozesse:

Wie verän­dert KI unsere Kommu­ni­ka­ti­ons­wege, Entschei­dungs­lo­giken oder Rollen­klar­heit? Welche neuen Schnitt­stellen entstehen – und was braucht es, damit Mensch und Maschine gut inter­agieren?

Kompe­tenzen & Führung:

Welche Fähig­keiten rücken ins Zentrum – z. B. kriti­sche Urteils­fä­hig­keit, Daten­kom­pe­tenz, Promp­ting? Und wie gestalten wir Führung in hybriden Teams, in denen KI ein aktiver Mitspieler ist?

Kultur (Mitte):

Wie gehen wir mit Nicht­wissen, Irri­ta­tion oder Kontroll­ver­lust um? Welche Lern­kultur fördern wir – und welche Haltung brau­chen wir, um KI als Einla­dung zur Weiter­ent­wick­lung zu begreifen?

Durch diese Meta-Perspek­tive werden KI-Imple­men­tie­rungen nicht zu isolierten IT-Projekten, sondern sind einge­bettet in eine konsis­tente, reflek­tierte Orga­ni­sa­ti­ons­ent­wick­lung.

Beispiele aus der Praxis

„Oft heißt es: ‚Wir brau­chen erst einen klaren Use Case.” Doch gerade in dyna­mi­schen Kontexten entsteht Wirk­sam­keit häufig erst durch das Tun. Wer KI auspro­biert, entwi­ckelt nicht nur erste Anwen­dungen – sondern vor allem auch die nötige Kompe­tenz, um zukünf­tige Anwen­dungs­felder über­haupt erkennen zu können. Gleich­zeitig gilt: Auspro­bieren allein reicht nicht. Ohne syste­ma­ti­sche Refle­xion und stra­te­gi­sche Veran­ke­rung auf der Ebene der Meta­ent­schei­dungen bleiben viele KI-Initia­tiven wirkungslos. Es braucht also explo­ra­tives Handeln mit Sinn für Muster – und Struk­turen, die aus Lern­erfah­rungen echte Use Cases machen.

Fall 1

Einer unserer Kunden aus dem Mobi­li­täts­sektor zum Beispiel hat einen Bot program­miert, der interne Doku­mente, Vorgaben und Richt­li­nien zusam­men­führt. Leider, so der begeis­terte Projekt­leiter, werde der Bot nur wenig von den Mitar­bei­tenden genutzt. Von uns gefragt, welchem Zweck dieser Bot diene und welche Vorteile Mitar­bei­tende davon haben sollten, wusste der Projekt­leiter keine Antwort.
Hier wurde ein neues Tool prag­ma­tisch genutzt, ohne den Rahmen (Purpose, Vision, Ziele) des Bot-Projekts bedacht zu haben. Inso­fern war auch unklar, welche Daten (Doku­mente, Vorgaben, Richt­li­nien, …) über­haupt in den Bot einge­speist werden sollten und welche nicht. Und, welche Fähig­keiten, die Mitar­bei­tenden erwerben oder haben sollten, um diesen Bot zu verwenden. Die Diskus­sion ‚Use Case first oder Use first?‘ greift an dieser Stelle zu kurz. Denn entschei­dend ist nicht nur die Reihen­folge, sondern auch die Veran­ke­rung in Sinn und System. KI braucht einen Platz im Ziel­bild der Orga­ni­sa­tion, nicht nur in der IT-Abtei­lung. Erst wenn klar ist, welchen Beitrag ein System zur Gesamt­ent­wick­lung leisten soll, kann es Wirkung entfalten. Alles andere bleibt Aktio­nismus – tech­nik­ge­trieben, aber wirkungslos.

Fall 2

Bei einem anderen Kunden, einer Versi­che­rung, wurde ein KI-basiertes Assis­tenz­system im Kunden­ser­vice einge­führt. Die Erleich­te­rung war messbar durch schnel­lere Antworten, weniger Nach­fragen, höhere Effi­zienz. Und dennoch: Es regte sich stiller Wider­stand. In einem Refle­xi­ons­work­shop zeigte sich, dass viele Mitarbeiter:innen den Einsatz von KI unbe­wusst als Angriff auf ihr beruf­li­ches Selbst­ver­ständnis empfanden. Für sie stand Kunden­kon­takt nicht nur für Service, sondern für persön­liche Nähe, Bezie­hung und Mensch­lich­keit.
Die KI wurde (system­theo­re­tisch gespro­chen) als Irri­ta­tion der bishe­rigen Sinn­struktur erlebt – als etwas, das nicht nur Abläufe, sondern Iden­tität berührt. Für viele Mitar­bei­tende stand der persön­liche Kontakt im Zentrum ihres Selbst­ver­ständ­nisses. Die KI wurde deshalb nicht als hilf­reiche Entlas­tung, sondern als kultu­reller Bruch wahr­ge­nommen. Im Sinne des Neuwald­egger Drei­ecks wurde deut­lich: Die gelebte Kultur – Nähe und Bezie­hung im Kunden­kon­takt – stand im Wider­spruch zur stra­te­gi­schen Ziel­set­zung, Prozesse durch KI effi­zi­enter zu gestalten. Erst durch die gemein­same Ausein­an­der­set­zung, mit Raum für Ambi­va­lenz und ohne Tech­nik­feind­lich­keit, konnte eine neue Perspek­tive entstehen. KI konnte so nicht als Ersatz, sondern als Erwei­te­rung mensch­li­cher Präsenz verstanden werden.

Wir begleiten Orga­ni­sa­tionen nicht bei der Auswahl von Tools, sondern bei der Inte­gra­tion von Künst­li­cher Intel­li­genz in Kultur, Struk­turen und stra­te­gi­sche Ausrich­tung. Denn KI ist kein IT-Projekt. Sie verän­dert, wie gedacht, entschieden und geführt wird und bringt neue Rollen, neue Dialoge und neue Verant­wort­lich­keiten mit sich.

Jede KI-Einfüh­rung ist damit mehr als eine tech­ni­sche Umset­zung – sie ist ein tief­grei­fendes Verän­de­rungs­vor­haben, das bestehende Routinen, Entschei­dungs­lo­giken und Formen der Zusam­men­ar­beit neu verhan­delt.

Und genau darum geht es: einen neuen Rahmen zu gestalten, um mit den neu-alten Span­nungs­fel­dern in Orga­ni­sa­tionen bewusst umzu­gehen.
Nicht nur effi­zi­enter zu werden – sondern gemeinsam zu klären, wie wir kommu­ni­zieren, wie wir entscheiden und wie wir in Bezie­hung bleiben wollen.

Lite­ratur

Espo­sito, Elena (2024): Kommu­ni­ka­tion mit unver­ständ­li­chen Maschinen. Resi­denz Verlag, Wien.

Harth, Jona­than (2022): „Neue soziale Kontin­genz­ma­schinen. Über­le­gungen zu künst­li­cher sozialer Intel­li­genz am Beispiel der Inter­ak­tion mit GPT-3.“ In: Begeg­nungen mit künst­li­cher Intel­li­genz, hrsg. Von Martin W. Schnell und Lukas Nehlsen. Velbrück Verlag, Weiler­swist, SS. 70-103.

Luhmann, Niklas (2006): Orga­ni­sa­tion und Entschei­dung. 2. Auflage, VS Verlag, Wies­baden.

Rosa, Hartmut (2016): Reso­nanz. Eine Sozio­logie der Welt­be­zie­hung. 2. Auflage. Suhr­kamp Verlag, Berlin.

Über die Autor:innen

David Max Jeggle ist syste­mi­scher Orga­ni­sa­ti­ons­be­rater, Change Experte und KI-Explorer. Seit mehr als 24 Jahren begleitet er Führungs­kräfte und Orga­ni­sa­tionen durch komplexe Verän­de­rungs­pro­zesse. Im Umgang mit KI ist er neugierig, testet neue Tools, entwi­ckelt GPTs und expe­ri­men­tiert mit kleinen Anwen­dungen auf No-Code-Platt­formen. Er stellt gern die unbe­quemen Fragen – und staunt immer wieder, wie viel die KI über ihn zu wissen scheint.
Auf LinkedIn teilt er regel­mäßig Impulse zu Orga­ni­sa­ti­ons­ent­wick­lung, Change und dem sinn­vollen Einsatz von Künst­li­cher Intel­li­genz im Alltag komplexer Systeme.

Astrid Rein­precht ist seit 10 Jahren als syste­mi­sche Orga­ni­sa­ti­ons­be­ra­terin, Media­torin und Prozess­be­glei­terin aktiv. Sie hat zu mehreren Themen geforscht und publi­ziert; zuletzt ein Buch zum Thema der posi­tiven Psycho­logie in der Media­tion. Sie ist faszi­niert von den umfas­senden Verschie­bungen, die sich durch KI abzeichnen. KI ist für sie dabei einer­seits eine positiv-anre­gende Heraus­for­de­rung für unser Selbst­ver­ständnis als Mensch. Und eine Chance für Krea­ti­vität und Inno­va­tion. Gleich­zeitig bedeutet KI für sie aber auch eine poten­zi­elle Gefahr für Umwelt und gesell­schaft­li­chen Zusam­men­halt.
Ihr Fazit: Wie jede Dual-Use-Tech­no­logie hängt es von uns Menschen ab, zu welchem Zweck wir Tech­no­logie bauen und wie wir sie verwenden. Und daran möchte sie – im konkreten Rahmen von Orga­ni­sa­tionen – mitwirken.

Versäumen Sie keine span­nenden Neuwald­egger Blog­bei­träge mehr – abon­nieren Sie unseren News­letter!

Jetzt Bestellen

Bera­ter­gruppe Neuwaldegg
Gesell­schaft für Unter­neh­mens­be­ra­tung und Orga­ni­sa­ti­ons­ent­wick­lung GmbH

Gregor-Mendel-Straße 35, 1190 Wien
T +43 1 368 80 70, office@​neuwaldegg.​at, www​.neuwaldegg​.at
Firmen­buch-Nr. 69063 p, Handels­ge­richt Wien

News­letter
Impressum
AGB
Daten­schutz

Spre­chen Sie uns an!