Kaleidoskop Nachlese: „Der Wert des Menschen (in Organisationen) im Zeitalter Künstlicher Intelligenz“
Trust, Taste, and Truth – Vertrauen, Geschmack und Wahrheit
Gemeinsam mit unserem Gast, der Kulturhistorikerin und Künstlerin Dr. Clara Blume, haben wir in unserem Kaleidoskop Fragen über die Zukunft der Würde des Menschen im Zeitalter von KI und die Relevanz ethischer Fragen für Organisationen beleuchtet.
Inhalt
Der Einsatz von KI treibt den Wandel grundlegender Wertvorstellungen voran. Ein Beispiel: Was gestern noch als stabile Berufswahl galt, droht morgen von Maschinen ersetzt zu werden. Der derzeit sich abzeichnende rückläufige Bedarf an Einstiegspositionen verdeutlicht, wie der gesellschaftliche Wert von Wissensarbeit unter Druck gerät. Unsere Vorstellung der Wertigkeit von Bildung und Arbeit steht zur Diskussion, und muss auch in Organisationen neu verhandelt werden.
Je mehr unser Leben von synthetischen Realitäten durchdrungen wird, desto dringlicher treten Fragen nach menschlichen Werten ins Zentrum gesellschaftlicher Debatten:
- Wie können wir sicherstellen, dass künstliche Intelligenz sich an menschlichen Werten orientiert und diese sogar eventuell fördert?
- Was ist der Wert des Menschen, wenn – scheinbar neutrale – Maschinen seinen Wert (mit-)bestimmen?
- Und wie können Organisationen mit solchen ethischen Fragen umgehen?
Nachlese
Der Wert des Menschen im Zeitalter Künstlicher Intelligenz
Online-Kaleidoskop mit Dr. Clara Blume, 20. November 2025
Der Einsatz von KI treibt den Wandel grundlegender Wertvorstellungen voran. Welchen Wert hat der Mensch, hat menschliche Arbeit und unser Wissen noch, wenn KI uns immer mehr zu ersetzen droht?
Nach einem ersten Kaleidoskop mit Dr. Jonathan Harth von der Universität Witten-Herdecke zur organisationalen Integration von KI, hat Frau Dr. Clara Blume nun den Wert des Menschen in den Mittelpunkt der Auseinandersetzung gestellt. In einem inspirierenden Impuls und einem Austausch mit rund 60 Teilnehmer:innen diskutierte die Kulturhistorikerin & KI-Forscherin rund um Werte und deren Veränderlichkeit und was noch übrig bleibt von “uns”.
Die Durchdringung der Arbeitswelt von KI, so Clara Blumes erste Kernaussage, führt zu einem „AI Reshuffle“, also einer Umwertung des Werts von Arbeit. Kopfarbeit, und damit sog. „White Collar“ Tätigkeiten, verlieren ihren Premium-Status, während implizites Erfahrungswissen und manuelle Tätigkeiten an Bedeutung gewinnen. Aber auch in Wissensjobs deuten die Zahlen noch nicht auf einen flächendeckenden, direkten Ersatz von Menschen durch KI hin: Von 200.000 Entlassungen hoch ausgebildeter Techarbeiter:innen im Silicon Valley sind nur 1,4% direkt durch KI ersetzt worden. Eher scheinen die Entlassungen mit makropolitischen Entscheidungen und volkswirtschaftlichen Veränderungen zu tun zu haben. Die Spannbreite der Einschätzungen, wie sich das in Zukunft entwickeln wird, reicht von Optimisten, die Wohlstand prognostizieren, bis hin zu Pessimisten, die erhöhte Arbeitslosigkeit sehen. Was sich, laut Clara Blume, hingegen jetzt schon abzeichne, ist eine Tendenz vor allem erfahrene Seniors einzustellen, und Uniabsolvent:innen vom Arbeitsmarkt auszuschließen, was den sog. „Generationenkonflikt“ neu anheizen könnte.
„Sprache schafft Bedeutung.“ Gemäß diesem Axiom des Linguisten Benjamin Whorf verändern Sprachmodelle, wie wir sprechen – und damit, wie wir denken und, welche Realität wir konstruieren. Da KI nicht neutral ist, so Clara Blume, erleben wir durch ihre Verwendung eine spezifische Prägung, die dem nordamerikanischen Kontext mit seinem protestantisch-weltlichen Wertebild entspricht, aus dem die meisten KI-Modelle stammen. Damit entsteht auch die Gefahr, dass menschliche Werte (values, im Plural) auf einen rein monetären Wert (value, im Singular) reduziert werden. Als Beispiel: In den USA stehe Arbeit für Identität und Moral, womit jene als moralisch begünstigt gelten, die erfolgreich sind. In Europa hingegen dominiere eine Auffassung, wonach Chancen gleich verteilt werden sollten und jenen, die keine Arbeit haben, soziale Absicherung zuteilwerden soll. Damit stellt Clara Blume die Frage, wie sichergestellt werden kann, dass KI-Ziele verfolgt, die mit menschlichen Werten vereinbar sind. Wobei offen ist, wessen Werte das sein sollen, und wie diese dann – sofern sie auf einer gesellschaftlich-diskursiven Ebene geklärt werden würden – technisch in KI übersetzt werden können.
Wenn tendenziell an Marktwert verliert, was KI kann, aber an Marktwert gewinnt, was KI (noch?) nicht kann, was macht dann „den Menschen“ einzigartig? Dazu stellte Clara Blume ein Dreieck mit drei Dimensionen vor, in dem sie den – nicht monetär bestimmbaren – Wert des Menschen verortet.
- Die erste Dimension Vertrauen (trust)
bedeutet, dass Menschen einerseits einen gesellschaftlichen (Rechts)Rahmen schaffen müssen, indem Transparenz, Nachvollziehbarkeit und Rechenschaftspflicht gewahrt werden können. Das betrifft die politische Ebene (Stichwort: trustworthy AI, EU AI Act), genauso wie Compliance, Qualitätskontrolle usw. in Organisationen. Dazu gehört auch, dass Transparenz technisch in KI umgesetzt wird (Stichwort: explainable AI). Und andererseits gilt es in Organisationen Menschen als Verantwortungsträger:innen zu stärken, zum Beispiel durch Positionen oder Gremien wie Chief Trust Officer, AI Risk Auditor, Human Values Council etc. - In der zweiten Dimension Urteilskraft (taste)
liegen menschliche Fähigkeiten begründet, die auf Sinnschaffung, Zielsetzung, Kontextsensitivität und Imagination abzielen – alles Dinge, die eine KI nicht kann, da ihr verkörperte Erfahrung und Erinnerung sowie Intention fehlen. In einer Welt, in der wir eher an Überfülle an Angeboten, Ideen, Texten und Bildern leiden, als an einem Mangel, wird Geschmack, so Clara Blume, zur Überlebenskompetenz (tastemakers). Auf Organisationen übersetzt wäre hier die Frage, wie wir Räume öffnen können, um uns kritisch über Zwecke, Ausrichtung und Visionen zu unterhalten und diese zu entscheiden. - Die dritte Dimension Wahrheit (truth)
beschäftigt sich mit der Bedeutung, der wir der Wirklichkeit geben. So sei Wahrheit diskursiv und machtgebunden – das gelte auch insbesondere für KI, da Trainingsdaten immer nur einen Ausschnitt des sogenannten „Weltwissens“ beinhalten und die Ergebnisse, die KI bringt, auch verzerrt sein können oder gar falsch (Halluzinationen, Fakes). Demgegenüber sollten wir, so Clara Blume, darauf achten, dass Wahrheit dem Leben dient, und nicht bloß der Logik des Marktes. Für Organisationen schließt sich damit die Frage an, welche Logik sie ihrem Handeln unterlegen: Ist es eine monetäre Logik, nach der KI Kosten sparen und Effizienz steigern soll? Oder wird eine Logik der menschlichen Wirksamkeit und Würde in den Mittelpunkt gestellt, wonach KI Menschen ergänzt und ihre Fähigkeiten erweitert anstatt ersetzt.
In einer Welt mit KI-Agenten, Deepfakes und algorithmischer Wahrheit wird Vertrauen zum Unterscheidungsmerkmal. Die Besonderheit des Menschen liegt nicht in der kognitiven Performance, sondern in dem Vermögen Zugehörigkeit zu geben, Sinn zu verleihen und in Resonanz zu gehen
[1] Marco van Hurne: The State of Tech-Jobs 2025, Techtonic Shifts, 27. Juli 2025
[2] Beispiel für eine optimistische Stimme ist Sam Altman, CEO von OpenAI (Jänner 2025) versus einen pessimistischen Blick: Dario Amadei, CEO von Anthropic (Mai 2025)
FYI: Haben Sie Interesse an den Folien zu diesem Kaleidoskop? Melden Sie sich gerne bei uns!
Unsere Guest Speakerin
Dr. Clara Blume ist eine österreichische Kuratorin, Kulturhistorikerin und Künstlerin, die seit acht Jahren im Silicon Valley an der Schnittstelle von Kunst, Technologie und kritischem Denken arbeitet. In ihrer Praxis erforscht sie, was es bedeutet, Mensch zu sein im Zeitalter der KI und legt ihren Forschungsfokus auf künstliche Kreativität, posthumane Identität und Wahrheit in synthetischen Wirklichkeiten.
Von 2020 bis 2023 leitete sie im Auftrag des österreichischen Außenministeriums das Open Austria Art + Tech Lab in San Francisco und realisierte internationale Ausstellungen, immersive Experiences und preisgekrönte Projekte mit Künstler:innen, Technolog:innen und KI-Systemen von OpenAI, Salesforce und Google. Zuvor gründete und präsidierte sie das EU National Institutes for Culture Cluster in Silicon Valley und etablierte mit The Grid eine globale Plattform an der Schnittstelle von Technologie, Kunst und Politik.
Blume wurde 2021 vom Apollo Magazine unter die weltweit „40 UNDER 40“ Talente in Art + Tech gewählt. Sie war Lektorin an der Diplomatischen Akademie Wien und an der Fachhochschule St. Pölten, publiziert regelmäßig und ist als Speakerin auf internationalen Konferenzen wie SXSW und Ars Electronica präsent. Neben ihrer kuratorischen Arbeit ist sie Musikerin mit zwei veröffentlichten Studioalben und Autorin des Buchs Die Sieger schreiben Geschichte über historischen Revisionismus im Spanischen Bürgerkrieg.
Mehr über Clara auf ihrer Website.
Empfehlenswerte Links
Gute Aussichten
Schon in der Warteschleife und im Jänner verfügbar: unser neues Whitepaper!
Ein Reflexionsleitfaden, zu all den nicht technischen Fragen für die Einführung von Künstlicher Intelligenz. Was braucht es, damit KI gut in Organisationen integriert werden kann?
Über die Kaleidoskop-Gestalter:innen
David Max Jeggle ist systemischer Organisationsberater, Change Experte und KI-Explorer. Seit mehr als 24 Jahren begleitet er Führungskräfte und Organisationen durch komplexe Veränderungsprozesse. Im Umgang mit KI ist er neugierig, testet neue Tools, entwickelt GPTs und experimentiert mit kleinen Anwendungen auf No-Code-Plattformen. Er stellt gern die unbequemen Fragen – und staunt immer wieder, wie viel die KI über ihn zu wissen scheint.
Auf LinkedIn teilt er regelmäßig Impulse zu Organisationsentwicklung, Change und dem sinnvollen Einsatz von Künstlicher Intelligenz im Alltag komplexer Systeme.
Astrid Reinprecht ist seit 10 Jahren als systemische Organisationsberaterin, Mediatorin und Prozessbegleiterin aktiv. Sie hat zu mehreren Themen geforscht und publiziert; zuletzt ein Buch zum Thema der positiven Psychologie in der Mediation. Sie ist fasziniert von den umfassenden Verschiebungen, die sich durch KI abzeichnen. KI ist für sie dabei einerseits eine positiv-anregende Herausforderung für unser Selbstverständnis als Mensch. Und eine Chance für Kreativität und Innovation. Gleichzeitig bedeutet KI für sie aber auch eine potenzielle Gefahr für Umwelt und gesellschaftlichen Zusammenhalt.
Ihr Fazit: Wie jede Dual-Use-Technologie hängt es von uns Menschen ab, zu welchem Zweck wir Technologie bauen und wie wir sie verwenden. Und daran möchte sie – im konkreten Rahmen von Organisationen – mitwirken.
Elisabeth Dudak ist systemische Beraterin, Coach und Trainerin. Seit über 15 Jahren begleitet sie Menschen, Teams und Organisationen in Veränderungs- & Transformationsprozessen – mit Leidenschaft für das, was Entwicklung möglich macht. Besonders fasziniert sie der Punkt, an dem Technologie & Mensch aufeinandertreffen. Dort verändern sich nicht nur Arbeits- und Entscheidungsprozesse, sondern auch die kulturellen Muster, die Organisationen prägen. In ihrer Forschung und Praxis beschäftigt sie sich mit der Frage, wie Künstliche Intelligenz mehr sein kann als ein technisches Werkzeug – nämlich eine Impulsgeberin für Integration, Lernen und Selbstreflexion. Ihre Arbeit ist getragen von der Neugier, wie sinnstiftende und menschliche Gestaltung in einer zunehmend datengetriebenen Welt gelingen kann.