Schlagwort-Archiv: KI

Das postmoderne Drama

Ganz ehrlich: Ich liebe die Postmoderne. Was heutzutage alles möglich ist, wäre bis vor kurzem beinahe ein Wunder gewesen:

  • Wir sprechen in Unternehmen offen über psychische Gesundheit.
  • Führungskräfte versuchen mit Mitarbeiter*innen auf Augenhöhe zu kommunizieren.
  • Ich kann in Trainingspausen bei Nicht-Wissen schnell Chatgpt fragen, um zumindest ein paar Ideen zu bekommen.

Gleichzeitig gilt nicht nur, dass wir mehr über die Funktionsweise von Maßnahmen und Systemen wissen, als wir verändern können. Wir können auch nicht mehr so tun, als wüssten wir es nicht besser.

1 Radikale Erkenntnisgewinne bei begrenzten Umsetzungsmöglichkeiten

Die Postmoderne ist geprägt von neurobiologischem Wissen, systemtheoretischen Einsichten und Erkenntnissen aus Soziologie und Organisationspsychologie, die teilweise auch schon einige Jahre auf dem Buckel haben, aber erst jetzt so richtig im Mainstream angekommen sind. Dadurch wissen wir heute ziemlich genau, dass beispielsweise Einzelmaßnahmen in Unternehmen systemisch kaum wirken, wir wissen, welche Nebenwirkungen sie haben oder dass sie oftmals sogar kontraproduktiv sind:

  • Motivations- und Mindset-Workshops ohne strukturelle Reformen führen eher zu Frustrationen, weil dadurch die Lücke zwischen persönlichen Chancen und strukturellen Hemmnissen nur noch sichtbarer werden.
  • KI-Systeme werden meist von denjenigen genutzt, die ohnehin schon gut sind, wodurch deren Produktivität noch mehr steigt, während Skeptiker und Unsichere den Anschluss verpassen.
  • Die Arbeit im Homeoffice reproduziert nicht nur gesellschaftliche Privilegien, sondern kommt v.a. denjenigen entgegen, die ohnehin schon selbstorganisiert arbeiten und die ohne Störungen von Kolleg*innen jetzt noch schneller werden, während die Unorganisierten in der Luft hängen.

Die Liste ließe sich endlos fortführen:

  • Wer geht am liebsten auf externe Fortbildungen? Diejenigen, die es brauchen könnten oder diejenigen, die ohnehin schon gut sind und sich damit langfristig aus dem Unternehmen fortbilden?
  • Selbst die simple Frage, wer eine Aufgabe übernehmen will, erweitert oftmals die Kompetenz-Schere, weil sich darauf diejenigen melden, die sich das zutrauen und sich damit noch mehr weiterentwickeln.

Wir wissen also, dass Einzelmaßnahmen ohne strukturelle Veränderungen das aktuelle Probleme der Leistungs- und Verantwortungs-Schere eher noch verstärken. Gleichzeitig wissen wir aber auch, dass Systeme träge sind, starke Selbststabilisierungsmechanismen haben und sich einer stringenten Steuerung entziehen.

Daraus zu schlussfolgern, dass es am besten wäre, die Dinge laufen zu lassen, kann jedoch auch keine Lösung sein, wenn wir hoffnungsvoll und ernsthaft etwas verbessern wollen. Weil also echte Systemveränderung schwierig ist, machen wir das, was kurzfristig möglich ist:

  • Themenspezifische Trainings, Coachings und Mediationen
  • Etablierung von KI-Tools als Assistenz
  • Anpassung von Arbeitsmodellen in Richtung mobiles Arbeiten
  • Führungscurricula und Kompetenzprogramme

Wohl wissend, dass auch hier in den meisten Fällen gilt: Diejenigen, die offen für solche Maßnahmen sind, profitieren am meisten davon, wodurch Ungleichheiten evtl. verschärft werden.

2 Konsequenzen für Organisationen und Führungskräfte

2.1 Maßnahmen nicht isoliert durchführen, sondern als Paket

Weil beinahe jede Einzelmaßnahme Nebenwirkungen erzeugt, sollten flankierend immer strukturelle Veränderungen mitgedacht werden.

Am Beispiel KI-Nutzung:

  • KI-Recherchen greifen logischerweise auf vorhandene Daten zurück. Wurden diese Daten jedoch aus einer bestimmten Sichtweise verfasst, wird durch die Nutzung der Daten diese Sichtweise verstärkt (Stichwort: Bias). Einfach formuliert: Wird auf Daten zurückgegriffen, die nur von weißen Männern zwischen 25 und 30 Jahren verfasst wurden, braucht es eine diverse Gruppe, um diese Daten zu bewerten.
  • Der Zugang zu KI-Tools sollte allen zugänglich sein.
  • Es braucht ein Mentoring für weniger digital-affine Gruppen.

2.2 Kleine kulturelle Veränderungen

Um Abhängigkeiten von individuellen Kompetenzen zu verhindern, braucht es gleichzeitig kleine Eingriffe, die jedoch langfristig den kulturellen Rahmen verändern können:

  • Transparente Beförderungskriterien statt rein informellen Entscheidungen
  • Standardisierte Kompetenzprogramme und Führungscurricula anstatt individuellen Leistungsbeurteilungen
  • Interne (Pflicht-)Seminare für alle anstatt freien Weiterbildungsbudgets, die nur wenige nutzen
  • Rotationsprogramme, um Wissen und Chancen fair zu verteilen

2.3 Reflexive Führung fördern

Postmoderne Organisationen brauchen Führungskräfte, die verstehen, dass Maßnahmen Nebenwirkungen haben, Verantwortung immer geteilt werden sollte und sie daher häufig kontraintuitiv handeln sollten:

  • Diejenigen zu Fortbildungen schicken, die keine Lust haben.
  • Aufgaben an diejenigen verteilen, die etwas noch nicht können.
  • Und diejenigen zurück pfeifen, die nur allzu gerne neue Aufgaben übernehmen.

Sie sollten daher immer die langfristige Perspektive mitdenken:

  • Kurzfristig ist es sinnvoll, Aufgaben an bereits kompetente Mitarbeiter*innen zu verteilen, weil es Zeit spart und die Qualität vermutlich passt.
  • Langfristig ist es sinnvoller, genau das Gegenteil zu tun, um Kompetenz- und Verantwortungsverhältnisse zu verändern.

Mir ist vollkommen klar, dass damit ein riesiger Aufwand einhergeht, gerade weil die Zeit dafür im Grunde nicht zur Verfügung steht. Dennoch ist das Wissen um diese Effekte hilfreich, um zumindest in manchen Fällen kontra-intuitiv zu handeln.

2.4 Individuen nicht nur fördern, sondern auch unterstützen

Damit Einzelmaßnahmen die soziale Schere nicht noch weiter vergrößern, sollten Individuen nicht nur gefördert, sondern auch strukturell entlastet werden:

  • Lernzeit und Ressourcen garantieren: Wer KI-Tools, Wissen aus Seminaren oder Homeoffice nutzt, braucht Lernzeit, einen guten Zugang und Unterstützung.
  • Psychologische Sicherheit als Grundbedingung: Wer den Anschluss an die „early adopter“ nicht verpassen will, braucht das klare Signal aus der Führungsriege: „Es ist OK, etwas auszuprobieren und Fehler zu machen.“
  • Orientierung bieten statt nur auf Eigenverantwortung zu setzen: Das neoliberale Denken überfordert Mitarbeiter*innen oft mit Appellen wie „Du musst dich selbst entwickeln, wenn die den Anschluss nicht verpassen willst“ oder konkreter „Du musst KI nutzen“ oder „Du musst Verantwortung übernehmen“. Im Sinne einer kollektiv lernenden Organisation ist es sinnvoller, klare Lernpfade zu definieren und flankierende niederschwellige und verbindliche Hilfsangebote zu schalten.

3 Vom individuellen zum solidarischen Optimismus

3.1 Das Problem des traditionellen Optimismus

Damit stellt sich auch die Frage, ob wir uns den klassischen, individuellen Optimismus noch leisten können?

Der traditionelle Optimismus lautet: „Wir schaffen das, wenn wir uns anstrengen.“ Das klingt auf den ersten Blick motivierend, ist jedoch systemisch betrachtet problematisch:

  • Für Optimist*innen ist die Entscheidung für oder gegen eine Veränderung bereits abgeschlossen. Sie denken bereits an deren Umsetzung, während Skeptiker*innen noch mit der Entscheidung hadern.
  • Manche Pessimist*innen sehen sich selbst als wertvolle Ressource, indem sie auf mögliche Fehlentwicklungen hinweisen, was jedoch selten gerne gehört wird.
  • Andere Pessimist*innen haben Angst vor Veränderungen und sind deshalb kritisch. Auch damit vergrößert sich die Wissens- und Kompetenz-Lücke zu den Optimist*innen.
  • Optimist*innen nutzen Einzelmaßnahmen wie Coachings oder Seminare schneller und häufiger.
  • Da Unternehmen grundsätzlich dafür da sind, Veränderungen positiv anzugehen – alles ändere wäre paradox – kann die Illusion entstehen, dass Probleme im Grunde individuell vorhanden und folglich auch individuell zu lösen sind.

Dabei wird meistens vergessen, dass Skepsis heute oft die realistischere Sichtweise ist, sofern Pessimismus nicht pauschal bedeutet, dass alles immer schlimmer wird, sondern dass jede Veränderung neben einem positiven Effekt auch negative Nebenwirkungen nach sich zieht. Dies wiederum ist kein Argument gegen Veränderungen, sondern ein Argument für wohldurchdachte Veränderungen.

3.2 Prinzipien eines solidarischen Optimismus

Aus diesen Gründen können wir uns den klassischen, indivuellen und damit spalterischen Optimismus nicht mehr leisten. Stattdessen brauchen wir eine postmoderne Form des Optimismus, die nicht individuell überhöht und moralisiert (Sei doch optimistisch!), sondern einen Austausch, in dem sowohl die Optimist*innen als auch die Pessimist*innen voneinander lernen. Bezogen auf den Optimismus sprechen wir hier von einem relationalen oder solidarischen Optimismus: Optimismus ist keine persönliche Tugend, sondern eine Beziehungsqualität, mit der wir uns unterstützen, Kompetenzlücken kompensieren und uns gegenseitig entlasten, um gemeinsam etwas zu erreichen.

Das angestrebte Beziehungsziel lässt sich als Hoffnung auf ein besseres, produktives, gemeinschaftliches Miteinander begreifen. Und da Hoffnungen sich als Zusammenspiel von Zuversicht und Zweifel definieren lassen, brauchen wir für das Erreichen dieses Ziels sowohl die Skeptiker*innen als auch die Optimist*innen.

Deshalb gewinnen hier beide Seiten:

  • Pessimist*innen werden nicht stigmatisiert, sondern bringen wichtige Signale über Risiken, Grenzen und strukturelle Barrieren in die Diskussion mit ein.
  • Optimist*innen erweitern ihre Vorreiter-Rolle um eine Fürsorge-Funktion. Sie übersetzen, ermutigen, bauen Brücken und stellen Ressourcen zur Verfügung.

Optimismus wird damit zum Bindungskitt und nicht zu einer persönlichen Leistung.

Mehr zu einem solchen Bindungsmindset in meinem Buch (externer Link) „Hoffnung! Die unterschätzte Führungsstärke in turbulenten Zeiten

Eine KI weiß immer, wo es lang geht, auch wenn sie keine Ahnung hat

Dass eine KI nur Aussagen aufgrund der zur Verfügung stehenden Daten ausspucken kann, ist klar. Das Problem besteht jedoch darin, dass …

  1. viele Nutzer*innen davon ausgehen, dass eine KI weniger fehlbar ist als ein Mensch und …
  2. eine KI dafür ausgerichtet ist, Antworten zu liefern, selbst wenn es keine hat. Ich habe jedenfalls noch keine Antwort im Sinne von „da habe ich keine Ahnung“ bekommen.

Beispiel 1: Klare Fehlinformationen

Neulich erkundigte ich mich bei ChatGPT nach den Vergütungssätzen für eine Steuerberatung im Falle der Erbschaftssteuer. Die KI erklärte mir, dass es eine offizielle Tabelle gibt, aus der zu entnehmen ist, ab welchem Wert des Erbes welcher Vollvergütungssatz gilt. Je nach Komplexität können Steuerberater*innen 2 bis 10/10tel davon verlangen. So weit, so klar. Dann jedoch nannte die KI einen Betrag, der in der Tabelle nicht zu finden war. Als ich sie mit einem Verweis auf die Tabelle darauf hinwies, entschuldigte sie sich, meinte, dass sie die Rechnung lediglich für mich vereinfachen (???) wollte, dass sie aber jetzt mit der richtigen Tabelle rechnete und präsentierte mir die gleiche falsche Rechnung erneut.

Beispiel 2: Die KI erfindet ein Modell

Als ich die KI neulich fragte, wie der ATCC-Ansatz aus der Konflikt- und Friedensforschung funktioniert, erfand sie kurzum ein Modell, das es gar nicht gibt:

„Der ATCC-Ansatz ist ein methodischer Rahmen aus der Konflikt- und Friedensarbeit, der dazu dient, Konfliktkontexte zu analysieren und geeignete Handlungsstrategien zu entwickeln. Die Abkürzung ATCC steht für:

  • Akteure
  • Themen
  • Kontexte
  • Dynamiken

Wie aus dem C ein D wurde, bleibt mir rätselhaft.

In Wirklichkeit steht ATCC für „Approche et transformation constructives des conflits“, was ich mir jedoch schlecht merken kann. Der Ansatz ist eher unbekannt. Darauf hingewiesen, korrigierte die KI ihren Fehler. Allerdings wies sie mich noch darauf hin, dass ich sie ja mit den vier Buchstaben auf eine falsche Fährte lenkte. Das klang beinahe ein wenig gekränkt.

Was lernen wir daraus?

Mir kommt die Kommunikation mit einer KI so vor, als würde ich mit jemandem sprechen, der nicht Nein sagen kann. ChatGPT gibt offensichtlich nicht zu, keine Ahnung zu haben. Die KI könnte auch nachfragen, was ich genau mit ATCC meine. Stattdessen erfindet sie ein neues Modell, das zwar nicht unsinnig ist, aber dennoch falsch. Ich muss also schon ein wenig Ahnung davon haben, was ich will. Anders formuliert: Ein Navi ersetzt noch keine/n Navigator*in.

Wie KI beim Denken hilft und dennoch kein Game-Changer für die reale Welt ist

http://de.freepik.com/autor/pch-vector

Das folgende Experiment fand am Abend des 05.08.2025 statt und dauerte etwa 30 Minuten. Es begann mit der Idee, sich mit ChatGPT darüber zu unterhalten, ob die Zunahme von Depressionen und Aggressionen in der Welt zum einen an der grassierenden Hoffnungslosigkeit und zum anderen an einer Entfremdung von der Welt liegt, woran pikanterweise Algorithmen eine Mitschuld tragen, u.a. weil sie uns ungeduldiger machen und von der Welt fern halten.

Entsprechend war es spannend zu sehen, ob ChatGPT sich ebenfalls als Maschine sieht, die ein Interesse daran hat, die Diskussion am Laufen zu halten und so paradoxerweise einerseits rät, mehr in Resonanz mit Menschen zu gehen, um Entfremdungen von der Welt entgegen zu wirken und andererseits durch das stetige Nachfragen den Dialogpartner genau davon abhält.

Tatsächlich sieht sich ChatGPT selbst nicht in der Lage, dem Dialogpartner den Rat zu geben, genau jetzt in der realen Welt in Resonanz mit anderen Menschen zu gehen, weil ihm selbst das Erleben dafür fehlt. Es bleibt daher in einer Art kognitiver Dauerschleife hängen, die schlimmstenfalls sogar dazu führen kann, zwar theoretisch alles durchdacht zu haben, jedoch praktisch nichts umzusetzen.

Aus diesem Grund ist ein Dialog mit einer KI eine äußerst anregende Sache, aus praktischer Sicht jedoch kein wirklicher Game-Changer. Immerhin ist es spannend, dass sich eine KI über sich selbst Gedanken machen kann.

Den gesamten Dialog gibt es hier:

Der gekränkte Mensch der Moderne: Pandemie, Umwelt, KI und die eigene Biographie

Bild von redgreystock auf Freepik

(Der folgende Text findet sich ausführlicher in meinem eBook „Du bist nicht schuld“ als Kindle-Version auf Amazon, wurde jedoch an manchen Stellen aktualisiert.)

Warum kochen bei vielen Menschen die Emotionen bei Themen wie Corona, Atomkraft, Krieg, Gendern, usw. so hoch wie vermutlich noch nie in unserer Geschichte? Dies mag zum einen an der Digitalisierung liegen. Im Internet treffen Filterblasen aufeinander, die ansonsten nichts miteinander zu tun hätten. Zudem sind Diskussionen in digitalen Medien nicht gerade produktiv, sondern eskalationsfördernd. Untersuchen wir jedoch den Ursprung solcher Eskalationen, stoßen wir schnell auf das Phänomen der Kränkung, einen Begriff, mit dem sich auch die Autoren Oliver Nachtwey und Carolin Amringer bei ihrer Untersuchung des Querdenken-Milieus beschäftigen.

Die großen Kränkungen der Menschheit

Kränkungen gibt es nicht erst seit kurzem. Auf der einen Seite gibt es die alltäglichen Kränkungen beispielsweise durch Mobbing am Arbeitsplatz oder die Nichtbeachtung im Falle einer Beförderung. Daneben gibt es jedoch auch die mit großen Umbrüchen und Veränderungen verbundenen Kränkungen der Menschheit oder zumindest großer Teile von Bevölkerungsschichten. Nachdem Sigmund Freud auf drei große, globale Kränkungen hinwies, kommen im Zuge der Digitalisierung und insbesondere dem Einsatz einer KI wie ChatGPT weitere Kränkungen hinzu:1

  • Die erste Kränkung bestand nach Freud darin, dass die Erde nicht der Mittelpunkt des Universums ist.
  • Die zweite Kränkung bestand in der Erkenntnis, dass der Mensch vom Affen abstammt und damit nicht die Krone der Schöpfung Gottes ist.
  • Die dritte Kränkung bestand darin, dass es ein Unterbewusstsein gibt und der Mensch weniger Kontrolle über sein Leben hat, als er bislang dachte.
  • Die vierte Kränkung begann in den 50er Jahren mit der Automatisierung der Arbeitswelt. Zwar helfen Maschinen dem Menschen, schwere oder stupide Arbeiten zu erledigen. Dennoch droht damit immer auch die Ersetzbarkeit des Menschen. Und je schneller und genauer unsere Computer werden, desto größer ist die Kränkung.
  • Die fünfte Kränkung schließlich sieht intelligente Computer als dem Menschen ebenbürtig oder sogar überlegen an. Mit Big Data lassen sich in wenigen Sekunden Zukunftsmodelle errechnen, für die der Mensch Jahre bräuchte.2 Und mit ChatGPT könnte es sogar kreativen Berufszweigen an den Kragen gehen.

Emotionen können Algorithmen noch nicht empfinden. Sollte jedoch eines Tages ein Computer dazu fähig sein, genauso spontan und emotional zu reagieren wie ein Mensch, wäre dies die sechste Kränkung. Filmische Visionen davon gibt es bereits. In Alien 4 beispielsweise spielt Winona Ryder eine Androidin, die menschlicher ist als die Menschen um sie herum. Wir sollten uns also darüber freuen, dass ChatGPT aktuell noch eher langweilige, weil rezitierende Ergebnisse liefert.

Natürlich war auch die Pandemie eine einzige große Kränkung. Wer glaubte, das Leben würde immer so weitergehen und wir müssten vor Epidemien wie der Pest keine Angst mehr haben, musste sich eines besseren belehren lassen. Auch der drohende Umweltkollaps, die Energiekrise oder ein Krieg direkt von der eigenen europäischen Haustür lassen sich als Kränkungen bezeichnen. Mutter Erde hat lange gebraucht, um nach jahrhundertelanger Ausbeutung „zurückzuschlagen“. Jetzt ist es wohl soweit. Und nachdem wir jahrzehntelang gut von billigem russischem Gas lebten, hat auch das ein Ende.

Dabei zeigt sich bei großen Menschheitskränkungen, dass nie alle Menschen gleich betroffen sind. Kopernikus war sicherlich nicht gekränkt, sondern die Kirche. Auch Darwin wurde vermutlich nicht durch seine eigenen Studien gekränkt. Wer während Corona ohnehin schon im Homeoffice war, musste sich kaum umstellen. Wer im Norden und nicht gerade am Wasser lebt, könnte den Klimawandel begrüßen. Und wer von Automatisierungen, der Digitalisierung, dem Internet und smarten Algorithmen profitiert, wird sich kaum von der Geschichte übergangen fühlen, sondern diese gesellschaftlichen Veränderungen als Chance betrachten. Wer jedoch bislang sein Geld mit Handarbeit verdiente und nun sieht, dass 2014 alleine der Verkauf von Whats App an Facebook 22 Milliarden Dollar wert war, fragt sich, ob die Welt, in der er sich befindet, noch die seine ist.

Die eigene Biographie als Kränkung

Eine Kränkung verletzt einen Menschen in seiner Ehre, Würde, seinen Gefühlen und seiner Selbstachtung. Sie erschüttert die eigenen Werte, den Selbstwert und Gerechtigkeitssinn. Kränkungen können nur stattfinden, wenn zuvor etwas anderes erwartet wurde. Sie haben immer mit einer Enttäuschung oder sogar einem Schock zu tun.3 Oftmals hängen Kränkungen auch mit einem Vertrauensbruch oder empfundenen Ungerechtigkeiten zusammen.

Wenn wir uns Personen ansehen, die häufig im Kreuzfeuer stehen, lassen sich klare Muster erkennen. Ein Dieter Nuhr war früher bei den Grünen und beobachtet nun, dass sich die einstige Friedenspartei doch ein wenig gewandelt hat. Auch ein Jan Fleischhauer betont, dass er früher politisch Links stand. Dass sich Menschen wandeln, wenn sie älter werden, ist logischerweise normal. Dennoch ist eine subliminale Kränkung nicht auszuschließen. Das gleiche Phänomen beobachte ich selbst auch in meinem Freundeskreis: „In den 80er-Jahren war die Rede vom sauren Regen, der unsere Wälder zerstört. Und jetzt hat sich der Bayerische Wald wieder erholt.“ Zumindest oberflächlich – den unsichtbaren Wassermangel ausgeklammert – scheint es so zu sein, als wäre es nicht so schlimm gekommen wie propagiert.

Anderes Beispiel: „Als Kind habe ich in den 80ern angefangen Müll zu trennen, nur um jetzt – über 30 Jahre später – in der Doku „Die Recyclinglüge“ auf ARD zu sehen, was wirklich mit dem Inhalt des Gelben Sacks passiert. Da fühlt man sich doch ein wenig vera…“.

Um bei diesem einen, drastischen Beispiel zu bleiben: Das jahrelange Recyceln scheint in diesem Fall wenig gebracht zu haben. Damit wird ein Teil der eigenen Überzeugungen entwertet. Gleichzeitig scheint in den letzten Jahrzehnten auf der großen politischen und industriellen Ebene wenig vorangekommen zu sein. Sprich: Wir haben unseren Müll getrennt, aber ansonsten ging es weiter wie gehabt.

Und die aktuelle Kriegsdiskussion folgt einem ähnlichen Schema: Während früher Friedensdemos in einer bestimmten Szene angesehen waren, gelten sie nun als unsolidarisch.

Kein Wunder, dass manche Menschen hier nicht mehr mitkommen und entweder auf die Barrikaden gehen oder sich zynisch von der Politik abwenden.

Vom Umgang mit Kränkungen

Wenn Kränkungen v.a. diejenigen betreffen, die sich etwas anderes erwarteten, ist auch denkbar, dass diejenigen Menschen, die sich in den letzten Jahrzehnten am meisten engagiert haben auch diejenigen sind, die am meisten gekränkt sind.

Bereits diese Erkenntnis könnte uns milder stimmen im Umgang miteinander, insbesondere wenn es um Generationenkonflikte geht. Denn jüngere Generationen konnten logischerweise noch nicht so stark enttäuscht werden wie engagierte, ältere Generationen.

1 Vgl. https://digital-magazin.de/kraenkungen-des-menschen-digitalisierung

2 Vgl. Michael Hübler: New Work (2018), S. 35ff

3 Vgl. www.gesundheit.gv.at/leben/psyche-seele/praevention/kraenkungen-folgen.html

Mit Algorithmen-Ethik gegen Kontrollverlust

Es ist paradox: Je komplexer Probleme werden, desto eher müssen wir auf Algorithmen zurückgreifen, die wir nicht mehr verstehen, erleiden damit jedoch indirekt einen Kontrollverlust, was unseren Stress wiederum erhöht. Außer wir vertrauen blind auf Algorithmen. Dafür bräuchte es allerdings eine intensive Beschäftigung mit Algorithmen-Ethik. Denn die Vorbehalte gerade in Deutschland gegen die Digitalisierung und die Macht künstlicher Intelligenzen sind groß.

Wer sich mit Algorithmen-Ethik beschäftigt kommt an der Bertelsmann-Stiftung und der Webseite https://algorithmenethik.de und dem Buch von Jörg Dräger und Mark Müller-Eiselt „Wir und die intelligenten Machinen“ nicht vorbei.

Die folgenden Prinzipien im Umgang mit Algorithmen – inspiriert durch die genannten Quellen – zeigen Ihnen, wie eine Algorithmen-Diskussion in Ihrem Unternehmen stattfinden kann:

Vertrauen in die Technik

Algorithmen erleichtern nicht nur unser Leben. Viele Probleme in einer komplexen Welt ließen sich nicht mehr ohne Künstliche Intelligenz lösen. Umso wichtiger ist es, transparent mit dem Einsatz von KI umzugehen. Algorithmen sollten nicht dafür da sein, Mitarbeiter:innen zu überwachen und zu Höchstleistungen anzutreiben, sondern zur Unterstützung in der Arbeit. Die Mitarbeiter:innen müssen nicht verstehen, wie Algorithmen funktionieren. Es sollte jedoch transparent sein, was der Sinn und Zweck eines Algorithmus ist.

Zeit für das Wesentliche vs. Erhöhung der Effizienz

Chatbots oder Roboter-Assistenten können uns dabei helfen, uns auf das zu konzentrieren, was uns wirklich am Herzen liegt. KI-Systeme können Spammails aussortieren, automatische Programme verfassen Standardpressemitteilungen und Ärzte und Pfleger haben dank Versorgungsrobotern mehr Zeit für die Patienten. Dabei müssen wir jedoch aufpassen, dass damit keine neuen Standards gesetzt werden und die frei gewordene Zeit langfristig nicht für andere Tätigkeiten verbucht wird. Die Gefahr ist groß, denn die vergangenen technischen Revolutionen führten häufig zu Entlassungen, anstatt den Berufsalltag sinnvoller und menschenfreundlicher zu gestalten.

Faire Unternehmensentscheidungen

Was wäre, wenn in Bewerbungsgesprächen in Zukunft nicht der Bauch oder die Noten entscheiden würden, sondern eine Mischung aus logisch nachvollziehbaren Faktoren? Vor einigen Jahren entwickelte Amazon einen Algorithmus, der die Bewerbungsunterlagen mit den ausgewählten Kandidaten abglich, um herauszufinden, inwiefern man bereits aus den Unterlagen eine Entscheidung ableiten kann. Das Ergebnis stellte sich als zutiefst frauenfeindlich heraus, da die Bewerber der letzten 10 Jahre mehrheitlich männlich waren und damit alle anderen Kriterien überschatteten. Daraus folgt zweierlei: 1. Augen auf bei der Auswahl der Daten. Und 2. Faire Entscheidungen sollten sich nicht nur auf die Vergangenheit beziehen, sondern auch in die Zukunft gerichtet sein. Dies gilt selbstredend nicht nur für das vermeintlich einfache Beispiel der Personalentscheidungen, sondern ebenso für komplexe Unternehmensentscheidungen. Wollen wir die Zukunft fairer gestalten als die Vergangenheit müssen entsprechende Kriterien im Unternehmenskonsens erarbeitet und in Algorithmen eingearbeitet werden.

Eng mit den Unternehmensentscheidungen ist die Verteilung von Ressourcen verbunden. Wie oft passiert es, dass am Jahresende schnell noch ein paar 1000 € ausgegeben werden müssen, oftmals sinnlos, während dasselbe Geld an anderer Stelle fehlt? Oder dass ein Projekt besonders unterstützt wird, weil es von namhaften oder rhetorisch gut geschulten Unterstützern gefördert wird, während andere Projekte vor sich hin dümpeln? Ein Algorithmus, der das gesamte Unternehmen im Blick hat und ebenso weiß, welche Potentiale in einem Projekt schlummern, könnte dem ein Ende setzen. Damit würden nicht mehr Beziehungen oder Präsentationskompetenzen über den Zugang zu Ressourcen bestimmen, sondern leicht nachvollziehbare Fakten.

Diversität: Teilhabe an sozialen Prozessen vs. erzwungene Gleichheit

Eine Teilhabe am Leben bzw. in Firmen an den täglichen sozialen Prozessen ist für jene interessant, die sich aufgrund eines Handicaps schwer tun, mit den Kolleg:innen mitzuhalten. Menschen mit autistischen Zügen könnte beispielsweise eine App dabei helfen, schwierig zu deutende Situationen besser einzuordnen. Dabei sollten wir jedoch aufpassen, Handicaps nicht überzukompensieren, im Sinne von: Wenn du schon diese App hast, musst du auch angemessen an sozialen Prozessen teilhaben. Damit würde sich der Stress, unter dem diese Menschen leiden vielleicht sogar potenzieren. Andererseits macht gerade die Ungleichheit soziale Prozesse spannend und kreativ, wenn verschiedene Sichtweisen in einem Projekt berücksichtigt werden. Denn auch die Kunden haben oft extrem unterschiedliche Sichtweisen und Bedürfnisse.

Prävention versus Erkennung von Problemen

Reicht es für die Gesundheitsvorsorge in einem Unternehmen aus, eine App zu haben, die Krankheiten, bspw. Depressionen, an der Stimme erkennt? Dies kann sicherlich hilfreich sein, auch wenn man hier darauf achten sollte, Stigmata zu verhindern. Dennoch ist eine Gesundheitsapp nach wie vor weniger wert als ein präventiv arbeitendes Gesundheitsprogramm im Unternehmen. Die KI kann ergänzend, nicht jedoch ersetzend wirken. Das gleiche gilt für die Fehlererkennung auf Organisationsebene.

Personalisierte Weiterentwicklungen

Die Weiterbildung wird in der Zukunft ebenso KI-unterstützt stattfinden. Während sich früher meist die üblichen Verdächtigen in Seminaren fortbildeten oder coachen ließen, können in der Zukunft viele E-Learning-Trainings erschwinglich für alle Mitarbeiter angeboten werden, inklusive persönlichem KI-Lerncoach. Algorithmen werden jedoch auch hier immer aus den Daten der Vergangenheit gespeist. Die Entscheidung für eine Fortbildung, die vielleicht nicht auf den ersten Blick ins Bild passt, jedoch entscheidend für die persönliche Weiterbildung ist, sollte nach wie vor erlaubt sein.

Ein Unternehmensfahrplan für Algorithmenethik

Jörg Dräger und Mark Müller-Eiselt empfehlen einen klaren Fahrplanung im Umgang mit Algorithmen im Unternehmen:

  1. Transparenz im Rahmen einer breiten Debatte. Werden im Hintergrund bzw. der Dunkelverarbeitung Entscheidungen getroffen, die kein Mitarbeiter nachvollziehen kann, ist die Ablehnung groß.
  2. Fortlaufende Transparenz und Kontrolle. Algorithmische Entscheidungen müssen klar erkennbar und für Nutzer oder unabhängige Dritte überprüfbar, nachvollziehbar und im Zweifel anfechtbar sein. Stellt sich heraus, dass ein Algorithmus den sozialen Frieden in einem Unternehmen bedroht, sollte sein Einsatz rückgängig gemacht werden.
  3. Vermittlung von Algorithmen-Kompetenz. Jeder Mitarbeiter sollte die Relevanz der Entscheidungen von Algorithmen für ihn einschätzen können. Wer Software beauftragt, entwickelt und anwendet, muss deren psychologische und soziale Konsequenzen für das Unternehmen mitdenken.

Wenn von KI die Rede ist scheint nur der Himmel die Grenze zu sein. Wir haben es selbst in der Hand, dass die Reise in die Zukunft nicht wie bei Ikarus endet.