Alle Beiträge von Michael Hübler

Eine KI weiß immer, wo es lang geht, auch wenn sie keine Ahnung hat

Dass eine KI nur Aussagen aufgrund der zur Verfügung stehenden Daten ausspucken kann, ist klar. Das Problem besteht jedoch darin, dass …

  1. viele Nutzer*innen davon ausgehen, dass eine KI weniger fehlbar ist als ein Mensch und …
  2. eine KI dafür ausgerichtet ist, Antworten zu liefern, selbst wenn es keine hat. Ich habe jedenfalls noch keine Antwort im Sinne von „da habe ich keine Ahnung“ bekommen.

Beispiel 1: Klare Fehlinformationen

Neulich erkundigte ich mich bei ChatGPT nach den Vergütungssätzen für eine Steuerberatung im Falle der Erbschaftssteuer. Die KI erklärte mir, dass es eine offizielle Tabelle gibt, aus der zu entnehmen ist, ab welchem Wert des Erbes welcher Vollvergütungssatz gilt. Je nach Komplexität können Steuerberater*innen 2 bis 10/10tel davon verlangen. So weit, so klar. Dann jedoch nannte die KI einen Betrag, der in der Tabelle nicht zu finden war. Als ich sie mit einem Verweis auf die Tabelle darauf hinwies, entschuldigte sie sich, meinte, dass sie die Rechnung lediglich für mich vereinfachen (???) wollte, dass sie aber jetzt mit der richtigen Tabelle rechnete und präsentierte mir die gleiche falsche Rechnung erneut.

Beispiel 2: Die KI erfindet ein Modell

Als ich die KI neulich fragte, wie der ATCC-Ansatz aus der Konflikt- und Friedensforschung funktioniert, erfand sie kurzum ein Modell, das es gar nicht gibt:

„Der ATCC-Ansatz ist ein methodischer Rahmen aus der Konflikt- und Friedensarbeit, der dazu dient, Konfliktkontexte zu analysieren und geeignete Handlungsstrategien zu entwickeln. Die Abkürzung ATCC steht für:

  • Akteure
  • Themen
  • Kontexte
  • Dynamiken

Wie aus dem C ein D wurde, bleibt mir rätselhaft.

In Wirklichkeit steht ATCC für „Approche et transformation constructives des conflits“, was ich mir jedoch schlecht merken kann. Der Ansatz ist eher unbekannt. Darauf hingewiesen, korrigierte die KI ihren Fehler. Allerdings wies sie mich noch darauf hin, dass ich sie ja mit den vier Buchstaben auf eine falsche Fährte lenkte. Das klang beinahe ein wenig gekränkt.

Was lernen wir daraus?

Mir kommt die Kommunikation mit einer KI so vor, als würde ich mit jemandem sprechen, der nicht Nein sagen kann. ChatGPT gibt offensichtlich nicht zu, keine Ahnung zu haben. Die KI könnte auch nachfragen, was ich genau mit ATCC meine. Stattdessen erfindet sie ein neues Modell, das zwar nicht unsinnig ist, aber dennoch falsch. Ich muss also schon ein wenig Ahnung davon haben, was ich will. Anders formuliert: Ein Navi ersetzt noch keine/n Navigator*in.

Ohne Anstrengung sind Erfolge nichts wert

Designed by freepik.com

Wann sind wir ergriffen von einer Situation? Wann bewegt uns etwas oder beeindruckt uns? Vermutlich nicht, wenn es zu leicht geht.

Sind wir stolz auf uns, am Abend ein Bier zu trinken? Oder stolz auf unseren Einser-Schüler-Sprößling, weil er sein Abitur geschafft hat? Oder sind wir begeistert von einem 08/15-Projekt?

Stattdessen ist eine ehemalige Trinkerin stolz auf sich, weil sie bereits ein Jahr lang keinen Tropfen Alkohol angerührt hat. Als Eltern sind wir von der Abitur-Zeremonie vermutlich umso bewegter, je schwieriger es unserem Kind fiel. Und der Abschluss in einem Projekt wird umso mehr gefeiert, je unsicherer der Erfolg erschien.

Gleichzeitig werden die Ziele in den Beispielen nicht verfolgt, wenn sie nicht wichtig wären.

All das verdeutlicht: Je unkontrollierbarer ein Erfolg ist, bei gleichzeitiger persönlicher Wichtigkeit, umso mehr Resonanz entsteht in Form von Ergriffenheit, Stolz, Bewegtsein, Begeisterung, Rührung, Erfüllung, Jubel, Euphorie, Zufriedenheit oder Dankbarkeit.

Anders formuliert: Wenn wir es uns zu leicht machen, ist die damit verbundene Erfahrung nichts wert.

Das wiederum verdeutlicht ein Dilemma unseres aktuellen Lebens:

  • Um einen Film anzusehen, müssen wir kaum noch einen Aufwand betreiben, zumindest nicht aus dem Haus gehen und Eintritt für das Kino bezahlen.
  • Das gleiche gilt für das Hören von Musik.
  • Wer auf einen Gipfel will, kann auch die Seilbahn nutzen. Usw.
  • Wer jung und gut ausgebildet ist, kann so leicht wie lange nicht mehr den Job wechseln.

Die Menschen des globalen Nordens befinden sich deshalb in einer paradoxen Lage: Den meisten geht es gut wie noch nie. Gleichzeitig führt die Entfremdung von der Welt aufgrund fehlender Resonanzen zu einer hohen Unzufriedenheit.

Wollen wir die Entfremdung von der Welt aufheben, kommen wir also nicht umhin, es uns wieder schwerer zu machen:

  • Uns Aufgaben vornehmen, bei denen wir scheitern könnten.
  • Ausgewählte Filme im Kino anschauen anstatt in der Mediathek zu streamen.
  • Im Urlaub etwas tun, das in keinem Reiseführer steht.
  • Restaurants besuchen, die es laut Google gar nicht gibt.
  • Um ein Gespräch beim Chef zu einem heiklen Thema bitten.
  • Den Elefanten im Raum bei einer Teamsitzung ansprechen.

Die Erfahrung zeigt: Im ersten Moment ist es anstrengend, sich auf solche Reibungen einzulassen. In der Rückschau sind alle beteiligten dankbar.

Die Herstellung von Resonanz in Konflikten

Designed bei www.freepik.com

In Mediationen oder Konflikt-Coachings erlebe ich häufig, dass eine Partei von der anderen erwartet, sich zu entschuldigen. Dabei ist wohl nichts unbefriedigender als eine oberflächliche Entschuldigung. In Wirklichkeit besteht jedoch das Bedürfnis nach einer positiven Rückmeldung, um die Entfremdung zweier Parteien aufzulösen. Entsprechend lassen sich gelungene Beziehungen über das Phänomen einer positiven gegenseitigen Resonanz beschreiben:

  • A hat ein Bedürfnis, worauf er etwas tut, das bei B etwas auslöst.
  • B handelt entsprechend oder meldet A zurück, was in ihm ausgelöst wurde.
  • A bewertet, ob sein Bedürfnis durch Handeln oder Sprechen von B erfüllt wurde und meldet ebenfalls zurück, welche Resonanz dadurch in ihm ausgelöst wurde.

Es geht hier nicht darum, dass A und B sich unbedingt mögen oder dass beide ihre Bedürfnisse erfüllt bekommen. Es geht vielmehr darum, in einen offenen Austausch einzutreten und sich dadurch gegenseitig rückzumelden, was das Gegenüber in ihnen auslöste. Alles andere wäre ein „ins Leere laufen lassen“ des Anderen:

  • A: Ich möchte, dass du mich ernst nimmst.
  • B: Ich nehme dich doch ernst.
  • A: Nein, das tust du nicht.

Stattdessen entsteht ein resonanter Austausch wie folgt:

  • A: Ich möchte, dass du mich ernst nimmst.
  • B: Mir war nicht bewusst, dass du dich nicht ernst genommen fühlst. Das überrascht mich.
  • A: Jetzt weißt du es.

Ob sich die Beziehung zwischen A und B langfristig verbessert, ist noch unklar. Die Rückmeldung der Resonanz von B führt jedoch zu einer Verbindung der beiden, auf deren Grundlage sich aufbauen lässt.

Es geht also insbesondere in Konflikten und Mediationen weniger um Entschuldigungen, sondern um die Herstellung einer zumindest nicht gleichgültigen, echten Resonanz.

Literatur: Hartmut Rosa – Resonanz

Wie KI beim Denken hilft und dennoch kein Game-Changer für die reale Welt ist

http://de.freepik.com/autor/pch-vector

Das folgende Experiment fand am Abend des 05.08.2025 statt und dauerte etwa 30 Minuten. Es begann mit der Idee, sich mit ChatGPT darüber zu unterhalten, ob die Zunahme von Depressionen und Aggressionen in der Welt zum einen an der grassierenden Hoffnungslosigkeit und zum anderen an einer Entfremdung von der Welt liegt, woran pikanterweise Algorithmen eine Mitschuld tragen, u.a. weil sie uns ungeduldiger machen und von der Welt fern halten.

Entsprechend war es spannend zu sehen, ob ChatGPT sich ebenfalls als Maschine sieht, die ein Interesse daran hat, die Diskussion am Laufen zu halten und so paradoxerweise einerseits rät, mehr in Resonanz mit Menschen zu gehen, um Entfremdungen von der Welt entgegen zu wirken und andererseits durch das stetige Nachfragen den Dialogpartner genau davon abhält.

Tatsächlich sieht sich ChatGPT selbst nicht in der Lage, dem Dialogpartner den Rat zu geben, genau jetzt in der realen Welt in Resonanz mit anderen Menschen zu gehen, weil ihm selbst das Erleben dafür fehlt. Es bleibt daher in einer Art kognitiver Dauerschleife hängen, die schlimmstenfalls sogar dazu führen kann, zwar theoretisch alles durchdacht zu haben, jedoch praktisch nichts umzusetzen.

Aus diesem Grund ist ein Dialog mit einer KI eine äußerst anregende Sache, aus praktischer Sicht jedoch kein wirklicher Game-Changer. Immerhin ist es spannend, dass sich eine KI über sich selbst Gedanken machen kann.

Den gesamten Dialog gibt es hier:

Warum Fakten-Checks in (Gesellschafts-) Konflikten nicht funktionieren

Seit Corona gibt es Fakten-Checks. Und seitdem wissen wir auch, dass Fakten-Checks nicht zur Aufklärung dienen, weil es in Konflikten weniger um Fakten als um gute Geschichten geht. Gute Geschichten wiederum sind spannend erzählt und affizieren, nehmen also ihre Zuhörer*innen emotional mit. Fakten-Checks regen dahingegen eher zum Gähnen an. Es mag wichtig sein, Fakten klar zu stellen. Die Musik spielt jedoch woanders, zumal die Klarstellungen diejenigen, die sie erreichen sollen, nicht erreichen, weil diese etwas ganz anderes interessiert.

Aus diesem Grund brauchen wir Geschichten- statt Fakten-Checks:

„Gute“ Geschichten basieren auf vier Prinzipien:

  1. Sie aktivieren die Zuhörer*innen emotional, indem sie bspw. Empörung, Wut oder Angst auslösen.
  2. Sie bauen auf vorhandenen Vorstellungen oder Vorurteilen auf.
  3. Sie zielen auf eine bestimmte Zielgruppe ab.
  4. Sie bedienen uralte Mythen.

Ein gesellschaftspolitisches Beispiel

Wer den Betrug beim Bürgergeld als eines unserer Hauptprobleme darstellt, bedient genau dieses Schema:

  1. Die Erzählung schürt sowohl die Angst davor, ausgenutzt zu werden als auch die Wut auf diejenigen, die das zulassen.
  2. Die Erzählung bedient Vorurteile über die Faulheit der Betrüger*innen.
  3. Die Zielgruppe sind nicht diejenigen, die sich rational mit dem Thema auseinander setzen und wissen, dass es zwar Betrug gibt, dieser jedoch eher selten ist. Stattdessen zielt die Erzählung auf diejenigen ab, die selbst Angst vor einem Abstieg haben, sich gerne empören und für rationale Argumente eher nicht zugänglich sind.
  4. In diesem Fall greift die Sündenbock-Logik, die immer dann gut funktioniert, wenn echte Lösungen sowohl komplex als auch langfristig sind und es stattdessen anscheinend eine schnelle Triebabfuhr braucht.

Ein unternehmenspolitisches Beispiel

Dieses Schema lässt sich auch leicht auf Unternehmen übertragen, die sich in einer schwierigen Lage befinden oder bei denen große Veränderungen anstehen. Auch in solchen Fällen kursieren bei den Mitarbeiter*innen Geschichten, die oftmals immun sind gegen Fakten:

  1. Dabei spielt die Angst vor Kündigungen ebenso eine Rolle wie die Wut auf eine vermeintlich inkompetente Unternehmensführung, die die Mitarbeiter*innen bewusst im Dunkeln lässt.
  2. Auch die Vorurteile, dass die Belegschaft gegeneinander ausgespielt werden soll oder „man ja ohnehin erst etwas erfährt, wenn es bereits zu spät ist“ sind hier zu finden.
  3. Zielgruppe einer solchen Erzählung besonders kritischer Stimmen sind nicht die Besonnenen, sondern diejenigen, die solchen Geschichten gerne glauben schenken, weil sie anfällig für Verschwörungsgeschichten sind, die komplexe Situationen unterkomplex erklären.
  4. Der Mythos dahinter lautet in diesem Fall David gegen Goliath. Die große, böse Geschäftsleitung namens Goliath ist zwar mächtiger, kann aber durch viele kleine Nadelstiche von der Belegschaft namens David zu Fall gebracht werden. Ein Mythos, den auch Donald Trump häufig bedient.

Umgang mit zerstörerischen Geschichten im Unternehmen

Wie also reagieren, wenn Aufklärung gegen zerstörerische Erzählungen immun ist?

Wenn Fakten-Checks nicht funktionieren, hilft eine Aufklärung über die Wirkungsweise affizierender Geschichten und die dahinter stehenden Vorurteile und Mythen. Das ist logischerweise nur dann möglich, wenn die Vorurteile auch tatsächlich falsch sind. Und dazu wiederum braucht es eine gute Portion Transparenz im Unternehmen.