Archiv der Kategorie: KI

Eine KI weiß immer, wo es lang geht, auch wenn sie keine Ahnung hat

Dass eine KI nur Aussagen aufgrund der zur Verfügung stehenden Daten ausspucken kann, ist klar. Das Problem besteht jedoch darin, dass …

  1. viele Nutzer*innen davon ausgehen, dass eine KI weniger fehlbar ist als ein Mensch und …
  2. eine KI dafür ausgerichtet ist, Antworten zu liefern, selbst wenn es keine hat. Ich habe jedenfalls noch keine Antwort im Sinne von „da habe ich keine Ahnung“ bekommen.

Beispiel 1: Klare Fehlinformationen

Neulich erkundigte ich mich bei ChatGPT nach den Vergütungssätzen für eine Steuerberatung im Falle der Erbschaftssteuer. Die KI erklärte mir, dass es eine offizielle Tabelle gibt, aus der zu entnehmen ist, ab welchem Wert des Erbes welcher Vollvergütungssatz gilt. Je nach Komplexität können Steuerberater*innen 2 bis 10/10tel davon verlangen. So weit, so klar. Dann jedoch nannte die KI einen Betrag, der in der Tabelle nicht zu finden war. Als ich sie mit einem Verweis auf die Tabelle darauf hinwies, entschuldigte sie sich, meinte, dass sie die Rechnung lediglich für mich vereinfachen (???) wollte, dass sie aber jetzt mit der richtigen Tabelle rechnete und präsentierte mir die gleiche falsche Rechnung erneut.

Beispiel 2: Die KI erfindet ein Modell

Als ich die KI neulich fragte, wie der ATCC-Ansatz aus der Konflikt- und Friedensforschung funktioniert, erfand sie kurzum ein Modell, das es gar nicht gibt:

„Der ATCC-Ansatz ist ein methodischer Rahmen aus der Konflikt- und Friedensarbeit, der dazu dient, Konfliktkontexte zu analysieren und geeignete Handlungsstrategien zu entwickeln. Die Abkürzung ATCC steht für:

  • Akteure
  • Themen
  • Kontexte
  • Dynamiken

Wie aus dem C ein D wurde, bleibt mir rätselhaft.

In Wirklichkeit steht ATCC für „Approche et transformation constructives des conflits“, was ich mir jedoch schlecht merken kann. Der Ansatz ist eher unbekannt. Darauf hingewiesen, korrigierte die KI ihren Fehler. Allerdings wies sie mich noch darauf hin, dass ich sie ja mit den vier Buchstaben auf eine falsche Fährte lenkte. Das klang beinahe ein wenig gekränkt.

Was lernen wir daraus?

Mir kommt die Kommunikation mit einer KI so vor, als würde ich mit jemandem sprechen, der nicht Nein sagen kann. ChatGPT gibt offensichtlich nicht zu, keine Ahnung zu haben. Die KI könnte auch nachfragen, was ich genau mit ATCC meine. Stattdessen erfindet sie ein neues Modell, das zwar nicht unsinnig ist, aber dennoch falsch. Ich muss also schon ein wenig Ahnung davon haben, was ich will. Anders formuliert: Ein Navi ersetzt noch keine/n Navigator*in.

Wie KI beim Denken hilft und dennoch kein Game-Changer für die reale Welt ist

http://de.freepik.com/autor/pch-vector

Das folgende Experiment fand am Abend des 05.08.2025 statt und dauerte etwa 30 Minuten. Es begann mit der Idee, sich mit ChatGPT darüber zu unterhalten, ob die Zunahme von Depressionen und Aggressionen in der Welt zum einen an der grassierenden Hoffnungslosigkeit und zum anderen an einer Entfremdung von der Welt liegt, woran pikanterweise Algorithmen eine Mitschuld tragen, u.a. weil sie uns ungeduldiger machen und von der Welt fern halten.

Entsprechend war es spannend zu sehen, ob ChatGPT sich ebenfalls als Maschine sieht, die ein Interesse daran hat, die Diskussion am Laufen zu halten und so paradoxerweise einerseits rät, mehr in Resonanz mit Menschen zu gehen, um Entfremdungen von der Welt entgegen zu wirken und andererseits durch das stetige Nachfragen den Dialogpartner genau davon abhält.

Tatsächlich sieht sich ChatGPT selbst nicht in der Lage, dem Dialogpartner den Rat zu geben, genau jetzt in der realen Welt in Resonanz mit anderen Menschen zu gehen, weil ihm selbst das Erleben dafür fehlt. Es bleibt daher in einer Art kognitiver Dauerschleife hängen, die schlimmstenfalls sogar dazu führen kann, zwar theoretisch alles durchdacht zu haben, jedoch praktisch nichts umzusetzen.

Aus diesem Grund ist ein Dialog mit einer KI eine äußerst anregende Sache, aus praktischer Sicht jedoch kein wirklicher Game-Changer. Immerhin ist es spannend, dass sich eine KI über sich selbst Gedanken machen kann.

Den gesamten Dialog gibt es hier: