Eine KI weiß immer, wo es lang geht, auch wenn sie keine Ahnung hat

Dass eine KI nur Aussagen aufgrund der zur Verfügung stehenden Daten ausspucken kann, ist klar. Das Problem besteht jedoch darin, dass …

  1. viele Nutzer*innen davon ausgehen, dass eine KI weniger fehlbar ist als ein Mensch und …
  2. eine KI dafür ausgerichtet ist, Antworten zu liefern, selbst wenn es keine hat. Ich habe jedenfalls noch keine Antwort im Sinne von „da habe ich keine Ahnung“ bekommen.

Beispiel 1: Klare Fehlinformationen

Neulich erkundigte ich mich bei ChatGPT nach den Vergütungssätzen für eine Steuerberatung im Falle der Erbschaftssteuer. Die KI erklärte mir, dass es eine offizielle Tabelle gibt, aus der zu entnehmen ist, ab welchem Wert des Erbes welcher Vollvergütungssatz gilt. Je nach Komplexität können Steuerberater*innen 2 bis 10/10tel davon verlangen. So weit, so klar. Dann jedoch nannte die KI einen Betrag, der in der Tabelle nicht zu finden war. Als ich sie mit einem Verweis auf die Tabelle darauf hinwies, entschuldigte sie sich, meinte, dass sie die Rechnung lediglich für mich vereinfachen (???) wollte, dass sie aber jetzt mit der richtigen Tabelle rechnete und präsentierte mir die gleiche falsche Rechnung erneut.

Beispiel 2: Die KI erfindet ein Modell

Als ich die KI neulich fragte, wie der ATCC-Ansatz aus der Konflikt- und Friedensforschung funktioniert, erfand sie kurzum ein Modell, das es gar nicht gibt:

„Der ATCC-Ansatz ist ein methodischer Rahmen aus der Konflikt- und Friedensarbeit, der dazu dient, Konfliktkontexte zu analysieren und geeignete Handlungsstrategien zu entwickeln. Die Abkürzung ATCC steht für:

  • Akteure
  • Themen
  • Kontexte
  • Dynamiken

Wie aus dem C ein D wurde, bleibt mir rätselhaft.

In Wirklichkeit steht ATCC für „Approche et transformation constructives des conflits“, was ich mir jedoch schlecht merken kann. Der Ansatz ist eher unbekannt. Darauf hingewiesen, korrigierte die KI ihren Fehler. Allerdings wies sie mich noch darauf hin, dass ich sie ja mit den vier Buchstaben auf eine falsche Fährte lenkte. Das klang beinahe ein wenig gekränkt.

Was lernen wir daraus?

Mir kommt die Kommunikation mit einer KI so vor, als würde ich mit jemandem sprechen, der nicht Nein sagen kann. ChatGPT gibt offensichtlich nicht zu, keine Ahnung zu haben. Die KI könnte auch nachfragen, was ich genau mit ATCC meine. Stattdessen erfindet sie ein neues Modell, das zwar nicht unsinnig ist, aber dennoch falsch. Ich muss also schon ein wenig Ahnung davon haben, was ich will. Anders formuliert: Ein Navi ersetzt noch keine/n Navigator*in.