Schlagwort-Archive: KI

Der gekränkte Mensch der Moderne: Pandemie, Umwelt, KI und die eigene Biographie

Bild von redgreystock auf Freepik

(Der folgende Text findet sich ausführlicher in meinem eBook „Du bist nicht schuld“ als Kindle-Version auf Amazon, wurde jedoch an manchen Stellen aktualisiert.)

Warum kochen bei vielen Menschen die Emotionen bei Themen wie Corona, Atomkraft, Krieg, Gendern, usw. so hoch wie vermutlich noch nie in unserer Geschichte? Dies mag zum einen an der Digitalisierung liegen. Im Internet treffen Filterblasen aufeinander, die ansonsten nichts miteinander zu tun hätten. Zudem sind Diskussionen in digitalen Medien nicht gerade produktiv, sondern eskalationsfördernd. Untersuchen wir jedoch den Ursprung solcher Eskalationen, stoßen wir schnell auf das Phänomen der Kränkung, einen Begriff, mit dem sich auch die Autoren Oliver Nachtwey und Carolin Amringer bei ihrer Untersuchung des Querdenken-Milieus beschäftigen.

Die großen Kränkungen der Menschheit

Kränkungen gibt es nicht erst seit kurzem. Auf der einen Seite gibt es die alltäglichen Kränkungen beispielsweise durch Mobbing am Arbeitsplatz oder die Nichtbeachtung im Falle einer Beförderung. Daneben gibt es jedoch auch die mit großen Umbrüchen und Veränderungen verbundenen Kränkungen der Menschheit oder zumindest großer Teile von Bevölkerungsschichten. Nachdem Sigmund Freud auf drei große, globale Kränkungen hinwies, kommen im Zuge der Digitalisierung und insbesondere dem Einsatz einer KI wie ChatGPT weitere Kränkungen hinzu:1

  • Die erste Kränkung bestand nach Freud darin, dass die Erde nicht der Mittelpunkt des Universums ist.
  • Die zweite Kränkung bestand in der Erkenntnis, dass der Mensch vom Affen abstammt und damit nicht die Krone der Schöpfung Gottes ist.
  • Die dritte Kränkung bestand darin, dass es ein Unterbewusstsein gibt und der Mensch weniger Kontrolle über sein Leben hat, als er bislang dachte.
  • Die vierte Kränkung begann in den 50er Jahren mit der Automatisierung der Arbeitswelt. Zwar helfen Maschinen dem Menschen, schwere oder stupide Arbeiten zu erledigen. Dennoch droht damit immer auch die Ersetzbarkeit des Menschen. Und je schneller und genauer unsere Computer werden, desto größer ist die Kränkung.
  • Die fünfte Kränkung schließlich sieht intelligente Computer als dem Menschen ebenbürtig oder sogar überlegen an. Mit Big Data lassen sich in wenigen Sekunden Zukunftsmodelle errechnen, für die der Mensch Jahre bräuchte.2 Und mit ChatGPT könnte es sogar kreativen Berufszweigen an den Kragen gehen.

Emotionen können Algorithmen noch nicht empfinden. Sollte jedoch eines Tages ein Computer dazu fähig sein, genauso spontan und emotional zu reagieren wie ein Mensch, wäre dies die sechste Kränkung. Filmische Visionen davon gibt es bereits. In Alien 4 beispielsweise spielt Winona Ryder eine Androidin, die menschlicher ist als die Menschen um sie herum. Wir sollten uns also darüber freuen, dass ChatGPT aktuell noch eher langweilige, weil rezitierende Ergebnisse liefert.

Natürlich war auch die Pandemie eine einzige große Kränkung. Wer glaubte, das Leben würde immer so weitergehen und wir müssten vor Epidemien wie der Pest keine Angst mehr haben, musste sich eines besseren belehren lassen. Auch der drohende Umweltkollaps, die Energiekrise oder ein Krieg direkt von der eigenen europäischen Haustür lassen sich als Kränkungen bezeichnen. Mutter Erde hat lange gebraucht, um nach jahrhundertelanger Ausbeutung “zurückzuschlagen”. Jetzt ist es wohl soweit. Und nachdem wir jahrzehntelang gut von billigem russischem Gas lebten, hat auch das ein Ende.

Dabei zeigt sich bei großen Menschheitskränkungen, dass nie alle Menschen gleich betroffen sind. Kopernikus war sicherlich nicht gekränkt, sondern die Kirche. Auch Darwin wurde vermutlich nicht durch seine eigenen Studien gekränkt. Wer während Corona ohnehin schon im Homeoffice war, musste sich kaum umstellen. Wer im Norden und nicht gerade am Wasser lebt, könnte den Klimawandel begrüßen. Und wer von Automatisierungen, der Digitalisierung, dem Internet und smarten Algorithmen profitiert, wird sich kaum von der Geschichte übergangen fühlen, sondern diese gesellschaftlichen Veränderungen als Chance betrachten. Wer jedoch bislang sein Geld mit Handarbeit verdiente und nun sieht, dass 2014 alleine der Verkauf von Whats App an Facebook 22 Milliarden Dollar wert war, fragt sich, ob die Welt, in der er sich befindet, noch die seine ist.

Die eigene Biographie als Kränkung

Eine Kränkung verletzt einen Menschen in seiner Ehre, Würde, seinen Gefühlen und seiner Selbstachtung. Sie erschüttert die eigenen Werte, den Selbstwert und Gerechtigkeitssinn. Kränkungen können nur stattfinden, wenn zuvor etwas anderes erwartet wurde. Sie haben immer mit einer Enttäuschung oder sogar einem Schock zu tun.3 Oftmals hängen Kränkungen auch mit einem Vertrauensbruch oder empfundenen Ungerechtigkeiten zusammen.

Wenn wir uns Personen ansehen, die häufig im Kreuzfeuer stehen, lassen sich klare Muster erkennen. Ein Dieter Nuhr war früher bei den Grünen und beobachtet nun, dass sich die einstige Friedenspartei doch ein wenig gewandelt hat. Auch ein Jan Fleischhauer betont, dass er früher politisch Links stand. Dass sich Menschen wandeln, wenn sie älter werden, ist logischerweise normal. Dennoch ist eine subliminale Kränkung nicht auszuschließen. Das gleiche Phänomen beobachte ich selbst auch in meinem Freundeskreis: „In den 80er-Jahren war die Rede vom sauren Regen, der unsere Wälder zerstört. Und jetzt hat sich der Bayerische Wald wieder erholt.“ Zumindest oberflächlich – den unsichtbaren Wassermangel ausgeklammert – scheint es so zu sein, als wäre es nicht so schlimm gekommen wie propagiert.

Anderes Beispiel: „Als Kind habe ich in den 80ern angefangen Müll zu trennen, nur um jetzt – über 30 Jahre später – in der Doku „Die Recyclinglüge“ auf ARD zu sehen, was wirklich mit dem Inhalt des Gelben Sacks passiert. Da fühlt man sich doch ein wenig vera…“.

Um bei diesem einen, drastischen Beispiel zu bleiben: Das jahrelange Recyceln scheint in diesem Fall wenig gebracht zu haben. Damit wird ein Teil der eigenen Überzeugungen entwertet. Gleichzeitig scheint in den letzten Jahrzehnten auf der großen politischen und industriellen Ebene wenig vorangekommen zu sein. Sprich: Wir haben unseren Müll getrennt, aber ansonsten ging es weiter wie gehabt.

Und die aktuelle Kriegsdiskussion folgt einem ähnlichen Schema: Während früher Friedensdemos in einer bestimmten Szene angesehen waren, gelten sie nun als unsolidarisch.

Kein Wunder, dass manche Menschen hier nicht mehr mitkommen und entweder auf die Barrikaden gehen oder sich zynisch von der Politik abwenden.

Vom Umgang mit Kränkungen

Wenn Kränkungen v.a. diejenigen betreffen, die sich etwas anderes erwarteten, ist auch denkbar, dass diejenigen Menschen, die sich in den letzten Jahrzehnten am meisten engagiert haben auch diejenigen sind, die am meisten gekränkt sind.

Bereits diese Erkenntnis könnte uns milder stimmen im Umgang miteinander, insbesondere wenn es um Generationenkonflikte geht. Denn jüngere Generationen konnten logischerweise noch nicht so stark enttäuscht werden wie engagierte, ältere Generationen.

1 Vgl. https://digital-magazin.de/kraenkungen-des-menschen-digitalisierung

2 Vgl. Michael Hübler: New Work (2018), S. 35ff

3 Vgl. www.gesundheit.gv.at/leben/psyche-seele/praevention/kraenkungen-folgen.html

Mit Algorithmen-Ethik gegen Kontrollverlust

Es ist paradox: Je komplexer Probleme werden, desto eher müssen wir auf Algorithmen zurückgreifen, die wir nicht mehr verstehen, erleiden damit jedoch indirekt einen Kontrollverlust, was unseren Stress wiederum erhöht. Außer wir vertrauen blind auf Algorithmen. Dafür bräuchte es allerdings eine intensive Beschäftigung mit Algorithmen-Ethik. Denn die Vorbehalte gerade in Deutschland gegen die Digitalisierung und die Macht künstlicher Intelligenzen sind groß.

Wer sich mit Algorithmen-Ethik beschäftigt kommt an der Bertelsmann-Stiftung und der Webseite https://algorithmenethik.de und dem Buch von Jörg Dräger und Mark Müller-Eiselt “Wir und die intelligenten Machinen” nicht vorbei.

Die folgenden Prinzipien im Umgang mit Algorithmen – inspiriert durch die genannten Quellen – zeigen Ihnen, wie eine Algorithmen-Diskussion in Ihrem Unternehmen stattfinden kann:

Vertrauen in die Technik

Algorithmen erleichtern nicht nur unser Leben. Viele Probleme in einer komplexen Welt ließen sich nicht mehr ohne Künstliche Intelligenz lösen. Umso wichtiger ist es, transparent mit dem Einsatz von KI umzugehen. Algorithmen sollten nicht dafür da sein, Mitarbeiter:innen zu überwachen und zu Höchstleistungen anzutreiben, sondern zur Unterstützung in der Arbeit. Die Mitarbeiter:innen müssen nicht verstehen, wie Algorithmen funktionieren. Es sollte jedoch transparent sein, was der Sinn und Zweck eines Algorithmus ist.

Zeit für das Wesentliche vs. Erhöhung der Effizienz

Chatbots oder Roboter-Assistenten können uns dabei helfen, uns auf das zu konzentrieren, was uns wirklich am Herzen liegt. KI-Systeme können Spammails aussortieren, automatische Programme verfassen Standardpressemitteilungen und Ärzte und Pfleger haben dank Versorgungsrobotern mehr Zeit für die Patienten. Dabei müssen wir jedoch aufpassen, dass damit keine neuen Standards gesetzt werden und die frei gewordene Zeit langfristig nicht für andere Tätigkeiten verbucht wird. Die Gefahr ist groß, denn die vergangenen technischen Revolutionen führten häufig zu Entlassungen, anstatt den Berufsalltag sinnvoller und menschenfreundlicher zu gestalten.

Faire Unternehmensentscheidungen

Was wäre, wenn in Bewerbungsgesprächen in Zukunft nicht der Bauch oder die Noten entscheiden würden, sondern eine Mischung aus logisch nachvollziehbaren Faktoren? Vor einigen Jahren entwickelte Amazon einen Algorithmus, der die Bewerbungsunterlagen mit den ausgewählten Kandidaten abglich, um herauszufinden, inwiefern man bereits aus den Unterlagen eine Entscheidung ableiten kann. Das Ergebnis stellte sich als zutiefst frauenfeindlich heraus, da die Bewerber der letzten 10 Jahre mehrheitlich männlich waren und damit alle anderen Kriterien überschatteten. Daraus folgt zweierlei: 1. Augen auf bei der Auswahl der Daten. Und 2. Faire Entscheidungen sollten sich nicht nur auf die Vergangenheit beziehen, sondern auch in die Zukunft gerichtet sein. Dies gilt selbstredend nicht nur für das vermeintlich einfache Beispiel der Personalentscheidungen, sondern ebenso für komplexe Unternehmensentscheidungen. Wollen wir die Zukunft fairer gestalten als die Vergangenheit müssen entsprechende Kriterien im Unternehmenskonsens erarbeitet und in Algorithmen eingearbeitet werden.

Eng mit den Unternehmensentscheidungen ist die Verteilung von Ressourcen verbunden. Wie oft passiert es, dass am Jahresende schnell noch ein paar 1000 € ausgegeben werden müssen, oftmals sinnlos, während dasselbe Geld an anderer Stelle fehlt? Oder dass ein Projekt besonders unterstützt wird, weil es von namhaften oder rhetorisch gut geschulten Unterstützern gefördert wird, während andere Projekte vor sich hin dümpeln? Ein Algorithmus, der das gesamte Unternehmen im Blick hat und ebenso weiß, welche Potentiale in einem Projekt schlummern, könnte dem ein Ende setzen. Damit würden nicht mehr Beziehungen oder Präsentationskompetenzen über den Zugang zu Ressourcen bestimmen, sondern leicht nachvollziehbare Fakten.

Diversität: Teilhabe an sozialen Prozessen vs. erzwungene Gleichheit

Eine Teilhabe am Leben bzw. in Firmen an den täglichen sozialen Prozessen ist für jene interessant, die sich aufgrund eines Handicaps schwer tun, mit den Kolleg:innen mitzuhalten. Menschen mit autistischen Zügen könnte beispielsweise eine App dabei helfen, schwierig zu deutende Situationen besser einzuordnen. Dabei sollten wir jedoch aufpassen, Handicaps nicht überzukompensieren, im Sinne von: Wenn du schon diese App hast, musst du auch angemessen an sozialen Prozessen teilhaben. Damit würde sich der Stress, unter dem diese Menschen leiden vielleicht sogar potenzieren. Andererseits macht gerade die Ungleichheit soziale Prozesse spannend und kreativ, wenn verschiedene Sichtweisen in einem Projekt berücksichtigt werden. Denn auch die Kunden haben oft extrem unterschiedliche Sichtweisen und Bedürfnisse.

Prävention versus Erkennung von Problemen

Reicht es für die Gesundheitsvorsorge in einem Unternehmen aus, eine App zu haben, die Krankheiten, bspw. Depressionen, an der Stimme erkennt? Dies kann sicherlich hilfreich sein, auch wenn man hier darauf achten sollte, Stigmata zu verhindern. Dennoch ist eine Gesundheitsapp nach wie vor weniger wert als ein präventiv arbeitendes Gesundheitsprogramm im Unternehmen. Die KI kann ergänzend, nicht jedoch ersetzend wirken. Das gleiche gilt für die Fehlererkennung auf Organisationsebene.

Personalisierte Weiterentwicklungen

Die Weiterbildung wird in der Zukunft ebenso KI-unterstützt stattfinden. Während sich früher meist die üblichen Verdächtigen in Seminaren fortbildeten oder coachen ließen, können in der Zukunft viele E-Learning-Trainings erschwinglich für alle Mitarbeiter angeboten werden, inklusive persönlichem KI-Lerncoach. Algorithmen werden jedoch auch hier immer aus den Daten der Vergangenheit gespeist. Die Entscheidung für eine Fortbildung, die vielleicht nicht auf den ersten Blick ins Bild passt, jedoch entscheidend für die persönliche Weiterbildung ist, sollte nach wie vor erlaubt sein.

Ein Unternehmensfahrplan für Algorithmenethik

Jörg Dräger und Mark Müller-Eiselt empfehlen einen klaren Fahrplanung im Umgang mit Algorithmen im Unternehmen:

  1. Transparenz im Rahmen einer breiten Debatte. Werden im Hintergrund bzw. der Dunkelverarbeitung Entscheidungen getroffen, die kein Mitarbeiter nachvollziehen kann, ist die Ablehnung groß.
  2. Fortlaufende Transparenz und Kontrolle. Algorithmische Entscheidungen müssen klar erkennbar und für Nutzer oder unabhängige Dritte überprüfbar, nachvollziehbar und im Zweifel anfechtbar sein. Stellt sich heraus, dass ein Algorithmus den sozialen Frieden in einem Unternehmen bedroht, sollte sein Einsatz rückgängig gemacht werden.
  3. Vermittlung von Algorithmen-Kompetenz. Jeder Mitarbeiter sollte die Relevanz der Entscheidungen von Algorithmen für ihn einschätzen können. Wer Software beauftragt, entwickelt und anwendet, muss deren psychologische und soziale Konsequenzen für das Unternehmen mitdenken.

Wenn von KI die Rede ist scheint nur der Himmel die Grenze zu sein. Wir haben es selbst in der Hand, dass die Reise in die Zukunft nicht wie bei Ikarus endet.

Wie die Wissenschaft entstand

Die Wissenschaft entstand aus dem Zusammenspiel der beiden Halbgötter und Brüder Prometheus und Epimetheus aus der griechischen Mythologie. Epimetheus verlieh den Tieren auf der Erde spezielle Eigenschaften, dem Löwen Stärke oder der Gazelle Schnelligkeit. Doch Epimetheus war vergesslich und als er zu den Menschen kam fiel ihm nichts mehr ein. Deshalb sprang sein Bruder Prometheus, der Vorausdenkende, für ihn in die Bresche und stahl für die Menschen das Feuer und die Kunst von den Göttern, damit sie auch etwas hatten, um gut zu leben. Das Feuer steht für Macht, worauf die Menschen begannen Streit und Krieg zu führen. Die Kunst, auf griechisch techne, steht für die Technik und Wissenschaft. Damit sich die Menschen nicht gegenseitig auslöschten, stattete sie Hermes, der Götterbote, zusätzlich mit Respekt aus.

Epimetheus könnte auch der Gott für Big Data sein, da sein Name übersetzt „nachträglich lernend oder verbindend“ bedeutet, genau das, was mit Big Data gemacht wird: Die Daten werden wahllos gesammelt und erst im nachhinein auf logische Muster untersucht. Prometheus schaut zwar voller naiver Wissbegierde in die Zukunft, jedoch ohne abzuwägen. Prometheus könnte damit der Gott des ungeduldigen Wissenschaftlers sein, der die Atomkraft erfindet, ohne an die Atombombe zu denken. Auf Hermes schließlich geht die Hermeneutik zurück, das wissenschaftliche Denken in Kontexten. Während Epimetheus und Prometheus sorglos einem bloßen Machbarkeitswahn folgen, wägt die Hemeneutik ab und zeigt damit Respekt vor der Natur und sozialen Begebenheiten.

Quelle: James Bridle: New Dark Ages, Beck 2019

Fake-News aus dem Wissenschaftsbetrieb

Aufgrund des Drucks im Wissenschaftsbetrieb hat sich laut einer Studie aus dem Jahr 2011 die Rücknahme von wissenschaftlichen Studien im ersten Jahrzehnt des neuen Jahrtausends verzehnfacht. Vor allem in renommierten Fachzeitschriften werden immer mehr Artikel veröffentlicht. Die Qualitätskontrolle kommt nicht mehr nach und bewertet meist nach der Untersuchung des p-Werts. Der p-Wert bezeichnet die Wahrscheinlichkeit eines bestimmten Ergebnisses in einer Studie. Ein p-Wert von 0,05 gleicht einer Wahrscheinlichkeit von 5% vor. Eine Wahrscheinlichkeit über 5% legt einen Zufall nahe. Eine Wahrscheinlichkeit unter 5% wird von Zeitschriften angenommen. Studien können jedoch durch die Datenauswahl so manipuliert werden, dass deren Ergebnisse auf jeden Fall unter 5% liegen. Letztlich kann damit jedes erwünschte Ergebnis erzeugt werden. Das Prinzip dahinter lautet p-Hacking. Ich könnte beispielsweise herausfinden wollen, ob grüne Würfel häufiger gezinkt sind als blaue und dafür so lange würfeln, bis das Ergebnis unter 5% liegt. Tatsächlich ergaben Untersuchungen, dass eine riesige Mehrheit an Studien knapp unter der 5% lagen, was nahe legt, dass dieser Wert gezielt angestrebt wurde.

Mehr als 2/3 dieser Fehler in der Biomedizin und den Life Sciences entstehen nicht wie vermutet aufgrund von Schludrigkeit und Zeitdruck, sondern aufgrund purer Absicht. Der Druck ist so groß auf die Forscher, dass sie Ergebnisse liefern müssen, um ihren Lehrstuhl oder ihre Reputation zu behalten. Die Klonung menschlicher Stammzellen des Südkoreaners Hwang Woo-suk, was sich Jahre später als dreiste Lüge erwies, ist nur die Spitze des Eisbergs. Um die Güte der Studien zu erhöhen, werden Tests in der Regel von unabhängigen Forschern wiederholt. Dies passiert jedoch kaum noch. Wenn doch fallen immer mehr durch.

Zudem verkommt die medizinische Forschung aufgrund der Digitalisierung immer mehr zu einem reinen Industriebetrieb. Wo früher kleine Teams an einem Medikament forschten, werden heute große Datenmengen durch Algorithmen gejagt, um möglichst viele Medikamente gleichzeitig zu entdecken. Damit geht jedoch die Sorgfalt und Kreativität verloren. Während das Moore‘sche Gesetz davon ausgeht, dass sich die Rechenkapazität und -schnelligkeit von Computern jedes Jahr verdoppelt, haben sich die Anmeldungen medizinischer Präparate alle 9 Jahre halbiert. Deshalb spricht man in wissenschaftlichen Kreisen mittlerweile vom Eroom‘schen Gesetz, Moore rückwärts geschrieben. Während die Rechenleistung mehr wird, geht die Kreativität in der Wissenschaft immer mehr zurück. Vielleicht auch aufgrund des Denkens, dass aus Big Data letztlich alles errechnet werden kann, wenn man nur genug Daten einspeist, um neue Muster zu erkennen, was jedoch offensichtlich ein Trugschluss ist.

Der Vorwurf, Fake-News zu produzieren geht folglich nicht nur in Richtung Trump und Konsorten, sondern kann ebenso in Richtung des vermeintlich seriösen Wissenschaftsbetriebs gerichtet werden.

Quelle: James Bridle: New Dark Ages, Beck 2019