Schlagwort-Archive: Künstliche Intelligenz

Mit Algorithmen-Ethik gegen Kontrollverlust

Es ist paradox: Je komplexer Probleme werden, desto eher müssen wir auf Algorithmen zurückgreifen, die wir nicht mehr verstehen, erleiden damit jedoch indirekt einen Kontrollverlust, was unseren Stress wiederum erhöht. Außer wir vertrauen blind auf Algorithmen. Dafür bräuchte es allerdings eine intensive Beschäftigung mit Algorithmen-Ethik. Denn die Vorbehalte gerade in Deutschland gegen die Digitalisierung und die Macht künstlicher Intelligenzen sind groß.

Wer sich mit Algorithmen-Ethik beschäftigt kommt an der Bertelsmann-Stiftung und der Webseite https://algorithmenethik.de und dem Buch von Jörg Dräger und Mark Müller-Eiselt “Wir und die intelligenten Machinen” nicht vorbei.

Die folgenden Prinzipien im Umgang mit Algorithmen – inspiriert durch die genannten Quellen – zeigen Ihnen, wie eine Algorithmen-Diskussion in Ihrem Unternehmen stattfinden kann:

Vertrauen in die Technik

Algorithmen erleichtern nicht nur unser Leben. Viele Probleme in einer komplexen Welt ließen sich nicht mehr ohne Künstliche Intelligenz lösen. Umso wichtiger ist es, transparent mit dem Einsatz von KI umzugehen. Algorithmen sollten nicht dafür da sein, Mitarbeiter:innen zu überwachen und zu Höchstleistungen anzutreiben, sondern zur Unterstützung in der Arbeit. Die Mitarbeiter:innen müssen nicht verstehen, wie Algorithmen funktionieren. Es sollte jedoch transparent sein, was der Sinn und Zweck eines Algorithmus ist.

Zeit für das Wesentliche vs. Erhöhung der Effizienz

Chatbots oder Roboter-Assistenten können uns dabei helfen, uns auf das zu konzentrieren, was uns wirklich am Herzen liegt. KI-Systeme können Spammails aussortieren, automatische Programme verfassen Standardpressemitteilungen und Ärzte und Pfleger haben dank Versorgungsrobotern mehr Zeit für die Patienten. Dabei müssen wir jedoch aufpassen, dass damit keine neuen Standards gesetzt werden und die frei gewordene Zeit langfristig nicht für andere Tätigkeiten verbucht wird. Die Gefahr ist groß, denn die vergangenen technischen Revolutionen führten häufig zu Entlassungen, anstatt den Berufsalltag sinnvoller und menschenfreundlicher zu gestalten.

Faire Unternehmensentscheidungen

Was wäre, wenn in Bewerbungsgesprächen in Zukunft nicht der Bauch oder die Noten entscheiden würden, sondern eine Mischung aus logisch nachvollziehbaren Faktoren? Vor einigen Jahren entwickelte Amazon einen Algorithmus, der die Bewerbungsunterlagen mit den ausgewählten Kandidaten abglich, um herauszufinden, inwiefern man bereits aus den Unterlagen eine Entscheidung ableiten kann. Das Ergebnis stellte sich als zutiefst frauenfeindlich heraus, da die Bewerber der letzten 10 Jahre mehrheitlich männlich waren und damit alle anderen Kriterien überschatteten. Daraus folgt zweierlei: 1. Augen auf bei der Auswahl der Daten. Und 2. Faire Entscheidungen sollten sich nicht nur auf die Vergangenheit beziehen, sondern auch in die Zukunft gerichtet sein. Dies gilt selbstredend nicht nur für das vermeintlich einfache Beispiel der Personalentscheidungen, sondern ebenso für komplexe Unternehmensentscheidungen. Wollen wir die Zukunft fairer gestalten als die Vergangenheit müssen entsprechende Kriterien im Unternehmenskonsens erarbeitet und in Algorithmen eingearbeitet werden.

Eng mit den Unternehmensentscheidungen ist die Verteilung von Ressourcen verbunden. Wie oft passiert es, dass am Jahresende schnell noch ein paar 1000 € ausgegeben werden müssen, oftmals sinnlos, während dasselbe Geld an anderer Stelle fehlt? Oder dass ein Projekt besonders unterstützt wird, weil es von namhaften oder rhetorisch gut geschulten Unterstützern gefördert wird, während andere Projekte vor sich hin dümpeln? Ein Algorithmus, der das gesamte Unternehmen im Blick hat und ebenso weiß, welche Potentiale in einem Projekt schlummern, könnte dem ein Ende setzen. Damit würden nicht mehr Beziehungen oder Präsentationskompetenzen über den Zugang zu Ressourcen bestimmen, sondern leicht nachvollziehbare Fakten.

Diversität: Teilhabe an sozialen Prozessen vs. erzwungene Gleichheit

Eine Teilhabe am Leben bzw. in Firmen an den täglichen sozialen Prozessen ist für jene interessant, die sich aufgrund eines Handicaps schwer tun, mit den Kolleg:innen mitzuhalten. Menschen mit autistischen Zügen könnte beispielsweise eine App dabei helfen, schwierig zu deutende Situationen besser einzuordnen. Dabei sollten wir jedoch aufpassen, Handicaps nicht überzukompensieren, im Sinne von: Wenn du schon diese App hast, musst du auch angemessen an sozialen Prozessen teilhaben. Damit würde sich der Stress, unter dem diese Menschen leiden vielleicht sogar potenzieren. Andererseits macht gerade die Ungleichheit soziale Prozesse spannend und kreativ, wenn verschiedene Sichtweisen in einem Projekt berücksichtigt werden. Denn auch die Kunden haben oft extrem unterschiedliche Sichtweisen und Bedürfnisse.

Prävention versus Erkennung von Problemen

Reicht es für die Gesundheitsvorsorge in einem Unternehmen aus, eine App zu haben, die Krankheiten, bspw. Depressionen, an der Stimme erkennt? Dies kann sicherlich hilfreich sein, auch wenn man hier darauf achten sollte, Stigmata zu verhindern. Dennoch ist eine Gesundheitsapp nach wie vor weniger wert als ein präventiv arbeitendes Gesundheitsprogramm im Unternehmen. Die KI kann ergänzend, nicht jedoch ersetzend wirken. Das gleiche gilt für die Fehlererkennung auf Organisationsebene.

Personalisierte Weiterentwicklungen

Die Weiterbildung wird in der Zukunft ebenso KI-unterstützt stattfinden. Während sich früher meist die üblichen Verdächtigen in Seminaren fortbildeten oder coachen ließen, können in der Zukunft viele E-Learning-Trainings erschwinglich für alle Mitarbeiter angeboten werden, inklusive persönlichem KI-Lerncoach. Algorithmen werden jedoch auch hier immer aus den Daten der Vergangenheit gespeist. Die Entscheidung für eine Fortbildung, die vielleicht nicht auf den ersten Blick ins Bild passt, jedoch entscheidend für die persönliche Weiterbildung ist, sollte nach wie vor erlaubt sein.

Ein Unternehmensfahrplan für Algorithmenethik

Jörg Dräger und Mark Müller-Eiselt empfehlen einen klaren Fahrplanung im Umgang mit Algorithmen im Unternehmen:

  1. Transparenz im Rahmen einer breiten Debatte. Werden im Hintergrund bzw. der Dunkelverarbeitung Entscheidungen getroffen, die kein Mitarbeiter nachvollziehen kann, ist die Ablehnung groß.
  2. Fortlaufende Transparenz und Kontrolle. Algorithmische Entscheidungen müssen klar erkennbar und für Nutzer oder unabhängige Dritte überprüfbar, nachvollziehbar und im Zweifel anfechtbar sein. Stellt sich heraus, dass ein Algorithmus den sozialen Frieden in einem Unternehmen bedroht, sollte sein Einsatz rückgängig gemacht werden.
  3. Vermittlung von Algorithmen-Kompetenz. Jeder Mitarbeiter sollte die Relevanz der Entscheidungen von Algorithmen für ihn einschätzen können. Wer Software beauftragt, entwickelt und anwendet, muss deren psychologische und soziale Konsequenzen für das Unternehmen mitdenken.

Wenn von KI die Rede ist scheint nur der Himmel die Grenze zu sein. Wir haben es selbst in der Hand, dass die Reise in die Zukunft nicht wie bei Ikarus endet.

Wie die Wissenschaft entstand

Die Wissenschaft entstand aus dem Zusammenspiel der beiden Halbgötter und Brüder Prometheus und Epimetheus aus der griechischen Mythologie. Epimetheus verlieh den Tieren auf der Erde spezielle Eigenschaften, dem Löwen Stärke oder der Gazelle Schnelligkeit. Doch Epimetheus war vergesslich und als er zu den Menschen kam fiel ihm nichts mehr ein. Deshalb sprang sein Bruder Prometheus, der Vorausdenkende, für ihn in die Bresche und stahl für die Menschen das Feuer und die Kunst von den Göttern, damit sie auch etwas hatten, um gut zu leben. Das Feuer steht für Macht, worauf die Menschen begannen Streit und Krieg zu führen. Die Kunst, auf griechisch techne, steht für die Technik und Wissenschaft. Damit sich die Menschen nicht gegenseitig auslöschten, stattete sie Hermes, der Götterbote, zusätzlich mit Respekt aus.

Epimetheus könnte auch der Gott für Big Data sein, da sein Name übersetzt „nachträglich lernend oder verbindend“ bedeutet, genau das, was mit Big Data gemacht wird: Die Daten werden wahllos gesammelt und erst im nachhinein auf logische Muster untersucht. Prometheus schaut zwar voller naiver Wissbegierde in die Zukunft, jedoch ohne abzuwägen. Prometheus könnte damit der Gott des ungeduldigen Wissenschaftlers sein, der die Atomkraft erfindet, ohne an die Atombombe zu denken. Auf Hermes schließlich geht die Hermeneutik zurück, das wissenschaftliche Denken in Kontexten. Während Epimetheus und Prometheus sorglos einem bloßen Machbarkeitswahn folgen, wägt die Hemeneutik ab und zeigt damit Respekt vor der Natur und sozialen Begebenheiten.

Quelle: James Bridle: New Dark Ages, Beck 2019

Fake-News aus dem Wissenschaftsbetrieb

Aufgrund des Drucks im Wissenschaftsbetrieb hat sich laut einer Studie aus dem Jahr 2011 die Rücknahme von wissenschaftlichen Studien im ersten Jahrzehnt des neuen Jahrtausends verzehnfacht. Vor allem in renommierten Fachzeitschriften werden immer mehr Artikel veröffentlicht. Die Qualitätskontrolle kommt nicht mehr nach und bewertet meist nach der Untersuchung des p-Werts. Der p-Wert bezeichnet die Wahrscheinlichkeit eines bestimmten Ergebnisses in einer Studie. Ein p-Wert von 0,05 gleicht einer Wahrscheinlichkeit von 5% vor. Eine Wahrscheinlichkeit über 5% legt einen Zufall nahe. Eine Wahrscheinlichkeit unter 5% wird von Zeitschriften angenommen. Studien können jedoch durch die Datenauswahl so manipuliert werden, dass deren Ergebnisse auf jeden Fall unter 5% liegen. Letztlich kann damit jedes erwünschte Ergebnis erzeugt werden. Das Prinzip dahinter lautet p-Hacking. Ich könnte beispielsweise herausfinden wollen, ob grüne Würfel häufiger gezinkt sind als blaue und dafür so lange würfeln, bis das Ergebnis unter 5% liegt. Tatsächlich ergaben Untersuchungen, dass eine riesige Mehrheit an Studien knapp unter der 5% lagen, was nahe legt, dass dieser Wert gezielt angestrebt wurde.

Mehr als 2/3 dieser Fehler in der Biomedizin und den Life Sciences entstehen nicht wie vermutet aufgrund von Schludrigkeit und Zeitdruck, sondern aufgrund purer Absicht. Der Druck ist so groß auf die Forscher, dass sie Ergebnisse liefern müssen, um ihren Lehrstuhl oder ihre Reputation zu behalten. Die Klonung menschlicher Stammzellen des Südkoreaners Hwang Woo-suk, was sich Jahre später als dreiste Lüge erwies, ist nur die Spitze des Eisbergs. Um die Güte der Studien zu erhöhen, werden Tests in der Regel von unabhängigen Forschern wiederholt. Dies passiert jedoch kaum noch. Wenn doch fallen immer mehr durch.

Zudem verkommt die medizinische Forschung aufgrund der Digitalisierung immer mehr zu einem reinen Industriebetrieb. Wo früher kleine Teams an einem Medikament forschten, werden heute große Datenmengen durch Algorithmen gejagt, um möglichst viele Medikamente gleichzeitig zu entdecken. Damit geht jedoch die Sorgfalt und Kreativität verloren. Während das Moore‘sche Gesetz davon ausgeht, dass sich die Rechenkapazität und -schnelligkeit von Computern jedes Jahr verdoppelt, haben sich die Anmeldungen medizinischer Präparate alle 9 Jahre halbiert. Deshalb spricht man in wissenschaftlichen Kreisen mittlerweile vom Eroom‘schen Gesetz, Moore rückwärts geschrieben. Während die Rechenleistung mehr wird, geht die Kreativität in der Wissenschaft immer mehr zurück. Vielleicht auch aufgrund des Denkens, dass aus Big Data letztlich alles errechnet werden kann, wenn man nur genug Daten einspeist, um neue Muster zu erkennen, was jedoch offensichtlich ein Trugschluss ist.

Der Vorwurf, Fake-News zu produzieren geht folglich nicht nur in Richtung Trump und Konsorten, sondern kann ebenso in Richtung des vermeintlich seriösen Wissenschaftsbetriebs gerichtet werden.

Quelle: James Bridle: New Dark Ages, Beck 2019