de | en

„KI braucht eine digitale Ethik“

computerwelt.at, 09.10.2019: Künstliche Intelligenz (KI) wird die Art und Weise, wie wir zusammenarbeiten und unseren Alltag gestalten, verändern. In vielen Bereichen ist das bereits heute der Fall: KI nimmt uns Routinetätigkeiten ab und unterstützt uns dabei, schnellere und bessere Entscheidungen zu treffen.

Künstliche Intelligenz kann uns helfen, Fragestellungen aus einem anderen Blickwinkel zu betrachten und in manchen Fällen sogar Leben retten. Aber natürlich wirft der Einsatz von KI auch Fragen auf. Wer ist beispielsweise dafür verantwortlich, dass die Technologie für gute und nicht für böse Zwecke genutzt wird? Es geht, kurz gesagt, um Fragen der Ethik.

Menschen tragen ihre Vorurteile in die KI

Heute steht maschinelle Intelligenz immer häufiger zwischen den Menschen und den Organisationen, mit denen sie es zu tun haben, beispielsweise in Form von Chatbots im Kundendienst. Auch wenn KI im Grunde genommen binär auf 0 und 1 beruht, ist sie nicht neutral. Das kann sie bei genauerer Betrachtung auch gar nicht sein, weil sie von Menschen programmiert wurde, die bestimmte Einstellungen haben und – gewollt oder ungewollt – voreingenommen sind. Beispiele für einen solchen „Bias” finden sich in Bildersuchen, Recruiting-Software, Finanzrecherchen und vielem mehr:

  • Ein Unternehmen nutzt KI bei der Einstellung neuer Mitarbeiter. Das System bezieht dabei die Geschlechterverteilung der Branche in seine Entscheidung mit ein. Dadurch werden bestehende statistische Ungleichgewichte verstärkt, was zu einer systematischen Benachteiligung von Frauen führt.
  • Ein selbst lernender Chatbot auf Twitter wird von den Usern so trainiert, dass er sich zu einem Rassisten entwickelt.
  • Eine führende Software für Gesichtserkennung ist bei dunkelhäutigen Männern und Frauen weniger genau als bei Weißen, wodurch Dunkelhäutige häufiger als potenziell kriminell eingestuft werden.
  • Ein Chirurg muss entscheiden, ob er das Leben einer Mutter oder das des ungeborenen Kindes rettet. Wenn sich der Chirurg in 20 von 20 Fällen für das Kind entscheidet und die KI auf dieser Datenbasis lernt, würde sie diese Entscheidung bis in alle Ewigkeit so treffen.

Die Liste der Beispiele ließe sich noch lange fortführen.

Damit Entscheidungen einer KI vertrauenswürdig sind, müssen sie zuerst einmal nachvollziehbar und transparent sein. Dabei ist es im Vorfeld oft schwer einzuschätzen, an welchen Stellen die Technologie „blinde Flecken“ haben kann. Juristen, Menschenrechtsaktivisten und Wissenschaftler betonen immer wieder die Wichtigkeit von Ethik und Verantwortlichkeit bei der Entwicklung und Implementierung von KI-Systemen. Das klingt vernünftig, wirft allerdings auch einige Fragen auf, etwa nach allgemein gültigen Normen: Wer legt eigentlich diese ethischen Werte fest – und wer setzt sie um?

Ein Ausgangspunkt könnten die internationalen Menschenrechte sein. Dazu müssten sich Technologieunternehmen mit Menschenrechtsgruppen und Wissenschaftlern austauschen und über den gesamten Lebenszyklus ihrer KI-Systeme entsprechende Assessments durchführen. Algorithmen müssten permanent auf den Prüfstand gestellt und immer weiter verfeinert werden, damit sie so akkurat wie möglich sind. Es muss auch Klarheit darüber herrschen, für welchen Einsatzzweck sie empfohlen werden.

Bei Gesichtserkennung beispielsweise reicht eine Trefferquote von 80 Prozent vielleicht aus, wenn es darum geht, Prominente auf Fotos zu erkennen. Wenn es aber um Strafverfolgung oder etwas anderes geht, das die Freiheitsrechte von Personen betrifft, sollte die Hürde schon bei 99 Prozent liegen – und sogar dann sollte dies nicht das einzige Entscheidungskriterium sein. In solchen Fällen sollten auch immer mehrere Menschen mit unterschiedlichem Hintergrund involviert sein – Stichwort „Diversity“ – um Fehlentscheidungen so weit wie möglich zu vermeiden.

Technologie und Menschen sind die Herausforderungen

Die größten Herausforderungen bestehen in zwei Faktoren: Technologie und Menschen. Im Bereich Technologie liegt der Fokus aktuell auf Deep Learning, mit der Konsequenz, dass die Algorithmen oft intransparent sind. Entwickler haben kaum die Möglichkeit, herauszufinden, auf welcher Basis eine Entscheidung oder Empfehlung getroffen wurde. Ein weiteres technisches Problem betrifft die Daten: Wenn Daten verwendet werden, die nicht breit angelegt sind oder irgendeine Art von Verzerrung aufweisen, kann dies zu erheblichen Problemen bei der Erstellung und Anwendung von KI-Modellen führen. Hier müssen die besten und vielfältigsten Datensätze gefunden und genutzt werden, damit sich keine Verzerrungen einschleichen können.

Mit Blick auf die Menschen liegen die Herausforderungen einerseits im Mangel an qualifizierten Data Scientists, wenn es um die Erstellung von KI-Modellen geht; andererseits in der fehlenden Erfahrung mit diesen Modellen seitens der internen Revision. Der Engpass bei Data Scientists wird wohl noch einige Zeit bestehen bleiben. Dies führt zwangsläufig zu deutlich längeren Entwicklungszeiten, weil interne Mitarbeiter sich in Richtung Data Science weiterbilden müssen. Das Gleiche gilt für die interne Revision, der typischerweise die Erfahrung im Umgang mit KI-Algorithmen oder -Modellen fehlt. Auch hier müssen Mitarbeiter, die bisher vor allem mit der Prüfung von Finanzberichten oder Geschäftsprozessen zu tun hatten, aufwändig geschult und trainiert werden.

KI braucht ethische Grundlagen

Technische Algorithmen sind vorerst einmal nur Mathematik. Erst wenn Trainings und Daten ins Spiel kommen, werden Verzerrungen Tür und Tor geöffnet. Wipro hat daher für seine KI-Plattform Holmes das Framework ETHICA (Explainability, Transparency, Human-First, Interpretability, Common Sense, Auditability) entwickelt. Es unterstützt Unternehmen bei einem ethischen KI-Einsatz und gleichzeitig auch vielen Compliance–Richtlinien wie etwa der DSGVO zu entsprechen.

Das Ziel ist es, potenzielle Verzerrungen bereits im Vorfeld so weit wie möglich zu vermeiden. Ein Ansatz liegt in der Einschränkung der Daten, die in den Algorithmus einfließen: Anstatt sämtliche vorhandene personenbezogene Daten zu nutzen, sollten nur jene verwendet werden, die für die jeweilige Entscheidung tatsächlich relevant sind. Beispielsweise werden Name, Geschlecht, Wohnort, etc. zur Bearbeitung eines Kreditantrags von der Bank benötigt, um sicherzugehen, dass die richtige Person den Antrag stellt. Für die weitere Bearbeitung sind einige dieser Daten aber möglicherweise nicht mehr notwendig und sollten daher nicht in den Algorithmus einfließen.

Ein anderes Beispiel ist die Anomalien- und Mustererkennung zur Bekämpfung von Versicherungs- und Zahlungsbetrug. Hier sollten nur historische Daten, unabhängig von der Person und dem Anlassfall, zum Einsatz kommen.

Die Grenzen der KI

Man muss sich der Grenzen der KI bewusst sein und diese offen ansprechen: KI ist eine Blackbox. Und eine Blackbox ist nicht vertrauenswürdig und nur begrenzt rechenschaftspflichtig. Daher kommt dem Menschen als Kontrollinstanz eine wesentliche Rolle zu – sowohl bei der Bereitstellung der richtigen Datenbasis als auch bei der kritischen Hinterfragung der Ergebnisse.

Rückfragehinweis:
cellent GmbH
Mag. Elke Gutzelnig
Lassallestraße 7b, 1020 Wien
Tel: 0676 / 84 17 85 600
elke.gutzelnig@cellent.at | www.cellent.at