Auch wenn es meine Überzeugung ist, dass eine AI selbst nicht ethisch, also eine Trustworthy AI sein kann — noch nicht — (sehen Sie dazu auch den Blogpost “AI, Schach und was beides mit Ethik zu tun hat”), kann man eine AI jedoch ethisch konstruieren und einsetzen.
Glücklicherweise haben sich viele Gremien bereits mit dieser Frage auseinandergesetzt. Wir halten uns an eine der besten Publikationen, die wir finden konnten: Ethics guidelines for trustworthy AI der Europäischen Kommission (verfügbar in mehr als 20 Sprachen). Ab ca. Seite 30 gibt es eine Bewertungsliste für vertrauenswürdige AI. In mehreren Teilen will ich einen (kurzen) Einblick gewähren, wie wir anhand dieser Liste unsere AI analysiert und diskutiert haben.
1. Der Vorrang menschlichen Handelns
Gleich im ersten Punkt “Vorrang menschlichen Handelns und menschliche Aufsicht” argumentiert die Publikation, dass eine AI nicht die menschliche Autonomie beeinträchtigen darf.
Unsere AI macht Kunden Vorschläge, welche Produkte oder Services am besten zu ihnen passen. Dabei ergibt sich eine wichtige Frage: “Beschränkt unsere AI die Autonomie von Menschen?”
Warum ist diese Frage für uns so wichtig?
Standardeinstellungen sind ein unglaublich mächtiges Tool. Das erste Resultat auf Google, das erste Produkt in der Suche bei Amazon bekommt je fast doppelt so viele Klicks wie das zweite Resultat, fast dreimal so viele Klicks als das dritte Resultat usw. Wer die Reihenfolge von Resultaten beeinflusst, beeinflusst Menschen. Das würde bedeuten, unsere AI beeinflusst Menschen und schränkt so ihre Autonomie ein. Um das zu umgehen, könnte die AI die Ergebnisse zufällig anordnen, aber dann wäre die AI ja völlig überflüssig und das Tool absolut sinnlos.
Sind wir damit in einer ethischen Zwickmühle bei der Trustworthy AI?
Wir haben diesen Punkt intensiv diskutiert, und Martin hat ein wichtiges Argument geliefert:
“Menschen nutzen unseren Service, weil sie erwarten, dass unsere AI ihre Bedürfnisse erkennt und den bestmöglichen Vorschlag liefert. Solange wir diesem Auftrag nachgehen, schränken wir ihre Autonomie nicht ein.
Wenn die AI aber ein verstecktes Ziel hätte, wie zum Beispiel ein bestimmtes Produkt besonders oft vorzuschlagen, egal ob es wirklich passt oder nicht, dann würde die AI das Vertrauen der Besucher verletzen.”
Damit hat er uns überzeugt: Solange die AI darauf optimiert ist, die Bedürfnisse der Nutzer zu erkennen und ihnen zu dienen, solange die AI genau das durchführt, was die Nutzer von ihr erwarten, solange erfüllt sie unser erstes Kriterium einer ethischen AI.
In diesem Sinne ein extremes Beispiel: Angenommen, wir erschaffen eine AI, welche unter allen Bewerbern für eine Mietwohnung die besten auswählt. Der Vermieter würde von uns verlangen, dass wir Menschen ohne deutschen Pass besonders niedrig reihen. Doch das finden wir nicht moralisch angemessen und instruieren die AI im Geheimen, den Faktor “Ausländer” komplett zu ignorieren und ausschließlich den besten Bewerber vorzuschlagen.
In diesem speziellen Punkt würden wir unethisch handeln, da wir die Autonomie des Vermieters missachten. Es wäre aber genau so nicht vertretbar, die Wünsche des Vermieters umzusetzen und damit Menschen ohne deutschen Pass zu benachteiligen. Die Schlussfolgerung: in diesem Fall müssten wir im Voraus mit dem Vermieter sprechen und ihm unsere Gründe für die Ablehnung der Umsetzung offen und transparent darstellen.
Simpel ausgedrückt: Eine ethische AI darf nicht täuschen, lügen oder gar diskriminieren.
Stellen Sie sich zwei Geschäfte vor: im ersten verspricht ihnen der Verkäufer das Blaue vom Himmel, um das Produkt mit der höchsten Marge zu verkaufen, im zweiten stellt der Verkäufer die Vor- und Nachteile der Produkte vor und macht eine Empfehlung, unabhängig von seiner Gewinnmarge. Was glauben Sie – welches der beiden Unternehmen hat längerfristig bessere Aussichten auf Erfolg? Unsere Überzeugung ist es, dass dieser ethische Anspruch dem langfristigen Geschäftserfolg zuträglich ist.
2. Die Bedeutung menschlicher Aufsicht in der Trustworthy AI
Dieser Punkt klingt in der Theorie hervorragend, stellt allerdings AI-Entwickler in der Praxis vor gewaltige Herausforderungen. Am Besten lässt sich dies mit Beispielen erklären: Stellen Sie sich vor, Sie würden Kunden drei Fragen stellen, und es gibt jeweils zwei Auswahlmöglichkeiten. Als Überprüfer wollen Sie sicherstellen, dass die AI keine falschen Ergebnisse liefert. Darum überprüfen Sie alle Kombinationen, in diesem Fall 2 mal 2 mal 2 (oder 2^3), also 8 insgesamt. Dauert nicht lange. Stellen Sie sich im Gegenzug jedoch vor, Sie würden Kunden sechs Fragen stellen mit jeweils drei Auswahlmöglichkeiten. Das sind stattdessen 3^6, also 729 Kombinationen. Spätestens jetzt wird es praktisch unmöglich, als Mensch Qualitätssicherung zu betreiben.
Die Lösung für dieses Problem sind Stichproben, in Programmiersprache “Testcases” genannt, sprich eine Auswahl von vordefinierten Antwortkombinationen. Nach jeder Änderung der AI überprüft ein Mensch, ob die Ergebnisse noch sinnvoll sind.
Die Auswahl dieser Testcases basiert auf einer Mischung aus den meistgenannten Antworten und den Antwortkombinationen, bei denen man davon ausgeht, dass sie besonders schlechte oder falsche Ergebnisse liefern. Wurde auf diese Weise ein Fehler gefunden, muss jede Antwort einzeln überprüft werden, um zu eruieren, welcher Input für die falschen Ergebnisse verantwortlich ist. Entsprechend der AI-Architektur kann dies ein vergleichbar aufwändiger Vorgang sein, da die AI bei komplexen Architekturen vielschichtige Kontext-Abhängigkeiten erlernt.
Als Beispiel: Angenommen, ich wähle Fahrradreifen aus. Wenn ich “dicke Reifen” wünsche, sollte die AI für Stadträder ganz andere Reifen vorschlagen als für Mountainbikes. Die AI muss also lernen, dass die Suche nach “dicken Reifen” kontextabhängig ist.
Aus diesem Grund haben wir ein Interface entwickelt, über welches der AI-Trainer (ein Mensch) Antwortkombinationen eingibt, die Ergebnisse der AI überprüft und dieser AI mit positiven oder negativen Beispielen einen Hinweis liefert, wie die Ergebnisse aussehen sollten – oder eben nicht.
Manchmal ist allerdings eine Auswahl auch so kritisch, dass die AI niemals einen Fehler machen darf. In diesem Fall arbeitet man mit Filtern, welche die AI dazu verleiten, nur eine ganz spezifische Auswahl zu treffen.
Die Stichproben müssen gleichzeitig ein repräsentatives Spektrum der Bevölkerung reflektieren, damit man nicht ungewollt Senioren, Menschen mit Behinderungen, Minderheiten etc. ausschließt oder diskriminiert.
Zusammengefasst: Die Ergebnisse der AI müssen ständig überprüft werden, um eine Diskriminierung zu verhindern.
Bei Weitem sind das natürlich noch nicht alle Punkte, die bei diesem Themenkomplex berücksichtigt werden müssen. Weitere Bereiche werden wir uns in den kommenden Blogposts ansehen.