Abgesehen von Ethik, dazu gleich mehr: Eine AI ist dazu in der Lage, Schach besser als jeder Mensch zu spielen. Seit Deep Blue, ein von IBM entwickelter Algorithmus, im Jahr 1997 den Schachgroßmeister Garry Kasparov im Ballsaal eines New Yorker Hotels geschlagen hatte, entwickelte sich AI stetig weiter. Heute sind wir so weit, dass ein kostenloses Schachprogramm am Mobiltelefon jeden noch so guten Spieler übertrifft.
Jedoch haben wir Menschen in einer faszinierenden Wendung eine Methodik entdeckt, die selbst die höchstentwickelte Schach-AI schlägt. Die Methodik: Eine AI berechnet alle möglichen Züge und informiert daraufhin einen guten Schachspieler, der dann die passende Entscheidung trifft.
Um genau zu sein, ist diese Geschichte sogar noch viel spannender: Zwei Hobby-Schachspieler mit drei Computern konnten ein Team von Schachgroßmeistern mit Computerunterstützung souverän schlagen. Doch dies überschreitet den Umfang des Artikels, mehr zu diesem Thema findest du im exzellenten Buch „Range“ von David Epstein.
„Toll! Jetzt haben wir endlich das Allheilmittel für alle Probleme gefunden! Wir lassen einfach ein Team von Menschen mit AI Unterstützung alle Entscheidungen treffen“, könnte man denken. Nein, so leicht funktioniert das leider nicht.
Schach unterliegt klar definierbaren Regeln, die immer gleich bleiben.
Im täglichen Leben gibt es keine klaren Regeln und selbst wenn man Regeln festlegt, ändern sich diese ständig. Im Schach kann eine AI perfekt verstehen, was die Spielfigur „Turm“ ist, weil genau definiert wurde, welche Aufgaben ein Turm hat.
Eine AI kann im echten Leben nicht verstehen, was ein Ball ist, weil ein Ball eine unendliche Anzahl an Dingen machen kann. Es kommt beispielsweise darauf an, womit der Ball zusammenstößt (Fuß, Glasscheibe, Asphalt, Nadel, Luft, …) Menschen verstehen dies, weil das menschliche Gehirn viele tausende mal mehr Rechenleistung hat als der potenteste Supercomputer. Doch selbst mit diesem super, super Computer im Kopf brauchen wir als Babys Monate, wenn nicht sogar Jahre an Rechenzeit und Erfahrung, um akkurate Vorhersagen zu treffen.
Was hat das jetzt mit Ethik und AI zu tun?
All diese Beispiele dienen zu, ein Argument vorzubringen: AI ist (noch) so dumm, dass sie nicht mit einem Menschen vergleichbar ist. AI ist ein Werkzeug. Stell dir AI wie eine Bohrmaschine vor. Du kannst mit der Bohrmaschine wichtige Dinge erreichen (z. B. ein Haus bauen), oder du kannst die Bohrmaschine nutzen, um jemanden zu verletzen.
All das trifft auch auf AI zu.
Sehen wir uns ein paar Beispiele an, bei denen AI ethisch verwerfliche Empfehlungen abgegeben hat:
Amazon Job Bewerber
Amazon hat einer AI alle bisherigen Bewerbungen und die Personal Files der Personen gezeigt, die dann einen Job bekommen haben. Auf diesen Daten hat die AI trainiert und Vorschläge gegeben, wer angestellt werden sollte. Die vorgeschlagenen Kandidaten waren fast ausschließlich alle weißhäutig und männlich. Der Algorithmus wurde angeblich abgeschaltet.
Google-Pictures Afroamerikaner
Eine AI wurde darauf trainiert, Menschen und Objekte zu erkennen und zu benennen. Wenn auf dem Bild ein Hund zu sehen war, bekam das Bild den Tag „Hund“. Bilder mit Afroamerikanern erhielten den Tag „Affe“. Der Algorithmus wurde abgeschaltet.
Gefangenen-Entlassungen in den USA
Ein Algorithmus wurde trainiert, welche Gefangenen vorzeitig entlassen werden sollten, da die Personen eine niedrige Wahrscheinlichkeit hatten, wieder kriminell tätig zu werden. Der Algorithmus gab dunkelhäutigen Menschen keine Chance und lag bezüglich der Vorhersage wer wieder kriminell werden würde völlig falsch. Ein fairer Algorithmus wurde trainiert, bei dem die Gewichtung jedes Kriteriums (wie Hautfarbe, Alter, Verbrechensart, …) genau bekannt ist. Bei diesem Algorithmus wurden noch keine ethisch fragwürdigen Entscheidungen entdeckt. Der fairere Algorithmus wird allerdings fast nirgendwo eingesetzt.
Das Problem bei all diesen Empfehlungen ging nie vom Algorithmus aus, der tat wie ihm aufgetragen wurde. Die Daten, anhand der die Algorithmen trainiert wurden, zeichneten ein ethisch nicht besonders gutes Bild der Firmen. Die Unternehmenskultur bei Amazon ist notorisch sehr hart und anscheinend akzeptieren das nur wenige Frauen. Google hat der AI nur Bilder von weißen Personen gezeigt, daher konnte die AI nie lernen, dass es auch dunkelhäutige Menschen gibt. Die Industrie um Gefangene in den USA ist darauf optimiert, Dunkelhäutige im Gefängnis zu behalten. Der Algorithmus reflektiert dieses Vorgehen.
Ich argumentiere, dass wir noch viele Jahre davon entfernt sind, bis AI ethisch handeln kann. Dazu müsste AI nämlich intelligent genug sein. Heute liegt es noch in der Hand der Menschen zu entscheiden ob und wie AI ethisch zum Einsatz kommt und das ist in drei Aufgabenbereiche unterteilbar:
Ist das Ziel, auf das die AI hin optimiert ist, im Sinne der Ethik?
Als Beispiel: Angenommen, es ist mein Ziel, Menschen zu reihen, um der ersten Person die beste Chance zu geben. Das garantiert, dass die mit dem höchsten Vorsprung auch vorne bleiben. Das ist der Grund, warum in Kanada fast alle professionellen Eishockeyspieler im Januar oder Februar geboren wurden, und nur wenige im Dezember. Es gibt einen Stichtag am 01.01. des jeweiligen Jahres und die ältesten Kinder sind fast 11 Monate älter und somit länger gewachsen, als die Jüngsten. Das ist auch der Grund, warum das Vermögen der Eltern der stärkste Vorhersage-Faktor für den späteren Erfolg der Kinder ist, nicht Intelligenz oder Fleiß. Chancengleichheit könnte da ein besseres Ziel sein.
Das Alignment-Problem
Die Messgröße für das Erreichen des Ziels ist falsch. Angenommen, wir entwickeln eine AI, die sicherstellen soll, dass kein Mensch jemals wieder an Krebs stirbt. Die einfachste Lösung wäre es, alle Krebs-Tests abzuschaffen. Eine andere Möglichkeit wäre es, einfach jeden ab einem gewissen Alter zu töten. Oder… du siehst, wohin das führt. Es gäbe verschiedene Lösungen, die allesamt nicht das sind, was wir uns eigentlich vorstellen. Die Messgröße muss daher ständig überprüft und angepasst werden. Je komplexer die Aufgabe, umso schwieriger sie umzusetzen.
Warum entscheidet sich ein Mensch?
Das ist fast unmöglich zu decodieren. Es ist seit ca. 100 Jahren eine der Hauptbeschäftigungen der Psychologie. Warum sich eine AI entscheidet, ist schwer zu decodieren, aber möglich. Explainable-AI zeigt auf, welche Faktoren für die Entscheidungsfindung der AI besonders wichtig sind. Das erlaubt es jederzeit einzugreifen, wenn die AI etwas macht, das gegen unsere ethischen Ziele verstößt.
Jetzt zum schwierigsten Teil: Zur Frage „Was ist ethisch?“
In meiner Einschätzung ist Ethik immer als ein Optimierungsproblem darstellbar.
Beispiel: Ich finde es nicht ethisch, Menschen zu töten. Doch wenn eine Person im Begriff ist, 30 Unschuldige zu töten und die einzige Möglichkeit denjenigen zu stoppen ist, ihn zu erschießen, finde ich diese Situation fürchterlich. Doch es ist ethisch besser, als 30 Unschuldige passiv getötet zu haben. Du siehst das vielleicht anders und optimierst auf etwas anderes. Wer von uns beiden recht hat, lässt sich nur herausfinden, indem man das exakt identische Szenario hunderte Male durchgespielte und viele Jahre später jeden beeinflussten Menschen befragte, wer glücklicher sei. Es ist also unmöglich.
Eine Annäherung wäre es, zwei möglichst ähnliche Regionen mit dem Umgang mit dieser Situation zu betrachten und zu schauen, wo die Menschen glücklicher sind. Das wirft allerdings die Fragen auf, ob es das „richtige Ziel“ ist „glückliche“ Menschen zu erreichen. Und wie messen wir „glücklich“, da Befragungen oft ungenau sind? Erst wenn das geklärt ist, kann man überprüfen, was besser ist. Fällt dir auf, dass in der Ethik genau dieselben Fragestellungen eine große Rolle spielen wie im Text oben, den Aufgabenbereichen in der AI Entwicklung? Ich argumentiere; das ist so, weil Ethik denselben Regeln unterliegt, Ethik ist ein Optimierungsproblem.
Zum Abschluss meine persönliche ethische Einstellung:
Was ethisch richtig ist, wird von den Siegern bestimmt. Eine Gesellschaft, die über alle anderen dominiert, macht etwas richtig. Wenn eine andere Gesellschaft fundamental etwas „richtiger“ macht, ist es eine Frage der Zeit und Gelegenheiten, bis diese Gesellschaft dominiert.
- Die Frage nach Kapitalismus vs. kommunistischer Planwirtschaft wurde beantwortet.
- Die Frage nach Demokratie vs. Diktatur wurde und wird oft beantwortet.
- Die Frage nach Klimawandel vs. Klimawandel-Leugnen wird gerade beantwortet.
Bei all diesen Fragestellungen gibt es eine dominante Strategie, die, wie es scheint, bessere Ergebnisse liefert und daher auch im Sinne der Ethik ist.
Dieser Satz wird hoffentlich einigen von euch ganz sauer aufstoßen. Aber es ist meine volle Überzeugung.
Ich, zum Beispiel, finde es ethisch äußerst verwerflich, Kinder religiös zu indoktrinieren. Ich halte es für absolut unethisch, Kinder zu taufen, oder in Religion zu unterrichten. Meiner Meinung nach muss das jeder Mensch für sich selbst entscheiden, sagen wir ab dem Alter von 14 Jahren. Meine Ansichten sind für dich wahrscheinlich schwer nachvollziehbar, und du hast damit auch recht. Im Gegensatz zu mir befindest du dich in der Mehrheit, daher wäre es unethisch, wenn man Ihnen verbieten würde, Ihre Kinder zu taufen. Das andere Extrem ist es, wenn jemand glaubt, dass jede Person, die nicht derselben Religion anhängt, getötet werden sollte.
Wir haben in der Realität getestet, welche dieser beiden Extreme besser funktioniert. Keines, beide sind schlecht. Daher gibt es in ex-kommunistischen Ländern inzwischen wieder Taufe, und der Islamische Staat (Syrisch/irakische Rebellen) existiert nicht mehr. Das echte Leben hat eine optimale Strategie entdeckt und damit haben wir eine (vorläufige) Antwort auf diese ethische Frage erhalten.