Wir müssen in Afghanistan viele gemeinsame Tassen Tee trinken. Rajendra Pachauri

„Wir sollten kein Monopol auf ethisches Handeln haben“

Ferngelenkte Roboter sind vom modernen Schlachtfeld nicht wegzudenken. Aber Militärs arbeiten bereits an intelligenten Kriegsmaschinen, die selbstständig über Leben und Tod ihrer Ziele entscheiden. Im Interview mit The European erklärt der Roboterforscher Ronald C. Arkin, wie er den künstlichen Intelligenzen dieser Systeme Moral beibringen möchte, wenn sie schon nicht verhindert werden können.

The European: Ist es möglich, ethische Richtlinien in künstliche Intelligenz einzuprogrammieren, ohne dass diese offen ersichtlich sind? Dass also die künstliche Intelligenz (KI) intuitiv ethisch handelt?
Arkin: Meine Forschungsarbeit beschäftigt sich mit der Frage, wie wir existierende Moralvorstellungen in solche autonomen Systeme übertragen können, ohne dass dabei neue Wertekodexe entstehen. Konkret geht es dabei um von Menschen gemachte Werte, wie etwa das Kriegsrecht in der Genfer Konvention oder in den Angriffsregeln von Streitkräften. Die Frage nach der Intuition lenkt da nur ab, darum geht es auch in meiner Arbeit nicht.

The European: Warum benötigen wir überhaupt ethische Wertvorstellungen für KI? Ist es nicht einfacher, sich auf stupide und mechanisierte Entscheidungen zu beschränken, anstatt eine moralbewusste KI zu fordern?
Arkin: Ethische Standards sind wichtig, wenn wir sicherstellen möchten, dass die KI mit den Wertvorstellungen unserer Gesellschaft konform geht. Die Entscheidung, Maschinen “dumm” zu halten, ist ja auch eine ethische Entscheidung: Die würde die Forschung irgendwann deckeln. Das klingt nicht besonders gut.

“Es wäre falsch, Roboter für alle vorstellbaren Anwendungen auch wirklich zu benutzen”

The European: Ist die KI-Moral die Lösung, um eine dystopische Roboterwelt zu verhindern?
Arkin: Es ist ein Teil der Lösung. Es geht auch darum, die Anwendungsbereiche von Robotern zu verstehen und zu beschränken. Wir müssen Regeln aufstellen, was der KI ermöglicht werden soll und was nicht. Es wäre falsch, Roboter für alle vorstellbaren Anwendungen auch wirklich zu benutzen. Zusätzlich zur Ethik der KI selber müssen wir also sicherstellen, dass auch die Politik, Wissenschaftler, Ingenieure und Firmen diesen ethischen Richtlinien folgen und negative Effekte durch ihre Entscheidungen zu vermeiden helfen.

The European: Müssen wir Robotern also einen eigenen Ethik-Chip einpflanzen? Gerade, weil Software allein vielleicht zu leicht ausgehebelt werden kann?
Arkin: Ich weiß nicht, ob man eine Hardware- oder Softwarelösung bevorzugen sollte. Das ist eine Frage für die Politik, nicht für die Wissenschaft. Ich habe nur einen Software-Prototyp entwickelt, der allerdings noch vor einer Nutzbarkeit deutlich weiterentwickelt und getestet werden muss. Es gibt ohne Zweifel viele andere Wege, das Problem anzugehen. Ich habe nicht zu entscheiden, ob diese Software dann letztendlich vom Militär genutzt wird. Aber auf jeden Fall unterstütze ich aktiv Forderungen nach ethisch vertretbarem Einsatz von Technologie. So wie es auch im Völkerrecht kodifiziert ist.

Der Mensch selbst unterläuft ethische Normen oft genug – schauen Sie sich nur die Wirtschaft an oder Krieg, Verbrechen und Beziehungskrisen. Es gibt keinen Grund, zu denken, dass wir Menschen besonders gut darin sind, Moralvorstellungen umzusetzen. Wir sollten also kein Monopol auf ethisches Handeln haben.

The European: Wie sollte denn eine ethische KI reagieren, wenn sie versehentlich einen Menschen tötet?
Arkin: Der Roboter sollte sein Verhalten so verändern, dass ein solcher Vorfall in Zukunft unwahrscheinlicher wird. In unserer Forschung benutzen wir dafür ein Programm, das dynamisch Schuldgefühle simulieren kann.

The European: Wenn Roboter ethisch handeln können, können sie dann auch kreativ sein?
Arkin: Das ist eine andere Frage. Ethik und Kreativität hängen nicht direkt zusammen.

The European: Wo liegt die Grenze? Könnte die Moral von Robotern über die menschliche Moral hinauswachsen? Müssen wir irgendwann versuchen, mit der KI Schritt zu halten?
Arkin: Das ist vorstellbar. Die Verfechter des Konzepts der Singularity setzen sich eher damit auseinander als ich. Meine Forschungen greifen eher kurzfristige Probleme auf. Zum Beispiel geht es um autonom handelnde Maschinen oder Roboter im Kriegseinsatz. Beides gibt es zum Teil heute schon.

“Wir arbeiten an dezentralisierten Formen der Intelligenz”

The European: Welche Auswirkungen hat Ihre Forschung für künstliche Intelligenz, die serverbasiert funktioniert und nicht an bestimmte Geräte gebunden ist?
Arkin: Wir arbeiten an dezentralisierten Formen der Intelligenz. Das beinhaltet auch heterogene Roboter. Knotenpunkte wie zum Beispiel Server sind ja bekannt als Schwachstellen im System. Aber das heißt nicht, dass Roboter sich nicht untereinander austauschen sollten und kollektiv lernen.

The European: Unethisches Verhalten kann unter Umständen Vorteile bieten: Man ist an weniger Normen gebunden und hat mehr Handlungsoptionen. Wie können wir sicherstellen, dass Roboter mit Moralkodex keinen Nachteil gegenüber anderen Formen der KI haben?
Arkin: Das stimmt, darauf weisen auch meine Kollegen im Militär hin. Ich glaube, dass der beste Ansatz auf internationale Absprachen abzielt. Ich diskutiere das momentan mit dem Internationalen Komitee des Roten Kreuzes – das sind die Initiatoren der Genfer Konvention –, um die Benutzung von Robotern ohne ethische Kodierung einzuschränken oder gar zu verbieten, wenn die internationale Gemeinschaft das möchte. Aber die Debatte muss global geführt werden. Wir müssen uns mit neuen Kriegstechnologien auseinandersetzen.

The European: Sehen die Regeln einer KI-Ethik anders aus als die menschliche Ethik?
Arkin: Wir beschäftigen uns mit der Umsetzung menschlicher Moralvorstellungen für künstliche Intelligenz. Manche Kollegen von mir arbeiten an der Evolution einer Maschinenethik. Aber es ist momentan offen, welche Formen diese Ethik annehmen könnte.

Hat Ihnen das Interview gefallen? Lesen Sie auch ein Gespräch mit Jürgen Trittin: „Wir waren nie ideologisch“

Leserbriefe

comments powered by Disqus

Mehr zum Thema: Gesellschaft, Moral, Ethik

Gespräch

Medium_f6aca2065c
meistgelesen / meistkommentiert