Wir lassen den Computer unseren Körper und Geist kommandieren. Linda Stone

Kommen jetzt die neuen Robotergesetze?

Die drei Robotergesetze kennt fast jeder. Oder hat wenigstens schon davon gehört. Leider hat ihr Schöpfer nicht gesagt, wie solche Vorgaben verbindlich zu machen sind. Inzwischen streben Roboter nach politischen Ämtern und treffen für Menschen Entscheidungen. Gültige Robotergesetze gibt es aber immer noch nicht. Eventuell kann die vom Bundestag kürzlich gegründete KI-Enquete Abhilfe schaffen.

1. Ein Robot darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen.
2. Ein Robot muss den Befehlen eines Menschen gehorchen, es sei denn, solche Befehle stehen im Widerspruch zum ersten Gesetz.
3. Ein Robot muss seine eigene Existenz schützen, solange dieser Schutz nicht dem ersten oder zweiten Gesetz widerspricht.“
(Drei Robotergesetze, Isaac Asimov)

Es ist ein Roboter. Das erkennt man auf dem Wahlplakat von Michito Matsuda sofort. Michito war der digitale Kandidat bei den lokalen Bürgermeisterwahlen der Stadt Tama in der japanischen Präfektur Tokio. Sein Wahlslogan: „Künstliche Intelligenz wird Tama verändern“ stieß auf große Resonanz bei den Wählern. Der KI-Anwärter versprach außerdem, „faire und ausgewogene“ Politik zu betreiben und „Richtlinien für die Zukunft“ zu erarbeiten, wobei er großen Wert auf die Lösung des Problems der alternden Bevölkerung legte, teilte ein japanisches Nachrichtenportal mit.

Doch nicht der Umstand, dass ein Roboter einen Namen tragen oder sich bei einer Wahl aufstellen lassen kann (offenbar haben wir die Frage, ob ein Roboter es überhaupt darf, bereits übersprungen), ist wirklich überraschend, sondern die Tatsache, dass Michito Matsuda gut 4.000 Stimmen sammelte und damit der drittplazierte Kandidat wurde. Der größte Teil der Wählerschaft gab schließlich doch dem bisherigen Bürgermeister den Vorzug, berichtete Russia Today im April dieses Jahres. Diesmal noch.

Menschen wählen Roboter als ihre Repräsentanten?

Wir sollten nicht allzu überrascht sein. Roboter gelten als effektiv, unbestechlich, objektiv und nicht korrumpierbar. „Könnte man einen Roboter schaffen, der in der Lage wäre, einen hohen Regierungsposten einzunehmen, ich glaube, niemand würde ihm gleichkommen können“, sinniert in Asimovs Erzählung Schlagender Beweis die Roboterpsychologin. Infolge der Gesetze der Robotik wäre er nicht imstande, Menschen Schaden zuzufügen, unfähig der Tyrannei, der Korruption, der Dummheit und des Vorurteils.

„Maschinen haben uns ohne Zweifel schon jetzt auf vielen Gebieten überholt“, schrieb der polnische Futurologe Stanislaw Lem und gibt als Beispiel die medizinische Diagnostik an, in der „Maschinen keine schlechteren medizinischen Gutachten erstellen als gute Ärzte“. Was im übrigen der IBM-Großrechner Watson seit einigen Jahren effektiv unter Beweis stellt. Nicht nur in der medizinischen Diagnostik übrigens, auch für Kriegsvoraussagen im Verteidigungsministerium oder bei der Kriminalitätsbekämpfung in den auf Cybercrime spezialisierten Staatsanwaltschaften. Im Grunde genommen ist „[n]och nicht mal ein menschliches Gehirn […] in der Lage, ohne die Hilfe anderer zu regieren“, beobachtete der Science-Fiction-Autor Isaac Asimov.

Und es geht noch weiter. Eberhard Schnebel von der Commerzbank bestätigte auf der Konferenz „Künstliche Intelligenz – Dein Freund oder Helfer?“ des Bundesjustizministeriums in Berlin: „Den souveränen Manager, der aus dem Nichts Entscheidungen trifft, gibt es seit Jahren nicht mehr.“ Der Vater der Management-Kybernetik, Stafford Beer, unterstützt diese These mit der Frage: Kann etwa ein durchschnittlicher Mensch ein einfaches System von drei linearen Gleichungen mit drei Unbekannten im Kopf rechnen? Für den französischen Technologie-Philosophen Gilbert Simondon war indes die Kybernetik eine logische Konsequenz des Fortschritts. Eine weitere logische Konsequenz: das steigende Vertrauen in die Maschinen – und dass man Alter Techno dem Alter Ego mehr und mehr vorziehen werde.

Roboter sind wie Menschen – nur besser

Nicht zuletzt Schuld am – nicht ganz freiwillig – steigenden Vertrauen in die Maschinen ist der anhaltende Trend, alles, was sich digitalisieren lässt, zu digitalisieren. Er trägt dazu bei, Menschen zu konditionieren, sich auf Technologie mehr als auf andere Menschen zu verlassen. Computer sollten bessere Entscheidungen über die Kreditvergabe treffen als menschliche Bankangestellte, würden besser als Händler an der Börse performen und bald uns auch des Fahrspaßes entledigen: Autonome Autos würden Straßen und den Verkehr sicherer machen. Ob das tatsächlich stimmt, ist schwer zu sagen – noch ist niemand in die Zukunft gereist, um zu revidieren oder zu bestätigen, dass da Straßen tatsächlich sicherer geworden sind. Falls es da noch überhaupt Straßen gibt.

Dabei sollte alles, was dem menschlichen Willen ähneln könnte, in der Utopie der Automatisierung und Digitalisierung und als „parasitäre Willkür, unerträglicher Zufall, verunsichernde Störung“ abgelehnt werden, wie Frederic Gros fordert. Alles reguliere sich selbst, es sei keine Überraschung zu befürchten, menschliche Unzulänglichkeit oder Langsamkeit solle nicht stören: „Ein Tag wird kommen, an dem alle Beziehungen zwischen den Menschen und den Dingen, zwischen den Menschen selbst automatisch reguliert werden“, ist sich Gros sicher. Aber in dieser Welt wird auch Ihrem Kardiologen mitgeteilt, dass Sie eine Zigarette geraucht haben, oder Ihr Auto wird sich weigern, im Parkverbot stehen zu bleiben.

Dass Menschen lieber die Entscheidung über die Aufteilung von gemeinsamem Geld einem neutralen Computer als einem Geschäftspartner überlassen, bestätigten in einem Experiment drei Wissenschaftler aus Deutschland und den USA, indem sie Probanden Entscheidungen über eine Geldaufteilung treffen ließen. Mit dieser Strategie – das Überlassen der Entscheidung einem neutralen Computer – würden Menschen offenbar unbewusst negative Emotionen vermeiden, die mit einem potenziellen Vertrauensbruch verbunden sind, stellten die Forscher fest.

Wer Gesetze verletzt, kann kein Roboter sein

Und anders als Menschen, müssen sich Roboter und Maschinen an die moralischen Grundsätze halten, die man ihnen einprogrammiert hat. „Man kann dem System etwa die Pflicht auferlegen, nicht ohne Grund zu töten und zu verletzen, oder niemanden aufgrund seiner Hautfarbe zu benachteiligen“, erklärt der Maschinenethiker Oliver Bendel. Beispielsweise auch solche, wie die berühmten drei Robotergesetze von Isaac Asimov, die die leitenden Grundprinzipien einer ganzen Reihe von ethischen Systemen darstellen. Wenn sich in der asimovschen Sci-Fi-Welt jemand an die drei Robotergesetze hält, dann ist er vermutlich ein Roboter. Oder einfach ein guter Mensch.

Dabei ist es im Fall des einfachen Rechners wie auch der künstlichen Intelligenz, die Prozesse und Entscheidungen einer Organisation nachbildet, die Art, wie die Entscheidungen in realis durch das Management getroffen werden, das tatsächliche Problem. Es sind nicht die Maschinen, die sich ethisch oder unethisch verhalten. Ein Beispiel dafür ist die Personalauswahl bei Bewerbungen. Maschinen setzen generell unser Profitstreben und unsere Effizienzlogiken um, sagte der Sprecher der CCC, Frank Rieger, im Interview mit der Frankfurter Allgemeinen Zeitung. „Nicht die Maschine, der Roboter oder die Software ist die Nemesis, sondern der nach Profit strebende Mensch“, bestätigte in ebendiesem Interview seine Kollegin, Constanze Kurz . Und der Politikwissenschaftler Tomas Meyer erklärte im DLF-Interview anlässlich der Feierlichkeiten zum 200. Geburtstag von Karl Marx: „Im Grunde ist der Kern dieses ganzen Digitalisierungsproblems, dass hier Leute eine neue Technologie entwickeln und anwenden, die rein ihrer Logik der Kapitalverwertung folgt und auf keine gesellschaftlichen Interessen in irgendeiner Weise Rücksicht zu nehmen gedenkt.“

Wer macht heute Vorgaben?

Ob die Algorithmen, die Computer, Roboter, Bots, Maschinen oder künstliche Intelligenzen steuern, öffentlich kontrolliert oder weiter als Geschäftsgeheimnisse privater Unternehmen gehütet werden, ist deswegen auch für die Legitimation der Demokratie von Belang. Spätestens jetzt, wenn die ersten Roboter politische Ämter anstreben, sollten wir nämlich die Frage stellen, wer entscheidet, welche Prinzipien, Grundsätze, Entscheidungsverfahren etc. der künstlichen Intelligenz, den Maschinen und Robotern, die jetzt schon über unsere Kredite und bald eventuell auch über unsere Arbeit und Leben bestimmen, einprogrammiert werden.

Im Fall des japanischen Robo-Bürgermeisterkandidaten waren es der Vizepräsident des japanischen Telekommunikations- und Medienkonzerns Softbank, Tetsuzo Matsumoto, und ein ehemaliger Mitarbeiter der japanischen Niederlassung von Google, Norio Murakami, die die KI geschaffen, programmiert und betrieben haben. Im Falle einer anderen Vorgabe – der deutschen Leitkultur – die, ähnlich wie die Robotergesetze, ein Sammelsurium an Regeln und Erwartungen enthält, die eine bestimmte Bevölkerungsgruppe für einen anderen, disjunkten Teil der Bevölkerung aufstellt, war es vermutlich der Innenminister selbst, seine Mitarbeiter oder – eine Consulting-Firma. Genaueres wissen wir über das Zustandekommen der Leitkultur nicht. Was wir mit Gewissheit wissen, ist, dass der Innenminister sie in einem BILD-Interview erstmalig vorgestellt hatte. Das sollte man bei den Vorgaben für die KI eventuell besser und transparenter gestalten.

Kommen nun die neuen Robotergesetze?

Mit dem Antrag vom 26. Juni 2018 und in der Sitzung am Donnerstag, dem 28. Juni, setzte der Bundestag die Enquete-Kommission „Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potentiale“ ein. Sie sollte „ein Ort sein, an dem Politik gemeinsam mit Expertinnen und Experten eine der zentralen Debatten über die Zukunft der KI als Teil unserer digitalen Gesellschaft aufgreift, konkrete Vorschläge für die politischen Entscheidungsträgerinnen und -träger erarbeitet und damit neue Impulse für die Verwendung von KI in unserem Land setzt. Die Enquete-Kommission soll auf Basis ihrer Untersuchungsergebnisse den staatlichen Handlungsbedarf, national, auf europäischer Ebene und international benennen“ – heißt es im Antrag.

Vom Bundestag wurde die Enquete-Kommission beauftragt, unabhängig von und zusätzlich zu aktuellen Gesetzgebungsverfahren in verschiedenen Bereichen Chancen und Potenziale der KI zu untersuchen. Dazu gehören auch Fragestellungen zu „Werten und ethischen Aspekten“. Darunter „Herausarbeitung von ethischen Prinzipien für die Entwicklung, Programmierung und den Einsatz von KI sowie der Interaktion von Mensch und Maschine“. Die Enquete-Kommission sollte unter anderem auch die Bedeutung unseres Wertesystems und sich daraus ergebende Auswirkungen für KI-basierte Entscheidungen eruieren sowie Lebensbereiche identifizieren, in denen der Einsatz von KI aus ethischen Gründen unvertretbar oder gerade erwünscht sein könnte. Verantwortung und Haftungsfragen beim Einsatz von KI sollten ebenfalls berücksichtigt werden.

Gewiss, ein expliziter Auftrag ist es nicht

Gleichwohl sollte man genauer hinschauen, wer die bereits ernannten Mitglieder der KI-Enquete sind (es sollten 19 Mitglieder sein, darunter sieben aus der CDU/CSU, vier aus der SPD und je zwei aus FDP, AfD, Grüne und Die Linke) sowie wer die ebenfalls 19 noch zu ernennenden Sachverständigen sein werden und welche Themen, Organisationen, Gebiete und Bereiche sie vertreten. Und, falls es möglich wird, die Aktivitäten der KI-Enquete, die „regelmäßig und so transparent wie möglich auf der Internetseite des Bundestages“ informieren wird, verfolgen. Ein Änderungsantrag der Grünen mit der Forderung, dass die Kommission regelmäßig öffentlich tagt und die Sitzungen im Internet live übertragen werden, wurde leider mit der Mehrheit von CDU/CSU, SPD und FDP abgelehnt.

Irgendwann, wenn eine KI Amok läuft und die Menschheit ausradiert, wird es eventuell von Bedeutung sein, was sich die Enquete-Kommission und ihre Mitglieder überlegt haben in Bezug darauf, wer verantwortlich ist und wer das Problem zu beheben und den Schaden zu ersetzen hat. Angenommen natürlich, die KI macht ihren Job nicht allzu effektiv und am Ende bleibt niemand mehr übrig, dem man den Schaden ersetzen könnte. Dann müssten sich aber erst diejenigen eventuell über die Robotergesetze Gedanken machen, die nach uns kommen.

Lesen Sie auch die neuste Kolumne von Aleksandra Sowa: Der gute Bürger

Leserbriefe

comments powered by Disqus

Mehr zum Thema: Rechtsstaat, Intelligenz, Kuenstliche-intelligenz

Debatte

Autonom fahren mithilfe Künstlicher Intelligenz

Medium_6bf14bfb89

Das Potenzial künstlicher Intelligenz

Künstliche Intelligenz findet zunehmend kommerzielle Anwendungen. Unter anderem in den Bereichen Medizin, Fahrzeugsteuerung, Logistik oder der Sprachsteuerung. Während zwischen den USA, China, Russ... weiterlesen

Medium_be3c0a00b0
von Maximilian Thaler
28.04.2018

Kolumne

Medium_45c47f9584
von Gunnar Sohn
07.01.2015

Kolumne

Medium_1d4b1b030e
von Heinrich Schmitz
20.09.2014
meistgelesen / meistkommentiert