Man hat versucht, mich bürgerlich zu vernichten. Thilo Sarrazin

Die Antwort lautet nicht „42“

Autonome Fahrzeuge sollen das Fahren sicherer machen. Menschen machen Fehler, verursachen Unfälle. Maschinen können besser und objektiv entscheiden – und vor allem viel schneller reagieren. Im Zeitalter „vollkommener numerischer Sicherheit“ sollte die Sicherheit auf den Straßen nicht mehr von menschlicher Unzulänglichkeit gestört werden. Ist das die finale Lösung für die Mobilität, auch ethisch?

“The answer to this is very simple. It was a joke. It had to be a number, an ordinary, smallish number, and I chose that one. Binary representations, base thirteen, Tibetan monks are all complete nonsense. I sat at my desk, stared into the garden and thought ‘42 will do’. I typed it out. End of story.” (Douglas Adams über die Entstehung der Zahl „42“ aus „The Hitchhikers Guide to the Galaxy“, 1993)

9. August 2017 – das Datum sollte man sich merken. Warum? Weil an diesem Tag @Fischblog, dahinter verbirgt sich Lars Fischer, das Problem der Ethik des autonomen Fahrens gelöst hat, wie die Wissenschaftsjournalistin Eva Wolfangel per Twitter bekannt gab. Wie das? Hier die ganze Geschichte.

Autonome Fahrzeuge sollen das Fahren sicherer machen. Menschen machen Fehler und verursachen Unfälle. Eine Maschine kann besser und objektiv entscheiden – und vor allem viel schneller reagieren. Durch den Einsatz autonomer Fahrzeuge würde sich die Anzahl der Unfälle auf den Straßen verringern lassen, vielleicht irgendwann sogar die tödlichen Unfälle ganz eliminieren. Im Zeitalter der „vollkommen numerischen Sicherheit“ sollte auch die Sicherheit auf den Straßen nicht mehr von menschlicher Unzulänglichkeit oder Langsamkeit gestört werden. Autos regulieren selbst ihre Geschwindigkeit im Verkehr und parken selbstständig ein; Kühlschränke bestellen fehlende Produkte direkt im Supermarkt und stellen das Menü für das Abendessen zusammen; Fenster schließen und öffnen sich automatisch, abhängig von Zeit und Wetterbedingungen, und derelei mehr. Sicher sind sie, weil die Vorgänge frei von menschlichem Eingreifen sind. Alle Dinge werden ihre Tätigkeiten durch das Netzwerk gegenseitig anpassen, ohne von menschlicher Steuerung abhängig zu sein. Sicher, weil dieses System von Nachlässigkeit, Unaufmerksamkeit, Vergesslichkeit oder verlangsamter Reaktionsfähigkeit des Menschen frei ist.

Alles, was dem menschlichen Willen ähneln könnte, wird in diesem Szenario abgelehnt, als „parasitäre Willkür, unerträglicher Zufall, verunsichernde Störung“, so der französische Philosoph Frédéric Gros. Alles reguliert sich selbst, es ist keine Überraschung zu befürchten. „Ein Tag wird kommen, an dem alle Beziehungen zwischen den Menschen und den Dingen, zwischen den Menschen selbst automatisch reguliert werden“, ist sich Gros sicher. Auch wenn in dieser Welt Ihrem Kardiologen mitgeteilt wird, dass Sie eine Zigarette geraucht haben, oder Ihr Auto sich weigern wird, im Parkverbot stehen zu bleiben.

Alberne (und sonstige) Fragen

Laut Experten werden heute schon zwischen 70 und 100 Sensoren in jedes Auto eingebaut. Die genaue Zahl ist nicht bekannt, ebenso wenig wie die genaue Funktion sowie Art und Anzahl der Daten, die von diesen Sensoren erfasst und weitergegeben werden. Sie machen jetzt schon das Fahren sicherer, indem sie den Druck in den Reifen, die Befüllung des Tanks, die Temperatur des Asphalts oder die Garantiezeit der Airbags messen. Es ist zwar nicht notwendig, um von A nach B zu kommen, zu wissen, wer hinter dem Steuer des Autos sitzt. Dennoch sind viele der im Fahrzeugt erfassten Daten personenbezogene Daten – oder sie ermöglichen einen Personenbezug im Hinblick auf den Fahrer und die Passagiere.

Die Ethik des autonomen Fahrens umfasst zahlreiche Aspekte – der Datenschutz bzw. der Schutz der Privatsphäre der Fahrzeuginsassen gehört dazu. Auch wenn es den Anschein hat, dass sich die Ethikdiskussion rund um autonome Systeme (zu den moralischen Maschinen bzw. autonomen Maschinen mit entsprechendem Potenzial zählt der Experte für Maschinenethik, Oliver Bendel, neben den autonom fahrenden Autos auch militärische Drohnen, Pflegeroboter oder Chatbots ) nur um ein Thema dreht: das Trolley-Problem. Es beschreibt ein ethisches Dilemma, dass 1967 von der britischen Philosophin Philippa Foot aufgeworfen wurde: Eine Straßenbahn gerät außer Kontrolle, rast auf eine fünfköpfige Menschengruppe zu und droht, alle zu töten. Durch Umstellen einer Weiche könnte man die Bahn noch rechtzeitig auf ein anderes Gleis umleiten, auf dem nur eine Person steht. Wie entscheidet man sich?

Eine ethische Frage, auf die es, zugegebenermaßen, keine eindeutige Antwort gibt. Erstens, weil die Moral keine Konstante ist, sondern sich langsam verändert. Deswegen, so Stanislaw Lem, sei es umso schwieriger, zwei ethische Kodizes miteinander zu vergleichen, je größer der zeitliche Abstand ist, der sie voneinander trennt: „Die Sumerer stehen uns nahe, aber die Moral des Menschen der Levaloissen-Kultur würde uns entsetzen.“ Die Antwort variiert auch stark abhängig davon, wem man die Frage stellt: Wenn es demnächst der technischen Elite des Silicon Valley obliegt zu entscheiden, nach welchen Kriterien ein Algorithmus im Krankenhaus jemandem eine Organspende zuweist, könnte dies anhand des Kriteriums der größten Nützlichkeit für die Gesellschaft erfolgen. Als da wäre: Nützlich für die Gesellschaft ist, wer das meiste Geld an der Börse verdient, warnt Cathy O’Neil. Sie einer Maschine zu stellen, meint @Fischblog, sei völlig albern: „Was stellen sich die Leute vor, wie so ein Fahrzeug programmiert wird? ‚Wenn es keine Alternative gibt, fahr lieber den Rentner tot‘?“

Strafgesetzbuch für Maschinen?

Um zu entscheiden, braucht eine Maschine ethische Richtlinien. Solche verpflichtende Regeln für die Fahrzeughersteller aufzustellen, damit beschäftigt sich in Deutschland beispielsweise das Projekt KoFFI, Kooperative Fahrer-Fahrzeug-Interaktion, mit Prof. Tobias Keber in interdisziplinären Expertenrunden, in denen relevante Fragestellungen für den Datenschutz und die Datensicherheit im hoch automatisierten Autofahren eruiert werden.

Zu den ältesten Regeln für die Maschinen gehören die Gesetze der Robotik des Science-Fiction-Autors Isaac Asimov.
1. Ein Robot darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen.
2. Ein Robot muss den Befehlen eines Menschen gehorchen, es sei denn, solche Befehle stehen im Widerspruch zum ersten Gesetz.
3. Ein Robot muss seine eigene Existenz schützen, solange dieser Schutz nicht dem ersten oder zweiten Gesetz widerspricht.“

Computern sollte mit solchen klaren Anweisungen eine Art „Strafgesetzbuch“ implementiert oder eine ethische Dimension für die Entscheidungsprozesse eingebettet werden. Die drei Gesetze der Robotik, erklärte Asimov, stellen die leitenden Grundprinzipien einer ganzen Reihe von ethischen Systemen dar: „Natürlich soll jedes menschliche Wesen einen Selbsterhaltungstrieb besitzen. Das ist das Gesetz Nummer drei für Roboter. Auch soll jedes ‚gute‘ menschliche Wesen mit einem sozialen Gewissen und Verantwortung sich der Obrigkeit unterwerfen, seinem Arzt folgen, seinem Chef, seiner Regierung, seinem Psychiater, seinem Mitmenschen. Er soll Gesetzen gehorchen, Regeln, Sitten und Gebräuchen – selbst wenn diese seine eigene Bequemlichkeit einschränken oder seine Sicherheit gefährden. Das ist für einen Robot das Gesetz Nummer zwei. Schließlich soll ein ‚guter‘ Mensch seinen nächsten lieben wie sich selbst, ihn beschützen, eventuell sein Leben riskieren, um ihn zu retten. Das aber ist für einen Robot das Gesetz Nummer eins.“

Die Moral der Maschine

In den Robotergeschichten Asimovs sind diese drei Gesetze für die Maschinen obligatorisch – für die Menschen nicht. Hält sich jemand – und die humanoiden Roboter sind optisch kaum von Menschen zu unterscheiden – an die Gesetze, so ist er entweder eine Maschine – oder einfach nur ein sehr guter Mensch. Verletzt jemand die Gesetze, kann er allerdings unmöglich eine Maschine sein. „Ich mag Roboter“ , lässt Asimov die Roboterpsychologin in einer der Geschichten sagen, denn sie seien anständig.

Auch wenn die Meinung, dass Robotergesetze in der obigen Form heute keine Anwendung finden werden, verbreitet ist, so bestätigt der Maschinenethik-Experte und Professor an der Hochschule für Wirtschaft FHNW, "Oliver Bendel!:http://www.oliverbendel.net/, dass für eine Entscheidung – ob moralischer oder legaler Natur – der Algorithmus eine klare Vorgabe braucht oder, wenn es sich um ein lernendes System handelt, Zugriff auf einen Pool historischer und aktueller Daten, die er auswerten kann. „Man kann dem System etwa die Pflicht auferlegen, nicht ohne Grund zu töten und zu verletzen, oder niemanden aufgrund seiner Hautfarbe zu benachteiligen“ , erklärt Oliver Bendel in einem Grundlagenbeitrag zur Maschinenethik. Man könne also auch (teil-)autonomen Maschinen moralische Regeln beibringen.

Eine gewisse Autonomie bzw. Teilautonomie der Maschinen „macht ihre Moralfähigkeit wünschenswert oder sogar notwendig, vor allem wenn Menschen und Tiere direkt betroffen sind“ , schreibt Bendel in seinem einführenden Beitrag zur Maschinenethik. Über die Moralfähigkeit der Maschinen – ob Roboter, Chatbots, künstliche Intelligenzen oder lernende Algorithmen – wird kontrovers diskutiert. Viele Impulse kommen aus der Science-Fiction-Literatur, vor allem von Isaac Asimov. „Ethik bezieht sich üblicherweise auf die Moral von Menschen“, argumentiert Bendel. „Es kann genauso um die Moral von Maschinen wie Agenten, Robotern und Drohnen gehen, also von mehr oder weniger autonomen und intelligenten Programmen und Systemen.“ Er gebraucht den Begriff der maschinellen Moral ähnlich wie den der künstlichen Intelligenz.

Die Antwort auf alle Fragen

„Ich bin dafür, bestimmte Maschinen zu ‚moralisieren‘, und zwar solche, die in übersichtlichen Umgebungen und Situationen in unserem Sinne handeln sollen“, sagt Maschinenethiker Bendel. „Der Saugroboter, der Marienkäfer verschont, der Chatbot, der rücksichtsvoll ist und eine Notfallnummer herausgibt – diese Maschinen haben wir gebaut.“ Oliver Bendel spricht sich dagegen aus, „solche Maschinen mit einer Form von Moral auszustatten, die in komplexen Umgebungen und Situationen entscheiden müssen. So halte ich wenig davon, dass autonome Autos über Menschenleben entscheiden.“ Anders verhält es sich, wenn es um Tierleben geht: „Wenn dadurch Tiere gerettet werden können, ohne dass Menschen in Gefahr kommen, bin ich dafür.“

Oft wird erst durch den Einsatz von Algorithmen und Automatisierung deutlich, wie ethisch – oder unethisch – die Entscheidungen von Menschen und Prozessen in realis sind. „Moral? Welche Moral?“, möchte man mit Stanislaw Lem ausrufen. „Die Ethik als Wissenschaft ist unbeweisbar.“ Und wie sieht die Lösung des Problems des ethischen autonomen Fahrens von @Fischblog aus? Ein Satz der Erklärung vorab: „So schlimm kann dieses angeblich so fruchtbare ethische Dilemma […] ja nicht sein“ , denn das Trolley-Problem sei ein Gedankenexperiment und keine ethische Fragestellung. Die Lösung: „Wir setzen einfach die Höchstgeschwindigkeit auf den Straßen so an, dass der Computer dank seiner überlegenen Rechen- und Manövrierfähigkeit mit hinreichender Wahrscheinlichkeit eine Möglichkeit findet, einen tödlichen Unfall zu vermeiden.“

Klingt einfach? Nicht unbedingt in einem Land, in dem schon der Gedanke an eine Geschwindigkeitsbeschränkung Blasphemie gleichkommt und eine politische Initiative in dieser Richtung in einer Revolution auszuarten droht: „Deutsche sind eine autoaffine Nation“, sagte die Datenschützerin Frau Dr. Susanne Hertfelder in der KoFFI-Runde. Man könnte auf einiges verzichten, es sollte aber möglichst nicht der Fahrspaß sein. Dabei bleibt es, autonome Fahrzeuge hin oder her. Jedenfalls solange noch die Menschen die Entscheidungen treffen. „Wobei: womöglich schafft die KI die Autos ab“, kommentierte den Lösungsansatz von @Fischblog Eva Wolfangel. „Ist sicherer.“

Lesen Sie auch die neuste Kolumne von Aleksandra Sowa: Ein revolutionäres Projekt

Leserbriefe

comments powered by Disqus

Mehr zum Thema: Auto, Verkehrsnetz, Bundesverkehrsministerium

Debatte

Megatrend künstliche Intelligenz

Medium_cadf5eb1a5

Neue digitale Revolution: zehn Aktien, mit denen Sie profitieren

Die sogenannte Künstliche Intelligenz, englisch „Artificial Intelligence (AI)“, ist zum unübersehbaren Megatrend unserer Zeit geworden. Sie soll in Zukunft für Revolutionen sorgen, wie einst Intern... weiterlesen

Medium_e33b6ccd8e
von Oliver Götz
12.11.2017

Kolumne

Medium_34504e8e15
von Reinhard Schlieker
29.11.2016

Kolumne

Medium_c49eb433c8
von Aleksandra Sowa
21.11.2016
meistgelesen / meistkommentiert