Wir werden zu Medienkreaturen. Nicholas Carr

Sind Roboter Rechtspersonen?

Über die juristische Einordnung von künstlicher Intelligenz schreibt. Jan-Erik Schirmer.

Die Digitalisierung verändert unseren Alltag und sie verändert unser Denken. Was gestern noch als Science-Fiction galt, wird heute Stück für Stück Realität: Saudi-

Arabien macht einen Roboter zum Staatsbürger, das Europäische Parlament regt
eine „elektronische Persönlichkeit“ für intelligente Roboter und andere autonome
Systeme an. Ist das bloß Publicity oder steckt mehr dahinter – und wäre aus
Sicht des Zivilrechts mit einer solchen Rechtspersönlichkeit überhaupt etwas
gewonnen?

Können autonome Systeme überhaupt Rechtssubjekte sein?

Rechtsperson bzw. Rechtssubjekt zu sein bedeutet, vom Recht als selbstständiger
Akteur mit eigenen Rechten und Pflichten wahrgenommen zu werden. Das prominen­
teste Rechtssubjekt ist der Mensch. Allerdings ist damit nicht gesagt, dass Rechts­
subjektivität notwendigerweise an Eigenschaften wie Willensfreiheit, Bewusstsein
oder Emotionalität geknüpft ist (Kersten, 2017). Dies belegt schon die Existenz sog.
juristischer Personen wie Aktiengesellschaften, Vereine oder Staaten. Diese juristi­
schen Kunstgebilde werden – gleich dem Menschen – vom Recht als eigenständiges
Subjekt wahrgenommen, obwohl sie keinen freien Willen und kein Bewusstsein haben.
Es ist nicht einmal nötig, dass sie sich aus menschlichen Mitgliedern zusammensetzen,
also ein „personales Substrat“ oder ein wie auch immer gearteter „Gemeinwillen“
vorhanden ist. Im Privatrecht ist das sogar an der Tagesordnung, weil hier – man
denke an Großkonzerne – juristische Personen gleich einer Matroschka-Puppe aus
anderen juristischen Personen zusammengesetzt sind. Selbiges lässt sich über Stif­
tungen sagen, die keine menschlichen Mitglieder haben und dennoch Personen im
Rechtssinne sind.
Wenn es also nicht der „menschliche Kern“ ist, der darüber entscheidet, wer oder
was Rechtssubjekt wird, was ist es dann? Die Antwort mag banal klingen: Es ist
allein das Recht selbst, das die Entscheidung trifft. Rechtssubjekt könnte dann alles
sein, was das Recht dazu erklärt – Bäume, Tiere oder eben Roboter. Dieser Gedanke
klingt zunächst abwegig. Doch entspricht er einer verbreiteten Praxis: In Neusee­
land wurde einem Fluss Rechtspersönlichkeit zuerkannt. Immer wieder wird darüber
diskutiert, gleiches bei Primaten und anderen hochentwickelten Lebewesen zu tun.
Und auch in der Einbürgerung eines Roboters durch das Königreich Saudi-Arabien
steckt letztlich die Entscheidung des saudischen Rechts, diesen Roboter als Rechts­
subjekt anzuerkennen – selbst wenn dies wohl allein deshalb geschah, um die
eigene Digitalindustrie besser zu vermarkten.
Trotzdem gibt es aus guten Gründen Vorbehalte, den Gesetzgeber bei der funda­
mentalen Frage der Rechtsubjektivität frei schalten und walten zu lassen (Eidenmüller,
2017). Denn der Status als Rechtssubjekt bedeutet eine nicht unerhebliche norma­
tive Aufwertung: Etwas, das vom Recht bislang nur am Rande wahrgenommen wur­
de, wird ins Zentrum gerückt und als eigenständiger Akteur angesprochen. Zugleich
wird es auf eine Stufe mit anderen Rechtssubjekten gestellt und damit sehr nah an
den prominentesten Vertreter – den Menschen – herangerückt. Zwar bliebe es dem
Gesetzgeber unbenommen, sich über diese Bedenken hinwegzusetzen und Robotern
und anderen autonomen Systemen umfassende Rechtspersönlichkeit zuzuerkennen.
Aber er sollte es nur dann tun, wenn es gute Gründe dafür gibt.

Rechtspersönlichkeit als Antwort auf Autonomierisiken und Verantwortungslücken?

An diesem Punkt setzt die Diskussionen über eine eigene Rechtspersönlichkeit für autonome Systeme an. Dabei lassen sich zwei Begründungsstränge unterscheiden. In der (Technik-)Philosophie wird argumentiert, dass autonome Systeme in ihren Fähigkeiten dem Menschen so nahegekommen seien, ja ihn mitunter bereits über­ flügelt hätten, dass es nur folgerichtig wäre, ihnen einen vergleichbaren Status zuzuerkennen (Matthias, 2008). Demgegenüber wird in der rechtswissenschaftlichen Debatte auf die disruptive Kraft autonomer Systeme verwiesen: Da deren Verhalten keinem festgelegten Ablauf mehr folge, sondern sich dank der Fähigkeit zur selbständigen Informationsverarbeitung und Entscheidungsfindung durch ein hohes Maß an Unberechenbarkeit auszeichne, entstehe ein neuartiges Autonomierisiko. Dieses Autonomierisiko bringe, so die zentrale These, das geltende Recht an seine Belas­ tungsgrenze. Es entstünden – besonders im privaten Haftungsrecht – Verantwortungs-lücken, die durch neue, eigens auf autonome Systeme zugeschnittene Rechtsregeln geschlossen werden müssten. Große Hoffnungen werden dabei vor allem in die eigens zu schaffende Rechtspersönlichkeit gesetzt (Mayinger, 2017).

Diesem Gedankengang folgt auch das Europäische Parlament in seinem Aufruf an die Europäische Kommission, EU-weite zivilrechtliche Regelungen im Bereich der Robotik zu erlassen. Es sei unerlässlich, sich mit den „rechtlichen und ethischen Implikationen“ dieser „neuen industriellen Revolution“ auseinanderzusetzen. Neben neuen Haftungsregeln müsse dazu langfristig „ein Status als elektronische Person“ für die „ausgeklügelsten“ Roboter geschaffen werden, um sie so für eigenständige Entscheidungen und verursachte Schäden verantwortlich machen zu können (Europäisches Parlament, 2017).

Gibt es Verantwortungslücken?

Aber stimmt die Prämisse überhaupt? Ist es tatsächlich so, dass das geltende Zivil­ recht die digitale Revolution nicht mehr bewältigen kann, so dass der Ausweg in neuen Regeln und einer Rechtspersönlichkeit für autonome Systeme gesucht werden muss? Um diese Frage zu beantworten ist es unerlässlich, zunächst die bestehenden Regeln „auf den Prüfstand [zu] stellen“, wie es auch der Koalitionsvertrag zwischen CDU, CSU und SPD fordert (Koalitionsvertrag, 2018). Zwei Ebenen sind dabei in den Blick zu nehmen – die Ebene des Vertragsschlusses und die der Haftung.

Vertragsschlüsse durch autonome Systeme

Verträge kommen nach deutschem Recht durch zwei übereinstimmende Willenserklärungen zustande – Angebot und Annahme. Gehe ich abends in eine Pizzeria und bestelle dort eine Salamipizza, gebe ich eine Willenserklärung in Form eines Angebots ab, mit dem ich eine Rechtsfolge auslösen möchte – den Kauf der Pizza. Wie aber ist folgendes Szenario rechtlich zu bewerten? Ich weise meinen digitalen Assistenten an, für mich Essen zu bestellen. Der Assistent bestellt, nachdem er die Uhrzeit, meine vorherigen Speisen und meine Vorlieben abgeglichen hat, Salat, weil er zu der Entscheidung kommt, Salamipizza hatte ich schon genug. Ist das dann noch meine Willenserklärung, und ist überhaupt ein wirksamer Vertrag gegeben?

Viele Juristen beantworten beide Fragen positiv. Es handle sich um einen Fall der sog. Computererklärung. Obwohl der digitale Assistent die Erklärung abgibt, soll dies nichts daran ändern, dass dem Nutzer die Willenserklärung als eigene zugerechnet wird; schließlich habe er entschieden, das System für seine Zwecke zu nutzen. Selbst wenn das System eine vom Nutzer nicht gewollte Erklärung abgibt, also wie im obigen Fall Salat statt Pizza geordert wird, ändere das nichts an der Zurechnung. Denn aus Vertrauensgesichtspunkten müsse das Verhalten des Systems immer dem Nutzer zugerechnet werden (Müller-Hengstenberg/Kirn, 2016; Arbeitsgruppe Digitaler Neustart, 2017).

Bei dieser Sichtweise ergibt sich auf Ebene des Vertragsschlusses in der Tat keine Verantwortungslücke, weil die Erklärung, die ein autonomes System abgibt, immer als solche des jeweiligen Nutzers behandelt wird. Diese pragmatische Lösung lässt allerdings viel Raum für Widerspruch. Denn an sich ist es der digitale Assistent, der im obigen Beispiel meine Anweisung „Essen bestellen“ erst zum rechtlich wirksamen Angebot macht. Er wählt aus, was bestellt werden soll, bei wem und zu welchem Preis. Die wesentlichen Bestandteile des Vertrags werden also von dem Assistenten festlegt und als Angebotserklärung formuliert. Meiner Anweisung fehlt es umgekehrt an allem, was ein Angebot ausmacht, denn ich lege es in die Hände des Assistenten, selbstständig eine für mich ungewisse Rechtswirkung herbeizuführen. Exakt diese Einwände treiben auch das EU-Parlament um, wenn es mahnt, dass „Maschinen, die dazu konzipiert sind, ihr jeweiliges Gegenüber auszuwählen, vertragliche Bedingungen auszuhandeln [und] Verträge abzuschließen […], die herkömmlichen Regeln unanwendbar machen, was die Notwendigkeit für neue, wirksame und aktuelle Regeln unterstreicht.“ (Europäisches Parlament, 2017)

Denkbar ist jedoch, diese Fälle mit dem bewährten Institut der Stellvertretung (§§ 164 ff. BGB) zu lösen (Specht/Herold, 2018; Teubner, 2017). Die Erklärung würde als das eingeordnet werden, was sie ist, nämlich als eine des autonomen Systems selbst. Zugleich wären passgenauere Lösungen möglich, die dem Autonomierisiko Rechnung tragen: Die Erklärung wäre für den jeweiligen Nutzer nicht stets verbindlich, sondern nur dann, wenn das autonome System mit Vertretungsmacht gehandelt hat; Irrtumskonstellationen ließen sich ebenfalls mit bestehenden Regeln auffangen. Dafür müsste jedoch die Erklärung des Systems als Willenserklärung aufgefasst werden – und zu Willenserklärungen sollen nach üblicher Lesart nur Menschen fähig sein, da allein sie kraft ihrer Willensmacht Rechtsfolgen auslösen können. Wer einen Vertragsschluss durch ein autonomes System dem Stellvertretungsrecht unterwerfen will, scheint folglich darauf angewiesen zu sein, autonome Systeme als Rechtssubjekte anzuerkennen. Denn ohne Rechtspersönlichkeit keine Willenserklärung, und ohne Willenserklärung keine Stellvertretung. Diese Lösung schwebt offenbar auch dem Europäischen Parlament vor: Die geplante „elektronische Persönlichkeit“ soll Abhilfe schaffen, damit „Roboter eigenständige Entscheidungen treffen oder anderweitig auf unabhängige Weise mit Dritten interagieren“ können (Europäisches Parlament, 2017).

Bei genauer Betrachtung zeigt sich aber, dass es für die Anwendung des Stellver­ tretungsrechts nicht zwingend nötig ist, autonome Systeme mit einer umfassenden elektronischen Persönlichkeit auszustatten. Es ist nur erforderlich – und zugleich völlig ausreichend –, dem System die Vertretung seines Nutzers zu ermöglichen, ihm also insoweit einen partiellen rechtlichen Akteurstatus zuzuweisen (Schirmer, 2016; Teubner, 2017). Das System wäre so fähig, eine eigene Willenserklärung für seinen Nutzer – und nur für seinen Nutzer! – abzugeben. Dadurch würden auch die technischen Realitäten besser abgebildet, denn bis auf Weiteres werden autonome Systeme dazu eingesetzt werden, ihre Nutzer bei bestimmten Tätigkeiten zu unterstützen. Das System wäre also nicht Subjekt mit umfassenden Rechten und Pflichten, sondern getreu seiner Assistenzfunktion lediglich vertretungsfähig.

Dieses Vorgehen hat einen ganz entscheidenden Vorteil: Mittels einer strikt funktional verstandenen Rechtsfähigkeit für autonome Systeme wird das oben angesprochene Vermenschlichungsproblem vermieden. Denn die Erfahrung im Umgang mit der juristischen Person lehrt, dass mit der gesetzgeberischen Promotion zum Rechtssubjekt ein impliziter Rechtfertigungsdruck einherginge, warum autonomen Systemen bestimmte Rechte nicht zustehen sollten. Mit anderen Worten wären über kurz oder lang Begründungen erforderlich, warum autonome Systeme im Gegensatz zu anderen Rechtssubjekten keine Schutzrechte wie Arbeitnehmer- oder Grundrechte haben sollten. Der Einmaleffekt an Rechtssicherheit, der durch die Schaffung einer elektronischen Persönlichkeit suggeriert wird, würde daher unweigerlich erhebliche Folgeprobleme heraufbeschwören.

Demgegenüber ist die Lösung mittels einer partiellen Rechtsfähigkeit minimalinvasiv. Die Promotionswirkung ist weitaus geringer, denn das autonome System wird nur in seiner Rolle als fremdnütziger Assistent zum rechtlichen Akteur. Dazu ist lediglich eine (Neu-)Interpretation bestehender Normen und Institute durch Rechtsprechung und Rechtslehre erforderlich – so wie es bei anderen (technischen) Innovationen oft gut funktioniert hat. Dadurch lässt sich passgenau und von Fall zu Fall auf die Rechtsprobleme reagieren, die sich im Zuge der Entwicklung autonomer Systeme stellen und noch stellen werden. Gerade weil wir heute noch gar nicht abschätzen können, welche rechtlichen Herausforderungen zukünftig warten, ist es ratsam, zunächst auf Sicht zu fahren – und nicht mit einer umfassenden elektronischen Persönlichkeit vorschnell Fakten zu schaffen.

Haftung für autonome Systeme

Wie dargelegt, lässt sich typischen Risiken auf der Ebene des Vertragsschlusses gerecht werden, sofern man autonome Systeme als Stellvertreter ihrer Nutzer begreift. Wie aber steht es um die Schadensersatzhaftung?

Vertragliche Haftung

Die vertragliche Haftung erfasst Fälle, in denen zwischen den Parteien bereits ein Schuldverhältnis existiert, eine der Parteien einen Schaden erleidet und dieser Schaden auf einer schuldhaften Pflichtverletzung beruht (§ 280 BGB). Wie wäre nun der Fall zu behandeln, dass ich meinem digitalen Assistenten vollständig das berufliche Fristenmanagement übertrage, und das Gerät aufgrund einer internen Fehlverarbeitung einen wichtigen Termin unterschlägt, wodurch einem meiner Kunden ein finanzieller Schaden entsteht?

Auch hier wird vertreten, derartige Fälle ließen sich ohne größere Anpassungen des geltenden Rechts lösen. Die Pflichtverletzung wird darin erblickt, dass der Nutzer durch die Übertragung des Fristenmanagements den digitalen Assistenten zur Schädigung veranlasst habe. Der zusätzlich nötige Verschuldensvorwurf soll eben­ falls wenig Probleme bereiten, weil der Nutzer darlegen müsse, warum ihn kein Vorwurf treffe. Dies, so die These, werde dem Nutzer regelmäßig nicht gelingen, vor allem weil es ohnehin leichtfertig erscheine, eine derart wichtige Aufgabe wie die Terminplanung komplett in die Hände eines technischen Geräts zu legen (Spindler, 2014).

Es leuchtet jedoch nicht ein, warum allein in der Delegation einer Aufgabe an ein autonomes System eine Pflichtverletzung liegen soll. Würde die gleiche Aufgabe auf einen anderen autonomen Akteur – einen Menschen zumal – übertragen, käme niemand auf die Idee, allein in der Delegation eine Pflichtverletzung zu erblicken. Vor allem aber ist es ein Irrtum anzunehmen, dass es dem Nutzer regelmäßig nicht gelänge, die Verschuldensvermutung zu entkräften. Dafür wäre nur nachzuweisen, dass der Schadenseintritt nach dem Stand der Technik weder vorhersehbar noch vermeidbar war. Dieser Nachweis wird regelmäßig gelingen, da sich autonome Systeme gerade durch ihre „Unberechenbarkeit“ auszeichnen. In den typischen Schadenssituationen bei Einsatz eines autonomen Systems – der Schädigung des Vertragspartners infolge einer systeminternen Fehlentscheidung – wäre der Nutzer also regelmäßig gerade nicht haftbar (Bitkom/DFKI, 2017; Teubner, 2017). Diese Sorge teilt auch das Europäische Parlament in seiner Entschließung an die EU-Kommission. Weil das geltende Recht voraussetze, dass die „Ursache der Handlung oder Unterlassung eines Roboters auf einen konkreten menschlichen Akteur, wie zum Beispiel den Hersteller, den Betreiber oder den Benutzer, zurückverfolgt werden kann“, und es darüber hinaus nötig sei, dass „dieser Akteur das schädliche Verhalten des Roboters hätte vorhersehen und verhindern können“, seien die „Defizite des derzeit geltenden Rechtsrahmens auf dem Gebiet der Vertragshaftung insofern offensichtlich“ (Europäisches Parlament, 2017).

Könnte aber eine Rechtspersönlichkeit für autonome Systeme helfen, diese Verant­ wortungslücke zu schließen? In der Rechtslehre wird das vielfach bejaht, weil nur so der bislang versperrte Weg über die Haftung für Erfüllungsgehilfen gangbar wird (§ 278 BGB). Erst indem der digitale Assistent zum Rechtssubjekt werde, so die Argumentation, ließe er sich als Hilfsperson einordnen. Die Verantwortungslücke wäre damit in der Tat schlagartig geschlossen, denn für das Fehlverhalten von Hilfspersonen muss der Schuldner kraft Gesetzes immer einstehen. Im obigen Beispiel wäre ich also für meinen digitalen Assistenten haftbar, genauso wie ich für menschliche Hilfspersonen haftbar bin, unabhängig davon, ob ich eine Pflicht schuldhaft verletzt habe.

Indes gilt auch hier das Gleiche wie bei der Stellvertretung: Zielführender ist es, das autonome System insoweit als rechtsfähig anzusehen, als dass es Erfüllungsgehilfe sein kann. Es reicht, dem System, ganz im Sinne seines dienenden Bestimmungszwecks, einen limitierten Status als unterstützender Akteur zuzuweisen, es also als fähig anzusehen, Hilfsperson im Sinne des Haftungsrechts zu sein (Schirmer, 2016; Teubner, 2017). Dazu bedarf es nicht der Schaffung einer elektronischen Persönlichkeit. Eine funktionale Interpretation der bestehenden Regeln durch Rechtsprechung und Rechtslehre ist ausreichend und vorzugswürdig, um die oben angesprochenen Folgeprobleme einer gesetzlichen Anerkennung zu vermeiden.

Außervertragliche Haftung

Wie aber steht es um Schädigungen außerhalb bestehender Vertragsverhältnisse? Zu denken wäre etwa an den Fall, dass mein sonst stets zuverlässiger digitaler Assistent, dem ich die Bewässerung der Balkonpflanzen übertragen habe, das Wasser über Nacht laufen lässt, wodurch auch die wertvollen Zuchtrosen meines Nachbarn eine Etage tiefer zerstört werden. Kommt auch in diesen Fällen eine Haftung des Nutzers in Betracht?

Vereinzelte Stimmen bejahen eine Haftung nach geltendem Recht. Anknüpfungspunkt sollen die sog. Verkehrspflichten sein. Nach dieser Lösung wäre der Nutzer des digitalen Assistenten haftbar, da er durch den Einsatz des Systems einen Gefahrbereich eröffnet und nicht ordnungsgemäß überwacht hat. Und weil dadurch ein Rechtsgut – im Beispiel das Eigentum des Nachbarn – verletzt wurde, soll eine Schadenersatzpflicht bestehen (§ 823 BGB).

Dieser Argumentation lassen sich jedoch die gleichen Argumente wie der Vertragshaftung entgegenhalten: Auch eine Deliktshaftung kommt nur bei Verschulden in Betracht, und das Verschulden muss der Geschädigte hier sogar von sich aus darlegen und beweisen. Genauso wie bei der Vertragshaftung wird ihm dies wohl nur selten gelingen, weil der Nutzer eines autonomen Systems auf das typische Autonomierisiko verweisen darf: Der Schaden ist nicht vorhersehbar, derartige Fehlfunktionen lassen sich selbst bei bestmöglicher Überwachung kaum verhindern. Kurz: In den für autonome Systeme charakteristischen Schadenssituation ist eine deliktische Haftung des Nutzers nach geltendem Recht regelmäßig ausgeschlossen (Bitkom/DFKI, 2017; Arbeitsgruppe Digitaler Neustart, 2017). Ausnahmen gelten allein im Straßenverkehr, wo eine verschuldensunabhängige Haftung des Halters besteht (vgl. § 7 StVG).

Kann sich der Geschädigte dann zumindest an den Hersteller des digitalen Assistenten halten? Anknüpfungspunkt könnte vor allem die sog. Produkthaftung sein, die eine Haftung des Herstellers für fehlerhafte Produkte anordnet (§ 1 ProdHaftG). Der digitale Assistent wäre ein solches Produkt; Gleiches gilt für andere autonome Systeme, jedenfalls sofern diese nicht nur Software sind, sondern „verkörpert sind“, also angefasst werden können. Auch hier steckt der Teufel aber im Detail: Der Produzent haftet nur, wenn das Produkt fehlerhaft ist. Bei autonomen Systemen wird das häufig zweifelhaft sein. Denn der „Fehler“ des Systems liegt nicht in einer fehlerhaften Konstruktion oder Programmierung wie es dem Produkt­ haftungsgesetz vorschwebt, sondern darin, dass eine systeminterne Informationsverarbeitung schlicht in eine schadenstiftende Entscheidung mündet (Wagner, 2017). Hinzukommt, dass die Produkthaftung auf bestimmte Schäden (z.B. Sach-und Körperschäden, nicht dagegen Vermögen) beschränkt und auch der Höhe nach gedeckelt ist. Nicht zuletzt aufgrund dieser Ungewissheiten wird in der deutschen Politik darüber nachgedacht, „klare Regelungen für die Produkthaftung in der digitalen Welt auf[zu]stellen“ (Koalitionsvertrag, 2018).

Das Europäische Parlament ist schon einen Schritt weiter. Ihm schwebt vor, eine verschuldensunabhängige und unbegrenzte Haftung speziell für Hersteller von Robotern und anderen autonomen Systemen einzuführen, die lediglich „eine kausale Verknüpfung zwischen dem schädlichen Funktionieren des Roboters und dem Schaden“ verlangt (Europäisches Parlament, 2017; zustimmend Arbeitsgruppe Digitaler Neustart, 2017). In der Tat wären damit die Probleme für den Geschädigten gelöst – umgekehrt könnte sich der Hersteller aber wohl nie einer Haftung entziehen. Er wäre immer haftbar, obwohl er auf den Einsatz und die Entscheidungsprozesse des autonomen Systems kaum Einfluss (mehr) nehmen kann. Kann man Herstellern dann tatsächlich zumuten, Millionenbeträge in die Entwicklung unbeherrschbarer Haftungsrisiken zu stecken?

Statt die Verantwortungslücke mithilfe einer strikten Herstellerhaftung zu schließen, wollen einige Stimmen zu einem anderen Modell greifen. Es zielt darauf, wie auch sonst, den Verursacher der Schädigung in den Blick zu nehmen. Müsste nicht, so die Idee, über eine Haftung des autonomen Systems selbst nachgedacht werden? Freilich brauchte es dazu eines Vermögenpools, aus dem die Haftsumme abgeschöpft werden könnte. Das wäre aber kein großes Problem: Entweder stattet man das autonome System selbst mit einem Haftkapital aus, das sich mitunter durch Provisionszahlungen für jede Tätigkeit noch erhöhen könnte. Oder man führt Pflichtversicherungen bzw. Haftungsfonds ein, die die Schäden ausgleichen (Mayinger, 2017). Allerdings wäre es dafür im ersten Schritt nötig, das autonome System zum Haftungsadressaten zu machen – es also entweder als Rechtssubjekt oder doch zumindest als deliktsfähigen Akteur zu begreifen.

Auch hier wäre die punktgenaue Zuweisung in Form eines deliktischen Akteurstatus indes vorzugswürdig – jedoch mit einer wichtigen Einschränkung: Eine Eigenhaftung des autonomen Systems, selbst wenn diese letztlich in einer Versicherungs- oder Fondslösung mündet, erscheint wenig sinnvoll. Denn das autonome System voll­ bringt lediglich Unterstützungsleistungen, agiert also gerade nicht im Eigeninteresse, sondern im Interessenkreis seines Nutzers. Dann aber ist es nur konsequent, mit einer strikten Haftung des Nutzers zu antworten, da er über den Einsatz des autonomen Systems entscheidet und von dessen Unterstützung profitiert (Teubner, 2017; Arbeitsgruppe Digitaler Neustart, 2017). Hierfür – und nur hierfür – ist in der Tat ein Einschreiten des Gesetzgebers nötig, weil das deutsche Recht eine strikte Deliktshaftung für Schädigungen durch fremdnützige Agenten nicht kennt. Sie einzuführen wird seit Jahrzenten gefordert – vielleicht ist die digitale Revolution genau der Funken, der bislang gefehlt hat.

Fazit

Eine „elektronische Persönlichkeit“ für autonome Systeme ist abzulehnen. Rechtsprechung und Rechtslehre sind in der Lage, mithilfe funktionaler Gesetzesinterpretation den Großteil der bestehenden Verantwortungslücken schließen. Allein auf dem Gebiet der außervertraglichen Haftung sollte der Gesetzgeber mit der Einführung einer verschuldensunabhängigen Haftung des Systemnutzers nachhelfen. Eine Einstandspflicht des autonomen Systems selbst oder eine Ausweitung der Herstellerhaftung ist dagegen nicht angezeigt.

Quelle: Konrad-Adenauer-Stiftung

Lesen Sie weitere Meinungen aus dieser Debatte von: Florian Spichalsky, Andreas Plöger, Nico Stehr.

Leserbriefe

comments powered by Disqus

Mehr zum Thema: Konrad-adenauer-stiftung, Digitalisierung, Europaeische-union

Kolumne

Medium_e004f53d02
von Dietmar Bartsch
06.06.2018

Kolumne

Medium_c49eb433c8
von Aleksandra Sowa
20.05.2018

Debatte

Christian Lindner fordert mehr Europa

Medium_3bd44afb3a

Frau Merkel: Führen Sie dieses Land!

Wir brauchen Europa angesichts der Kündigung des Iran-Abkommens durch die USA, der Lage in Syrien und einer im Raum stehenden Auseinandersetzung in Handelsfragen. Aber wie tritt Europa auf der Welt... weiterlesen

Medium_8736a5f09c
von Christian Lindner
17.05.2018
meistgelesen / meistkommentiert