Beitrag teilen

Link in die Zwischenablage kopieren

Link kopieren
Suchfunktion schließen
> Künstliche Intelligenz: Das Wettrennen beginnt

"Außenpolitik ohne Internet ist heute nicht mehr denkbar" Teil 2

Dass Außenpolitik und Künstliche Intelligenz nicht von einander zu trennen sind, betont Beatrice Bischof. Doch wie sehen ganz konkret die Aufgaben für die deutsche Außenpolitik aus?

The European

Wir sind hier schon längst auf dem Weg zum fünften Punkt der Analyse: Konflikt und Kooperation: Zwischen den Staaten ist schon ein globales Wettrennen entbrannt. Die Frage des Dual Use führt in den Handelskriegen zwischen den USA und China bereits zu Exportstopps und der Einschränkung ausländischer Direktinvestitionen. Also doch ein neuer Rüstungswettlauf? Durch die Entwicklung nationaler KI Strategien versuchen Staaten einen optimalen Nährboden für die Entwicklung von KI Technologien zu bieten. Mittlerweile hinlänglich akzeptiert ist, dass KI in Zukunft für Wissenschaft, Gesellschaft und insbesondere die Wirtschaft ein enorm wichtiges Erfolgskriterium sein wird. Als zentrale Herausforderung für die Außenpolitik ist die internationale Entwicklung und der Einsatz von KI bisher jedoch kaum thematisiert worden. Dabei ist sie heute bereits unmittelbar von Entwicklungen im Bereich der KI betroffen. Die Dual Use Eigenschaften von KI sind das zentrale Problem, mit dem sich die Außenpolitik in unterschiedlichen Politikfeldern konfrontiert sieht. Das heißt Handelskrieg oder auch Handels-und wirtschaftspolitische Herausforderungen einer zunehmend KI basierten Wertschöpfung: Für KI ist der Zugang zu Daten und spezialisierter Hardware notwendig. Große amerikanische Technologiekonzerne und ihre chinesischen Kontrahenten sind in beiden Disziplinen weltweit führend. In den aktuellen Handelskonflikten zwischen den USA und China verhängte die Trump Administration bereits Exportstopps amerikanischer Schlüsseltechnologien an chinesische Telekommunkationsunternehmen. Gleichsam beschäftigt sich der US Kongress mit neuer Gesetzgebung, die darauf abzielt ausländische Direktinvestitionen in amerikanische Schlüsseltechnologien einzuschränken. Dabei wird unlängst ein Spionagevorwurf laut: Gegen den chinesischen Smartphone Hersteller Huawei: Es geht um Spyware in KI Chips. Technologisch bedeutet das: Neuronale Netze bleiben beim User. Thomas Heuzeroth, amp.welt.de, Chef der Unternehmensberatung Roland Berger Charles-èdouard Bouée: „Das Rennen um die Vormachtstellung bei der künstlichen Intelligenz ist offen.“ Google hat schon vor Jahren den Wandel von „Mobile First“ zu „AI First“ vollzogen. Ähnlich aktiv sind die chinesischen Internetkonzerne Baidu, Alibaba und Tencent. Doch die Zukunft der Technologie KI wird nicht mehr in großen Datenzentren mit leistungsstarken Computern ausgeführt, sondern auf den Geräten der Nutzer selbst. Persönliche und dezentrale KI. Die für das maschinelle Lernen notwendigen neuronalen Netzwerke finden sich bereits heute schon in Smartphone-Prozessoren von Apple und Huawei. Besonders für autonome Fahrzeuge ist der Zeitvorteil wichtig. Dazu eine personalisierte Werbung aufzubauen wird schwierig, da die Daten in dem Fall beim Nutzer bleiben. Anfang Oktober forderte das Bundesamt eine Stellungnahme von Apple und Amazone zum Spionagevorwurf gegen die Chinesen. Experten halten den mutmaßlichen chinesischen Hacker-Angriff mittels verbauter Mikrochips in Servern von Apple und Amazon für ein reales Szenario. Finanzdienst Bloomberg berichtet, dass chinesische (Militär) Hacker die Chips in Elektronik von Servern einer amerikanischen Firma eingebaut hätten, deren Rechner in großen amerikanischen Konzernen sowie Behörden genutzt werden. Sie erlauben die Kontrolle über die Server zu übernehmen und Informationen anzuzapfen. Dieses Problem wird von der einseitigen Abhängigkeit der Hardwarebranche von günstigen Herstellern in China begünstigt. Aber auch Samsung investiert lt. 22 Milliarden in den Ausbau der 5G Infrastruktur sowie Bereiche der KI und Internet of Things. Damit soll ein leistungsstarker drahtloser Informationsfluss realisiert werden. Ziel von Samsung ist „ein automatisiertes, KI-gesteuertes Mobilfunknetz zu implementieren, das die Produktivität, Intelligenz und Sicherheit in Unternehmen erhöht“. Jeong Wook Tak, Vizepräsident Samsung Enterprise Business. Ein Ökonom prophezeit China 100 Millionen neue Jobs durch KI. In den kommenden Jahren könnte die Automatisierung dem Land zu einer Wirtschaftsexplosion verhelfen. Derzeit gibt es ein Wettrennen zwischen den USA-China und Europa um die Entwicklung der leistungsstärksten KI. John Hawksworth, Chefökonom von Pricewaterhousecoopers: nach den Berechnungen könnte China in den nächsten 20 Jahren um 20% zulegen, die USA dagegen nur um 15%. China müsste den Übergang zu automatisierten Lieferketten hinbekommen. In den traditionellen Bereichen würden 204 Millionen Arbeitsplätze bis 2037 verloren gehen, dafür 297 Millionen v.a. in Dienstleistungen geschaffen werden. Es wird interessant, ob China mit seiner Marktwirtschaft nach Plan die Herausforderungen von Digitalisierung und Automatisierung besser in den Griff bekommt als die USA. Xi Jingping will China bis 2030 zur Nummer 1 in KI machen.

Eine Nationale Strategie und ihre Grenzen
Aus diesem Wettrennen und den damit verbundenen Folgen ergibt sich natürlich auf der einen Seite, die Frage nach einem nationalen Plan für die Entwicklung einerseits und Beschränkungen der damit verbundenen Risiken andererseits. Das führt uns hier zur Normen-und Verhaltensanalyse, als sechsten und letzten Punkt: Eine nationale Strategie muss in Deutschland erst noch geschrieben werden. Experten und Organisationen, Thinktanks und sogar betroffene Firmen fordern Leitlinien wie etwa ein KI Ökosystem und Begrenzungen wie eine Art Genfer Konvention. Wie soll so eine Strategie aussehen? Da die Frage grenzüberschreitend ist, muss sie in das Regelwerk der Vereinten Nationen und der EU eingebunden werden. Wie kann das aussehen? Für eine nationale Strategie ist eine gute KI Innenpolitik der Ausgangspunkt. Mehrere Länder haben diese Schlüsseltechnologie bereits zur nationalen Priorität erhoben und umfangreiche Strategiepläne veröffentlicht (USA, China, Frankreich, Südkorea, Finnland). Deutschland hat erst angefangen, Entwicklung und Nutzung von KI ist im Mittelmaß. Die nationale Strategie sollte den Aufbau und die Förderung eines starken und international wettbewerbsfähigen KI Ökosystems in den Mittelpunkt stellen. Dabei sollte Deutschland die Datenqualität in den Vordergrund stellen, um ein Ökosystem wettbewerbsfähiger KI Dienste zu geschaffen. In der Außenpolitik muss ein Handlungsleitfaden erst noch geschrieben werden, eine deutsche Strategie muss in eine europäische eingebunden sein. Als Partner könnte sich Frankreich anbieten. Zwischen Chinas staatskapitalistischen Ansatz und den amerikanischen Daten Monopolisten liegt ein weites Feld, das noch kaum beackert ist. Auch die NV Stiftung, Stiftung neue Verantwortung, entwirft in einem Policy Brief Eckpunkte einer nationalen Strategie für Künstliche Intelligenz: Eine nationale KI Strategie sollte sich nicht nur auf die Erforschung einzelner Technologien fokussieren, sondern den Aufbau und die Förderung eines starken und international wettbewerbsfähigen KI Ökosystems in den Mittelpunkt stellen. Im Zentrum steht der sich gegenseitig befruchtende Austausch zwischen Forschung, Wirtschaft und Gesellschaft. Zentrale Bausteine eines KI Ökosystems sind 1. die KI Forschung: Deutschland sollte dabei auf unterschiedliche technologische Ansätze im KI Bereich setzen und agiler ausgerichtet sein. 2. die Ausbildung von KI Kompetenzen fördern. Sie muss in die Breite getragen werden. 3. da Daten der Rohstoff der KI Entwicklung sind, ist die Bedingung für Datenpools zu verbessern. 4. bei den Infrastrukturanforderungen für KI gilt: Rechenleistung ist ein entscheidender Faktor. Daher ist Zugang zu leistungsstarker Hardware nötig. 5. die KI Entwicklung und den KI-Einsatz in der Wirtschaft ist zu fördern. KI stellt die nächste Stufe der Digitalisierung dar. Der Mittelstand braucht Unterstützung, 6. die gesellschaftliche Dimension von KI: es ist wichtig sich mit ethnischen und regulatorischen Fragen zu beschäftigen und die Gesellschaft mitzunehmen. 7. Die nationale KI Strategie international Denken: Deutschland kann im internationalen Wettbewerb langfristig nur als Teil eines europäischen Ansatzes stehen. Die angestrebte Kooperation mit Frankreich bietet die Chance beide Länder zum Motor einer europäischen KI Strategie zu machen. Der Ökosystemansatz sollte in den Mittelpunkt gerückt werden, möglichst konkrete Ideen und Maßnahmen entstehen. Indikatoren für das KI Ökosystem in Deutschland sind die Anziehungskraft deutscher Institute und Universitäten für führende internationale KI Forscherinnen, Zahl und Qualität von KI Patenten, Publikationsleistungen und Sichtbarkeit auf den wichtigsten internationalen KI Konferenzen, Wagniskapital-Investitionen, Firmengründungen, oder Zahl und Wachstum von Unternehmen mit starken KI Kompetenzen. Zahlreiche Länder haben bereits KI Strategien vorgelegt. In einer weiteren Studie nimmt die Stiftung NV Bezug auf KI und die Außenpolitik. Sie betont dabei: „It is fashionable these days to speak about data as the new oil“ Da die KI eingebettet in die Konnektivität des Internets ist, ist die Herausforderung für die KI globaler Natur. Hier ist es auffallend, dass die KI auf der außenpolitischen Agenda fehlt. Die NV will mit ihrem Paper daher eine Grundlage für die Planung einer außenpolitischen Strategie schaffen, die effektiv auf die aufstrebende Macht von KI in internationalen Angelegenheiten antwortet. Viele Werkzeuge der traditionellen Diplomatie können dem neuen Feld angepasst werden. Sie tritt daher für einen pragmatischen Ansatz ein, der auf den existierenden Werkzeugen aufbaut, während er auf eine systematische Anpassung auf die Zukunft hinarbeitet. Dabei gibt es drei Themenbereiche: Der erste ist wirtschaftliche Unterbrechungen und Gelegenheit: Die Antriebskraft der KI Technologie ist primär wirtschaftlich. Daher wird für die Führung in der Außenpolitik die Positionierung für innenpolitische wirtschaftliche Interessen in den globalen KI Märkten sowie KI inspirierte Entwicklungsprogramme wichtig werden. Aber Marktkräfte bewegen sich schneller als die Politik, die Kernpunkte in den Außenministerien wurzeln daher mehr auf dem Risikomanagement der zwei Hauptfragen: der Konzentration von Wirtschaftsmacht und den Unterbrechungen am Arbeitsmarkt. Außenministerien sollten Entwicklungen in den KI Technologien und Märkten überwachen. Sie sollen internationalen Dialog mit gleich gesinnten Partnern suchen, um den Boden für kollektive Aktion rund um gemeinsame Interessen zu bereiten. Der zweite Themenbereich ist Sicherheit und autonome Waffensysteme: Hier muss Rüstungskontrolle und Verbreitungsstrategien auf den neuesten Stand gebracht werden, um mit dem eskalierenden Rüstungswettlauf umzugehen. Dazu bedarf es einer öffentlichen Diplomatie um moralische rote Linien zu errichten und einflussreiche Anteilseigner zu überzeugen die Bedrohung durch die KI Waffen einzudämmen. Auch sollen die potentiellen Gefahren der KI in der realen Macht als auch in Desinformationskampagnen bewertet werden. Es gibt zu wenig Verständnis in unseren Ministerien. Der dritte Bereich ist Demokratie und Ethik: Der Job von Außenministerien in den liberalen Demokratien beinhaltet zwei Aufgaben, die die Werte der Gesellschaften reflektieren: 1. die Förderung und Stärkung demokratischer Institutionen, die soziale Gleichheit schützen und die Repräsentanz rund um die Welt 2. ein menschenrechtliches und bürgerrechtliches System der Regierung, Wirtschaft/Handel und Sicherheit in der internationalen Gemeinschaft zu verfolgen. Die diplomatische und Entwicklungsagenda rund um das Internet demonstriert seit Jahren die Spannungen zwischen Sicherheit und Freiheit in verbundeneren Gesellschaften. Die Technologien versprechen neue Möglichkeiten des freien Ausdrucks, der zivilen Aktion, und sozialem Fortschritt, aber sie bringen auch die nicht willkommene Möglichkeit der Diskriminierung auf. Die Aufgabe der Außenpolitik ist es eine positive Agenda zu fördern: Bei der Data getriebenen KI Anwendung für Entwicklungshilfe Projekte das Problem der Parteilichkeit im Auge behalten. Der durch Technologie betriebene Wandel auf globaler Ebene muss durch Institutionen instrumentalisiert werden. Auch die Stiftung für Wissenschaft und Politik, Marcel Dickow und Daniel Jacob, beschäftigen sich mit dem internationalen Regulierungsbedarf und den Chancen für die deutsche Außenpolitik. Demnach ist die künstliche Intelligenz von der Qualität der zugrunde liegenden Daten abhängig, daher für viele Aufgaben gänzlich ungeeignet und entzieht sich weitgehend menschlicher Kontrolle. Deutschland soll daher seinen Einfluss in internationalen Foren geltend machen, um den Einsatz künstlicher Intelligenz in politisch sensiblen Bereichen zu regulieren. Im Sinne des „predictive policing“ wollen Staaten Polizei und Nachrichtendienste in die Lage versetzen, Anzeichen für Verbrechen auszumachen, noch bevor diese begangen werden. Bald werden Staaten KI Systeme für ihre außenpolitische Strategiebildung nutzen, z.B. durch Echtzeitauswertung von Wirtschaftsdaten anderer Staaten. Vorerst werden die eigentlichen Entscheidungen wohl beim Menschen bleiben. Doch gerät der Mensch in puncto Geschwindigkeit und Analyse-Kapazität gegenüber der Maschine zunehmend ins Hintertreffen. Aber wie die Erfahrungen mit dem autonomen Fahren zeigen, wird der Mensch am Ende aber, wie noch bei jeder neuen Technologie, regulierend eingreifen müssen, um ungewollte Risiken zu vermeiden und Verantwortlichkeiten abzustecken. Zu beachten ist aber, dass in dem Maße, in dem öffentliche Institutionen KI Systeme einsetzen, KI den politischen Prozess selbst beeinflussen wird. Im Hinblick auf die Begrenzungen fordert Nicholas Wright, Foreign Affairs, im Wettbewerb mit digitalen autoritären Staaten klare Strategien: 1. Regierungen und Gesellschaften sollten innenpolitische Überwachung und Manipulation rigoros begrenzen. 2. Westliche Länder sollen bei der Anwendung der KI ihren Einfluss auf Staaten ausüben, die nicht ganz demokratisch und nicht ganz autoritär sind. 3. Die westlichen Länder sollen zurückschlagen: „Winning the contest with digital authoritarian governments will not be impossible-as long as liberal democracies can summon the necessary political will to join the struggle.“ Ein weiterer Punkt ist die Veränderung des globalen Kräftegleichgewichts durch die zunehmende Autonomie in Waffensystemen. Im Hinblick auf die UN- Waffenkonvention wird über ein Verbot autonomer Waffensysteme (Lethal Autonomous Weapons Systems, LAWS) debattiert. Die Staaten verfolgen unterschiedliche Strategien: Die Bewegung der Blockfreien Staaten und zahlreiche NGOS sprechen sich für ein sofortiges, präventives Verbot von LAWS aus. Ihnen gegenüber stehen etablierte Militärmächte wie die USA, China und Russland, die sich aus unterschiedlichen Gründen dieser Forderung nicht anschließen, Deutschland und Frankreich positioniert sich dazwischen. Der Verhandlungsprozess ist stufenweise. Es gibt zudem ethische Fragen zum Einsatz KI gestützter Systeme zur staatlichen Kontrolle und Überwachung von Bevölkerungen mittels Sprach- und Gesichtserkennung. Hier werden wie in der Privatwirtschaft die Dual Use Möglichkeiten dieser Technologie erkennbar. Sie lässt sich nicht nur zur Verbrechensbekämpfung sondern auch zur Überwachung und Kontrolle von Bevölkerungen einsetzen. Doch der Widerstand wird stärker, Experten und Organisationen haben ein Abkommen unterzeichnet, in dem sie versprochen haben keine Killerroboter zu bauen oder an ihrer Entstehung mitzuwirken. Sie fordern Regierungen auf Killerroboter staatlich zu regulieren. Dazu gehören Jürgen Schmidhuber (Schweiz), Elon Musk und Stephen Hawking sitzen/saßen im Future Life Institute, das die Risiken der KI untersucht. Mehr als 100 Unternehmer warnten vor den Killerrobotern. 5% der KI Forschung wird für militärische Zwecke eingesetzt. Schmidhuber kritisiert, dass die ursprünglich harmlose Technik missbraucht wird. Im Rahmen der UN diskutieren Diplomaten bereits, autonome Kampfsysteme durch ein Zusatzprotokoll zur UN-Waffenkonvention zu ächten. Im Koalitionsvertrag von CDU, CSU und SPD heißt es „Autonome Waffensysteme, die der Verfügung des Menschen entzogen sind, lehnen wir ab. Wir wollen sie weltweit ächten“. Gleichzeitig soll die Forschung in Deutschland ausgebaut werden. Erst im Juni ließ Google nach einem öffentlichen Aufschrei ein Projekt mit dem amerikanischen Verteidigungsministerium seine Teilnahme am Drohnenprojekt „Maven“ des US-Militärs auslaufen. Microsoft ist dagegen trotz der Proteste von Mitarbeitern bereit, dem Militär und den Geheimdiensten des Lands KI Systeme und Technologien zu verkaufen. Das Unternehmen beteiligte sich an 10 Milliarden schweren Ausschreibungen des US Verteidigungsministeriums zum Betrieb des Cluod Systems Joint Enterprise Defense Infrastructure. Andererseits ist Microsoft aber eher bereit, Forderungen an die US amerikanische Regierung zu stellen. So haben die Softwareriesen dort in der Vergangenheit auf die Notwendigkeit einer Art digitalen Genfer Konvention hingewiesen. Der Stiftung für Wissenschaft und Politik (SWP) zu Folge entsteht überall dort Regulierungsbedarf, wo KI Systeme in politisch sensiblen Bereichen genutzt werden. Orientierung für die Regulierung bieten verschiedene Normenordnungen des Völkerrechts. In den USA und Großbritannien werden KI Systeme bei der Polizeiarbeit eingesetzt, auch zur Unterstützung der Rechtsprechung (USA), in China führt die Regierung ein social credit System ein (sanktions bewehrtes Rating). Betroffen davon ist das Recht auf Gleichbehandlung und einem ordentlichen Gerichtsprozess sowie das Recht auf Privatsphäre (Art 14, 17 International Covenant on Civil and Political Rights). Erste Anhaltspunkte bietet eine EU Direktive zum Schutz personenbezogener Daten im Rahmen der „Verhütung, Ermittlung, Aufdeckung oder Verfolgung von Straftaten oder der Strafvollstreckung“ (EU 2016/680). Der militärische Einsatz von KI Systemen fällt vorrangig in die Domäne des humanitären Völkerrechts. Im Rahmen der „Convention on Certain Conventional Weapons (CCW) wurde ein Expertengremium gebildet, das Vorschläge dazu erarbeitet, wie autonome Waffensysteme reguliert werden können. Regulierungsbedarf besteht auch in der Wirtschaft bei der Nutzung von KI Systemen durch private Unternehmen. Orientierung bieten auch hier die menschenrechtlichen Normen des Völkerrechts. Da die meisten Unternehmen transnational agieren, müssen dazu einzelstaatliche Maßnahmen durch geeignete Formen internationaler Regulierung ergänzt werden. Private Unternehmen wie Amazon, Google oder Baidu nutzen KI Systeme um umfangreiche Profile von ihren (potentiellen) Kunden zu erstellen. Vielfach dienen sie der vergleichsweise harmlosen Personalisierung von Werbung oder der Bereitstellung digitaler Dienstleistungen. Sie können aber auch Grundlage folgenreicher Entscheidungen sein. Banken setzen KI Systeme ein, um die Kreditwürdigkeit ihrer Kunden zu beurteilen, Unternehmen wie LinkedIn bewerten mit Hilfe dieser Systeme Profile von Arbeitssuchenden. KI Systeme sind ein wesentliches Element für die Entwicklung autonomer Verkehrssysteme. Es liegt in der Verantwortung der Staaten diese Nutzung zu regulieren, so dass sie in Einklang mit menschenrechtlichen Vorgaben wie dem Diskriminierungsverbot (Art. 26 ICCPR), Recht auf Schutz der Privatsphäre (Art 17 ICCP) steht. Einige der wichtigsten Unternehmen (Apple, Deepmind, IBM) fordern von sich aus eine gesellschaftliche Debatte über die Regulierung von KI Systemen ein. Sie weisen auf die Notwendigkeit hin rechtliche Rahmen für die Nutzung zu schaffen. Regulierungsziele sind: „Garbage in, Garbage out“: falsche Ergebnisse sollen vermieden werden. Doch besteht die Gefahr der Diskriminierung, da bestehende Diskriminierungen reproduziert werden. Die Datenauswahl spielt beim Einsatz von KI Systemen mithin eine zentrale Rolle. Die Systeme selbst allerdings können keine Auskunft über die Güte der zugrunde liegenden Daten geben. Subtilere Formen Daten basierter Diskriminierung sind daher nur schwer erkennbar. Es ist daher die zentrale Verantwortung der Entwickler und Anwender von KI Systemen, sorgfältig zu prüfen, ob die verfügbaren Daten für den jeweiligen Analysezweck geeignet sind. In politisch sensiblen Bereichen ist in drei Hinsichten ein regulierendes Eingreifen erforderlich: Transparenz: öffentliche und private Institutionen müssen darüber Auskunft geben, an welchen Stellen und zu welchem Zweck sie KI Systeme einsetzen. Technisch heißt das: KI Systeme sollten so gestaltet werden, dass sie Auskunft über die jeweils entscheidenden Analysefaktoren geben, dass sie offen legen, wie repräsentativ die Trainingsdaten für die reale Datenanwendung sind, und dass sie ausweisen, mit welcher Fehlerquote ihre Analyse behaftet ist. Rechtlich ist zu klären, wie eine aussagekräftige Auskunft mit dem Datenschutz und dem Recht der Unternehmen auf Schutz ihres geistigen Eigentums zu vereinbaren sind. Es besteht die Gefahr, dass die Betroffenen oder interessierte Dritte solche Auskünfte nutzen, um die Datenbasis von KI Systemen gezielt zu manipulieren. Erster, wenn auch umstrittener Ansatz, ist die ab Mai verbindliche Europäische Datenschutz-Grundverordnung (DSGVO). Menschliche Kontrolle: Die Klassifizierungsmethoden moderner KI Systeme werden häufig genutzt, um bislang verborgene statistische Zusammenhänge sichtbar zu machen. Derartige Datenkorrelation setzt aber Kausalität weder voraus noch kann sie diese nachweisen. Daher ist es unverzichtbar, auf KI basierte Entscheidungen einer menschlichen Plausibilitätskontrolle zu unterziehen. Sie setzt die Transparenz der genutzten Daten und Algorithmen voraus. Die Benutzer solcher Systeme sollen sich aktiv mit deren System-und Anwendungsparametern auseinandersetzen. Die Datengrundlage für das Training des Systems muss auf Repräsentativität und Anwendbarkeit geprüft werden. Die Prüfung sollte eine unabhängige Instanz übernehmen, die über die nötige fachliche Kompetenz verfügt. Es sind klare Verantwortlichkeiten festzulegen. Das humanitäre Völkerrecht verlangt, dass Mitglieder der Streitkräfte vor Gewaltanwendung eine juristische und moralische Abwägung vornehmen. Zu klären ist nach Dickerow und Jacob auch, welche Verantwortung den Herstellern von KI Systemen zukommt. Doch ist das Thema Datenschutz, nach Karl-Heinz Land, mit der Datenschutzgrundverordnung nicht gelöst, ganz im Gegenteil. Die EU verhindert damit Wirtschaftswachstum, die Regelung ist viel zu restriktiv und unflexibel. Die Lösungen könnten dem zu Folge sein, dass wir die Datensouveränität der Menschen stärken. KI Assistenten und Blockchains können dabei helfen, die Datenrechte der Menschen in der vernetzten Welt immer wieder neu auszuhandeln. Man könnte ihnen ein Preisschild umhängen. Daraus ergibt sich die letzte Frage: Wie sehen die Aufgaben hier für die deutsche Außenpolitik aus? Gemäß der Stiftung für Wissenschaft und Politik ist die Entwicklung und Anwendung von KI weltweit noch am Anfang, politisch ist das eine Chance die zukünftige technologische und politische Entwicklung aktiv zu gestalten. Die Klärung der hiermit verbundenen ethischen, rechtlichen und politischen Fragen ist eine Kernaufgabe des Bundestages als Zentrum der demokratischen Öffentlichkeit. Es muss eine Auseinandersetzung darüber geführt werden, welche Formen nationaler und internationaler Regulierungen geeignet sind. Überlegungen und Prozesse im Rahmen der EU und der UN sind in der deutschen Debatte zu berücksichtigen. Die EU Kommission will nicht nur die Forschungsförderung ausbauen, sondern auch an Leitlinien zum Umgang mit den rechtlichen und ethischen Herausforderungen von KI arbeiten. Auch die International Telecommunications Union ITU widmet sich dem Thema. Bei der UN laufen die Verhandlungen im Rahmen der „Covention on Certain Conventional Weapons“ CCW. Die im Koalitionsvertrag vorgesehene Daten-Ethik Kommission könnte die parlamentarische Auseinandersetzung durch Beiträge aus Wissenschaft, Wirtschaft und Zivilgesellschaft ergänzen. Neben der Klärung der Fragen ist es auch nötig schon heute bei Fragen des Umgangs mit KI außenpolitisch handlungsfähig zu sein. Deutschland ist mit dem Deutschen Forschungszentrum für Künstliche Intelligenz im Bereich der Grundlagenforschung gut aufgestellt. Wie in anderen Bereichen der Digitalisierung wird ein geeintes außenpolitisches Auftreten aber auch dadurch erschwert, dass die Zuständigkeit für KI Belange über eine Reihe von Ressorts gestreut ist. Marcel Dickerow und Daniel Jacob von der SWP treten für die Schaffung der Stelle eines Staatsministers für Digitalisierung im Kanzleramt ein. Nach Dr. Hubertus Porschen braucht Deutschland eine Agenda 2050. Genauso wie eine komplett neue Bildungsstrategie, Innovationen als gesamtgesellschaftliche Aufgabe. Die Aufgabe der Politik ist es die Menschen mitzunehmen, Aufbruchstimmung zu verbreiten und die frohe Kunde der (Digital-) Strategie/Vision zu verbreiten (die digitale Verwaltung, Infrastruktur, Cyberarmee). Markus Miller teilt ganz grundsätzlich die Aussage von Richard David Precht: „Die Digitalisierung bedroht alles, was ist!“, gleichzeitig gibt es aber auch große Zukunftschancen. Die breite Einführung intelligenter Maschinen im Zuge der Digitalisierung führt zwangsläufig zu gläsernen Menschen. Doch Deutschland fehlt der technologische Zukunftsoptimismus. Um das gewaltige Potential der Digitalisierung zu nutzen, muss jeder Bürger in Deutschland, auch in Eigenverantwortung, endlich sich den Herausforderungen der Digitalisierung proaktiv und progressiv stellen. „Weil der deutsche Rechtsstaat in der digitalen Welt schlicht versagt“. Mit dem Netzwerkdurchsetungsgesetz greift der deutsche Staat in die Grundrechte seiner Bürger ein und gibt seine Kernaufgaben an internationale Konzerne ab. So Miller. Deutschland ist demnach zu einem umfassenden Überwachungsstaat mutiert (BND Gesetz, der Vorratsdatenspeicherung VDS, Videoüberwachungsverbesserungsgesetz, Barmittelverordnung). Nadine Schön, die stellvertretenden Vorsitzende CDU/CSU Fraktion im Bundestag, setzt sich für einen breit angelegten gesellschaftlichen Dialog über die Bedeutung von KI in unserer Gesellschaft, dem Staat und der Wirtschaft ein. Daher will man von parlamentarischer Seite eine Enquete Kommission im Deutschen Bundestag einsetzen. „Wir wollen den technologischen Wandel auf Grundlage unserer gesellschaftlichen und kulturellen Werte gestalten.“ Im Koalitionsvertrag wurde die Datenethik Kommission eingesetzt. Wichtig ist dabei digitale Bildung. Sie muss ein fortlaufender Prozess sein, dynamisch und entwicklungsoffen. Im Bundesministerium für Bildung und Forschung wurde die Plattform Lernende Systeme geschaffen. Neben ethischen und rechtlichen Aufgaben, geht es um die Frage wie Forschungsergebnisse besser in Geschäftsmodelle umgesetzt werden können. Das beste Ökosystem nutzt nichts, wenn es keinen Zugang zu den Datenmengen gibt. In der DSGVO werden die neuen Technologien wie KI; Blockchain oder Big Data zu wenig berücksichtigt. Es ist ein Standortvorteil so Schön, wenn wir den Einsatz von KI in Einklang mit unseren ethischen Grundsätzen und verfassungsrechtlichen Werten bringen. Stets unter der Maxime, dass die Technik dem Menschen dienen muss. Prof. Dr. Birger Priddat ist der Auffassung, dass wir rechtliche Regeln, Gesetze, politische Entscheidungen brauchen. Er stellt das Problem heraus, dass KI selbstlernend ist, daher programmiert sie sich selbst über das hinaus was der Programmierer eingegeben hat! Ratsam wäre daher, dass die Programmierer einen Rahmen setzen können, innerhalb dessen die künstliche Intelligenz bleibt, eine eingebaute Ethik für Maschinen, sozusagen. Der Journalist Tim Cole spricht sich für einen neuen digitalen Kompass aus, eine Übereinkunft was ethisch ist. Die Entscheidung über den Einsatz von Maschinen wird nach der Maxime Gewinn und Effizienz gefällt, aber wir brauchen einen neuen moralischen Kompass. Zum Beispiel gibt es seit dem Uber-Unfall im März 2018, bei dem eine Passantin überfahren wurde die Diskussion: Auf welcher ethischen Basis soll eine Maschine ihre Entscheidungen treffen? Wer soll für einen selbstlernenden Algorithmus haften? Programmierer, Hersteller des Programms, Hersteller des Autos, Besitzer? Dr. Isabella Hermann, die Koordinatorin zur Verantwortung Maschinelles Lernen und KI, der BBAW betont, dass es bereits Fortschritte gibt: die European Group on Ethics in Science and New Technologies, die High Level Expert Group der EU Kommission, die Datenethikkommission der Bundesregierung, die Enquete-Kommission „Künstliche Intelligenz-Gesellschaftliche Verantwortung und wirtschaftliche Potenziale“ des Deutschen Bundestags. Der erste ethische Grundsatz für KI der European Group on Ethics besagt, dass autonome Systeme die Würde des Menschen nicht verletzen dürfen (vgl. Grundgesetz Art. 1 und EU Grundrechtecharta). Es stellt sich die Frage der Definition der Menschenwürde im digitalen Umfeld. Die Voraussetzung ist z.B. dass uns mitgeteilt wird, wann wir mit einem Computer oder Roboter statt mit einem Menschen kommunizieren. Dazu würde ein neues Gesetz benötigt. Der Vorschlag der Datenethikkommission geht hin zu einem „Ethics by, in and for Design“ Ansatz, die Einbeziehung ethischer Standards im gesamten Entwicklungs-, Test-und Anwendungsprozess von KI Systemen. So ein Ansatz könnte zum Markenzeichen für „KI made in Europe“ werden. Aufgabe der Politik wäre es dann, auf europäischer und nationalstaatlicher Ebene glaubwürdige Kontrollinstanzen zu schaffen. Selbstverpflichtungen der Wirtschaft (Deutsche Telekom Leitlinien beim Einsatz künstlicher Intelligenz) können Vorreiter für die Anwendung von KI sein, doch ersetzen sie keine gesetzliche Regulierung. Nikolaus Röttger hingegen macht den Vorschlag hiesige Unternehmen könnten ja mal anfangen, bei der Nutzung eigener Daten besser zu werden. Die Firmen hätten Schwierigkeiten aus Daten Wissen und Erkenntnisse abzuleiten und einen Mehrwert durch Information zu schaffen. Doch die Entwicklungen schreiten rasant voran, getrieben von großen Unternehmen. Hat die Politik in diesem Bereich überhaupt die Entscheidungsgewalt noch in der Hand? Im Deutschlandfunk meint Claudia Wiesemann (Medizintechnikerin): „Die Politik muss das Heft in die Hand nehmen.“ Wichtig ist es zu verstehen, wie solche Algorithmen ablaufen, wie sie gesteuert werden und wo wichtige Entscheidungsschnittstellen sind. Dazu ist Transparenz nötig. Der Programmierer muss am Ende selbst eingreifen können. „Wir haben mit diesen Verbesserungsmöglichkeiten wiederum ein großes Potenzial, Ungleichheit in der Welt zu erzeugen, und das muss uns durchaus beunruhigen.“Wiesemann schlägt vor auf nationaler Ebene mit ganz bestimmten Anreizsystemen, mit Förderpolitiken und auch mit einem gesetzlichen Rahmen dieser Entwicklung ganz bestimmte Grenzen zu setzen und sie dadurch auch menschenverträglicher machen. Auf der anderen Seite ist es aber auch so, wie Markus Balser, SZ, sagt, dass die Bundesregierung die Forschung an Künstlicher Intelligenz fördern soll. Künstliche Intelligenz gilt als Schlüssel für viele deutsche Industrien. Und ein Bündel von Zielen soll helfen, schneller, besser zu werden im Austausch zwischen Wissenschaft und Wirtschaft. Zu Teil 1 kommen Sie "hier":http://www.theeuropean.de/beatrice-bischof/15232-wie-kuenstliche-intelligenz-krisen-vorhersagt
Kommentare (0)
Keine Kommentare gefunden!
Neuen Kommentar schreiben