Wenn man sich das anschaut, ist das kleinste Problem von Hartz-IV-Empfängern das Untergewicht. Thilo Sarrazin

Netz-Lügen auf der Spur

Die Sprengkraft des Themas ist enorm: Missbräuchlich eingesetzt, verbreiten Social Bots Falschmeldungen, manipulieren die öffentliche Meinungsbildung und beeinflussen demokratische Wahlen. Doch wie lässt sich der Wahrheitsgehalt von Informationen aus dem Web ermitteln?

Das Problem für Betreiber sozialer Netzwerke besteht in ihrer Abhängigkeit von digitalen Methoden zur Auswahl von Inhalten. Nicht Menschen, sondern Algorithmen bestimmen, welche Ergebnisse Suchmaschinen anzeigen.

Falschmeldungen zu erkennen ist für Algorithmen ein gewaltiges Problem. Ein erster Schritt zu dessen Lösung ist das Bewerten der Glaubwürdigkeit von Web-Informationen. In einem internationalen Forschungsprojekt entwickelten Wissenschaftlern des Instituts für Softwaretechnik und Interaktive Systeme der Technischen Universität Wien, ein Modell zu Beurteilung der Glaubwürdigkeit von Online-Inhalten.

Im Interview mit Collin Scholz, Pilot:Projekt GmbH, Hannover, erläutert der stellvertretende Projektleiter Dr. Mihai Lupu den Aufbau und die Arbeitsweise dieses Modells.

Collin Scholz: Herr Dr. Lupu, wie ist Ihr Modell zur Bewertung der Glaubwürdigkeit von Online-Inhalten konstruiert?

Mihai Lupu: Es hat einen konzeptuellen Rahmen sowie einen Algorithmus auf operativer Ebene. Für den konzeptuellen Rahmen legten wir fest, dass beim Bewerten der Glaubwürdigkeit von Informationen vier Merkmale herangezogen werden: Kompetenz, Vertrauenswürdigkeit, Qualität und Zuverlässigkeit. Kompetenz und Vertrauenswürdigkeit gelten in der einschlägigen Literatur als Voraussetzungen für Glaubwürdigkeit.

Collin Scholz: Warum haben Sie die Merkmale Qualität und Zuverlässigkeit hinzugenommen?

Mihai Lupu: Kompetenz und Vertrauenswürdigkeit beziehen sich zumeist auf Personen. Die Merkmale Qualität und Zuverlässigkeit schienen uns insbesondere zur Bewertung der Glaubwürdigkeit von Informationen sinnvoll zu sein. Zumal es möglich ist, die Qualität einer Information in Relation zur Kompetenz ihres Urhebers zu setzen. Je höher die Kompetenz des Urhebers, desto höher ist die Qualität der Information.

Collin Scholz: Soweit zum konzeptuellen Rahmen Ihres Modells. Welche Aufgaben hat der Algorithmus?

Mihai Lupu: Das Modell, das wir mit Wissenschaftlern aus Frankreich entwickelten, befasste sich zunächst mit Inhalten der Flickr-Community. Auf dem Portal können registrierte Nutzer Fotos und kurze Videos hochladen und mit Schlagworten, den Tags, versehen. Wir entwickelten ein neuronales Netzwerk, das lernte, auf Fotos abgebildete Objekte zu erkennen. Wir haben das Modell drei Jahre intensiv mit Daten gespeist und trainiert, charakteristische Merkmale zu identifizieren. Nach dieser Zeit glich die Fähigkeit des neuronalen Netzwerks, Objekte auf Fotos zu erkennen, der eines erwachsenen Menschen. Zudem wurde der Algorithmus trainiert, anhand verschiedener Kriterien die Glaubwürdigkeit der Schlagworte zu bewerten, mit denen der Nutzer die Fotos versehen hatte. So vergleicht der Algorithmus nicht nur den Inhalt des Fotos mit dem Schlagwort. Er analysiert auch den Begleittext zum Foto und berücksichtigt, wie oft der Nutzer bereits Fotos hochgeladen hat, wie viele Fotos er eingestellt hat und wie hoch die Anzahl einheitlicher Schlagworte für verschiedene Fotos ist. So lässt eine Serie von Aufnahmen unter dem Tag Italien 2017 darauf schließen, dass der Nutzer keine präzisen Schlagworte angibt.“

Collin Scholz: Welche Vorteile resultieren aus Ihrem Glaubwürdigkeits-Modell?

Mihai Lupu: Wir konnten belegen: Ein mit Glaubwürdigkeitskriterien arbeitender Algorithmus findet sehr zuverlässig die richtigen Schlagworte zu bestimmten Fotos und kann bei Bedarf Fehler korrigieren. Also lässt sich durch Berücksichtigen von Glaubwürdigkeitskriterien die Effektivität automatisierter Informationsgewinnung im Internet erhöhen. Und damit auch das Verbreiten von Falschmeldungen im Web eindämmen.

Collin Scholz: Um das zu belegen, testen Sie Ihr Modell in Kooperation mit der Schweizer Stiftung Health on the Net. Worum geht es dabei?

Mihai Lupu: Die Stiftung prüft und bewertet seit 1995 Webseiten mit medizinischen Informationen auf deren Qualität und Vertrauenswürdigkeit. Aufgrund der rasch wachsenden Datenmenge ist die Stiftung an ihre Kapazitätsgrenzen gelangt und kann die Menge der Websites nicht mehr händisch bewerten. Daher testen wir, ob die von uns entwickelten automatisierten Methoden in der Lage sind, die Glaubwürdigkeit der Inhalte dieser Website zu bewerten.

Collin Scholz: Das ist im Vergleich zum Flickr-Projekt ein enormer Qualitätssprung. Wie ermittelt Ihr Modell den Grad der Glaubwürdigkeit medizinischer Informationen? Mit derselben Vorgehensweise wie beim Flickr-Projekt?

Mihai Lupu: Nein. Wir behalten zwar die für den konzeptionellen Rahmen etablierten Merkmale bei, doch die Methoden sind völlig verschieden. Insbesondere, weil das Modell hauptsächlich Texte bewertet. Für das Bewerten der Kompetenz des Betreibers bzw. der Inhalte einer Website sind die Domain der Site sowie die Links wichtig, die auf diese Site führen. Zur Bewertung der Vertrauenswürdigkeit betrachten wir die Verfügbarkeit von Informationen über den Betreiber der Site sowie die Möglichkeiten, Kontakt zu ihm aufzunehmen. Entscheidend für das Merkmal Zuverlässigkeit ist, wie oft die Inhalte der Website aktualisiert werden. Die Qualität bewerten wir anhand bestimmter Textmerkmale. Dazu gehören unter anderem die Zahl der Rechtschreib-, Grammatik- und Interpunktionsfehler, Wortwiederholungen, ungewöhnliche Wortkombinationen, der Einsatz von idiomatischen Wendungen und Phrasen, die Länge der Sätze sowie die Lesbarkeit.

Collin Scholz: Sie sagten, zur Bewertung der Kompetenz des Urhebers der medizinischen Informationen analysiere das Modell die Domain der Website sowie die Links, die auf diese Site führen. Wie kann es daraus Hinweise auf den Grad der Kompetenz ableiten?

Mihai Lupu: Vereinfacht gesagt, prüft das Modell die Urheber der Links, die auf diese Website verweisen. So haben wir von Health-on-the-Net eine Weiße Liste mit den Adressen jener Websites erhalten, deren Inhalte als glaubwürdig eingestuft werden. Führen von diesen Webpräsenzen Links auf Inhalte einer zu bewertenden Website A, so spricht das für die Kompetenz der Betreiber dieser Website A und somit für die Vertrauenswürdigkeit und Qualität der eingestellten Inhalte. Anders liegt der Fall, wenn die Website A von einer sogenannten Linkfarm gepusht wird. Eine Linkfarm ist eine Gruppe ähnlicher bis identischer Webseiten, deren Hauptaufgabe darin liegt, möglichst viele Links auf eine bestimmte Webpräsenz A zu legen. Das dient der Manipulation der Suchmaschinen, die A bei einer Suchanfrage möglichst auf einem der ersten Plätze der Trefferliste platzieren sollen. Denn dafür ist nicht zuletzt die Zahl der Verlinkungen entscheidend.

Collin Scholz: Ihr Glaubwürdigkeits-Modell kann also Online-Informationen analysieren und Falschmeldungen ausfiltern.

Mihai Lupu: Wir sind auf dem Weg dorthin, Auffälligkeiten anzeigen zu können. Das Problem haben wir noch längst nicht gelöst, und es liegt noch viel Arbeit vor uns.

Leserbriefe

comments powered by Disqus

Mehr zum Thema: Internet, Luege

Kolumne

Medium_651b175fd6
von Thore Barfuss
15.01.2015

Kolumne

Medium_e994cea974
von Stefan Gärtner
25.05.2012

Debatte

In Libro Veritas

Medium_5e88db79c0

Schwarz auf weiß

Lügen macht das Leben leichter. Wenn man weiß, wie es geht. Auf die authentische Verpackung kommt es an: Eine steile Behauptung braucht eine gute Begründung und wenn man selbst keine hat, hilft ein... weiterlesen

Medium_f143fd8b79
von Joelle Verreet
09.11.2009
meistgelesen / meistkommentiert