Hier stellen wir euch in Form von Cases einige Projekte vor, auf die wir besonders stolz sind.

Facebook wird im Kampf gegen Falschmeldungen künftig verstärkt selbstlernende Software einsetzen. Damit werden künftig Algorithmen darüber entscheiden, welche der im sozialen Netzwerk verbreiteten Nachrichten den mit Facebook kooperierenden „Faktenprüfern“ vorgelegt werden. Wie Facebook-Managerin Tessa Lyons der Deutschen Presse-Agentur mitteilte, würden neben den Beiträgen, deren Wahrheitsgehalt angezweifelt werde, unter dem Hinweis „Mehr zum Thema“ journalistische Gegendarstellungen angezeigt. In Deutschland arbeitet Facebook dabei mit dem gemeinnützigen Recherchebüro „Correctiv“ zusammen. Man werde weiterhin „im Zusammenhang mit Related Articles und anderen Bemühungen rund um den News Feed Updates testen, um Falschmeldungen auf Facebook zu reduzieren sowie Kontext bei eventuell auftauchenden Falschmeldungen zu bieten“, heißt es dazu im Firmenblog der Plattform.

Reaktion auf immer lauter werdende Kritik

Den Faktenprüfer-Testlauf hat Facebook in Deutschland, den Niederlanden, Frankreich und den USA Ende vergangener Woche gestartet und reagiert damit offenkundig auf immer lauter werdende Kritik. Das Begriffspaar Fake News hat es inzwischen in den Duden geschafft, und manche Netzbeobachter sprechen schon vom Internet als einem „Ort technologischer Kriegsführung“. Das betreffe, so Horizont-Chefreporter Jürgen Scharrer, nicht nur die Politik, etwa Russlands Rolle im US-Wahlkampf, sondern auch die Werbeindustrie mit ihren „im großen Stil gefakten Traffic-Zahlen“. In Politik und Wissenschaft sei es längst ein großes Thema, was Fake News, Filter Bubbles, Social Bots und die Verrohung der politischen Debatten in einer Gesellschaft anrichteten. Werbetreibende aber würden sich noch ganz überwiegend auf den Standpunkt stellen, solange die eigenen Botschaften nicht in einem dschihadistischen, rassistischen oder sexistischen Umfeld erschienen, sei „alles fein“. Da die Plattformen von Werbegeldern lebten, hätten jedoch auch die Werbetreibenden die Möglichkeit, „viel massiver als bisher gegen Fake News und menschenfeindliche Propaganda vorzugehen“.

Politische Manipulationsversuche

Facebook hat erkannt, dass es gegen Hasstiraden und Lügen etwas unternehmen muss, selbst wenn diese nur wenige Prozent an der gesamten Kommunikation ausmachen und, wie Mark Zuckerberg im Frühjahr vor Studenten sagte, eine Menge von dem, was die Leute als Fake News bezeichneten, einfach nur Meinungen seien, „mit denen sie nicht einverstanden sind“. Da die Angelegenheit heikel ist, möchte Facebook nicht selbst entscheiden, ob eine Nachricht korrekt oder gefälscht ist, wie Tessa Lyons gegenüber der Deutschen Presse-Agentur betonte. Die selbstlernende Software, die bislang zum Einsatz kommt, stützt sich bei der Auswahl von möglicherweise zweifelhaften Inhalten auf Hinweise und Kommentare von Nutzern. Mit der Zeit, so Lyons, wolle man damit das Erkennen gefälschter Nachrichten immer weiter verbessern. Die Verbreitung von Fake News hatte im jüngsten US-Präsidentschaftswahlkampf viel Empörung hervorgerufen. Nicht zuletzt deshalb geht Facebook jetzt schärfer dagegen vor und räumt ein, dass versucht werde, die Plattform für politische Manipulationen zu missbrauchen. Doch auch materielle Gründe spielen eine Rolle. Denn gleichzeitig gehe es darum, die finanziellen Anreize zu minimieren. Ein Großteil der Falschmeldungen wurde Facebook zufolge nämlich verbreitet, um mit Klicks Geld zu verdienen. (rst, horizont.netwuv.dewelt.de)

Leistungen