Beim Kampf gegen Terror-Propaganda setzt Facebook künftig auch auf selbstlernende Algorithmen. So will Facebook mit Hilfe von Algorithmen zur Bild- und Texterkennung Propaganda von Terroristen schneller aufspüren. Die Initiative soll Anti-Facebook-Gesetze verhindern.
Facebook-Managerin Monika Bickert, die zuvor unter anderem Staatsanwältin in den USA war, erklärt in einem Blogeintrag am Donnerstag, dass es darum gehe, bereits bekannte Bilder und Videos beim erneuten Hochladen zu stoppen. Das soziale Netzwerk experimentiere aber zugleich mit Software, die automatisch eine terroristische Einstellung in Texten erkennen solle. Eine aktuelle Auswertung von Einträgen, die wegen der Unterstützung von Terror-Organisationen, wie Isis oder Al-Kaida, bereits gelöscht wurden, würde genutzt, um einen lernfähigen Algorithmus zu füttern, Posts mit solcher Ausrichtung selbst zu erkennen. Neben Englisch laufe die Arbeit zudem in weiteren Sprachen, auch aus dem arabischen Raum, gab Bickert bekannt.
Die Managerin hob hervor, dass sie zum Ziel hätten: „terroristische Inhalte sofort [zu] entdecken, bevor Menschen in unserer Community sie zu sehen bekommen“. Brian Fishman, dessen Aufgabe beim Online-Netzwerk die Terrorbekämpfung ist, meint dazu: „Wir arbeiten daran, diese Systeme schneller und verlässlicher zu machen.“ Zugleich sei es ein Katz-und-Maus-Spiel: „Wenn wir verhindern, dass Terroristen unsere Plattform erreichen, versuchen sie, neue Wege zu finden.“ Es gebe „keinen Schalter, mit dem man Terrorismus einfach abstellen kann“.
Monika Bickert teilt weiterhin mit, dass inzwischen mehr als die Hälfte der wegen Terror-Propaganda gelöschten Facebook-Accounts vom Netzwerk selbst entdeckt werde. Dennoch wäre Facebook auf Hinweise von Nutzern bezüglich illegaler oder beim Netzwerk untersagter Inhalte angewiesen, denn: «Auch wenn unsere Software immer besser wird, hängt sehr viel auch vom Kontext ab», schränkte Bickert ein. Wenn zum Beispiel in einem Video Isis-Symbole zu sehen seien, könne es sich um Terror-Propaganda oder aber auch um einen Nachrichtenbeitrag handeln. Hier seien im Moment Entscheidungen von Menschen unverzichtbar. Eine Ausnahme ist Kinderpornografie, gegen die unter anderem mit automatisierter Software gekämpft wird.
Ansonsten wird in dem Blogeintrag darauf hingewiesen, dass die so gewonnenen Erkenntnisse aus der Facebook-Plattform zugleich auch übergreifend verwendet werden sollen, um Profile mit terroristischen Inhalten bei anderen Diensten des Online-Netzwerks, wie Instagram und WhatsApp, zu finden. Daher sei es angeraten, dass einzelne Apps Daten an Facebook weiterreichen können. Facebooks Versuch, Zugriff auf einige Informationen von WhatsApp-Nutzern zu bekommen, wurde im vergangenen Jahr in Europa von Datenschützern blockiert.
Die härtere Vorgehensweise im Kampf gegen terroristische Propaganda bei Facebook ist zurückzuführen auf den, vor allem in Europa, gewachsenen politischen Druck. So erklärte die britische Premierministerin Theresa May nach dem jüngsten Attentat auf der London Bridge, Extremismus finde im Netz eine sichere Brutstätte – und die großen Internetunternehmen ließen dies zu. Erst unlängst sprach sich Facebook gegen das von Justizminister Heiko Maas (SPD) geplante Gesetz gegen Hass und Hetze im Netz aus. Das Netzwerk befürchtet, dass am Ende zur Sicherheit auch legitime Beiträge entfernt werden könnten.
Bildquelle: geralt, thx! (CC0 Public Domain)
https://tarnkappe.info/?flattrss_redirect&id=20766&md5=d0c79f3efdc237b8ea694f6c240dcfe5
https://tarnkappe.info/facebook-mit-kuenstlicher-intelligenz-gegen-terrorinhalte/Quelle
Autor: Antonia
Quelle