Friedliches Web dank Algorithmus?

Hasskommentare überfluten Kommentarspalten und vergiften das Klima im Social Web. Forscher*innen an der FU wollen dem nun entgegentreten – mit einem automatisierten Prozess. Alena Weil hat sich schlau gemacht.

IMG_6825

Wie umgehen mit Hass im Netz? Zu diesem Thema kamen beim Kick-Off Workshop Expert*innen aus Wissenschaft und Praxis zusammen. Foto: Gwendolin Gurr

Stundenlang durch Hetze, Rassismus und Verschwörungstheorien scrollen, Trolle aufspüren, Hasskommentare löschen – in der harten Realität sozialer Medien und anderer Online-Foren ist aufwendige Moderation unumgänglich. Oder? Ein Forschungsprojekt der Freien Universität im Verbund mit der Beuth Hochschule und dem Unternehmen VICO Research & Consulting könnte Abhilfe schaffen. Ziel des „NOHATE”-Projektes, welches durch das Bundesministerium für Bildung und Forschung gefördert wird, ist es, einen Algorithmus zu entwickeln, der Kommentarspalten auf Hassrede prüft. Community-Manager*innen sollen so über problematische Entwicklungen informiert werden. Der besondere Fokus liegt hierbei auf dem Themenfeld Migration und Flucht.

Vereinte Forschungskraft gegen sprachliche Gewalt

Hate Speech – was ist das überhaupt? Der Begriff ist politisch, eine wissenschaftliche Definition gibt es bislang nicht. Gemeint sind herabsetzende, beleidigende oder zur Gewalt aufrufende Äußerungen gegen bestimmte Personen oder gesellschaftliche Gruppen. Vor allem Thematiken wie etwa Kriminalität, Migration und Sexualität förderten oft Hassrede, erzählt Sünje Paasch-Colberg vom Institut für Publizistik- und Kommunikationswissenschaft der FU. Dabei spielten Emotionen eine wichtige Rolle: Sobald Gefühle im Spiel sind, eskaliere eine Diskussion schnell, ergänzt Professor Joachim Trebbe, der das „NOHATE”-Projekt zusammen mit Martin Emmer leitet.

Das Forschungsvorhaben gliedert sich in drei Teilaufgaben. Das Team der FU soll das Phänomen zunächst sozialwissenschaftlich untersuchen. Um mehr über die Formen und das Auftreten von Hassrede zu erfahren, wollen die Forscher*innen Kommentare inhaltsanalytisch untersuchen. Die Ergebnisse werden dann an die Beuth Hochschule weitergegeben und von Professor Alexander Löser und Betty van Aken, Informatiker*innen am Forschungszentrum für Data Science, in ein maschinell gelerntes Modell übersetzt.

„Unsere Aufgabe ist es, ein Verfahren zu entwickeln, das hilft, Hasssprache möglichst automatisiert zu entdecken“, erklärt Löser. „Das maschinell gelernte Modell wird dann an mehreren zehn- bis hunderttausend Kommentaren getestet und die Ergebnisse anschließend stichprobenartig mit einem ‘Goldstandard’ menschlicher Codierer verglichen. Dieser Prozess ist iterativ und berücksichtigt variantenreiche und auch frische Trainingsdaten.” Zudem kooperieren die Forscher*innen mit Expert*innen aus der Praxis, unter anderem mit großen Verlagen. Von ihnen beziehen sie die Daten für ihre Untersuchungen. Der fertige Algorithmus soll schließlich an Kommentaren unter ihren Artikeln getestet werden.

Ein Amaturenbrett für Community-Management

Was aber steht am Ende des Projektes? „Es soll eine Art Dashboard entstehen”, erklärt Trebbe, „ein Armaturenbrett, auf dem man sieht, welche Kommentare zu welchen Themen in welchem Medium einlaufen.“ Community-Manager*innen soll somit erleichtert werden, den Überblick darüber zu behalten, was in den Foren passiert. Selbstständig Kommentare löschen werde das Dashboard aber nicht.

Aus ihren Erkenntnissen über die Ursachen und Dynamiken von Hate Speech wollen die Forscher*innen an der FU zudem Handlungsempfehlungen entwickeln, die an die Redaktionen mitgeliefert werden sollen. Diese dürfte dieser Ausblick freuen: Das Dashboard könnte für sie eine deutliche Ersparnis bedeuten – sowohl an aufgewendeten Ressourcen als auch an Nerven, die Hate Speech die Community-Beauftragten täglich kostet.

Autor*in

FURIOS Redaktion

Unabhängiges studentisches Campusmagazin an der FU seit 2008

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.