KI bekämpft Hass im Netz

Ein besseres und sichereres Internet – das ist das Ziel eines Projekts des Hagener Computerlinguisten Prof. Dr. Torsten Zesch: Mit seiner Hilfe entstand ein KI-Tool, das strafbare Hassbotschaften aus Social-Media-Posts erkennt. Das Tool soll die Praxis von Strafverfolgungsbehörden erleichtern. Ziel ist es, Straftaten schneller zu erkennen und damit Kriminalität besser bekämpfen zu können. „Einsatz von KI zur Früherkennung von Straftaten (KISTRA)“ hieß das BMBF-finanzierte Projekt, bei dem Forschende von sechs Universitäten unter anderem mit dem Bundeskriminalamt und der Zentralen Stelle für Informationstechnik im Sicherheitsbereich zusammenarbeiteten.

„Einsatz von KI zur Früherkennung von Straftaten (KISTRA)“ hieß das BMBF-finanzierte Projekt, bei dem Forschende von sechs Universitäten unter anderem mit dem Bundeskriminalamt und der Zentralen Stelle für Informationstechnik im Sicherheitsbereich zusammenarbeiteten. „Für uns stand dabei das linguistische Interesse im Vordergrund“, erklärt Torsten Zesch, der am Forschungszentrum CATALPA die Professur Computerlinguistik innehat. Herausforderung: Die KI muss nicht nur Hass-Posts erkennen, sondern sie auch verschiedenen Straftatbeständen zuordnen, etwa Beleidigung, Bedrohung oder Volksverhetzung.

Gesetze sind nach einer ähnlichen Logik aufgebaut wie Computerprogramme.

Torsten Zesch, Computerlinguist

Hierfür arbeiteten Torsten Zesch und sein Team eng mit Juristinnen zusammen, unter anderem mit Prof. Dr. Frederike Zufall vom Karlsruher Institut für Technologie. Sie zerlegten die Straftatbestände in einzelne miteinander verknüpfte Bausteine, die Zesch in einen Erkennungsalgorithmus „übersetzen“ konnte. „Das hat eigentlich gut gepasst, weil Gesetze nach einer ähnlichen Logik aufgebaut sind wie Computerprogramme“, so Zesch.

Entscheidungen durch Menschen

Viel schwieriger: Auch dann verlässliche Ergebnisse zu erzielen, wenn beispielsweise die Rechtschreibung in einem Hass-Post nicht stimmt oder Verfremdungen eingesetzt werden. „Das wird oft bewusst gemacht, mutmaßlich, um einer automatisierten Erkennung zu entgehen“, erklärt Zesch. Zum Beispiel werden Buchstaben weggelassen und durch Zahlen oder Sonderzeichen ersetzt. Als „Noise“ bezeichnet man in der Computerlinguistik diese Verfremdungen, also als Krach oder Lärm.

Sechs verschiedene Verfremdungs-Strategien identifizierten Torsten Zesch und sein Mitarbeiter Piush Aggarwal, teilweise mit mehreren Unter-Kategorien. Sie fanden Methoden, mit diesen Strategien umzugehen und trotzdem stabile Ergebnisse zu erhalten. „Robustheit“ oder Englisch „robustness“ ist hierfür der Fachbegriff.

Eins steht fest: Die KI soll den Menschen lediglich die Arbeit erleichtern und ein Hilfsmittel sein. Das war bei KISTRA ganz klar gefordert: „Die Entscheidung über die Strafbarkeit liegt weiterhin bei den ermittelnden Beamtinnen und Beamten“, erklärt Zesch.

KI für Sicherheit

Das Projekt KISTRA war Teil des Rahmenprogramms „Forschung für die zivile Sicherheit“ der Bundesregierung in der Förderrichtlinie „Künstliche Intelligenz in der Sicherheitsforschung“.

Hate Speech – der Film

Cybermobbing, Trollen, Shitstorms – woher kommt dieser Hass, der sich häufig mit voller Wucht entlädt und insbesondere marginalisierte Gruppen trifft? Wie kann man darauf reagieren? Das sind Fragen, mit denen sich auch der Forschungsschwerpunkt digitale_kultur an der FernUniversität in Hagen filmisch befasst.