Künstliche Intelligenz gegen Antisemitismus

Künstliche Intelligenz gegen Antisemitismus

Ob das englische Wort «Juice» (Saft) für Juden oder die Rede von der «Ostküsten-Lobby»: Solche Wortspiele und mehrdeutige Begriffe gehören nach Expertensicht zu einem wachsenden antisemitischen Code in sozialen Medien und Online-Kommentaren auf den Seiten von Nachrichtenplattformen.

Silhouette einer Person vor einem PC

© dpa

Da wird von «Rothschild» und «Soros» als Stellvertreter für eine angebliche globale Finanzmacht gesprochen, von «Wall Street» oder «der Presse». Mit Hilfe von Künstlicher Intelligenz (KI) wollen jetzt Wissenschaftler gegen die Ausbreitung solcher antisemitisch gemeinter Diffamierungen vorgehen und damit helfen, deren Verbreitung im Netz zu bekämpfen. «Decoding Antisemitism» - so nennt sich das Projekt, das vom Linguisten Matthias J. Becker von der Technischen Universität (TU) Berlin geleitet wird. Beteiligt sind unter anderem auch das Zentrum für Antisemitismusforschung der TU und das Londoner King's College.

Landecker Stiftung fördert Projekt mit drei Millionen Euro

«Es zeigt sich, dass Online-Hetze und Hassverbrechen in der analogen Welt meist miteinander in Verbindung stehen», erklärte Becker nach einer Mitteilung der Alfred Landecker Stiftung vom Montag (21. September 2020). Die Stiftung fördert das Projekt mit drei Millionen Euro. Damit nicht immer mehr Nutzer radikalisiert würden, sei es wichtig, das Ausmaß von antisemitischem Hass genau zu bestimmen - auch bei zunächst oberflächlich unverdächtigen Begriffen.

Bisher noch keine Untersuchung von codiertem Hass gegen Juden

Zu dem Forscherteam gehören Experten für Diskursanalyse, Computerlinguistik und Historiker. Bisher habe sich noch keine Untersuchung darauf konzentriert, versteckten und codierten Hass gegen Juden zu identifizieren. Dabei gehe aus Studien hervor, dass antisemitische Diffamierungen mehrheitlich nicht direkt ausgedrückt würden. Auch die Andeutung von Verschwörungsmythen oder die Wiederholung von Stereotypen in Bildern, Karikaturen oder Memes gehörten dazu.

Spezialisten arbeiten an Open-Source-Anwendung

Mit Hilfe von Computern und KI wollen die Forscher große Mengen an Daten- und Bildmaterial sichten, die menschliche Analysten nicht verarbeiten könnten. Ziel des Projekts sei unter anderem eine Open-Source-Anwendung, um etwa Debatten auf Webseiten zu moderieren. Es gehe dabei ausdrücklich nicht darum, einen Zensuralgorithmus zu erschaffen, teilte die Landecker-Stiftung weiter mit.
Corona-Studie
© Max-Planck-Gesellschaft

Große Berliner Corona-Studie

Wie erging es Ihnen vor, während und nach dem Lockdown? Ihre Erfahrungen sind wichtig - damit wir derartige Herausforderungen zukünftig besser bewältigen können. mehr

Quelle: dpa

| Aktualisierung: Dienstag, 22. September 2020 07:37 Uhr

Weitere Meldungen