Migration und Hasskommentare in sozialen Medien in kulturvergleichender Perspektive
Zusammenfassung der Projektergebnisse
Das Projekt hat wichtige Zielsetzungen erreicht, die einen bedeutsamen inhaltlichen und methodischen Beitrag zur Erfassung und zum Verständnis des Auftretens und der Erklärung von Hate Speech auch im Kulturvergleich leisten. 1. Das Phänomen Hate Speech kann sehr verschiedene Facetten haben, die weit über ein binäres Verständnis (Anwesenheit vs. Abwesenheit bestimmter Formen von Negativität) hinausgehen. In theoretischer Hinsicht erlaubt die Operationalisierung von Hate Speech über die Kombination von Einzelmerkmalen und -facetten einen größeren Erkenntnisgewinn über das Phänomen selbst (z. B. präzisere Beschreibung). Darüber hinaus lässt sich Hate Speech dann aber auch besser vorhersagen und das Auftreten erklären. In praktischer Hinsicht ist dann auch eine besser angepasste Bekämpfung möglich, z. B. Counter-Speech oder andere Intervention, die über das bloße Löschen hinausgehen. 2. Der Kulturvergleich erbrachte wichtige Erkenntnisse für die Forschung zu Hate Speech. Inhaltlich zeigten sich zwar an einigen Stellen Unterschiede zwischen Kommentaren in deutsch- und französischsprachigen Medien. Diese waren jedoch nicht so stark ausgeprägt, es zeigten sich eher Gemeinsamkeiten. Dies kann auch auf ähnliche Praktiken bzw. Kontextbedingungen hindeuten, z. B. Löschpraktiken oder Community Management, Freischaltung der Kommentarfunktion nur für registrierte. Selbst wenn Hate Speech unterschiedlich wäre, würden diese Kontextbedingungen zu einer Homogenisierung der Inhalte führen, die für andere Nutzer:innen bzw. Forschende sichtbar und analysierbar sind. 3. Während die meisten Studien mit englischsprachigen Korpora arbeiten und Methoden der Erfassung dafür optimiert sind, stellt dieses Projekt ein zweisprachiges Korpus zur Verfügung, das auch für Sekundäranalysen nachnutzbar ist und damit auch die Möglichkeit gibt, das Problem der Sprachabhängigkeit genauer zu untersuchen. 4. Neben dem Korpus wurden im Projekt auch noch ein Annotationsprotokoll und ein Annotationstool entwickelt, das für die Nachnutzung zur Verfügung gestellt wurde. Die entsprechenden Gütekriterien im Hinblick auf Validität und Reliabilität zeigen den Fortschritt der vorliegenden Operationalisierung von Hate Speech gegenüber herkömmlichen Vorgehensweisen. In manchen Bereichen zeigen sich jedoch auch derzeit noch bestehende Grenzen von manueller wie automatisierter Erkennung von Hate Speech Elementen. Die Limitationen betreffen vor allem die Erfassung von impliziten Formen von Hate Speech, z.B. Ironie oder Metaphern, die selbst für menschliche Codier:innen schwierig verlässlich zu erfassen sind. Neuere Entwicklungen auf dem Gebiet der Computerlinguistik könnten hier potenziell neue Ansätze bieten, dazu besteht jedoch noch weiterer Forschungsbedarf.
Projektbezogene Publikationen (Auswahl)
-
LSV-UdS at HASOC 2019: The Problem of Defining Hate. In Proceedings of the International Conference on Recent Advances in Natural Language Processing (RANLP 2019)
Ruiter, D., Rahman, Md. A., & Klakow, D.
-
A Feature-Based Approach to Assess Hate Speech in User Comments. Questions de communication, 38, 529-548.
Reiners, Liane & Schemer, Christian
-
HUMAN: Hierarchical Universal Modular ANnotator. Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing: System Demonstrations (2020), 55-61. American Geophysical Union (AGU).
Wolf, Moritz; Ruiter, Dana; D’Sa, Ashwin Geet; Reiners, Liane; Alexandersson, Jan & Klakow, Dietrich
-
Label Propagation-Based Semi-Supervised Learning for Hate Speech Classification. Proceedings of the First Workshop on Insights from Negative Results in NLP (2020), 54-59. American Geophysical Union (AGU).
D’Sa, Ashwin Geet; Illina, Irina; Fohr, Dominique; Klakow, Dietrich & Ruiter, Dana
-
Emoji-Based Transfer Learning for Sentiment Tasks. Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Student Research Workshop (2021), 103-110. American Geophysical Union (AGU).
Boy, Susann; Ruiter, Dana & Klakow, Dietrich
-
Exploring Conditional Language Model Based Data Augmentation Approaches for Hate Speech Classification. Lecture Notes in Computer Science (2021), 135-146. American Geophysical Union (AGU).
D’Sa, Ashwin Geet; Illina, Irina; Fohr, Dominique; Klakow, Dietrich & Ruiter, Dana
-
Modeling Profanity and Hate Speech in Social Media with Semantic Subspaces. Proceedings of the 5th Workshop on Online Abuse and Harms (WOAH 2021) (2021), 6-16. American Geophysical Union (AGU).
Hahn, Vanessa; Ruiter, Dana; Kleinbauer, Thomas & Klakow, Dietrich
-
Comparing hate speech in French and German news comment sections in the context of migration. Vortrag auf der 9. Jahrestagung der European Communication Research and Education Association (ECREA) vom 19.-22. Oktober 2022, Aarhus, Dänemark
Reiners, L., & Schemer, C.
-
Exploiting Social Media Content for Self-Supervised Style Transfer. Proceedings of the Tenth International Workshop on Natural Language Processing for Social Media (2022), 11-34. American Geophysical Union (AGU).
Ruiter, Dana; Kleinbauer, Thomas; España-Bonet, Cristina; Genabith, Josef van & Klakow, Dietrich
-
Hate Speech as an Indicator for the State of the Society. Journal of Media Psychology, 34(1), 3-15.
Schäfer, Svenja; Sülflow, Michael & Reiners, Liane
-
Placing M-Phasis on the Plurality of Hate: A Feature-Based Corpus of Hate Online
Ruiter, D., Reiners, L., D'Sa, A. G., Kleinbauer, Th., Fohr, D., Irina, I., Klakow, D., Schemer, C., & Monnier, A.
-
StereoKG: Data-Driven Knowledge Graph Construction For Cultural Knowledge and Stereotypes. Proceedings of the Sixth Workshop on Online Abuse and Harms (WOAH) (2022), 67-78. American Geophysical Union (AGU).
Deshpande, Awantee; Ruiter, Dana; Mosbach, Marius & Klakow, Dietrich
