Titel: Hate Speech Detection and Analysis for Low-Resource Languages: The Case for Amharic
Sprache: Englisch
Autor*in: Ayele, Abinew Ali
Erscheinungsdatum: 2024-12
Tag der mündlichen Prüfung: 2025-04-28
Zusammenfassung: 
This dissertation addresses the pressing issue of hate speech in the digital age, particularly within the ever-evolving landscape of social media. Over recent decades, social media platforms have become fertile grounds for debates on various social and political issues. However, this openness has also facilitated the alarming proliferation of hateful and discriminatory messages.

Addressing hate speech requires the involvement of both automatic methods, which utilize natural language processing and machine learning models, and non-automatic methods, which involve human judgment and policy regulations. The complex and subjective nature of hate speech makes reliance on legal regulations alone insufficient, necessitating the development of AI-based linguistic and critical discourse analyses to effectively manage and mitigate these challenges. This dissertation primarily focuses on automatic approaches for detecting and analyzing hate speech, specifically within Ethiopia's dynamic social, political, and cultural context, where the challenges are especially pronounced.

The dissertation is structured to provide a comprehensive approach for detecting and analyzing hate speech by designing and implementing five main components: detection, target identification, intensity determination, multimodal detection, and detoxification. We present several datasets that have been compiled using various data annotation methods, aimed at mitigating the impact of hate speech. It also presents novel data sampling strategies and preprocessing pipelines, which addresses data imbalance problems in hate speech studies.

One way to obtain these datasets is crowdsourcing. We explore the viability of crowdsourcing as a method for annotating hate speech data and present hate speech datasets for Amharic, a low-resource language, and French, a high-resource language, utilizing the Yandex Toloka platform. With regard to crowdsourcing, our findings highlight the opportunities and challenges of crowdsourcing for different languages and emphasize the need for careful quality control mechanisms. Additionally, crowdsourcing poses greater challenges for low-resource languages due to the scarcity of crowd workers, which increases the likelihood of malicious users participating in the annotation task.

Another approach for data annotation is to employ an in-house annotation setup, which ensures the creation of high-quality annotated hate speech datasets for Amharic under a controlled setup. We present a dataset of 15.1k tweets, annotated using WebAnno, showcasing the benefits of controlled annotation environments over crowdsourcing by achieving higher inter-annotator agreement.

The insights from both annotation strategies, crowdsourcing and in-house, highlight that hate speech annotation is highly subjective, requiring diverse contextual background information. This addresses our first research question: What are the main challenges in crowdsourcing and in-house hate speech annotation approaches?

We introduce a new multidimensional dataset, specifically focusing on three tasks: category classification, target community identification, and intensity ratings. The findings highlight how hate speech in Ethiopia often targets ethnic and political identities, which reflects the complex socio-political dynamics of Ethiopia, addressing our second research question: To what extent do hate speech disproportionately target specific vulnerable communities? Additionally, experimental results illustrate how hate and offensive speech manifests itself as continuous values, rather than discrete, binary categories, requiring a more comprehensive and in-depth analysis of intensities while studying hate and offensive speech. These findings address our third research question: How can hate and offensive speech be understood: as distinct categories or as values on a spectrum of varying intensities?

The dissertation expands the research into a multimodal analysis by examining hate speech in Amharic memes, which aims to address the fourth research question: To what extent do multimodality enhance the detection of hate speech compared to unimodal approaches? The findings from multimodal experiments highlight the superiority of multimodal models over unimodal approaches.


Detecting hate speech, identifying the targets, and assessing its intensity can help content moderators to remove harmful messages from social media platforms. However, these measures alone are insufficient to address online abuse in a broader context. Thus, rewriting toxic content into a non-toxic form provides additional opportunities to enhance online safety. To this end, we introduce the first parallel dataset for Amharic, containing toxic textual inputs and their non-toxic counterparts, generated using text rewriting and rephrasing techniques. We investigate methods for rephrasing toxic content into more neutral language, highlighting the challenges large language models (LLMs) like GPT-4 encounter due to issues with inaccurate and incoherent outputs, addressing the fifth research question: What challenges do large language models (LLMs) face in Amharic text detoxification task?


In summary, this dissertation makes significant contributions by developing comprehensive datasets and methodologies to mitigate the pressing issue of online hate speech, within a low-resource languages context. It offers novel insights into the complex nature of hate speech, spanning detection, categorization, intensity prediction, and text detoxification efforts in the context of Ethiopia, a country having diverse social, political and cultural complexities. These contributions pave the way for future research and technological advancements in creating safer online environments, advocating a multi-faceted approach to combating online hate speech in situations where cultural and linguistic diversities are prominent.

Diese Dissertation befasst sich mit dem Problem "Hassreden im digitalen Zeitalter“, insbesondere in der sich ständig weiterentwickelnden Landschaft der sozialen Medien. In den letzten Jahrzehnten sind die Plattformen der sozialen Medien zu einem fruchtbaren Boden für Debatten über verschiedene soziale und politische Themen geworden. Diese Offenheit hat jedoch auch die alarmierende Verbreitung von hasserfüllten und diskriminierenden Botschaften begünstigt.

Der Umgang mit Hassreden erfordert sowohl automatische Methoden, die natürliche Sprachverarbeitung und Modelle des maschinellen Lernens nutzen, als auch nichtautomatische Methoden, die menschliches Urteilsvermögen und politische Regelungen einbeziehen. Aufgrund der komplexen und subjektiven Natur von Hassreden sind gesetzliche Regelungen allein nicht ausreichend, so dass die Entwicklung von KI-basierten linguistischen und kritischen Diskursanalysen erforderlich ist, um diese Herausforderungen effektiv zu bewältigen und zu entschärfen. Diese Dissertation konzentriert sich in erster Linie auf automatische Ansätze zur Erkennung und Analyse von Hassreden, insbesondere im dynamischen sozialen, politischen und kulturellen Kontext Äthiopiens, wo die Herausforderungen besonders ausgeprägt sind.

Die Dissertation ist so strukturiert, dass sie einen umfassenden Ansatz zum Verständnis von Hassreden durch vier verschiedene Analyseebenen bietet: Erkennung, Zielidentifizierung, Intensitätsbewertung und Detoxifizierung. Wir stellen mehrere Datensätze vor, die mit verschiedenen Methoden der Datenannotation zusammengestellt wurden, um die Auswirkungen von Hassreden zu mildern. Darüber hinaus werden neuartige Strategien zur Datenerfassung und Datenvorverarbeitung vorgestellt, die sich mit Problemen des Datenungleichgewichts bei Studien zu Hassreden befassen.

Eine Möglichkeit, diese Datensätze zu erhalten, ist Crowdsourcing. Wir untersuchen die Durchführbarkeit von Crowdsourcing als Methode zur Annotation von Hassrededaten und präsentieren Datensätze für Amharisch, eine Sprache mit geringen Ressourcen, und Französisch, eine Sprache mit vielen Ressourcen, unter Verwendung der Yandex-Toloka-Plattform. Im Hinblick auf Crowdsourcing zeigen unsere Ergebnisse die Möglichkeiten und Herausforderungen von Crowdsourcing für verschiedene Sprachen auf und betonen die Notwendigkeit sorgfältiger Qualitätskontrollmechanismen. Darüber hinaus stellt Crowdsourcing für Sprachen mit geringen Ressourcen eine größere Herausforderung dar, da es nur wenige Crowdworker gibt, was die Wahrscheinlichkeit erhöht, dass böswillige Benutzer an dem Annotationsprojekt teilnehmen.

Ein weiterer Ansatz für die Annotation von Daten ist die Verwendung einer internen Annotationsumgebung, die die Erstellung hochwertiger annotierter Hassreden-Datensätze für Amharisch unter kontrollierten Bedingungen gewährleistet. Wir präsentieren einen Datensatz von 15,1 tausend Tweets, die mit WebAnno annotiert wurden, und zeigen die Vorteile von kontrollierten Annotationsumgebungen gegenüber Crowdsourcing, indem wir eine höhere Übereinstimmung zwischen den Annotatoren erreichen.

Die Erkenntnisse aus beiden Annotationsstrategien, Crowdsourcing und Inhouse, machen deutlich, dass die Annotation von Hassreden sehr subjektiv ist und verschiedene kontextbezogene Hintergrundinformationen erfordert. Daraus ergibt sich unsere erste Forschungsfrage: Was stellt die größten Herausforderungen in Crowdsourcing- und Inhouse-Annotationsprojekten von Hassreden dar?

Wir stellen einen neuen multidimensionalen Datensatz vor, der sich speziell auf drei Aufgaben konzentriert: Klassifizierung von Kategorien, Identifizierung der Zielgemeinschaft und Bewertung der Intensität. Die Ergebnisse zeigen, dass Hassreden in Äthiopien häufig auf ethnische und politische Identitäten abzielen, was die komplexe soziopolitische Dynamik Äthiopiens widerspiegelt und unsere zweite Forschungsfrage beantwortet: Inwieweit richten sich Hassreden unverhältnismäßig stark gegen bestimmte gefährdete Gemeinschaften? Darüber hinaus veranschaulichen die experimentellen Ergebnisse, wie sich Hass und beleidigende Äußerungen als kontinuierliche Werte und nicht als diskrete, binäre Kategorien manifestieren, was eine umfassendere und tiefgreifendere Analyse der Intensität bei der Untersuchung von Hass und beleidigenden Äußerungen erfordert. Diese Ergebnisse gehen auf unsere dritte Forschungsfrage ein: Wie können Hass und beleidigende Äußerungen verstanden werden: als unterschiedliche Kategorien oder als Werte auf einem Spektrum unterschiedlicher Intensität?

In der Dissertation wird die Forschung auf eine multimodale Analyse ausgeweitet, indem Hassrede in amharischen Memes untersucht wird, um die vierte Forschungsfrage zu beantworten: Inwieweit verbessert Multimodalität die Erkennung von Hassrede im Vergleich zu unimodalen Ansätzen? Die Ergebnisse der multimodalen Experimente unterstreichen die Überlegenheit der multimodalen Modelle gegenüber unimodalen Ansätzen.

Die Erkennung von Hassreden, die Identifizierung der Ziele und die Bewertung ihrer Intensität können Moderatoren dabei helfen, schädliche Nachrichten von Social-Media-Plattformen zu entfernen. Diese Maßnahmen allein reichen jedoch nicht aus, um Online-Missbrauch in einem breiteren Kontext zu bekämpfen. Daher bietet die Umformung toxischer Inhalte in eine nicht-toxische Form zusätzliche Möglichkeiten zur Verbesserung der Online-Sicherheit. Zu diesem Zweck stellen wir den ersten parallelen Datensatz für Amharisch vor, der toxische Texteingaben und ihre ungiftigen Gegenstücke enthält, die mithilfe von Techniken zum Paraphrasieren von Texten erzeugt wurden. Wir untersuchen Methoden zur Umformulierung toxischer Inhalte in eine neutralere Sprache und heben die Herausforderungen hervor, denen sich große Sprachmodelle (LLMs) wie GPT-4 aufgrund von Halluzinationen gegenübersehen, um die fünfte Forschungsfrage zu beantworten: Welche Herausforderungen stellen sich großen Sprachmodellen (LLMs) bei der Detoxifikation von amharischen Texten?

Zusammenfassend leistet diese Dissertation durch die Entwicklung umfassender Datensätze und Methoden zur Detoxifizierung von Online-Hassrede in ressourcenarmen Sprachen einen wichtigen Beitrag. Sie bietet neue Einblicke in die komplexe Natur von Hassreden, die die Erkennung, Kategorisierung, Intensitätsbewertung und Detoxifizierung von Texten in Äthiopien, einem Land mit vielfältigen sozialen, politischen und kulturellen Gegebenheiten, umfassen. Diese Beiträge ebnen den Weg für künftige Forschung und technologische Fortschritte bei der Schaffung sicherer Online-Umgebungen und befürworten einen vielschichtigen Ansatz zur Bekämpfung von Online-Hassreden in Situationen, in denen kulturelle und sprachliche Unterschiede im Vordergrund stehen.
URL: https://ediss.sub.uni-hamburg.de/handle/ediss/11647
URN: urn:nbn:de:gbv:18-ediss-127851
Dokumenttyp: Dissertation
Betreuer*in: Biemann, Chris
Yimam, Seid Muhie
Enthalten in den Sammlungen:Elektronische Dissertationen und Habilitationen

Dateien zu dieser Ressource:
Datei Prüfsumme GrößeFormat  
Abinew_Dissertation.pdfa5b7bc612f06aa97b1cce48f683d7fb915.71 MBAdobe PDFÖffnen/Anzeigen
Zur Langanzeige

Info

Seitenansichten

Letzte Woche
Letzten Monat
geprüft am null

Download(s)

Letzte Woche
Letzten Monat
geprüft am null
Werkzeuge

Google ScholarTM

Prüfe