Datengestützte Analyse von Hate Speech und die Auswirkungen der Regulierung in Deutschland
Projektleitung: Prof. Dr. Heiko Paulheim, Universität Mannheim und Raphaela Andres, Leibniz-Zentrum für Europäische Wirtschaftsforschung (ZEW)
Projektbearbeitung: –
Projekttyp: Profilprojekt
Fördersumme: 158 Tsd. Euro
Laufzeit: 30 Monate
Datengestützte Analyse von Hate Speech und die Auswirkungen der Regulierung in Deutschland
Projektleitung: Prof. Dr. Heiko Paulheim, Universität Mannheim und Raphaela Andres, Leibniz-Zentrum für Europäische Wirtschaftsforschung (ZEW)
Projektbearbeitung: –
Projekttyp: Profilprojekt
Fördersumme: 158 Tsd. Euro
Laufzeit: 30 Monate
Zusammenfassung
Soziale Medien sind in jüngster Zeit für viele Menschen zu einem der wichtigsten Informationskanäle geworden, was sich während der Corona-Pandemie noch verschärft hat. In Deutschland ist der Anteil der Personen, die soziale Medien als Informationsquelle nutzen, von 2013 bis 2020 stetig gestiegen und erreichte im April 2020 fast 40%. Damit sind die sozialen Medien ein Beispiel für die Ambivalenz der Digitalisierung: Einerseits bieten soziale Medien neue Möglichkeiten für soziale Interaktionen und politische Partizipation. Auf der anderen Seite erleichtern sie die Verbreitung von extremistischem Gedankengut und aggressiven oder belästigenden Inhalten. Der weithin bekannte Begriff “Hate Speech” beschreibt in diesem Zusammenhang die aggressiven und abwertenden Äußerungen gegenüber Menschen, die bestimmten Gruppen zugeordnet werden.
Laut einer repräsentativen Forsa-Umfrage in Deutschland aus dem Jahr 2019 gaben mehr als 70 Prozent der Befragten an, schon einmal mit Hate Speech im Internet konfrontiert worden zu sein, und dieser Anteil dürfte seither noch gestiegen sein. Die Begegnung mit Online-Hass hat nicht nur negative Folgen für die Betroffenen selbst (z.B. emotionaler Stress, Angst und Rufschädigung), sondern auch für die Gesellschaft als Ganzes: Es hat sich gezeigt, dass Online-Hate-Speech zu weiteren negativen Folgen in der realen Welt führen, z. B. zu sozialer Spaltung und fremdenfeindlichen Angriffen.
Um die Verbreitung von Hate Speech im Internet einzudämmen, hat die deutsche Regierung im Oktober 2017 das Netzwerkdurchsetzungsgesetz (NetzDG) eingeführt. Dieses Gesetz verpflichtet soziale Plattformen mit mehr als 2 Millionen Nutzern in Deutschland dazu, Beiträge und Kommentare mit eindeutig hasserfüllten und beleidigenden Inhalten innerhalb von 24 Stunden nach ihrer Meldung zu löschen.
Während Deutschland das erste Land war, das ein Gesetz zur Regulierung von nutzergenerierten Inhalten (User Generated Content, UGC) eingeführt hat, haben auch andere Länder und die Europäische Kommission in der Zwischenzeit begonnen, UGC zu regulieren, meist mit ähnlichen Ansätzen. Unseres Wissens nach gibt es jedoch keine empirische Untersuchung, die die Effektivität einer solchen Regulierung untersucht. Dieses Projekt soll diese Wissenslücke schließen, indem es die folgende Forschungsfrage beantwortet: Ist das Netzwerkdurchsetzungsgesetz wirksam, um die Verbreitung von Hassinhalten in sozialen Netzwerken in Deutschland zu verringern?
Zur Beantwortung dieser Forschungsfrage werden wir empirische Analysen auf einem der weltweit größten sozialen Netzwerke, nämlich Twitter, durchführen. Ein datenbasiertes Verständnis der Verbreitung von Online-Hate-Speech und der Auswirkungen des NetzDG ist entscheidend für die Entwicklung einer erfolgreichen Regulierung von UGC in der EU und anderen Ländern. Diese Behauptung wird von der deutschen Regierung bekräftigt, die im September 2020 einen Evaluierungsbericht zum NetzDG veröffentlicht hat, in dem erwähnt wird, dass aufgrund des Mangels an Daten eine Bewertung der Qualität der Entscheidungen der Plattformen, Inhalte zu entfernen oder zu behalten, noch nicht möglich ist. Da das Thema Online-Hate-Speech auch im öffentlichen Diskurs präsent ist, erwarten wir, dass die Ergebnisse dieses Projekts auf großes Interesse bei politischen Entscheidungsträgern, der wissenschaftlichen Gemeinschaft sowie den öffentlichen Medien stoßen werden.
In Vorstudien mit Differenzanalysen haben wir die Prävalenz von Hassinhalten in migrationsbezogenen Tweets in der deutschen und österreichischen Twittersphäre vor und nach der Einführung des Gesetzes in Deutschland verglichen. Hier konnten wir den kausalen Effekt des Gesetzes auf eine Reihe von Messgrößen, die sich auf hasserfüllte Äußerungen beziehen, anhand von vortrainierten Algorithmen und speziellen Wörterbüchern für die deutsche Sprache isolieren. Unsere vorläufigen Ergebnisse deuten auf einen signifikanten Rückgang der Anzahl stark toxischer Tweets und Tweets mit Identitätsangriffen hin. Auch die Polarität der Tweets scheint durch das NetzDG nicht beeinflusst zu werden.
In diesem Projekt wollen wir die oben beschriebenen vorläufigen Ergebnisse durch die Anwendung verschiedener ökonometrischer Spezifikationen validieren. Darüber hinaus planen wir, die Analyse um ein differenziertes und umfassendes Maß für Online-Hate-Speech zu erweitern. Zu diesem Zweck wollen wir ein Tool zur automatischen Klassifizierung von Hate Speech entwickeln, das für eine breite Anwendung der Projektergebnisse an andere Umgebungen und Sprachen angepasst werden könnte. Darüber hinaus planen wir eine tiefergehende Analyse der Mechanismen, durch die das Gesetz die Verbreitung von Online-Hass beeinflussen könnte, um daraus politische Empfehlungen abzuleiten.
Seit dem Zeitpunkt der Antragstellung hat es einige neue Entwicklungen gegeben, die den Schwerpunkt des Projekts leicht verändern könnten. Angesichts des Einflusses des militärischen Konflikts in der Ukraine standen Social-Media-Plattformen vor der Herausforderung, geltende Regeln für den Umgang mit dem Problem der Hassrede im Kontext eines andauernden militärischen Konflikts einzuführen.Twitter hat auf diese Herausforderung mit der Einführung einer neuen Richtlinie reagiert. Zudem gab es, seit Twitter von Elon Musk gekauft wurde, radikale Veränderungen im Unternehmen, die sich auch auf den Umgang mit Hate Speech auswirken könnten. Darüber hinaus werden wir bei der Betrachtung von Themen, die Hate Speech beinhalten können, auch aktuelle Themen mit hohem Polarisierungspotenzial, wie z.B. den oben-genannten Krieg in der Ukraine und Klimaaktivismus, untersuchen.
Abstract
Social media have lately become one of the primary information channels for many individuals, which was exacerbated during the recent pandemic. In Germany, the percentage of individuals who use social media as a source for information has increased steadily from 2013 to 2020, reaching almost 40% in April 2020. As such, social media is a major example of the ambivalence of digitization: On the one hand, social media provide new opportunities for social interactions and political participation. On the other hand, it facilitates the dissemination of extremist thoughts and aggressive or harassing contents. In this context, the widely known term “hate speech” describes the aggressive and derogatory statements towards people who are assigned to certain groups.
According to a representative survey run by Forsa in Germany in 2019, more than 70% of the respondents indicated to have already encountered online hate speech, and this share has likely risen since then. Encountering online hatred not only has negative consequences for the individuals themselves (e.g. emotional stress, fear and reputational damage), but also on the society as a whole: it has been shown that online hate speech translates into further negative real world outcomes such as societal segregation and xenophobic attacks.
In order to reduce the dissemination of online hate speech, the German government implemented the Network Enforcement Act (NetzDG) in October 2017. This law obliges social platforms with more than 2 million users in Germany to delete posts and comments containing clearly hateful and insulting content within 24 hours after they have been reported.
While Germany was the first country to implement a law for regulating user generated content (UGC), other countries and the European Commission also started to regulate UGC in the meantime, mostly with similar approaches. Yet, to the best of our knowledge, no empirical investigation has evaluated the effectiveness of such regulation. This project aims at closing this gap by answering the following Research Question: Is the Network Enforcement Act effective in lowering the prevalence of hateful content on social networks in Germany?
For addressing this research question, we will conduct empirical studies on one of the world’s largest social networks, i.e., Twitter. A data-based understanding of the prevalence of online hate speech and the impact of the NetzDG is crucial for establishing guidelines for developing future successful regulation of UGC in the EU and other countries. This claim is strengthened by the German government, which published an evaluation report of the NetzDG in September 2020, mentioning that due to the lack of data, an evaluation of the quality of the platforms’ decisions to remove or keep content is not yet possible. Since the topic of online hate speech is also prevalent in the public discourse, we expect that the results of this project will encounter
high interest of policy makers, the scientific community, as well as the public media.
In preliminary difference-in-difference analyses, we compared the prevalence of hateful content in migration-related tweets in the German and Austrian Twittersphere before and after the introduction of the law in Germany. By doing so, we isolate the causal effect of the law on a variety of measures related to hateful speech according to pre-trained algorithms and special dictionaries for the German language. Our preliminary results suggest a significant decrease in the amount of severely toxic tweets and tweets containing identity attacks. Furthermore, the sentiment of the tweets does not seem to be impacted by the NetzDG.
In this project, we aim at validating the preliminary results described above by running different econometric specifications. Furthermore, we plan on extending the analysis by a sophisticated and all-encompassing measure of online hate speech. To that end, we want to develop a tool for automated hate speech classification, which could be adapted to other settings and languages for a broad application of the project outcomes. In addition, we plan to conduct a deeper analysis of mechanisms through which the law could potentially impact the spread of online hate in order to derive policy recommendations.
Since the writing time of the research proposal, there have been a few recent developments that may slightly change the focus of the project. With the leverage of the military conflict in Ukraine, social media platforms faced a challenge to introduce governing rules for addressing the problem of hate speech in the context of an ongoing military conflict. Twitter responded to this challenge by introducing a new policy. Further, after Twitter was bought by Elon Musk, there have been radical changes in the company, which may also affect its handling of hate speech. Furthermore, when looking at topics which may involve hate speech, we will also look into recent emerging topics with a high potential for polarization, such as e.g. the above-mentioned war in Ukraine and climate activism.