
Vereinigung von Wissenschaft, Zivilgesellschaft, öffentlichem Sektor und Industrie zur Bekämpfung toxischer Online-Kommunikation
Keynotes, Paneldiskussionen, Mini-Workshops und Networking-Pausen brachten vielfältige Akteur*innen aus Wissenschaft, Zivilgesellschaft, Industrie und Regierung zur dritten Ausgabe des Workshops Facilitating Constructive Dialogue zusammen. Gemeinsam haben wir die neueste Forschung zu schädlichen Online-Inhalten untersucht und umsetzbare Strategien entwickelt, um diesen dringenden Herausforderungen zu begegnen.
Wir konzentrierten uns auf zwei zentrale Fragen:
-
Was wissen wir über die Herausforderungen von Hassrede sowie Miss- und Desinformation im Internet, und wie können wir ihnen am besten begegnen?
-
Was wissen wir über wirksame Lösungen, Strategien und Werkzeuge zur Bekämpfung dieser Probleme?
Einige zentrale Erkenntnisse des zweitägigen Workshops:
Konsistenz ist entscheidend: Klare und konsistente Definitionen von schädlichen Inhalten wie Hassrede sind unerlässlich, um Maßnahmen gezielt zu steuern. Die beste Herangehensweise zur Erreichung dieses Ziels bleibt jedoch eine offene Herausforderung.
Gezielte Interventionen: Es ist wichtig, zwischen „schädlichen, aber legalen“ Inhalten und „illegalen“ Inhalten zu unterscheiden, um gezielte und wirksame Maßnahmen zu ermöglichen.
Wirksame Gegenmaßnahmen: Gegensprache (Counterspeech) und Inhaltsmoderation sind wirkungsvolle Instrumente, müssen jedoch mit Bedacht eingesetzt werden. Es ist entscheidend, Interventionsstrategien auf belastbaren Erkenntnissen zu basieren, um sicherzustellen, dass sie eine tatsächliche Wirkung entfalten.
Zugang zu Daten: Der eingeschränkte Zugang zu Plattformdaten bleibt ein Hindernis und erschwert es, schädliche Inhalte – wie Desinformation – sowie deren Auswirkungen in der realen Welt umfassend zu erforschen.
Technologische Zielkonflikte: Algorithmische Anpassungen und andere technikbasierte Lösungen können zwar dazu beitragen, Desinformation zu verringern, gehen jedoch häufig mit Kompromissen einher – etwa einem eingeschränkten Zugang zu politischen Nachrichten oder einer geringeren Vielfalt im Diskurs.
Anpassung der Moderation: Mit Blick auf die Zukunft müssen Moderationstools entwickelt werden, die mit dem wachsenden Umfang und der Geschwindigkeit der Online-Inhaltsproduktion Schritt halten können.
Der Workshop wurde in Zusammenarbeit mit der Bayerischen Landeszentrale für neue Medien (BLM), dem Bayerischen Staatsministerium der Justiz (StMJ), dem Institute for Strategic Dialogue Germany (ISD), das NETTZ, dem Bayerischen Forschungsinstitut für Digitale Transformation (bidt) und dem Content Moderation Lab am TUM Think Tank organisiert.