Aktivitäten filtern

oder
Typ

Ein zweitägiger Workshop, bei dem Expert:innen auf dem Gebiet zusammenkamen

Die Inhaltsmoderation und die Meinungsfreiheit im digitalen Raum - und wie man sie ausbalanciert - sind Schlüsselthemen für Forschende, Philosoph:innen, öffentliche Amtsträger, NGOs und natürlich für soziale Medienplattformen und Nutzer:innen. Am TUM Think Tank hatten wir das Vergnügen, eine Reihe internationaler Expert:innen auf diesem Gebiet vor Ort begrüßen zu dürfen. Die Gruppe kam für zwei volle Tage zusammen, um sich intensiv mit diesem drängenden Thema auseinanderzusetzen, Ideen auszutauschen und empirische Forschungsergebnisse aus den Perspektiven der Regierungsführung, der Industrie und des politischen Verhaltens vorzustellen.

Von ideologischen Vorurteilen in der Inhaltsmoderation und der Politik der Plattformregulierung bis hin zu den Präferenzen der Bürger:innen, wie schädliche Online-Sprache eingedämmt und reguliert werden kann, und der Wirksamkeit der Kennzeichnung von Inhalten als KI-generiert, deckte der Workshop eine breite Palette von Themen ab und betonte die Notwendigkeit transnationaler Gespräche über Inhaltsmoderation.

Panel Diskussion

In einer anregenden Diskussionsrunde mit Benjamin Brake (Bundesministerium für Digitale Angelegenheiten und Verkehr), Friedrich Enders (TikTok Deutschland), Andreas Frank (Bayerisches Justizministerium) und Ruth Appel (Stanford University) haben wir die Komplexitäten der Definition schädlicher Sprache und deren Bekämpfung erörtert. Wir sprachen auch darüber, wie Plattformen überprüft werden und wie sie die Transparenz mit dem Schutz der Privatsphäre und der freien Meinungsäußerung der Nutzer in Einklang bringen, wenn es um Entscheidungen zur Inhaltsmoderation geht.

Die Diskussion konzentrierte sich auf die Aufteilung der Verantwortung für die Inhaltsmoderation und die Transparenz der Durchsetzung von Seiten der wichtigsten Beteiligten. Es wurde festgestellt, dass die deutsche Regierung für kleinere Plattformen verantwortlich ist, die nicht vom Digital Services Act (DSA) abgedeckt werden, während die Europäische Kommission für größere Plattformen wie X oder TikTok zuständig ist.

  • Während die genauen Methoden, mit denen Technologieunternehmen auf Grundlage der im DSA festgelegten Definitionen und Richtlinien mit schädlicher Sprache umgehen sollten, von einiger Unklarheit geprägt sind, war ein gemeinsames Thema in der Diskussion die Notwendigkeit von Transparenz bei Entscheidungen zur Inhaltsmoderation und die Berücksichtigung des Kontexts. Basierend auf dem Gespräch kann die Unklarheit bei der Definition schädlicher Sprache als eine flexible Möglichkeit angesehen werden, wie Technologieunternehmen und Regierungen damit umgehen können. Forscher wiesen jedoch darauf hin, dass sie auch problematisch sein kann, insbesondere wenn es um die genaue Erkennung durch automatisierte Methoden geht.
  • Zusätzlich erläuterte Friedrich Enders den Prozess der Inhaltsmoderation bei TikTok. Die Plattform verwendet eine Kombination aus KI und menschlicher Überprüfung, um schädliche Inhalte schnell zu entfernen. Dabei ist man sich bewusst, dass einige schädliche Inhalte, wie beispielsweise grafische Inhalte, möglicherweise immer noch im öffentlichen Interesse liegen und aus dokumentarischen, pädagogischen und Gegenrede-Zwecken auf der Plattform verbleiben können. Diese Inhalte sind jedoch nicht für die Empfehlung an TikToks "For You"-Feed der Nutzer vorgesehen
  • Die Diskussionsrunde betonte auch die Herausforderung, Meinungsfreiheit, Datenschutz und die Sicherheit der Nutzer in Einklang zu bringen. TikTok betonte ihr Engagement für beide Prinzipien, während die Regierung nachdrücklich empfahl, dass die Bedeutung der Wahrung der Meinungsfreiheit so groß ist, dass man sich immer für die Meinungsfreiheit entscheiden sollte, wenn man unsicher ist, wie Grenzfälle moderiert werden sollen.

Der Workshop wurde gemeinsam organisiert vom Lehrstuhl für Digital Governance, der Hochschule für Politik München, der Universität Oxford, der Technischen Universität München und dem Reboot Social Media Lab am TUM Think Tank.

TL;DR

Von den ideologischen Vorurteilen in der Inhaltsmoderation, der Politik der Plattformregulierung und den Präferenzen der Bürger für die Regulierung von Hassrede online bis hin zur Wirksamkeit der Kennzeichnung von Inhalten als KI-generiert - dieser Workshop umfasste eine breite Palette von Themen und betonte die Notwendigkeit transnationaler Gespräche über Inhaltsmoderation.

Behalten Sie den Überblick in Sachen Innovation.

Melden Sie sich für unseren Newsletter an und folgen Sie uns auf unseren Social Media Kanälen.