Aktivitäten filtern

oder
Typ

Am 16. Februar veranstaltete der TUM Think Tank ein Kamingespräch mit Sir Nick Clegg, President of Global Affairs bei Meta. Im Gespräch mit Urs Gasser, Rektor der Hochschule für Politik (HfP) München, teilte Sir Nick Clegg seine Perspektiven und Einsichten zu einer Reihe von Themen an der Schnittstelle von künstlicher Intelligenz (KI) und Innovation, insbesondere aus europäischer Sicht.

Die weitreichende Diskussion befasste sich mit dem transformativen Potenzial von KI-Technologien und beleuchtete deren Auswirkungen auf verschiedene Sektoren in Europa und weltweit. Sir Nick Clegg, eine führende Persönlichkeit in der Technologielandschaft, beleuchtete die einzigartigen Beiträge Europas und die regulatorischen Überlegungen zu KI und dem Metaverse.

Hier einige der wichtigsten Thesen, die während des Kamingesprächs angesprochen wurden:

1. Die Länder, die am meisten von der KI-Technologie profitieren werden, sind diejenigen, die sie schnell und effektiv einsetzen können, nicht unbedingt diejenigen, die sie entwickeln. Die geopolitischen Diskussionen über KI verlagern sich von Versuchen, den Zugang zu kontrollieren, hin zur Anerkennung der Unvermeidbarkeit ihrer breiten Einführung. Dieser Wandel wird durch Unternehmen wie Meta veranschaulicht, die ihre großen Sprachmodelle (LLMs) als Open Source zur Verfügung stellen, was auf einen Trend zur gemeinsamen Nutzung von Technologie hinweist, um deren Einsatz zu maximieren, statt sie zu kontrollieren.

2. Um das volle Potenzial der KI-Technologien auszuschöpfen, ist eine internationale Zusammenarbeit erforderlich, idealerweise zwischen Technologiedemokratien wie der EU, den USA und Indien. Trotz politischer Herausforderungen und unterschiedlicher Ansätze in der Technologiepolitik könnte die Zusammenarbeit in Forschung und Politik die positiven Auswirkungen der KI erheblich fördern, insbesondere in Bereichen wie Gesundheit und Klimawandel.

 

3. Da KI aufgrund ihres doppelten Verwendungszwecks sowohl zu nützlichen als auch zu schädlichen Zwecken eingesetzt werden kann, insbesondere bei der Erzeugung realistischer Fehlinformationen, sind laufende Bemühungen von Technologieunternehmen zur Identifizierung und Kennzeichnung von KI-generierten Inhalten von entscheidender Bedeutung. Die Zusammenarbeit zwischen den wichtigsten Akteuren bei der Festlegung von Standards und Verantwortlichkeiten für KI-generierte Inhalte kann die Nutzer in die Lage versetzen, Fehlinformationen zu erkennen und zu entschärfen.

4. Das Narrativ, dass Technologie, einschließlich KI, von Natur aus schädlich für die Demokratie ist, wird durch den historischen Kontext und empirische Forschung in Frage gestellt. Bedenken über die Auswirkungen der Technologie werden oft übertrieben, und obwohl es wichtig ist, neben dem technologischen Fortschritt auch ethische Leitplanken zu entwickeln, ist die Beziehung zwischen Technologie und gesellschaftlichem Wandel komplex und nicht von Natur aus negativ.

5. In Diskussionen über die KI werden ihre Gefahren oft sensationslüstern dargestellt, indem Szenarien wie der Terminator als relevant angesehen werden und die Verdrängung des Menschen durch die KI befürchtet wird. Diese Tendenz rührt von der Anthropomorphisierung der KI her, die ihr menschenähnliche Eigenschaften zuschreibt, was zu unangebrachten Bedenken führt. Stattdessen sollte die KI als ein Werkzeug betrachtet werden, das bestimmte Aufgaben hervorragend bewältigt, ähnlich wie ein schnell fahrendes Auto. Darüber hinaus gibt es ein Muster, bei dem neue Technologien sowohl von Befürwortern als auch von Gegnern übertrieben werden, wie es in der Vergangenheit beim Radio zu beobachten war. Gegenwärtig werden die Fähigkeiten der KI überschätzt, was moralische Panik und defensive Vorschriften auslöst und von der eigentlichen Frage ablenkt, wie sie effektiv genutzt werden kann.

 

6. Unternehmen wie Meta, die von 4 Milliarden Menschen pro Tag genutzt werden, tragen eine große Verantwortung, die sie auch anerkennen müssen. Wir brauchen Leitplanken, die nicht nur von Technologieunternehmen entwickelt werden, sondern aus der Zusammenarbeit von Regierung und Gesellschaft entstehen. Es ist nicht ideal, dass die Entwicklung von Leitplanken 20 Jahre nach der Entwicklung der Technologie erfolgt, wie wir es bei den sozialen Medien sehen. Idealerweise sollte dieser Regulierungsprozess gleichzeitig stattfinden.

Das sagen unsere Teilnehmer:innen über die Veranstaltung:

Sofie Schönborn, Doktorandin an der HfP:

"Ich freue mich über die Vielfalt der Menschen, die heute den Weg hierher gefunden haben. Hier treffen Studierende auf Wirtschaftsführer aus der Technologiebranche, auf Wissenschaftler der TUM und auf Vordenker aus dem öffentlichen Raum. Der TUM Think Tank ist ein lebendiger Knotenpunkt, ein Schmelztiegel der Ideen und eine vielfältige Gruppe von Menschen, die sich für Technologie, Gesellschaft und Demokratie einsetzen. Dies ist der Ort für bewusste Diskussionen und gemeinsames Nachdenken über die gesellschaftlichen und politischen Auswirkungen von Technologien, über Verantwortung und mögliche Zukünfte, die vor uns liegen... und um zusammenzuarbeiten, um menschenzentrierte Technologie-Ko-Kreation und Ko-Design zu ermöglichen!"

Doktorand an der HfP:

"Für mich als Forscher ist die Zusammenarbeit mit führenden Praktikern auf diesem Gebiet sehr bereichernd. Er bietet mir direkten Zugang zu wertvollen Informationen aus erster Hand und hat sich als hilfreich erwiesen, um die Empirie für meine Forschung zu ergänzen, wenn ich sie weiterverfolgt habe. Persönlich inspiriert mich ihr Werdegang und ich freue mich schon auf unsere nächsten Gäste im TUM Think Tank."

Franziska Golibrzuch, Masterstudentin an der HfP:

"Es war sehr aufschlussreich, einem solchen Experten zuzuhören - Sir Nick Clegg gab uns die Perspektive der Industrie, obwohl er einen umfangreichen Hintergrund in der Regierung hat. Besonders im Fall von KI und in der aktuellen Debatte über KI-Regulierung, Sicherheit etc. war dies eine großartige Gelegenheit für uns TUM-Studenten. Alles in allem war es eine hochinteressante Veranstaltung, die viele Anknüpfungspunkte für mein Studium bietet, weil sie die Schnittmenge von Technologie und Politik in den Mittelpunkt der Diskussion stellt und immer wieder die kritischen und wichtigen Überschneidungen im Bereich Innovation, Gesellschaft und Politik beleuchtet. Auch nach dem Kamingespräch hatte ich die Möglichkeit, Fragen zu stellen, was ich sehr schätze."

Vielen Dank an das Meta-Team, das dieses Kamingespräch möglich gemacht hat, und an alle, die daran teilgenommen und zum Nachdenken anregende Fragen gestellt haben.

Sir Nick Clegg ist Präsident of Global Affairs bei Meta. Er kam 2018 zu dem Unternehmen, das damals noch Facebook hieß, nachdem er fast zwei Jahrzehnte im britischen und europäischen öffentlichen Leben tätig war. Bevor er 2005 in das Britische Parlament gewählt wurde, arbeitete er in der Europäischen Kommission und war fünf Jahre lang Mitglied des Europäischen Parlaments. Im Jahr 2007 wurde er Vorsitzender der Liberaldemokraten und war von 2010 bis 2015 stellvertretender Premierminister in der ersten britischen Koalitionsregierung der Nachkriegszeit. Er ist Autor von zwei Bestsellern: Politics: Between the Extremes und How to Stop Brexit (And Make Britain Great Again).

Das durch das Bayerische Forschungsinstitut für Digitale Transformation (BIDT) geförderte Forschungsprojekt "Einsatz von KI zur Erhöhung der Resilienz gegen Toxizität in der Online-Unterhaltung", von Prof. Dr. Yannis Theocharis (Lehrstuhl für Digital Governance), erforscht die Verbreitung extremistischer, verschwörerischer und irreführender Inhalte in sozialen Medien und untersucht dabei, wie diese Inhalte durch unterhaltsame Inhalte eingebettet werden. Es zielt darauf ab, durch die Kombination von Unterhaltungstheorien, visueller Kommunikation und toxischer Sprache mit KI-Methoden, das Verständnis für die Wirkung dieser Inhalte auf das Nutzerverhalten zu vertiefen. Dieses Projekt leistet einen wichtigen Beitrag zur Analyse und Bekämpfung von Online-Toxizität. Mehr Informationen finden Sie auf der Projektseite oder der Pressemitteilung des BIDT.

Mit dem Ziel, das Problem des schädlichen Online-Diskurses anzugehen, haben wir uns mit dem Bayerischen Staatsministerium der Justiz zusammengetan, um eine Community of Practice aufzubauen. In einer Reihe von Veranstaltungen des Reboot Social Media Labs brachten wir Akademiker und Praktiker zusammen, die sich mit Hassreden und anderen Formen von hasserfüllten Inhalten im Internet befassen, um aktuelle Probleme und mögliche Lösungen zu diskutieren.

Unsere Podiumsdiskussion mit Teresa Ott (Hate Speech Officer bei der Generalstaatsanwaltschaft), Anna Wegscheider (Anwältin bei HateAid) und Svea Windwehr (Policy Analyst bei Google), moderiert von Georg Eisenreich, MDL (Bayerischer Staatsminister der Justiz) und Urs Gasser (TU München), eröffnete den Dialog und gab den rund 100 Gästen, die an der Veranstaltung teilnahmen, tiefere Einblicke in den aktuellen Stand des EU-Gesetzes über digitale Dienste und seine Auswirkungen auf Staatsanwälte, Plattformen und Nutzer.

Wichtige Erkenntnisse aus der Diskussion

Während die EU-weite Harmonisierung durch den DSA großes Potenzial hat, gibt es im Vergleich zum NetzDG immer noch Mängel, wie z.B. das Fehlen von Löschungsfristen oder konkreten Details zur Durchsetzung von Verstößen gegen Hassreden. Es wurde daher als entscheidend angesehen, Wege zu finden, um zu gewährleisten, dass die stärkeren und besser durchsetzbaren Aspekte des NetzDG auch dann noch zur Verfügung stehen, wenn das DSA und seine unklareren Vorschläge in Kraft treten.

Im Allgemeinen stellten die Diskutierenden fest, dass die internen Prozesse der großen Plattformen in Bezug auf die Praktiken der Inhaltsmoderation sowohl für die Strafverfolgungsbehörden als auch für die Opfer von Online-Hass immer noch eine "Black Box" sind. Es herrschte ein breiter Konsens darüber, dass dies durch eine erweiterte Zusammenarbeit und Kommunikation zwischen den Akteuren der Zivilgesellschaft, den Behörden und den Plattformbetreibern verbessert werden könnte und sollte.

Ein letzter Punkt betraf das öffentliche Bewusstsein für Hassreden. Nur 2 von 10 Online-Delikten werden derzeit angezeigt. Um Online-Hass vermehrt anzuzeigen und strafrechtlich zu verfolgen, muss das Bewusstsein für digitale Gewalt weiter geschärft werden - nicht nur in der Bevölkerung, sondern auch in der Justiz und den Strafverfolgungsbehörden. Mit zunehmender Zahl der gemeldeten Fälle werden dann aber auch zusätzliche Ressourcen für die zuständigen Behörden notwendig, um diese Fälle zu verfolgen.

Sitzung 1 befasste sich mit den neuesten Erkenntnissen über Hassreden, Unhöflichkeit und Frauenfeindlichkeit im Online-Diskurs. Auf der Grundlage von Beiträgen von Yannis Theocharis, Janina Steinert und Jürgen Pfeffer (alle TU München) diskutierten die Teilnehmenden eine Abwägung zwischen der Notwendigkeit verschiedener Formen der Inhaltsmoderation und der Meinungsfreiheit als grundlegende Norm. Es herrschte Einigkeit darüber, dass ein besseres Verständnis der "Grauzonen" von Hassrede und der Umgang damit notwendig sind, aber es war auch klar, dass einige Arten von Online-Verhalten nicht normalisiert werden sollten. Es wurde auch betont, dass Online-Hass von vergleichsweise wenigen verbreitet wird, die extrem lautstark sind und daher eine große Reichweite haben. Dies wiederum hat Auswirkungen darauf, an wen sich Maßnahmen zur Regulierung schädlicher Online-Inhalte richten sollten: an die wenigen Hasser oder an die große Masse?

 

 

 

 

 

 

 

© Thomas Gunnar Kehrt-Reese

Sitzung 2 befasste sich mit Fragen im Zusammenhang mit der Umsetzung des Gesetzes über digitale Dienste in Bezug auf Online-Hass. Nach Inputs von Till Guttenberger (Bayerisches Staatsministerium der Justiz) und Teresa Ott (Referentin für Hate Speech bei der Generalstaatsanwaltschaft) wurde diskutiert, wie effektive Maßnahmen des NetzDG nach Inkrafttreten des Digitalisierungsgesetzes am Leben erhalten werden können. Ein Kernthema war, wie zukünftige Institutionen und Mechanismen gestaltet werden sollten. Die Teilnehmenden fragten sich auch, wie man Opfer und die Öffentlichkeit am besten für Möglichkeiten zur Meldung von Hassreden sensibilisieren kann.

Sitzung 3 beschäftigte sich mit der Frage, wie über das Gesetz hinaus gegen unhöflichen Online-Diskurs vorgegangen werden kann. Christian Djeffal (TU München) sprach über die Moderation von Inhalten gemeinsam mit den Usern, während Sandra Cortesi (Universität Zürich & Harvard University) einen Überblick darüber gab, wie Kinder dazu befähigt werden können, sich in Online-Diskursen auf sozialen Medien zurechtzufinden. Die großen Fragen konzentrierten sich auf die Suche nach dem goldenen Mittelweg zwischen Bildung und Regulierung - was wahrscheinlich kein "entweder/oder" ist - sowie auf die Frage, wer am besten in der Lage ist, Bildungsinhalte zu erstellen, und betonten, dass alle relevanten Akteure an Bord sein müssen.

Partner und Organisation

Die Veranstaltungen wurden gemeinsam vom TUM Think Tank, der Professur für Public Policy, Governance und innovative Technologien und dem Bayerischen Staatsministerium der Justiz organisiert. Unser besonderer Dank gilt unseren Podiumsteilnehmern Teresa Ott, Svea Windwehr und Anna Wegscheider für die Bereitstellung ihrer Expertise. Wir danken allen Teilnehmern für ihre Beiträge und engagierten Diskussionen und freuen uns auf die Fortsetzung des begonnenen Gesprächs.

Behalten Sie den Überblick in Sachen Innovation.

Melden Sie sich für unseren Newsletter an und folgen Sie uns auf unseren Social Media Kanälen.