Aktivitäten filtern

oder
Typ

Unser interaktiver Multi-Stakeholder-Workshop befasste sich mit der Zukunft des Metaversums als digitales Grenzgebiet von morgen zu einem Zeitpunkt, an dem Technologien, Geschäftsmodelle und Regulierungssysteme noch formbar sind, und konzentrierte sich auf vier Fälle, die unterschiedliche Nutzergruppen betreffen. 

Die wichtigsten Erkenntnisse aus der Diskussion

XR Spaces und erweiterte Realitätsinfrastrukturen durch den XR Hub Bayern.

Unser Partner vom XR Hub Bayern präsentierte eine Vielzahl unterschiedlicher Projekte, die auf die Schaffung einer digitalen Infrastruktur abzielen, die als Technologien für das Gemeinwohl dienen können. Da es sich um eine staatlich geförderte Initiative handelt, liegt der Fokus des "XR Räume als Anwendungsfall für Government-to-Citizen"-Projekts auf wertorientierten Aktivitäten, während kommerzielle Aspekte in den Hintergrund treten.

Metaverse-Pilotprojekt der EU Global Gateway Initiative.

Die EU-Kommunikationskampagne ist ein weiteres Beispiel für ein Government-to-Citizen-Projekt. Wenn öffentliche Akteure Metaverse-Anwendungen nutzen, um mit den Bürger:innen in Kontakt zu treten, ist es eine Herausforderung, das richtige Gleichgewicht zwischen der Bereitstellung von Inhalten als Informationen und der Möglichkeit für Besuchende des Metaverse, die Umgebung zu gestalten, zu interagieren und zu verändern, zu finden. Daraus ergeben sich zwei Vorschläge: Wie können wir alle gesellschaftlichen Gruppen über die Fähigkeit zur Interaktion in virtuellen Räumen aufklären? Und inwieweit kann sich der Staat an der Bereitstellung der Metaverse-Infrastruktur sowie an der Erstellung von Inhalten beteiligen?

Digitale Zwillinge in der Fertigung für kleine und mittlere Unternehmen von Umlaut @Accenture.

Ein Beispiel für einen Business-to-Business-Fall lieferte das Startup-Unternehmen Umlaut, das kürzlich von Accenture übernommen wurde. Es gibt immer noch einen Mangel an Wissen über das große Potenzial digitaler Zwillinge für den Bildungs- und Ausbildungssektor, wie im Anwendungsfall der Fertigung gezeigt. Darüber hinaus gibt es immer noch eine große Ungleichheit beim Zugang auf der ganzen Welt, da einige Gebiete möglicherweise keinen Zugang zu den erforderlichen Daten oder noch keinen Zugang zur Technologie haben.

Virtual Reality Sprachtrainer durch künstliche Intelligenz von Straightlabs.

Der letzte Anwendungsfall wurde von Straightlabs als Beispiel für eine Business-to-Consumer-Anwendung vorgestellt. Das Tool zeigt das immense Potenzial der Anwendung immersiver Technologien für verschiedene Bereiche, insbesondere Kapazitätsaufbau und Schulung, aber auch die Komplexität, die durch den Grad der Einbeziehung persönlicher Daten und des Menschen selbst in eine schwer zu erklärende und komplexe Technologie entsteht.

Der Metaverse-Workshop brachte Stakeholder aus Wissenschaft, Start-ups, Wirtschaft, Regierung, Verwaltung und Medien zusammen, um gemeinsam die Versprechen und Fallstricke anhand ausgewählter Metaverse-Anwendungen aus verschiedenen Bereichen zu erkunden und zu erfahren.

 

Mit dem Ziel, das Problem des schädlichen Online-Diskurses anzugehen, haben wir uns mit dem Bayerischen Staatsministerium der Justiz zusammengetan, um eine Community of Practice aufzubauen. In einer Reihe von Veranstaltungen des Reboot Social Media Labs brachten wir Akademiker und Praktiker zusammen, die sich mit Hassreden und anderen Formen von hasserfüllten Inhalten im Internet befassen, um aktuelle Probleme und mögliche Lösungen zu diskutieren.

Unsere Podiumsdiskussion mit Teresa Ott (Hate Speech Officer bei der Generalstaatsanwaltschaft), Anna Wegscheider (Anwältin bei HateAid) und Svea Windwehr (Policy Analyst bei Google), moderiert von Georg Eisenreich, MDL (Bayerischer Staatsminister der Justiz) und Urs Gasser (TU München), eröffnete den Dialog und gab den rund 100 Gästen, die an der Veranstaltung teilnahmen, tiefere Einblicke in den aktuellen Stand des EU-Gesetzes über digitale Dienste und seine Auswirkungen auf Staatsanwälte, Plattformen und Nutzer.

Wichtige Erkenntnisse aus der Diskussion

Während die EU-weite Harmonisierung durch den DSA großes Potenzial hat, gibt es im Vergleich zum NetzDG immer noch Mängel, wie z.B. das Fehlen von Löschungsfristen oder konkreten Details zur Durchsetzung von Verstößen gegen Hassreden. Es wurde daher als entscheidend angesehen, Wege zu finden, um zu gewährleisten, dass die stärkeren und besser durchsetzbaren Aspekte des NetzDG auch dann noch zur Verfügung stehen, wenn das DSA und seine unklareren Vorschläge in Kraft treten.

Im Allgemeinen stellten die Diskutierenden fest, dass die internen Prozesse der großen Plattformen in Bezug auf die Praktiken der Inhaltsmoderation sowohl für die Strafverfolgungsbehörden als auch für die Opfer von Online-Hass immer noch eine "Black Box" sind. Es herrschte ein breiter Konsens darüber, dass dies durch eine erweiterte Zusammenarbeit und Kommunikation zwischen den Akteuren der Zivilgesellschaft, den Behörden und den Plattformbetreibern verbessert werden könnte und sollte.

Ein letzter Punkt betraf das öffentliche Bewusstsein für Hassreden. Nur 2 von 10 Online-Delikten werden derzeit angezeigt. Um Online-Hass vermehrt anzuzeigen und strafrechtlich zu verfolgen, muss das Bewusstsein für digitale Gewalt weiter geschärft werden - nicht nur in der Bevölkerung, sondern auch in der Justiz und den Strafverfolgungsbehörden. Mit zunehmender Zahl der gemeldeten Fälle werden dann aber auch zusätzliche Ressourcen für die zuständigen Behörden notwendig, um diese Fälle zu verfolgen.

Sitzung 1 befasste sich mit den neuesten Erkenntnissen über Hassreden, Unhöflichkeit und Frauenfeindlichkeit im Online-Diskurs. Auf der Grundlage von Beiträgen von Yannis Theocharis, Janina Steinert und Jürgen Pfeffer (alle TU München) diskutierten die Teilnehmenden eine Abwägung zwischen der Notwendigkeit verschiedener Formen der Inhaltsmoderation und der Meinungsfreiheit als grundlegende Norm. Es herrschte Einigkeit darüber, dass ein besseres Verständnis der "Grauzonen" von Hassrede und der Umgang damit notwendig sind, aber es war auch klar, dass einige Arten von Online-Verhalten nicht normalisiert werden sollten. Es wurde auch betont, dass Online-Hass von vergleichsweise wenigen verbreitet wird, die extrem lautstark sind und daher eine große Reichweite haben. Dies wiederum hat Auswirkungen darauf, an wen sich Maßnahmen zur Regulierung schädlicher Online-Inhalte richten sollten: an die wenigen Hasser oder an die große Masse?

 

 

 

 

 

 

 

© Thomas Gunnar Kehrt-Reese

Sitzung 2 befasste sich mit Fragen im Zusammenhang mit der Umsetzung des Gesetzes über digitale Dienste in Bezug auf Online-Hass. Nach Inputs von Till Guttenberger (Bayerisches Staatsministerium der Justiz) und Teresa Ott (Referentin für Hate Speech bei der Generalstaatsanwaltschaft) wurde diskutiert, wie effektive Maßnahmen des NetzDG nach Inkrafttreten des Digitalisierungsgesetzes am Leben erhalten werden können. Ein Kernthema war, wie zukünftige Institutionen und Mechanismen gestaltet werden sollten. Die Teilnehmenden fragten sich auch, wie man Opfer und die Öffentlichkeit am besten für Möglichkeiten zur Meldung von Hassreden sensibilisieren kann.

Sitzung 3 beschäftigte sich mit der Frage, wie über das Gesetz hinaus gegen unhöflichen Online-Diskurs vorgegangen werden kann. Christian Djeffal (TU München) sprach über die Moderation von Inhalten gemeinsam mit den Usern, während Sandra Cortesi (Universität Zürich & Harvard University) einen Überblick darüber gab, wie Kinder dazu befähigt werden können, sich in Online-Diskursen auf sozialen Medien zurechtzufinden. Die großen Fragen konzentrierten sich auf die Suche nach dem goldenen Mittelweg zwischen Bildung und Regulierung - was wahrscheinlich kein "entweder/oder" ist - sowie auf die Frage, wer am besten in der Lage ist, Bildungsinhalte zu erstellen, und betonten, dass alle relevanten Akteure an Bord sein müssen.

Partner und Organisation

Die Veranstaltungen wurden gemeinsam vom TUM Think Tank, der Professur für Public Policy, Governance und innovative Technologien und dem Bayerischen Staatsministerium der Justiz organisiert. Unser besonderer Dank gilt unseren Podiumsteilnehmern Teresa Ott, Svea Windwehr und Anna Wegscheider für die Bereitstellung ihrer Expertise. Wir danken allen Teilnehmern für ihre Beiträge und engagierten Diskussionen und freuen uns auf die Fortsetzung des begonnenen Gesprächs.

Stephanie Hare präsentierte uns am 27. Februar 2023 die Hauptthemen ihres Buches "Technology is not neutral: Ein kurzer Leitfaden zur Technologieethik". In ihrem Buch geht Stephanie Hare auf einige Schlüsselfragen rund um moderne digitale Technologien ein: Ein Schwerpunkt ist die Frage, wie Entwickler von Technologien, aber auch die Gesellschaft als Ganzes versuchen können, den Nutzen von Technologien und Anwendungen zu maximieren und gleichzeitig deren Schaden zu minimieren. Lesen Sie hier die wichtigsten Erkenntnisse aus unserer Diskussion. 

Einige wichtige Erkenntnisse aus der Diskussion

Unter Verwendung eines philosophischen Rahmens nutzt Hare verschiedene Bereiche und Ansätze der Ethik und Philosophie, um auf diese Fragen aufmerksam zu machen. So zeigt die Metaphysik beispielsweise auf, welches Problem gelöst werden muss, während die Erkenntnistheorie uns hilft, nach den relevanten Wissensquellen zu fragen, um diese Fragen und Probleme anzugehen. Die politische Philosophie hingegen beleuchtet die Frage, wer die Macht hat, diese Lösungen zu verfolgen, während die Ästhetik aufzeigt, wie Technologien gestaltet und dargestellt werden sollten. Die Ethik schließlich gibt uns Antworten auf die Frage, welche Werte der Technologie innewohnen.

In der Diskussion mit Alexander v. Janowski und dem Publikum wurden wichtige Beobachtungen zum Design von Technologien angesprochen, die in unserer Alltagswelt eingesetzt werden können. So wurde beispielsweise die Größe vieler Smartphones an größere, typisch männliche Hände angepasst, ähnlich wie Airbags in Fahrzeugen nur an Schaufensterpuppen getestet wurden, die dem durchschnittlichen männlichen Körper ähneln. Diese Beobachtungen untermauern die ethischen Überlegungen zu der Frage, wer und welche Instanzen die Kontrolle über die Entwicklung und Anwendung von Technologien haben und haben sollten.

Insgesamt hofft Stephanie Hare, dass ihr Buch "Menschen und menschliche Kultur hackt", indem es dazu beiträgt, die Menschen zu inspirieren, Vorurteile und gewollte oder ungewollte Ungleichheiten zu erkennen, die Technologien von ihren Entwicklern übernehmen, wenn sie nicht hinterfragt werden.

Um mehr über Stephanie Hare, das Buch und ihre anderen Werke zu erfahren, besuchen Sie ihre Website unter https://www.harebrain.co  

Behalten Sie den Überblick in Sachen Innovation.

Melden Sie sich für unseren Newsletter an und folgen Sie uns auf unseren Social Media Kanälen.