TUM Think Tank
Wo gesellschaftliche Herausforderungen von heute auf technologische Spitzenleistung von morgen treffen.
Wie können wir den Weg für eine strahlende Quantenzukunft ebnen?
Letzten Donnerstag startete PushQuantum sein Semesterprogramm in Zusammenarbeit mit dem Quantum Social Lab. Wir haben uns gefreut, Ilyas Khan an diesem besonderen Tag im TUM Think Tank begrüßen zu dürfen. Der Gründer und CPO von Quantinuum nahm nicht nur an einer Podiumsdiskussion teil, sondern verbrachte auch einige schöne Stunden mit den Mitgliedern des Studentenclubs.
Ein Höhepunkt der Veranstaltung war die Podiumsdiskussion, bei der es um die Zukunft der Quantentechnologien ging. Neben Ilyas Khan diskutierten Robert Wille, Professor an der TU München und Chief Scientific Officer am Software Competence Center Hagenberg, und Fabienne Marco, Leiterin des Quantum Social Lab und Projektleiterin von QuantWorld.
Die Podiumsteilnehmer tauschten ihre Ansichten über die Zukunft der Quantentechnologien aus und brachten dabei ihre unterschiedlichen Hintergründe ein, die von der Quantencomputerindustrie über Mathematik und Politikwissenschaft bis hin zur Softwareentwicklung reichen.
Der Moderator des Panels, Alexander Orlov (PushQuantum), stellte den Diskussionsteilnehmern Fragen, die von den erwarteten Fortschritten und großen Herausforderungen im Quantencomputing, einschließlich Bildung und Politik, bis hin zu persönlichen Erfahrungen reichten. Darüber hinaus entlockte er den Podiumsteilnehmern seltene Ratschläge, wie man die Karrieren der Studenten in den mit der Quantentechnologie zusammenhängenden Bereichen auf wirkungsvolle Weise beschleunigen kann.
Zu den wichtigsten Erkenntnissen zählten das Lernes aus den Fehlern der Vergangenheit, die Suche nach geeigneten Ansätzen für die Ausbildung im Bereich der Quantentechnologien (und insbesondere des Quantencomputings) sowie die Notwendigkeit interdisziplinärer Arbeit auf dem Gebiet der Quantentechnologie.
Auf die Frage nach der Zukunft der Quantentechnologie und was der entscheidende Faktor für die weitere und schnelle Entwicklung sein wird, schlug Ilyas Khan vor, den Schwerpunkt von der Kohärenzzeit auf die Entropie zu verlagern. "Ich würde sagen, dass von all den Dingen, die im Zusammenhang mit einem möglichen Vorteil von Bedeutung sind, ich Sie ermutigen würde, an die Kreuzentropie zu denken, weil sie validiert werden kann oder nicht. [...] Und ich denke, in diesem Jahr werden wir diese Schwelle unbestreitbar überschreiten. Daran besteht für mich kein Zweifel."
Was die Bildung und die zukünftigen Talente betrifft, so besteht die "aktuelle Herausforderung darin, die Bedürfnisse der verschiedenen Teile der Gesellschaft zu erfüllen und einen ganzheitlicheren und interdisziplinären Ansatz in der Bildung zu verfolgen", so Fabienne Marco.
Die Podiumsteilnehmer waren sich einig, dass es wichtig ist, das Bild in den Medien von der Verbreitung von Angst auf die Chancen der Quantentechnologie zu verlagern.
Robert Wille wies darauf hin, wie wichtig es ist, zu unterscheiden, wer am besten in der Lage ist, verschiedene Herausforderungen zu lösen: "Wenn es um Software für das Quantencomputing geht, müssen Informatiker den Weg weisen". Aus seiner persönlichen Erfahrung heraus betonte er auch, wie wichtig es ist, sich manchmal selbst herauszufordern, indem man sich in neue wissenschaftliche Blasen begibt, um Lösungen auszutauschen und zu vermeiden, dass man sich wieder in den Vordergrund drängt.
Danke für diese aufschlussreiche Podiumsdiskussion!
PushQuantum ist ein in München ansässiger Studierendenclub, der eine praxisnahe Ausbildung im Bereich der Quantentechnologie anbietet. Im Rahmen des TUM Think Tank's Public Policy Impact Programms konzentriert sich PushQuantum darauf, aktiv zur Gestaltung einer verantwortungsvollen Quantenzukunft beizutragen - eine Vision, die das Quantum Social Lab teilt.
Am 16. Februar veranstaltete der TUM Think Tank ein Kamingespräch mit Sir Nick Clegg, President of Global Affairs bei Meta. Im Gespräch mit Urs Gasser, Rektor der Hochschule für Politik (HfP) München, teilte Sir Nick Clegg seine Perspektiven und Einsichten zu einer Reihe von Themen an der Schnittstelle von künstlicher Intelligenz (KI) und Innovation, insbesondere aus europäischer Sicht.
Die weitreichende Diskussion befasste sich mit dem transformativen Potenzial von KI-Technologien und beleuchtete deren Auswirkungen auf verschiedene Sektoren in Europa und weltweit. Sir Nick Clegg, eine führende Persönlichkeit in der Technologielandschaft, beleuchtete die einzigartigen Beiträge Europas und die regulatorischen Überlegungen zu KI und dem Metaverse.
Hier einige der wichtigsten Thesen, die während des Kamingesprächs angesprochen wurden:
1. Die Länder, die am meisten von der KI-Technologie profitieren werden, sind diejenigen, die sie schnell und effektiv einsetzen können, nicht unbedingt diejenigen, die sie entwickeln. Die geopolitischen Diskussionen über KI verlagern sich von Versuchen, den Zugang zu kontrollieren, hin zur Anerkennung der Unvermeidbarkeit ihrer breiten Einführung. Dieser Wandel wird durch Unternehmen wie Meta veranschaulicht, die ihre großen Sprachmodelle (LLMs) als Open Source zur Verfügung stellen, was auf einen Trend zur gemeinsamen Nutzung von Technologie hinweist, um deren Einsatz zu maximieren, statt sie zu kontrollieren.
2. Um das volle Potenzial der KI-Technologien auszuschöpfen, ist eine internationale Zusammenarbeit erforderlich, idealerweise zwischen Technologiedemokratien wie der EU, den USA und Indien. Trotz politischer Herausforderungen und unterschiedlicher Ansätze in der Technologiepolitik könnte die Zusammenarbeit in Forschung und Politik die positiven Auswirkungen der KI erheblich fördern, insbesondere in Bereichen wie Gesundheit und Klimawandel.
3. Da KI aufgrund ihres doppelten Verwendungszwecks sowohl zu nützlichen als auch zu schädlichen Zwecken eingesetzt werden kann, insbesondere bei der Erzeugung realistischer Fehlinformationen, sind laufende Bemühungen von Technologieunternehmen zur Identifizierung und Kennzeichnung von KI-generierten Inhalten von entscheidender Bedeutung. Die Zusammenarbeit zwischen den wichtigsten Akteuren bei der Festlegung von Standards und Verantwortlichkeiten für KI-generierte Inhalte kann die Nutzer in die Lage versetzen, Fehlinformationen zu erkennen und zu entschärfen.
4. Das Narrativ, dass Technologie, einschließlich KI, von Natur aus schädlich für die Demokratie ist, wird durch den historischen Kontext und empirische Forschung in Frage gestellt. Bedenken über die Auswirkungen der Technologie werden oft übertrieben, und obwohl es wichtig ist, neben dem technologischen Fortschritt auch ethische Leitplanken zu entwickeln, ist die Beziehung zwischen Technologie und gesellschaftlichem Wandel komplex und nicht von Natur aus negativ.
5. In Diskussionen über die KI werden ihre Gefahren oft sensationslüstern dargestellt, indem Szenarien wie der Terminator als relevant angesehen werden und die Verdrängung des Menschen durch die KI befürchtet wird. Diese Tendenz rührt von der Anthropomorphisierung der KI her, die ihr menschenähnliche Eigenschaften zuschreibt, was zu unangebrachten Bedenken führt. Stattdessen sollte die KI als ein Werkzeug betrachtet werden, das bestimmte Aufgaben hervorragend bewältigt, ähnlich wie ein schnell fahrendes Auto. Darüber hinaus gibt es ein Muster, bei dem neue Technologien sowohl von Befürwortern als auch von Gegnern übertrieben werden, wie es in der Vergangenheit beim Radio zu beobachten war. Gegenwärtig werden die Fähigkeiten der KI überschätzt, was moralische Panik und defensive Vorschriften auslöst und von der eigentlichen Frage ablenkt, wie sie effektiv genutzt werden kann.
6. Unternehmen wie Meta, die von 4 Milliarden Menschen pro Tag genutzt werden, tragen eine große Verantwortung, die sie auch anerkennen müssen. Wir brauchen Leitplanken, die nicht nur von Technologieunternehmen entwickelt werden, sondern aus der Zusammenarbeit von Regierung und Gesellschaft entstehen. Es ist nicht ideal, dass die Entwicklung von Leitplanken 20 Jahre nach der Entwicklung der Technologie erfolgt, wie wir es bei den sozialen Medien sehen. Idealerweise sollte dieser Regulierungsprozess gleichzeitig stattfinden.
Das sagen unsere Teilnehmer:innen über die Veranstaltung:
Sofie Schönborn, Doktorandin an der HfP:
"Ich freue mich über die Vielfalt der Menschen, die heute den Weg hierher gefunden haben. Hier treffen Studierende auf Wirtschaftsführer aus der Technologiebranche, auf Wissenschaftler der TUM und auf Vordenker aus dem öffentlichen Raum. Der TUM Think Tank ist ein lebendiger Knotenpunkt, ein Schmelztiegel der Ideen und eine vielfältige Gruppe von Menschen, die sich für Technologie, Gesellschaft und Demokratie einsetzen. Dies ist der Ort für bewusste Diskussionen und gemeinsames Nachdenken über die gesellschaftlichen und politischen Auswirkungen von Technologien, über Verantwortung und mögliche Zukünfte, die vor uns liegen... und um zusammenzuarbeiten, um menschenzentrierte Technologie-Ko-Kreation und Ko-Design zu ermöglichen!"
Doktorand an der HfP:
"Für mich als Forscher ist die Zusammenarbeit mit führenden Praktikern auf diesem Gebiet sehr bereichernd. Er bietet mir direkten Zugang zu wertvollen Informationen aus erster Hand und hat sich als hilfreich erwiesen, um die Empirie für meine Forschung zu ergänzen, wenn ich sie weiterverfolgt habe. Persönlich inspiriert mich ihr Werdegang und ich freue mich schon auf unsere nächsten Gäste im TUM Think Tank."
Franziska Golibrzuch, Masterstudentin an der HfP:
"Es war sehr aufschlussreich, einem solchen Experten zuzuhören - Sir Nick Clegg gab uns die Perspektive der Industrie, obwohl er einen umfangreichen Hintergrund in der Regierung hat. Besonders im Fall von KI und in der aktuellen Debatte über KI-Regulierung, Sicherheit etc. war dies eine großartige Gelegenheit für uns TUM-Studenten. Alles in allem war es eine hochinteressante Veranstaltung, die viele Anknüpfungspunkte für mein Studium bietet, weil sie die Schnittmenge von Technologie und Politik in den Mittelpunkt der Diskussion stellt und immer wieder die kritischen und wichtigen Überschneidungen im Bereich Innovation, Gesellschaft und Politik beleuchtet. Auch nach dem Kamingespräch hatte ich die Möglichkeit, Fragen zu stellen, was ich sehr schätze."
Vielen Dank an das Meta-Team, das dieses Kamingespräch möglich gemacht hat, und an alle, die daran teilgenommen und zum Nachdenken anregende Fragen gestellt haben.
Sir Nick Clegg ist Präsident of Global Affairs bei Meta. Er kam 2018 zu dem Unternehmen, das damals noch Facebook hieß, nachdem er fast zwei Jahrzehnte im britischen und europäischen öffentlichen Leben tätig war. Bevor er 2005 in das Britische Parlament gewählt wurde, arbeitete er in der Europäischen Kommission und war fünf Jahre lang Mitglied des Europäischen Parlaments. Im Jahr 2007 wurde er Vorsitzender der Liberaldemokraten und war von 2010 bis 2015 stellvertretender Premierminister in der ersten britischen Koalitionsregierung der Nachkriegszeit. Er ist Autor von zwei Bestsellern: Politics: Between the Extremes und How to Stop Brexit (And Make Britain Great Again).
Ein zweitägiger Workshop, bei dem Expert:innen auf dem Gebiet zusammenkamen
Die Inhaltsmoderation und die Meinungsfreiheit im digitalen Raum - und wie man sie ausbalanciert - sind Schlüsselthemen für Forschende, Philosoph:innen, öffentliche Amtsträger, NGOs und natürlich für soziale Medienplattformen und Nutzer:innen. Am TUM Think Tank hatten wir das Vergnügen, eine Reihe internationaler Expert:innen auf diesem Gebiet vor Ort begrüßen zu dürfen. Die Gruppe kam für zwei volle Tage zusammen, um sich intensiv mit diesem drängenden Thema auseinanderzusetzen, Ideen auszutauschen und empirische Forschungsergebnisse aus den Perspektiven der Regierungsführung, der Industrie und des politischen Verhaltens vorzustellen.
Von ideologischen Vorurteilen in der Inhaltsmoderation und der Politik der Plattformregulierung bis hin zu den Präferenzen der Bürger:innen, wie schädliche Online-Sprache eingedämmt und reguliert werden kann, und der Wirksamkeit der Kennzeichnung von Inhalten als KI-generiert, deckte der Workshop eine breite Palette von Themen ab und betonte die Notwendigkeit transnationaler Gespräche über Inhaltsmoderation.
Panel Diskussion
In einer anregenden Diskussionsrunde mit Benjamin Brake (Bundesministerium für Digitale Angelegenheiten und Verkehr), Friedrich Enders (TikTok Deutschland), Andreas Frank (Bayerisches Justizministerium) und Ruth Appel (Stanford University) haben wir die Komplexitäten der Definition schädlicher Sprache und deren Bekämpfung erörtert. Wir sprachen auch darüber, wie Plattformen überprüft werden und wie sie die Transparenz mit dem Schutz der Privatsphäre und der freien Meinungsäußerung der Nutzer in Einklang bringen, wenn es um Entscheidungen zur Inhaltsmoderation geht.
Die Diskussion konzentrierte sich auf die Aufteilung der Verantwortung für die Inhaltsmoderation und die Transparenz der Durchsetzung von Seiten der wichtigsten Beteiligten. Es wurde festgestellt, dass die deutsche Regierung für kleinere Plattformen verantwortlich ist, die nicht vom Digital Services Act (DSA) abgedeckt werden, während die Europäische Kommission für größere Plattformen wie X oder TikTok zuständig ist.
- Während die genauen Methoden, mit denen Technologieunternehmen auf Grundlage der im DSA festgelegten Definitionen und Richtlinien mit schädlicher Sprache umgehen sollten, von einiger Unklarheit geprägt sind, war ein gemeinsames Thema in der Diskussion die Notwendigkeit von Transparenz bei Entscheidungen zur Inhaltsmoderation und die Berücksichtigung des Kontexts. Basierend auf dem Gespräch kann die Unklarheit bei der Definition schädlicher Sprache als eine flexible Möglichkeit angesehen werden, wie Technologieunternehmen und Regierungen damit umgehen können. Forscher wiesen jedoch darauf hin, dass sie auch problematisch sein kann, insbesondere wenn es um die genaue Erkennung durch automatisierte Methoden geht.
- Zusätzlich erläuterte Friedrich Enders den Prozess der Inhaltsmoderation bei TikTok. Die Plattform verwendet eine Kombination aus KI und menschlicher Überprüfung, um schädliche Inhalte schnell zu entfernen. Dabei ist man sich bewusst, dass einige schädliche Inhalte, wie beispielsweise grafische Inhalte, möglicherweise immer noch im öffentlichen Interesse liegen und aus dokumentarischen, pädagogischen und Gegenrede-Zwecken auf der Plattform verbleiben können. Diese Inhalte sind jedoch nicht für die Empfehlung an TikToks "For You"-Feed der Nutzer vorgesehen
- Die Diskussionsrunde betonte auch die Herausforderung, Meinungsfreiheit, Datenschutz und die Sicherheit der Nutzer in Einklang zu bringen. TikTok betonte ihr Engagement für beide Prinzipien, während die Regierung nachdrücklich empfahl, dass die Bedeutung der Wahrung der Meinungsfreiheit so groß ist, dass man sich immer für die Meinungsfreiheit entscheiden sollte, wenn man unsicher ist, wie Grenzfälle moderiert werden sollen.
Der Workshop wurde gemeinsam organisiert vom Lehrstuhl für Digital Governance, der Hochschule für Politik München, der Universität Oxford, der Technischen Universität München und dem Reboot Social Media Lab am TUM Think Tank.
Beim TUM Science Hackathon 2023 stellte sich ein Team von Informatikstudierenden der Herausforderung, eine Social-Media-Plattform zu entwickeln, die Nutzern mehr Transparenz und Kontrolle über die in ihrem Feed angezeigten Inhalte bietet. Sie diskutierten, welche Informationen Nutzer benötigen, um besser zu verstehen, wie Inhalte in sozialen Medien personalisiert werden, und entwarfen Möglichkeiten, wie Nutzer die ihnen angezeigten Inhalte verändern können. Auf der Grundlage dieser Ideen entwarfen sie ihren Prototyp "openLYKE" - eine Social-Media-Plattform, die den Nutzern zusätzliche Funktionen bietet, um den zugrunde liegenden Empfehlungsalgorithmus zu optimieren.
Vom 19. bis 21. Mai veranstaltete die TUM: Junge Akademie den TUM Science Hackathon 2023 zum Thema vertrauenswürdige Systeme. In neun Challenges, die von Partnern aus der TUM und externen Organisationen eingereicht wurden, haben sich Studierende verschiedener Fachrichtungen zusammengetan, um Technologien zu entwickeln, die sicher, zuverlässig und transparent sind und das Vertrauen der Nutzer verdienen. Die Aufgabenstellungen reichten von Raumfahrzeugen und Absturzerkennung bis hin zu Materialwissenschaften und KI-Ethik. Eine der Herausforderungen wurde vom REMODE-Projekt der Professur für Recht, Wissenschaft und Technologie im Rahmen des Reboot Social Media Lab des TUM Think Tanks eingereicht. Unter dem Titel "Trustworthy Recommender Systems" sollten die Studierenden den Prototyp einer Social-Media-Plattform entwickeln, die den Nutzern erweiterte Möglichkeiten bietet, ihre Social-Media-Erfahrungen zu kontrollieren, indem sie die ihnen angezeigten Inhalte verändern. Aufbauend auf den neuen Anforderungen an Online-Plattformen, die in der EU-Verordnung über digitale Dienste (2022) festgelegt sind, zielte die Aufgabe auf Empfehlungssysteme ab, die es den Nutzern ermöglichen, die wichtigsten Parameter, die zur Personalisierung von Online-Inhalten verwendet werden, besser zu verstehen und zu manipulieren.
Insbesondere sollten undurchsichtige Algorithmen und irreführende Designmuster (dark patterns) vermieden werden. Auf diese Weise sollte der Wettbewerb das Vertrauen in die Gestaltung fördern und verantwortungsvollere Empfehlungssysteme in sozialen Medien ermöglichen.
Eine wichtige Erkenntnis aus dem Science Hack war, wie wichtig es ist, bei der Entwicklung innovativer Lösungen und Funktionen für Social-Media-Dienste die technische Machbarkeit im Auge zu behalten. Während sie an ihrem Prototyp arbeiteten, überlegten die Studierenden ständig, wie ihre Ideen in ihren Empfehlungsalgorithmus implementiert werden könnten: Welche Art von Daten würden für jeden Beitrag benötigt werden? Wie könnten die Präferenzen der Nutzer in die Sprache des Algorithmus übersetzt werden? Durch die Nähe zur Technologie gelang es den Studierenden, nicht nur das Front-End (Benutzeroberfläche) ihres Prototyps zu entwerfen, sondern auch das zugrunde liegende Back-End (Software) für die Verarbeitung von Daten und die Empfehlung von Inhalten.
Die Herausforderung "Trustworthy Recommender Systems" wurde vom REMODE-Projektteam bestehend aus Prof. Christian Djeffal (Principal Investigator), Daan Herpers (wissenschaftlicher Mitarbeiter) und Lisa Mette (studentische Hilfskraft) gestellt, die auch das studentische Team während des Hackathons betreute.
Vielen Dank an das openLYKE-Team (Adrian Averwald, Finn Dröge, Thomas Florian, Tim Knothe) für die Teilnahme und die Junge Akademie für die Organisation des TUM Science Hack 2023.
Wir hatten das Privileg, mit unserem Projekt "Mobilität.Leben" am Citizens.Lab auf der IAA teilzunehmen. Im vergangenen Jahr hat das Team die Mobilitätsdaten von über 3000 Teilnehmenden untersucht, um die Auswirkungen des 9-Euro-Tickets und seines Nachfolgers, des Deutschlandtickets, zu messen. Hier teilen wir unsere wichtigsten Erkenntnisse nach einem Jahr der Studie:
Umsteigen mit Tickets
Das 9-Euro-Ticket und das Deutschlandticket haben vor allem in den Sommermonaten eine wichtige Rolle dabei gespielt, die Menschen dazu zu bewegen, ihr Auto stehen zu lassen und zumindest für einen Teil ihrer Fahrten auf nachhaltigere öffentliche Verkehrsmittel umzusteigen.
Herausforderungen des Übergangs
In der Zeit zwischen dem 9-Euro-Ticket und dem Deutschlandticket kehrten die Teilnehmenden ohne attraktive ÖPNV-Tickets jedoch fast zu ihrem Reiseverhalten vor dem 9-Euro-Ticket zurück. Obwohl jeder kleine Schritt in Richtung Nachhaltigkeit wertvoll ist, erwarten wir nicht, dass das Deutschlandticket allein die CO2-Emissionen des Verkehrssektors wesentlich reduzieren kann.
Ein Blick in die Zukunft
Eine realistische Kosten-Nutzen-Analyse der Tarifinnovationen im ÖPNV kann Ende des Jahres vorgenommen werden. Unbestreitbar ist, dass beide Tickets bereits zu einer Vereinfachung des Tarifsystems geführt haben, was die Nutzung des ÖPNV fördert und zu Einsparungen bei den Fahrtkosten führt. Es ist klar, dass billigere öffentliche Verkehrsmittel nur ein Teil des größeren Puzzles der "Mobilitätswende" sind, und so geht die Diskussion darüber weiter, welche zusätzlichen Möglichkeiten wir brauchen, um nachhaltigere Verkehrsmittel zu fördern.
Anstoß zum Nachdenken
Die Studie wurde von den Teilnehmenden gut angenommen, die von Anfang an bereitwillig ihre Mobilitätsdaten zur Verfügung stellten und uns bis zur Einführung des Deutschlandtickets treu blieben. Ihr Feedback war von unschätzbarem Wert, und wir freuen uns, dass unsere Tracking-App zum Nachdenken über die persönlichen Mobilitätsgewohnheiten angeregt hat. Die Studie kann auch als Zeichen dafür gewertet werden, dass die Bürger:innen gerne in Forschungsprojekte einbezogen werden und sich an der gemeinsamen Suche nach möglichen Lösungen für die großen gesellschaftlichen Herausforderungen unserer Zeit beteiligen wollen.
Unsere Studie ist weltweit eine der größten ihrer Art. Sie hat nicht nur unser Verständnis von Mobilität vorangetrieben, sondern auch die Aufmerksamkeit der weltweiten Verkehrsforschungsgemeinschaft auf sich gezogen, Münchens Positionierung auf der globalen Forschungslandkarte gestärkt und neue Standards gesetzt. Wir sind stolz darauf, dass die Studie öffentliche Aufmerksamkeit in regionalen und überregionalen Medien und mehrere wissenschaftliche Arbeiten, Bachelor- und Masterarbeiten ausgelöst hat - und weitere Forschungen sind in Vorbereitung, da mehrere Doktorand:innen die Daten für ihre Studien nutzen.
Am Freitag, den 23. Juni 2023, nahmen Mitglieder der Generative AI Taskforce an einem Arbeitstreffen teil, das von der Electronic Transactions Development Agency (ETDA) in Thailand organisiert wurde. Ein Schwerpunkt des Treffens war es, mehr über den europäischen Ansatz zur KI-Governance zu erfahren und insbesondere das EU-KI-Gesetz (AIA) unter die Lupe zu nehmen und zu untersuchen, wie Europa mit dem Aufstieg der generativen KI umgeht. Christian Djeffal, Assistenzprofessor für Recht, Wissenschaft und Technologie und Mitglied unserer Gen AI Taskforce, gab einen Beitrag zu diesem Thema. In diesem Blogartikel teilt er seine wichtigsten Erkenntnisse mit.
Der AI-Act der Europäischen Union könnte als wirksamer Balanceakt zwischen Risikoregulierung und Innovationsförderung dienen. Das Rezept für ein ideales Gleichgewicht beinhaltet meiner Meinung nach:
- Beibehaltung des schlanken, klaren Ansatzes des AI Acts und Vermeidung einer Überregulierung zu vieler Themen durch dieses Gesetz. Es ist erwähnenswert, dass klare Regeln Innovationen begünstigen können, indem sie Haftungsrisiken minimieren und es auch kleineren Unternehmen ermöglichen, sich in riskante Bereiche vorzuwagen.
- Es ist unbestreitbar, dass die Regulierung den Entwicklern Kosten auferlegt. Es gibt jedoch zahlreiche Strategien zur Verringerung dieser Kosten. Die Einrichtung von Infrastrukturen für die Rechtsberatung und die Organisation von Wissen könnte sich als unschätzbar wertvoll erweisen, insbesondere für Neugründungen.
- Durch die Einführung von Rahmenwerken wie verantwortungsvolle Forschung, menschenzentrierte Technik und integrierte Forschung kann die rechtliche Regulierung als integraler Bestandteil des Innovationsprozesses betrachtet werden. Diese Denkweise ermöglicht es Entwicklern, rechtliche, ethische und gesellschaftliche Überlegungen frühzeitig einzubeziehen, ihre Produkte zu verbessern und potenzielle Herausforderungen in Chancen zu verwandeln.
Daher hat das KI-Gesetz mit seiner Mischung aus einem breit angelegten Rahmen und sektorspezifischen Vorschriften und Durchsetzung durchaus Potenzial. Es sind jedoch die Feinheiten, die verfeinert werden müssen, damit es sich wirklich durchsetzen kann. Ein Hauptaugenmerk sollte auf der Verfeinerung der Definition des Hochrisikosystems liegen. So sind beispielsweise die derzeitigen Umrisse in Annex III so weit gefasst, dass sie Anwendungen einschließen könnten, die die Hochrisikokriterien kaum erfüllen.
Vor diesem Hintergrund bergen KI-Sandkästen ein großes Potenzial und dienen als Nährboden für Innovationen und als praktisches Instrument für regulatorisches Lernen. Bei den aktuellen Vorschlägen rund um das KI-Gesetz geht es vor allem um die Etablierung allgemeiner Strukturen sowie um die Koordination und Kooperation zwischen den Mitgliedsstaaten. Der Erfolg dieser Sandkästen hängt in hohem Maße von ihrer effektiven Einführung durch diese Staaten ab. Interessanterweise könnten andere europäische Rechtsentwicklungen wie der Data Governance Act - der den geschützten Austausch von Daten ermöglicht - die Sandboxen auf ein völlig neues Niveau heben, da sie auch den Austausch von Daten unter dem Schutz des Datenschutzes oder des Rechts des geistigen Eigentums ermöglichen würden.
Wenn ich mir in Bezug auf das KI-Gesetz etwas wünschen dürfte, würde ich mir mehr partizipative Elemente wünschen, insbesondere beim Risikomanagement. Die Einbindung von Nutzern und Bürgern in die Identifizierung und Abschwächung von Risiken ist von entscheidender Bedeutung. Daher wäre es vorteilhaft, solche Praktiken "gegebenenfalls" einzubeziehen. Entsprechende Bestimmungen gibt es bereits in der Allgemeinen Datenschutzverordnung und im Gesetz über digitale Dienste. Es ist ein Trugschluss zu glauben, dass nur Unternehmen, Compliance-Abteilungen und Stellen, die für algorithmische Bewertungen zuständig sind, die gesellschaftlichen Auswirkungen neuer Systeme vollständig verstehen können.
How can we make better use of the economic and social potential of data without losing sight of possible negative aspects? On 2. February 2023, we organized a panel discussion on the current state of the data policy in Germany.
Wichtige Erkenntnisse aus der Diskussion
Eröffnet wurde die Veranstaltung von Moritz Hennemann (Universität Passau), der die Bemühungen der deutschen Datenpolitik in den größeren europäischen Kontext einordnete. Er betonte, dass Datenpolitik eines der entscheidenden Querschnittsthemen unserer Zeit sei - so seien beispielsweise Wetterdaten für die Planung des Wochenendausflugs ebenso wichtig wie für die Überwachung des Klimawandels oder des Flugverkehrs und auch für militärische Zwecke. Er wies ferner darauf hin, dass die Datennutzung immer mit Abwägungen zwischen verschiedenen Normen und Entscheidungen einhergeht, z. B. zwischen der wirtschaftlichen Nutzung von Daten und dem Schutz der Privatsphäre. Ein Weg zu einer effektiven Datenpolitik besteht laut Moritz Hennemann darin, in sektoralen Anwendungsbereichen zu denken und sektorale Datenräume zu schaffen, die die Nutzung und gemeinsame Nutzung von Daten erleichtern und fördern. Auf der Grundlage dieser Experimente können dann gemeinsame Kriterien und Maßnahmen für Datenräume entwickelt werden.
Auf der Grundlage dieses Inputs begann das Panel mit einer Diskussion über das von der deutschen Regierung geplante Dateninstitut. Andreas Peichl als Mitglied der Gründungskommission des Dateninstituts gab einen Überblick über die Ziele und die Struktur des zu realisierenden Dateninstituts. Die Anwesenden waren sich einig, dass das Dateninstitut ein richtiger Schritt in die richtige Richtung ist, betonten jedoch, dass das Institut eine agile Struktur und eine ausreichende finanzielle Unterstützung benötigt. Darüber hinaus betonten die Diskussionsteilnehmenden, dass der Erfolg des Instituts weitgehend von der Auswahl effektiver Anwendungsbereiche und Anwendungsfälle abhängen wird.
Ein weiterer Diskussionsstrang befasste sich mit der Frage, was eine wirksame Datenpolitik für das Gemeinwohl in den nächsten 5 bis 10 Jahren braucht. Hier betonte Benjamin Adjei die bestehenden Lücken in Bayern, wo es an geeigneten Strategien, Gesetzen und Infrastrukturen für eine effektive Datenpolitik fehlt. Laut Amélie Heldt kann der Staat hier eine entscheidende Rolle spielen, z.B. durch die Schaffung von Open-Data-Repositories, die sowohl von Startups als auch von Akteuren aus Wissenschaft, Zivilgesellschaft oder dem öffentlichen Sektor genutzt werden können. Außerdem plädierte sie für die Einrichtung von Sandboxes und Experimentierräumen, um positive Anwendungsfälle zu schaffen.
Der letzte Teil der Diskussion drehte sich um die (wahrgenommenen) Kompromisse zwischen Datenschutz und Datennutzung. Hier waren sich die Diskussionsteilnehmenden einig, dass der Datenschutz häufig missbraucht wird, um den Zugang zu Daten und deren Nutzung abzuschirmen und zu blockieren. Amélie Heldt betonte auch, dass die DSGVO von entscheidender Bedeutung ist, da sie Vertrauen bei den Bürger:innen schafft, während Andreas Peichl einige Beispiele für die unterschiedliche Behandlung von DSGVO-Anfragen je nach lokalem Kontext vorstellte. Benjamin Adjei kritisierte das einfache "Schwarz-Weiß"-Denken, wenn es um Datenschutz versus Datennutzung geht.
Die Podiumsdiskussion konzentrierte sich auf Strategien und Erzählungen zur Erleichterung der Datennutzung und -weitergabe. Die Podiumsteilnehmenden erörterten die zusätzlichen wirtschaftlichen und gesellschaftlichen Vorteile, sprachen aber auch die damit verbundenen Herausforderungen für Bürger, Unternehmen und Aufsichtsbehörden an und berührten dabei Themen im Zusammenhang mit dem Dateninstitut, Daten für das Gemeinwohl und die notwendigen Voraussetzungen für eine effektive Datennutzung im öffentlichen Interesse.
Die Gäste waren sich einig, dass wir einen Wechsel der Erzählungen und der Richtung brauchen, der sich mehr auf eine positive Vision der Datennutzung und den Nutzen datengesteuerter Projekte für die Gesellschaft als Ganzes konzentriert. Zu diesem Zweck müssen wir jedoch mehr finanzielle Mittel investieren und organisatorische und infrastrukturelle Kapazitäten aufbauen, die uns in die Lage versetzen, Daten für das öffentliche Interesse zu nutzen.
Partner und Organisation
Die Podiumsdiskussion war Teil der Reihe "Governance by & of Technology", die 2022/ 2023 am TUM Think Tank veranstaltet wurde. Die öffentliche Veranstaltung zog ein breites Publikum an, das sich den drei Podiumsteilnehmenden Amélie Heldt (Referentin für Digitalpolitik im Bundeskanzleramt), Benjamin Adjei (Mitglied des Bayerischen Landtags und digitalpolitischer Sprecher von Bündnis 90 / Die Grünen) und Andreas Peichl (Ludwig-Maximilians-Universität München, ifo Institut & Mitglied der Gründungskommission des Data Institute) anschloss. Moderiert wurde die Veranstaltung von Sofie Schönborn (TU München).
Unser interaktiver Multi-Stakeholder-Workshop befasste sich mit der Zukunft des Metaversums als digitales Grenzgebiet von morgen zu einem Zeitpunkt, an dem Technologien, Geschäftsmodelle und Regulierungssysteme noch formbar sind, und konzentrierte sich auf vier Fälle, die unterschiedliche Nutzergruppen betreffen.
Die wichtigsten Erkenntnisse aus der Diskussion
XR Spaces und erweiterte Realitätsinfrastrukturen durch den XR Hub Bayern.
Unser Partner vom XR Hub Bayern präsentierte eine Vielzahl unterschiedlicher Projekte, die auf die Schaffung einer digitalen Infrastruktur abzielen, die als Technologien für das Gemeinwohl dienen können. Da es sich um eine staatlich geförderte Initiative handelt, liegt der Fokus des "XR Räume als Anwendungsfall für Government-to-Citizen"-Projekts auf wertorientierten Aktivitäten, während kommerzielle Aspekte in den Hintergrund treten.
Metaverse-Pilotprojekt der EU Global Gateway Initiative.
Die EU-Kommunikationskampagne ist ein weiteres Beispiel für ein Government-to-Citizen-Projekt. Wenn öffentliche Akteure Metaverse-Anwendungen nutzen, um mit den Bürger:innen in Kontakt zu treten, ist es eine Herausforderung, das richtige Gleichgewicht zwischen der Bereitstellung von Inhalten als Informationen und der Möglichkeit für Besuchende des Metaverse, die Umgebung zu gestalten, zu interagieren und zu verändern, zu finden. Daraus ergeben sich zwei Vorschläge: Wie können wir alle gesellschaftlichen Gruppen über die Fähigkeit zur Interaktion in virtuellen Räumen aufklären? Und inwieweit kann sich der Staat an der Bereitstellung der Metaverse-Infrastruktur sowie an der Erstellung von Inhalten beteiligen?
Digitale Zwillinge in der Fertigung für kleine und mittlere Unternehmen von Umlaut @Accenture.
Ein Beispiel für einen Business-to-Business-Fall lieferte das Startup-Unternehmen Umlaut, das kürzlich von Accenture übernommen wurde. Es gibt immer noch einen Mangel an Wissen über das große Potenzial digitaler Zwillinge für den Bildungs- und Ausbildungssektor, wie im Anwendungsfall der Fertigung gezeigt. Darüber hinaus gibt es immer noch eine große Ungleichheit beim Zugang auf der ganzen Welt, da einige Gebiete möglicherweise keinen Zugang zu den erforderlichen Daten oder noch keinen Zugang zur Technologie haben.
Virtual Reality Sprachtrainer durch künstliche Intelligenz von Straightlabs.
Der letzte Anwendungsfall wurde von Straightlabs als Beispiel für eine Business-to-Consumer-Anwendung vorgestellt. Das Tool zeigt das immense Potenzial der Anwendung immersiver Technologien für verschiedene Bereiche, insbesondere Kapazitätsaufbau und Schulung, aber auch die Komplexität, die durch den Grad der Einbeziehung persönlicher Daten und des Menschen selbst in eine schwer zu erklärende und komplexe Technologie entsteht.
Der Metaverse-Workshop brachte Stakeholder aus Wissenschaft, Start-ups, Wirtschaft, Regierung, Verwaltung und Medien zusammen, um gemeinsam die Versprechen und Fallstricke anhand ausgewählter Metaverse-Anwendungen aus verschiedenen Bereichen zu erkunden und zu erfahren.
Mit dem Ziel, das Problem des schädlichen Online-Diskurses anzugehen, haben wir uns mit dem Bayerischen Staatsministerium der Justiz zusammengetan, um eine Community of Practice aufzubauen. In einer Reihe von Veranstaltungen des Reboot Social Media Labs brachten wir Akademiker und Praktiker zusammen, die sich mit Hassreden und anderen Formen von hasserfüllten Inhalten im Internet befassen, um aktuelle Probleme und mögliche Lösungen zu diskutieren.
Unsere Podiumsdiskussion mit Teresa Ott (Hate Speech Officer bei der Generalstaatsanwaltschaft), Anna Wegscheider (Anwältin bei HateAid) und Svea Windwehr (Policy Analyst bei Google), moderiert von Georg Eisenreich, MDL (Bayerischer Staatsminister der Justiz) und Urs Gasser (TU München), eröffnete den Dialog und gab den rund 100 Gästen, die an der Veranstaltung teilnahmen, tiefere Einblicke in den aktuellen Stand des EU-Gesetzes über digitale Dienste und seine Auswirkungen auf Staatsanwälte, Plattformen und Nutzer.
Wichtige Erkenntnisse aus der Diskussion
Während die EU-weite Harmonisierung durch den DSA großes Potenzial hat, gibt es im Vergleich zum NetzDG immer noch Mängel, wie z.B. das Fehlen von Löschungsfristen oder konkreten Details zur Durchsetzung von Verstößen gegen Hassreden. Es wurde daher als entscheidend angesehen, Wege zu finden, um zu gewährleisten, dass die stärkeren und besser durchsetzbaren Aspekte des NetzDG auch dann noch zur Verfügung stehen, wenn das DSA und seine unklareren Vorschläge in Kraft treten.
Im Allgemeinen stellten die Diskutierenden fest, dass die internen Prozesse der großen Plattformen in Bezug auf die Praktiken der Inhaltsmoderation sowohl für die Strafverfolgungsbehörden als auch für die Opfer von Online-Hass immer noch eine "Black Box" sind. Es herrschte ein breiter Konsens darüber, dass dies durch eine erweiterte Zusammenarbeit und Kommunikation zwischen den Akteuren der Zivilgesellschaft, den Behörden und den Plattformbetreibern verbessert werden könnte und sollte.
Ein letzter Punkt betraf das öffentliche Bewusstsein für Hassreden. Nur 2 von 10 Online-Delikten werden derzeit angezeigt. Um Online-Hass vermehrt anzuzeigen und strafrechtlich zu verfolgen, muss das Bewusstsein für digitale Gewalt weiter geschärft werden - nicht nur in der Bevölkerung, sondern auch in der Justiz und den Strafverfolgungsbehörden. Mit zunehmender Zahl der gemeldeten Fälle werden dann aber auch zusätzliche Ressourcen für die zuständigen Behörden notwendig, um diese Fälle zu verfolgen.
Sitzung 1 befasste sich mit den neuesten Erkenntnissen über Hassreden, Unhöflichkeit und Frauenfeindlichkeit im Online-Diskurs. Auf der Grundlage von Beiträgen von Yannis Theocharis, Janina Steinert und Jürgen Pfeffer (alle TU München) diskutierten die Teilnehmenden eine Abwägung zwischen der Notwendigkeit verschiedener Formen der Inhaltsmoderation und der Meinungsfreiheit als grundlegende Norm. Es herrschte Einigkeit darüber, dass ein besseres Verständnis der "Grauzonen" von Hassrede und der Umgang damit notwendig sind, aber es war auch klar, dass einige Arten von Online-Verhalten nicht normalisiert werden sollten. Es wurde auch betont, dass Online-Hass von vergleichsweise wenigen verbreitet wird, die extrem lautstark sind und daher eine große Reichweite haben. Dies wiederum hat Auswirkungen darauf, an wen sich Maßnahmen zur Regulierung schädlicher Online-Inhalte richten sollten: an die wenigen Hasser oder an die große Masse?
© Thomas Gunnar Kehrt-Reese
Sitzung 2 befasste sich mit Fragen im Zusammenhang mit der Umsetzung des Gesetzes über digitale Dienste in Bezug auf Online-Hass. Nach Inputs von Till Guttenberger (Bayerisches Staatsministerium der Justiz) und Teresa Ott (Referentin für Hate Speech bei der Generalstaatsanwaltschaft) wurde diskutiert, wie effektive Maßnahmen des NetzDG nach Inkrafttreten des Digitalisierungsgesetzes am Leben erhalten werden können. Ein Kernthema war, wie zukünftige Institutionen und Mechanismen gestaltet werden sollten. Die Teilnehmenden fragten sich auch, wie man Opfer und die Öffentlichkeit am besten für Möglichkeiten zur Meldung von Hassreden sensibilisieren kann.
Sitzung 3 beschäftigte sich mit der Frage, wie über das Gesetz hinaus gegen unhöflichen Online-Diskurs vorgegangen werden kann. Christian Djeffal (TU München) sprach über die Moderation von Inhalten gemeinsam mit den Usern, während Sandra Cortesi (Universität Zürich & Harvard University) einen Überblick darüber gab, wie Kinder dazu befähigt werden können, sich in Online-Diskursen auf sozialen Medien zurechtzufinden. Die großen Fragen konzentrierten sich auf die Suche nach dem goldenen Mittelweg zwischen Bildung und Regulierung - was wahrscheinlich kein "entweder/oder" ist - sowie auf die Frage, wer am besten in der Lage ist, Bildungsinhalte zu erstellen, und betonten, dass alle relevanten Akteure an Bord sein müssen.
Partner und Organisation
Die Veranstaltungen wurden gemeinsam vom TUM Think Tank, der Professur für Public Policy, Governance und innovative Technologien und dem Bayerischen Staatsministerium der Justiz organisiert. Unser besonderer Dank gilt unseren Podiumsteilnehmern Teresa Ott, Svea Windwehr und Anna Wegscheider für die Bereitstellung ihrer Expertise. Wir danken allen Teilnehmern für ihre Beiträge und engagierten Diskussionen und freuen uns auf die Fortsetzung des begonnenen Gesprächs.
Stephanie Hare präsentierte uns am 27. Februar 2023 die Hauptthemen ihres Buches "Technology is not neutral: Ein kurzer Leitfaden zur Technologieethik". In ihrem Buch geht Stephanie Hare auf einige Schlüsselfragen rund um moderne digitale Technologien ein: Ein Schwerpunkt ist die Frage, wie Entwickler von Technologien, aber auch die Gesellschaft als Ganzes versuchen können, den Nutzen von Technologien und Anwendungen zu maximieren und gleichzeitig deren Schaden zu minimieren. Lesen Sie hier die wichtigsten Erkenntnisse aus unserer Diskussion.
Einige wichtige Erkenntnisse aus der Diskussion
Unter Verwendung eines philosophischen Rahmens nutzt Hare verschiedene Bereiche und Ansätze der Ethik und Philosophie, um auf diese Fragen aufmerksam zu machen. So zeigt die Metaphysik beispielsweise auf, welches Problem gelöst werden muss, während die Erkenntnistheorie uns hilft, nach den relevanten Wissensquellen zu fragen, um diese Fragen und Probleme anzugehen. Die politische Philosophie hingegen beleuchtet die Frage, wer die Macht hat, diese Lösungen zu verfolgen, während die Ästhetik aufzeigt, wie Technologien gestaltet und dargestellt werden sollten. Die Ethik schließlich gibt uns Antworten auf die Frage, welche Werte der Technologie innewohnen.
In der Diskussion mit Alexander v. Janowski und dem Publikum wurden wichtige Beobachtungen zum Design von Technologien angesprochen, die in unserer Alltagswelt eingesetzt werden können. So wurde beispielsweise die Größe vieler Smartphones an größere, typisch männliche Hände angepasst, ähnlich wie Airbags in Fahrzeugen nur an Schaufensterpuppen getestet wurden, die dem durchschnittlichen männlichen Körper ähneln. Diese Beobachtungen untermauern die ethischen Überlegungen zu der Frage, wer und welche Instanzen die Kontrolle über die Entwicklung und Anwendung von Technologien haben und haben sollten.
Insgesamt hofft Stephanie Hare, dass ihr Buch "Menschen und menschliche Kultur hackt", indem es dazu beiträgt, die Menschen zu inspirieren, Vorurteile und gewollte oder ungewollte Ungleichheiten zu erkennen, die Technologien von ihren Entwicklern übernehmen, wenn sie nicht hinterfragt werden.
Um mehr über Stephanie Hare, das Buch und ihre anderen Werke zu erfahren, besuchen Sie ihre Website unter https://www.harebrain.co.
Behalten Sie den Überblick in Sachen Innovation.
Melden Sie sich für unseren Newsletter an und folgen Sie uns auf unseren Social Media Kanälen.