TUM Think Tank
Wo gesellschaftliche Herausforderungen von heute auf technologische Spitzenleistung von morgen treffen.
Die Technische Universität München kooperiert mit Apple, um die Kindersicherheit im digitalen Raum voranzubringen.
Eine neue interdisziplinäre Initiative an der Technischen Universität München (TUM) wird sich mit aktuellen Herausforderungen der digitalen Kindersicherheit befassen – ermöglicht durch eine Zusage von 500.000 US-Dollar seitens Apple.
Die Mittel fließen in eine transatlantische Multi-Stakeholder-Initiative am TUM Think Tank, die darauf abzielt, neue Herausforderungen im Bereich der Kindersicherheit im digitalen Umfeld zu adressieren. Die Initiative lädt zur Zusammenarbeit zwischen Wissenschaftler*innen der TUM, der Harvard University und der Universität Zürich ein und fördert Beiträge aus der globalen Forschungsgemeinschaft. Im Fokus stehen innovative technologische, edukative und weitere Ansätze zur Prävention und Reaktion auf Risiken für Kinder im digitalen Raum.
Ziel ist es, zu den laufenden Debatten über neue Wege zur Förderung der Kindersicherheit beizutragen – unter Wahrung der Privatsphäre – unter anderem durch eine Reihe frei zugänglicher Materialien wie Forschungskurzberichte, Themenradare oder technische Beschreibungen.
„Digitale Kindersicherheit bleibt eine Herausforderung, die mehr als nur eine Lösung braucht und eine stärkere Zusammenarbeit unterschiedlicher Akteure erfordert“, betont TUM-Professor Urs Gasser, der die internationale Initiative gemeinsam mit der Jugend- und Technologieexpertin Dr. Sandra Cortesi leitet. „In einer Zeit intensiver Diskussionen über mögliche Wege nach vorn ermöglicht uns die Initiative, Forscher*innen aus verschiedenen Disziplinen zusammenzubringen, um gemeinsam neue Ideen und Ansätze zur Förderung der Sicherheit junger Menschen im digitalen Raum zu erkunden.“
Weitere Informationen
TUM Think Tank
Als Lernplattform an der Schnittstelle von Sozialwissenschaften und technischen Disziplinen entwickelt der TUM Think Tank innovative Lösungen für gesellschaftlichen und politischen Wandel – stets dem Gemeinwohl verpflichtet. Aufbauend auf den technologischen und wissenschaftlichen Fortschritten der Technischen Universität München (TUM) dient er als Plattform zur Entwicklung umsetzbarer Ideen und schlägt Brücken zwischen Sozial- und Technikwissenschaften. Wissenschaftlicher Exzellenz und dem öffentlichen Interesse verpflichtet, verfolgen wir das Ziel, innovative Ansätze und Anwendungen in Bereichen wie digitaler Transformation, Mobilität, Gesundheit und Nachhaltigkeit zu entwickeln – durch den Aufbau inklusiver Communities of Practice mit Expert*innen aus vielfältigen Disziplinen und Hintergründen. Der TUM Think Tank ist Mitglied im Global Network of Centers (NoC).
Die Ethical Data Initiative (EDI) ist eine gemeinsame Initiative der University of Exeter und des TUM Think Tank. Sie schafft Raum für multilaterale Gespräche über Datenethik, Informations- und Kommunikationstechnologien (ICT) und Data Governance. Als neutrale Plattform verfolgt die Initiative das Ziel, zentrale Herausforderungen wie Datenkompetenz, Transparenz und Vertrauensbildung in digitalen Ökosystemen anzugehen. Wir wollen eine Gemeinschaft rund um diese drängenden Themen aufbauen – eine, in der alle Stimmen gehört werden und die Vielfalt an Perspektiven aktiv in die Gestaltung der Zukunft der Daten-Governance einfließt. Darüber hinaus setzen wir uns für mehr Gleichberechtigung und Inklusivität im Datenraum ein. Unser Ziel ist es, Datenkompetenz zu stärken, das Vertrauen in den Umgang mit Daten zu fördern und die digitalen Bürger*innen von morgen zu befähigen.
Die zunehmende Abhängigkeit von und Bedeutung von Daten in unserem Alltag wirft zahlreiche ethische Fragen auf – sowohl auf individueller als auch auf globaler Ebene. Ob Datenschutz, Fragen des Datenzugangs, Data Feudalism oder Daten-Souveränität: Der sich stetig wandelnde Datenraum konfrontiert uns mit komplexen Herausforderungen, die offene, breite und inklusive Diskurse erfordern.
Die Mission der Ethical Data Initiative (EDI) ist es, einen neutralen Raum bereitzustellen, in dem diese Diskussionen stattfinden und weiterentwickelt werden können. Um ihre Mission zu verwirklichen, wird die EDI ein globales Netzwerk von Hubs aufbauen, das es uns ermöglicht:
1. Unterschiedliche Akteur*innen und Stakeholder zusammenbringen, um die Zukunft der Daten-Governance mitzugestalten.
2. Die Ausbildung in ethischer Data Science und ethischer KI weltweit stärken.
3. Gerechtigkeit und Verantwortung in Datenpraktiken fördern.
Durch diese drei Säulen wollen wir das Vertrauen in den Umgang mit Daten und eine verantwortungsvolle Datennutzung in Zivilgesellschaft, Wirtschaft und Verwaltung stärken, mehr Gleichberechtigung und Inklusivität im Datenraum schaffen und die digitalen Bürger*innen von morgen befähigen.
FAQ
Was ist die Ethical Data Initiative / Was machen Sie?
Die EDI ist ein innovatives, kollaboratives Projekt mit dem Ziel, ethische und verantwortungsvolle Datenpraktiken auf lokaler, nationaler und internationaler Ebene weltweit zu fördern. Die Mission der Initiative ist es, über ein Netzwerk globaler Hubs eine neutrale Plattform zu schaffen, auf der Diskussionen zu ethischen Datenpraktiken stattfinden und weiterentwickelt werden können.
Wie kann die EDI Ihrem Forschungszentrum oder Ihrer Universität helfen?
Ihr Forschungszentrum oder Ihre Universität wird Teil eines globalen Netzwerks von Hochschulen, das gemeinsam mit vielfältigen Akteur*innen und Stakeholdern die Zukunft der Daten-Governance mitgestaltet.
Wo hat die EDI ihren Sitz?
Die EDI entwickelt derzeit gemeinsam mit mehreren Universitäten Ideen zur Einrichtung einer Reihe von Ethical Data Research Hubs. Die Hubs werden von unseren Standorten an der University of Exeter und dem Policy Think Tank der Technischen Universität München aus betrieben und sollen Forschungskapazitäten bereitstellen, um die Initiativen der EDI zu stärken.
Ich bin daran interessiert, einen EDI-Hub an meiner Universität einzurichten. Wie gehen wir dabei vor?
Kontaktieren Sie die EDI unter kathryn.bailey@ethicaldatainitiative.org – wir freuen uns darauf, dies mit Ihnen weiter zu besprechen.
Wie kann ich eine Zusammenarbeit mit der EDI anbahnen?
Kontaktieren Sie die EDI unter kathryn.bailey@ethicaldatainitiative.org – wir freuen uns darauf, gemeinsame Kooperationsmöglichkeiten mit Ihnen auszuloten. Ihre Ideen und Anregungen sind herzlich willkommen.
Ich möchte an meiner Universität Schulungen zu Datenethik anbieten. Kann die EDI dabei helfen? Wen sollte ich kontaktieren?
Die EDI hat bereits Schulungsprogramme zu verantwortungsvoller Forschung (RRI) und Datenethik für mehrere britische Universitäten organisiert. Gerne sprechen wir mit Ihnen darüber, wie wir Sie unterstützen können.
Darüber hinaus möchten wir unser Angebot auf Universitäten ausweiten und Schulungen zu Datenethik für Lehrende und Promotionsbetreuende anbieten. Weitere Informationen zu dieser Initiative finden Sie hier.
Wie kann ich mich der Kampagne für Datenethik in der Bildung anschließen?
Wir haben eine weltweite Bildungskampagne ins Leben gerufen, die darauf abzielt, Datenethik in alle Hochschulkurse mit Bezug zu Data Science und Forschung zu integrieren. Unser Ziel ist es, die nächste Generation von Daten- und Forschungsfachkräften darin auszubilden und zu befähigen, ihre moralischen und rechtlichen Verpflichtungen im Umgang mit der Nutzung, Wiederverwendung und Weitergabe von Daten zu verstehen und wahrzunehmen.
Weitere Informationen zur Kampagne finden Sie auf dieser Seite.
Wie kann ich Teil des EDI-Netzwerks werden?
Kontaktieren Sie die EDI unter suchith.anand@ethicaldatainitiative.org– wir freuen uns darauf, Sie in unser Netzwerk aufzunehmen. Ihre Ideen und Anregungen sind herzlich willkommen.
Die Zukunft der KI-Regulierung in Europa gestalten
Die EU hat mit Gesetzen wie dem AI Act, dem Data Act und dem Digital Markets Act bereits wichtige Schritte zur Regulierung von Künstlicher Intelligenz unternommen. Doch wie bewähren sich diese Regelungen in der Praxis? Welche Auswirkungen haben sie auf Bürger*innen – und wie können politische Entscheidungsträger*innen ihre Wirksamkeit bewerten?
AI4POL will genau diese Fragen beantworten. Das Projekt entwickelt KI-gestützte Werkzeuge und datenwissenschaftliche Methoden, um Gesetzgeber*innen und Regulierungsbehörden dabei zu unterstützen, die Auswirkungen ihrer Regelungen zu analysieren – und potenziellen Bedrohungen durch technologische Entwicklungen in nicht-demokratischen Staaten wirksam zu begegnen.
„Europa will innovativ und wettbewerbsfähig sein – ohne seine Werte zu kompromittieren. Das gelingt nur mit einem wirksamen regulatorischen Rahmen und gut informierten Entscheidungsträger*innen in Politik und Verwaltung“, sagt Projektleiter Prof. Jens Prüfer, Direktor des Tilburg Law and Economics Center an der Tilburg University. „Künstliche Intelligenz und Data Science können bei dieser Art der Überwachung sehr hilfreich sein. Wir wollen Politiker*innen unterstützen – denn im Gegensatz zu großen Tech-Konzernen haben sie nicht tausende hochqualifizierte KI-Expert*innen im Team.“
Ein zentraler Schwerpunkt des Projekts AI4POL liegt auf dem Verständnis und der Verbesserung des Verbraucherschutzes.
„Wir wissen bisher nur wenig darüber, wie gut Menschen beispielsweise die Informationen verstehen, die ihnen bei Online-Verträgen bereitgestellt werden – und ob sie einfach auf ‚Okay‘ klicken, weil die Texte viel zu lang und in juristischem Fachjargon verfasst sind“, sagt Gjergji Kasneci, Professor für Responsible Data Science an der Technischen Universität München (TUM). „Wir wollen herausfinden, wie diese Maßnahmen zum Verbraucherschutz wahrgenommen werden, wie Unternehmen und politische Entscheidungsträger*innen nützliches Feedback erhalten können und wie sich die Wirkung von Regulierungen – insbesondere im Bereich digitaler Dienste und Künstlicher Intelligenz – verbessern lässt. KI-Tools können dabei eine zentrale Rolle spielen, indem sie solche komplizierten Texte verständlich zusammenfassen.“
Im Finanzsektor ist Künstliche Intelligenz mittlerweile ein zentraler Bestandteil von Entscheidungsprozessen – von der Kreditvergabe bis zum algorithmischen Handel. „KI verändert grundlegend, wie Informationen erzeugt und verarbeitet werden. Im Finanzwesen ist sie fester Bestandteil von Entscheidungen geworden – etwa bei Kredit-Scores, Robo-Advisors oder dem algorithmischen Handel. Auch bei der Einhaltung von Vorschriften, der Betrugserkennung und der Sicherheit spielt KI eine zentrale Rolle“, erklärt Professor Sean Ennis, Direktor des Centre for Competition Policy an der University of East Anglia (UEA).„Wir werden sowohl die Chancen als auch die Risiken solcher KI-Anwendungen untersuchen.“
Projektpartner
AI4POL vereint ein internationales Forschungsteam der Tilburg University, der Technischen Universität München (TUM),, derUniversity of East Anglia (UEA), von Visionary Analytics, Centerdata, der Università degli Studi di Roma Unitelma Sapienza, sowie des TUM Think Tank. Dieses vielfältige Konsortium garantiert einen interdisziplinären Ansatz für die Governance Künstlicher Intelligenz – gestützt auf Expertise in Technologie, Ethik, Recht und Wirtschaft.
Das Projekt profitiert außerdem von der Expertise eines hochrangig besetzten Advisory Boards, dem zentrale Akteur*innen angehören – darunter Regulierungsbehörden auf EU- und nationaler Ebene, politische Entscheidungsträger*innen, Verbraucherschutzorganisationen, zivilgesellschaftliche Initiativen sowie Unternehmen aus dem Bereich Künstliche Intelligenz. Ihre Perspektiven sind entscheidend, um sicherzustellen, dass die Ergebnisse des Projekts praxisrelevant sind und den aktuellen regulatorischen Herausforderungen gerecht werden.
Durch die enge Zusammenarbeit mit politischen Entscheidungsträger*innen, Regulierungsbehörden, Verbraucherschutzorganisationen und Industriepartnern verfolgt AI4POL das Ziel, Europa nicht nur im globalen Innovationswettlauf rund um Künstliche Intelligenz mitzuhalten, sondern eine Vorreiterrolle bei der Entwicklung ethischer und wirksamer KI-Regulierung einzunehmen. Das Projekt liefert praxisnahe Erkenntnisse, innovative Werkzeuge und konkrete Rahmenwerke, die Regulierungsbehörden dabei unterstützen, KI verantwortungsvoll zu steuern. AI4POL hat die Mission, eine sicherere, ethischere und bürgerzentrierte KI-Zukunft für Europa zu gestalten. Bleiben Sie dran für aktuelle Einblicke in unsere Forschung, Tools und Veranstaltungen – und begleiten Sie uns auf dem Weg zu einer zukunftsfähigen KI-Governance in Europa.
Die jungen Quanten-Sozialwissenschaftler:innen des Quantum Social Labs nutzen challenge-basiertes Lernen und Design Sprints, Research Clinics und andere Formate, um sich mit wichtigen Governance-Herausforderungen von Quantenanwendungen auseinanderzusetzen. Jede Kohorte besteht aus bis zu 20 Studierenden, die ihr theoretisches Wissen bei der Lösung von Problemen der realen Welt anwenden können. Die Young Quantum Social Scientists sind eine Initiative, die für Studierende aller Studiengänge, aller Universitäten in München offen ist.
Dieser Leitfaden stellt das Programm der Young Quantum Social Scientists (YQSS) vor. Die YQSS-Initiative wurde im Sommersemester 2023 an der Technischen Universität München ins Leben gerufen. Das einjährige Stipendienprogramm nimmt nun Bewerbungen für die dritte Kohorte entgegen, die am 1. Juli 2025 starten wird.
Warum solltest du teilnehmen?
Die Young Quantum Social Scientists bieten die Möglichkeit, an echten Problemen zu arbeiten und die Herausforderungen von morgen anzugehen!
Wir hoffen, gemeinsam mit euch spannende Projekte zu entwickeln - während ihr das Netzwerk des Quantum Social Lab und des TUM Think Tanks nutzen könnt, um die Initiative zu gestalten, Veranstaltungen zu organisieren oder erste Schritte in Richtung professioneller Forschung zu gehen.
Wir bieten auch Abschluss- und Praxisprojekte in den Studiengängen Politikwissenschaften, Politics & Technology, Mathematics in Data Science und Data Engineering an.
Die Initiative trifft sich jede Woche im TUM Think Tank.
Kontakt
Bei Interesse bitte fabienne.marco@tum.de kontaktieren.
Im Rahmen einer TUM-weiten Initiative zur Förderung der Nachhaltigkeit und zur gemeinsamen Entwicklung von Lösungen mit politischen Entscheidungsträgern wurde das Transformation Finance Lab (TF Lab) im Juli 2024 ins Leben gerufen. Die Auftaktveranstaltung fand unter Beteiligung führender Finanzunternehmen, Start-ups und Teams der Universität in München statt. Das TF Lab ist eng mit der Forschungsgruppe „Public Policy for the Green Transition“ von Prof. Egli an der School of Social Sciences and Technology verbunden.
“Grundsätzlich stellen wir uns die Frage: Wie kann die Finanzbranche als Kraft für Veränderung wirken und dabei helfen, nachhaltige Volkswirtschaften und Gesellschaften aufzubauen? Ich bin davon überzeugt, dass für einen solchen Wandel Daten und Werkzeuge notwendig sind, vor allem aber Zusammenarbeit.“ - Florian Egli, Transformation Finance Lab.
Das TF Lab arbeitet auf drei strategischen Säulen: Gemeinschaftsaufbau, politische Veränderungen und Daten & Werkzeuge. Ein interaktives Dashboard zur Visualisierung globaler Klimafinanzströme wird bald online gehen, und eine umfassende Strategie wird Anfang 2025 veröffentlicht.
Die Fortschritte auf dem Gebiet der generativen künstlichen Intelligenz sind atemberaubend - ebenso wie die Geschwindigkeit, mit der neue Anwendungen wie ChatGPT weltweit in den verschiedensten Bereichen eingesetzt werden. Von der Arbeit über die Bildung bis hin zu Medizin und Wirtschaft dienen diese generativen KI-Anwendungen auch als Grundlage für nachfolgende Innovationen. Die zunehmende Komplexität von KI-Technologien, ihre großflächige Anwendung und die entstehende Landschaft von Rechtsnormen und anderen Richtlinien führen zu einem hohen Maß an Unsicherheit im privaten und öffentlichen Sektor darüber, wie diese technologischen Innovationen verantwortungsvoll entwickelt, eingesetzt und geregelt werden können oder sollten. Während generative KI-Technologien auf den Markt kommen, sind die möglichen mittel- und langfristigen Auswirkungen auf die Gesellschaft noch nicht absehbar, beispielsweise im Hinblick auf Bildung und Forschung, den Arbeitsmarkt und die Wirtschaft, aber auch auf die Zukunft der Demokratie und die Beteiligung der Zivilgesellschaft. Die jüngste Forderung nach einem Moratorium hat einige dieser Bedenken in den Blickpunkt der Öffentlichkeit gerückt.
Vor diesem Hintergrund richtet der TUM Think Tank eine interdisziplinäre Task Force zu generativer KI (Gen AI Task Force) für einen Zeitraum von 18 Monaten ein, um Entscheidungsträger in Regierung, Industrie und Zivilgesellschaft sowie andere Stakeholder in Fragen der Gestaltung, Steuerung und Nutzung generativer KI-Technologien in ihren jeweiligen Anwendungskontexten zu beraten. Die Task Force bringt Spezialisten aus verschiedenen Disziplinen der TUM mit Partnern aus Industrie, Verwaltung und Gesellschaft zusammen und konzentriert sich zunächst auf drei Kernaktivitäten:
Entwicklung von Leitlinien und Regulierungsansätzen
Die Gen AI Task Force unterstützt Entscheidungsträger im öffentlichen Sektor bei der Bewertung des Bedarfs, der ethischen Fundierung und der Gestaltung von Leitlinien im Bereich der generativen KI, beispielsweise in Form von Empfehlungen, Best Practices sowie Politiken, einschließlich zukünftiger Regulierungsansätze. Ziel ist es, die Chancen und Risiken im jeweiligen Anwendungsbereich sorgfältig zu analysieren und zu managen sowie die verschiedenen (politischen) Instrumente proaktiv aufeinander abzustimmen. Ein weiterer Schwerpunkt ist die Überwachung und Vorbereitung der neuen Gesetzgebung, insbesondere des Europäischen KI-Gesetzes (inkl. "Regulatory Sandboxes").
Challenges Forum
Die Gen AI Task Force bietet eine kuratierte Plattform für den Informations- und Wissensaustausch, in der Entscheidungsträger im Rahmen eines sogenannten "Challenges Forum" gemeinsam mit Peers und Experten sowohl strategische als auch praktische aktuelle Herausforderungen im Umgang mit generativer KI diskutieren können. Dies kann in Form von Round Tables, Workshops, Forschungssprints zu spezifischen Problemstellungen oder "Seed-Projekten" zur Entwicklung von Prototypen unter Einbeziehung von Studierenden im Rahmen der an der TUM bereits etablierten Tech Policy Practice erfolgen.
Horizon scanning
Mit der Methode der "Foresight-Analyse" und im Sinne eines sensorischen Frühwarnsystems arbeitet die Gen AI Task Force mit Partnern aus der Industrie zusammen, um Einblicke in die Dynamik der generativen KI zu geben und das Bewusstsein von Entscheidungsträgern für zukünftige Entwicklungen und aufkommende Fragen zu schärfen. Dabei geht es nicht nur um die Technologieentwicklung, sondern auch um Verhaltensänderungen und Einstellungen der Nutzer sowie um Veränderungen in der Akzeptanz und Wahrnehmung. In diesem Zusammenhang sind partizipative Formate mit Bürgerinnen und Bürgern und der Zivilgesellschaft vorgesehen (z.B. Citizen Assembly, Pulse Surveys, Citizen Panel, etc.).
Neben allgemeiner (Querschnitts-)Expertise in den Bereichen KI, Gesellschaft und Politik konzentriert sich die Task Force auf die Anwendungsbereiche Bildung/Ausbildung, Forschung, Medien/Journalismus, öffentliche Verwaltung/Justiz, Wirtschaft/Corporate Compliance und Gesundheit/Medizin. Die Gen AI Task Force wird gemeinsam von Prof. Dr. Enkelejda Kasneci (KI in der Bildung) und Prof. Dr. Urs Gasser (Public Policy & Governance) geleitet und vereint unter anderem folgende Experten:
- Prof. Dr. Alena Buyx (Ethik in Gesundheit und Gesundheitstechnologien)
- Prof. Dr. Stefania Centrone (Ethik)
- Prof. Dr. Stephanie Combs (KI in Gesundheite & Medizin)
- Prof. Dr. Annette Diefenthaler (Design & Transdisziplinarität)
- Prof. Dr. Christian Djeffal (Recht, Wissenschaft & Technologie)
- Prof. Dr. Matthias Grabmair (Legal Tech)
- Prof. Dr. Georg Groh (Social Computing)
- Prof. Dr. Stephan Günnemann (Machine Learning)
- Prof. Dr. Dirk Heckmann (Recht und Sicherheit in Digitaler Transformation)
- Prof. Dr. Gjergji Kasneci (Responsible Data Science)
- Prof. Dr. Stephan Krusche (Software Engineering)
- Prof. Dr. Alexander Pretschner (Systems & Software Engineering)
- Prof. Dr. Daniel Rückert (KI in Medizin & Gesundheitswesen)
- Prof. Dr. Astrid Séville (Politische Theorie)
- Prof. Dr. Janina Steinert (Global Health)
- Prof. Dr. Yannis Theocharis (Digital Governance)
- Prof. Dr. Ingo Weber (IT Service Management, Entwicklung und Operations)
- Prof. Dr. Isabell Welpe (Leadership, Innovation, Organisation)
Die Gen AI Task Force arbeitet mit verschiedenen Organisationen im In- und Ausland zusammen, insbesondere mit dem Berkman Klein Center for Internet & Society an der Harvard University und dem Global Network of Internet & Society Research Centers, um nur einige zu nennen. Sie baut auch auf einer Forschungskooperation zwischen TUM und HfP und der Norwegian Business School, dem Berkman Klein Center und ITS Rio auf, die vom Norwegischen Forschungsrat unterstützt wird.
Podcast
Ausgewählte Resourcen:
Artikel im Handelsblatt über KI in der Bildung: Enkelejda KasneciLink
Artikel im Handelsblatt über KI in der Bildung: Enkelejda KasneciLink
Source | Link |
---|---|
Enkelejda Kasneci über KI-Lernassistenten in der Schule | Link |
Dirk Heckmann, Jan Gogoll und Alexander Pretschner zu ChatGPT und Prüfungen in der FAZ | Link |
Positionspapier von Enkelejda Kasneci zu Chancen von ChatGPT für Schule und Hochschule | Link |
Einschätzung von Urs Gasser zur Forderung eines Moratoriums bei der Entwicklung von KI | Link |
Beitrag in der Sendung quer (BR) über die Chancen und Risiken von KI durch Urs Gasser | Link |
Tagesgespräch in Bayern2 zum Thema KI mit Urs Gasser | Link |
Alena Buyx zur Ethik der KI im Podcast “Zukunft verstehen - Wie Technik die Welt verändert” | Link |
SPIEGEL interview mit Urs Gasser über einen neuen Politikansatz im Bezug auf KI | Link |
Alexander Pretschner im Interview mit der FAZ zu ChatGPT | Link |
Dirk Heckmann und Alexander Pretschner über neue Prüfungsformen im Hochschulsystem in der FAZ | Link |
Christian Djeffal zu Natural Language Processing und Legal Tech Projekt NLawP | Link |
Publikation zur Überstzung und KI in öffetnlichen Verwaltungen von Christian Djeffal | Link |
Interview mit Stefania Centrone über KI und Philosophie | Link |
Janina Steinert über online Misogynie | Link |
Georg Groh über LLMs und ihre Fähigkeit zu Programmieren im BR | Link |
Tagesspiegel Background über KI Regulierung mit Urs Gasser | Link |
SCIENCE Editorial: An EU Landmark for AI governance von Urs Gasser | Link |
Was passiert, wenn Quanten auf Ihren 9-to-5-Tag treffen? Früher oder später werden Quantentechnologien unsere Welt, wie wir sie kennen, umgestalten. Von der Art und Weise, wie wir kommunizieren, im Internet navigieren und uns der Gesundheitsfürsorge nähern, bis hin zum globalen Finanzsektor und unserer Mobilität - Quantentechnologien werden unseren Alltag verändern. Wir von QuantWorld liefern Ihnen die Zukunft schon heute und sorgen dafür, dass Sie für morgen bestens gerüstet sind.
In der sich ständig weiterentwickelnden Technologielandschaft markiert das Aufkommen der sogenannten zweiten Generation von Quantentechnologien einen monumentalen Fortschritt. Diese Fortschritte sind weit mehr als nur inkrementelle Verbesserungen; sie repräsentieren eine Paradigmenwechsel und versprechen, Branchen neu zu gestalten, neue zu schaffen und die Grenzen dessen, was wir für möglich halten, neu zu definieren. Von ultra-sicheren Kommunikationsnetzwerken bis hin zu leistungsstarken Quantencomputern haben diese Technologien das Potenzial, Probleme zu lösen, die einst für unlösbar gehalten wurden, und Fragen zu beantworten, die die Menschheit seit Ewigkeiten beschäftigen. Gleichzeitig operieren wir derzeit noch in der sogenannten NISQ-Ära, in der der Zugang zu Quantengeräten recht begrenzt ist und die aktuellen Fähigkeiten dieser Geräte weit hinter den Erwartungen für die nächsten Jahrzehnte zurückbleiben.
Dennoch bringen zweite Generation Quantentechnologien, wie bei allen revolutionären Innovationen, eine einzigartige Reihe von gesellschaftlichen Herausforderungen mit sich. Ihre tiefgreifenden Auswirkungen erstrecken sich über den technischen Bereich hinaus und berühren Fragen der Ethik, der politischen Entscheidungsfindung, der Bildung und sogar das Gefüge unserer sozio-ökonomischen Strukturen. Fragen zur Datensicherheit, zur Sicherheit und zur möglichen Störung traditioneller Industrien werden aufgeworfen und verlangen eine sorgfältige Überlegung. Darüber hinaus, da diese Technologien immer zugänglicher werden, besteht ein dringender Bedarf an einer gut informierten Öffentlichkeit, die in der Lage ist, die quantenbasierte Zukunft verantwortungsbewusst zu verstehen, sich anzupassen und damit umzugehen. Die einzigartige Struktur dieser Technologie macht es schwer, die technologische Entwicklung und die Innovationszyklen vorherzusagen und anzupassen.
Während wir am Beginn dieses neuen Quanten-Zeitalters stehen, müssen wir ihr Potenzial umarmen und ihre Herausforderungen sorgfältig meistern. Beim Erkunden dieser aufregenden Grenze müssen wir mit Neugier und Vorsicht vorgehen, ihr Potenzial verstehen und ihre Herausforderungen anerkennen.
Bei QuantWorld fördern wir aktiv die Entwicklung verantwortungsbewusster Quantentechnologien und setzen Schutzmaßnahmen ein, bevor die Technologien den Markt erreichen. Unser Ziel ist es, eine partizipative Lernumgebung zu schaffen, um wirtschaftliche, soziale, ethische und bildungsbezogene Fragen im Zusammenhang mit neuen quantenbasierten Anwendungen anzugehen.
Über das Projekt
Quantentechnologien für jeden zugänglich
Das QuantWorld-Projekt ist dein Tor zur faszinierenden Welt der Quantentechnologien der zweiten Generation. Unsere Mission besteht darin, das Wissen über Quanten für Menschen aus allen Lebensbereichen zugänglich und relevant zu machen. Über unsere einzigartige, modulbasierte Lernplattform führen wir Bürgerinnen und Bürger in die Bereiche Medizin, Banking und Mobilität in einer von Quantentechnologien geprägten Welt ein.
Unser modulares System gewährleistet Skalierbarkeit und Anpassungsfähigkeit an fortschrittliche Plattformen, einschließlich immersiver Realitäten.
Unsere digitale QuantWorld-Lernplattform wird entwickelt, um den spezifischen Bedürfnissen der Bürgerinnen und Bürger gerecht zu werden. Wir beginnen damit, eine auf Nachfrage ausgerichtete Einführung in Quantentechnologien direkt an deinem Arbeitsplatz anzubieten. Unsere Fokussierung auf alltägliche Anwendungen stellt sicher, dass du die Möglichkeiten der Quanten in deinem beruflichen und privaten Leben erkunden kannst. Für diejenigen, die tiefer in die Welt der Quanten eintauchen möchten, bieten wir weiterführende Lernmodule an. Egal, ob du berufstätig, Schüler, Student oder Lehrer bist, in QuantWorld gibt es einen Platz für dich.
Soziale Herausforderungen durch künstlerische Interventionen erforschen.
Wir erkunden soziale Herausforderungen durch künstlerische Interventionen in thematischen Welten, in denen engagierte Citizen Scientists, Schulkinder, Studierende und Fachleute mit Methoden der künstlerischen Intervention arbeiten, um die sozialen Herausforderungen und Möglichkeiten der Quantentechnologien der zweiten Generation erfahrbar zu machen. Hierzu kooperieren wir mit diversen Künstler:innen. In Zusammenarbeit mit dem XR HUB Bayern arbeiten die Künstler mit Bürgerinnen und Bürgern sowie Studierenden der TU München (siehe "Young Quantum Social Scientists") zusammen, um innovative Kunstwerke zu schaffen, die sich mit den Herausforderungen der thematischen Welten und den abstrakten Inhalten der Grundmodule auseinandersetzen und es jedem ermöglichen, die Herausforderungen der Quantentechnologien zu erleben.
Am Ende des Projekts werden alle geeigneten Module in einem QuantumBasics-Kurs zusammengefasst, um eine Wissensbasis für die gesamte Gesellschaft zu schaffen, ähnlich wie bei "Elements of AI". Unsere kontinuierliche Evaluierung und Feedback-Konzeption gewährleistet den Erfolg der QuantWorld-Lernplattform.
Horizont
Die QuantWorld-Lernplattform wird nach Abschluss des Projekts kontinuierlich erweitert, um zusätzliche thematische Welten mit Unterstützung unseres Netzwerks und unserer Industriepartner aufzunehmen. Die künstlerischen Interventionen werden digital zugänglich gemacht (soweit möglich), um allen Bürgerinnen und Bürgern sowie Zielgruppen den Zugang zu diesen Erfahrungen zu ermöglichen. Langfristig wird die Lernerfahrung der QuantWorld-Plattform in virtuelle Kursformate überführt, um einen "immersiven Zwilling" von QuantWorld zu schaffen.
Das Konzept künstlerischer Interventionen zur Verarbeitung von QuantWorld-Herausforderungen wird von unserer Initiative "Young Quantum Social Scientist" im Quantum Social Lab am TUM Think Tank fortgesetzt. Im Gegensatz zu vielen anderen Lehr- und Lernangeboten werden die QuantWorld-Module unserer Lernplattform auch nach Ablauf des Projekts kostenfrei für alle Bürgerinnen und Bürger, Schulen und andere Bildungseinrichtungen als Open-Access-Materialien zur Verfügung gestellt. Insbesondere im Bereich der künstlerischen Interventionen soll in drei Jahren ein Netzwerk von Künstlern aufgebaut werden. Langfristig soll dieses Netzwerk auch zu einem Netzwerk von Institutionen ausgebaut werden, die sich mit der innovativen Kommunikation von Spitzentechnologien beschäftigen.
Lassen Sie uns gemeinsam das Quantenzeitalter gestalten
Das Quantum Social Lab ist Ihr Tor, um Quantum-Technologien zu erleben und zu lernen. Wir führen Sie auf eine fesselnde Reise durch das Quantenzeitalter, um die Versprechungen und potenziellen Risiken dieser Spitzentechnologien auszuloten. Schließen Sie sich uns an, um die Zukunft der Quantum-Technologien mitzugestalten, wo Kunst, Wissenschaft und der Alltag zusammenkommen. Offene Stellen werden in Kürze bekannt gegeben.
Partnerschaften
QuantWorld ist ein gemeinsames Projekt in Kooperation mit Fraunhofer AISEC und dem TUM Klinikum Rechts der Isar.
Teil des Reboot Social Media Lab
Das Projekt Rebooting Content Moderation (REMODE) greift die Forderung nach mehr Nutzerbeteiligung im Rahmen des Digital Services Act (DSA) auf und erforscht Ansätze und Mechanismen, wie Nutzer in die Bewertung von Online-Risiken einbezogen werden können. Sein Hauptziel ist es, neue Ideen und praktische Lösungen zu fördern, wie Empfehlungssysteme und Praktiken der Inhaltsmoderation auf partizipative Weise verbessert werden können.
Mitgestaltung gesünderer digitaler öffentlicher Räume
Zu diesem Zweck entwickelt das interdisziplinäre Team um Christian Djeffal, Daan Herpers und Lisa Mette eine Methode zur Einbeziehung von Nutzern in die Gestaltung von Social-Media-Plattformen sowie eine Toolbox zur Verbesserung und Ausweitung des bürgerschaftlichen Engagements bei Mechanismen zur Moderation von Inhalten. Ihre Methode ist sowohl von partizipativen Technologiebewertungen als auch von partizipativen Designansätzen inspiriert.
Topics, activities & formats
REMODE fördert die Autonomie der Nutzer, regt eine gute Governance an und ermutigt zu Recht und Ethik durch Gestaltung. Eine enge Zusammenarbeit mit allen Beteiligten ist für die Entwicklung, Übernahme und Integration der Methode und der Toolbox unerlässlich. Deshalb organisiert das Projekt eine Reihe von ko-kreativen Workshops, die Plattformbetreiber, Forscher, Organisationen der Zivilgesellschaft, Regulierungsbehörden und Nutzer zusammenbringen.
Teil des Reboot Social Media Lab's
Soziale Medien bieten zwar großartige Möglichkeiten der Informationsbeschaffung und der Vernetzung auf globaler Ebene, haben aber auch alarmierende Auswirkungen auf die Gesundheit und das Wohlbefinden, insbesondere bei Jugendlichen. Um diesen Trends entgegenzuwirken, entwickelt das Projektteam ein Tool namens InstaClone, das die Funktionalität und das Aussehen von Instagram nachahmt, aber vollständig kontrollierbar ist. Der Klon soll sowohl Schülern als auch Lehrern helfen, die Mechanismen hinter dem Social-Media-Feed zu verstehen und so die digitale und algorithmische Kompetenz zu verbessern.
Entwicklung eines naturgetreuen Bildungswerkzeugs für soziale Medien
InstaClone ist ein vollständig kontrollierbares, lebensechtes Social-Media-Tool, das entwickelt wurde, um die negativen Auswirkungen der Social-Media-Nutzung zu bekämpfen, indem es Schülern digitale und algorithmische Kompetenzen vermittelt. Doris Holzberger, Tilman Michaeli und Jürgen Pfeffer haben gemeinsam mit Anna Hartl, Angelina Mooseder und Elena Starke das Tool entwickelt, das sowohl pädagogischen als auch wissenschaftlichen Zwecken dient.
Themen, Aktivitäten & Formate
InstaClone ist eingebettet in die Lern- und Lehrforschung und ist kompatibel mit dem Informatikunterricht der Sekundarstufe. Lehrer- und Schülerworkshops stellen sicher, dass InstaClone den Bedürfnissen der Zielgruppen entspricht und leicht zu benutzen ist. Das Tool wird für Lehrkräfte frei verfügbar sein und kann ohne weitere IT-Erfahrung genutzt werden.
Teil des Reboot Social Media Lab's
Digitale Plattformen werden immer toxischer, da sie mit Elementen wie Beleidigungen, verletzender Sprache oder Hassreden gefüllt sind. Doch die Nutzer nehmen negative und unhöfliche Beiträge sehr unterschiedlich wahr und reagieren darauf auf individuelle Weise. Das Projekt "Plattformen für das Volk" nutzt experimentelle Studien, um herauszufinden, wo die Nutzer die Grenze zwischen hasserfüllten Beiträgen und Inhalten, die als akzeptabel angesehen werden, ziehen.
Lösungsvorschläge auf Basis der Nutzerpräferenzen
Das Team um Yannis Theocharis, Franziska Pradel und Jan Zilinsky will herausfinden, welche Arten von Beiträgen als schädlich oder unhöflich wahrgenommen werden und was die Nachfrage nach verschiedenen Formen der Inhaltsmoderation auslöst. Um Lösungen vorzuschlagen, die sich an den Präferenzen der Nutzer orientieren, befragen sie Nutzer sozialer Medien auf verschiedenen Plattformen und in verschiedenen Ländern direkt, welche Beiträge (nicht) zulässig sind und welche Konsequenzen sie sich wünschen.
Themen, Aktivitäten und Formate
Die Erkenntnisse aus dem Projekt "Platforms for the People" fließen in die öffentliche und politische Diskussion ein, indem sie die schwierige Balance zwischen schädlichen Inhalten und deren Moderation gegenüber der Meinungsfreiheit als Grundnorm verdeutlichen. Die Teammitglieder veröffentlichen häufig Stellungnahmen, beraten Entscheidungsträger und veranstalten Workshops zum Thema Moderation von schädlichen Online-Inhalten.
Behalten Sie den Überblick in Sachen Innovation.
Melden Sie sich für unseren Newsletter an und folgen Sie uns auf unseren Social Media Kanälen.