Aktivitäten filtern

oder
Typ

Friedrich Schiedel Fellows

Lernen Sie die Friedrich-Schiedel-Stipendiaten kennen, die daran arbeiten, Brücken zwischen Sozialwissenschaften, Technologie und anderen Disziplinen zu schlagen. Ihre interdisziplinären Forschungsprojekte unter dem Motto "Human-Centered Innovation for Technology in Society" beschäftigt sich mit der Frage, wie Technologien verantwortungsvoll, menschenzentriert und demokratisch entwickelt werden können um dem Gemeinwohl dienen.

AUXANE BOCH: PSYCHOLOGY IMPACT ASSESSMENT FOR INTERACTIONAL SYSTEMS: DEFINING THE EVALUATION SCOPE (PSAIS)

Dieses Forschungsprojekt zielt darauf ab, den Mangel an Rahmenwerken für die systematische Bewertung der verschiedenen psychologischen Auswirkungen von KI zu beheben. Durch die Anwendung eines partizipativen Ansatzes und die Berücksichtigung kultureller Werte soll ein multikulturelles Mapping-Rahmenwerk für die Bewertung der psychologischen Auswirkungen von KI-Systemen entwickelt werden. Das Forschungsprojekt wird Workshops und Konsultationen mit Interessenvertretern aus verschiedenen Sektoren und Regionen umfassen, um Bewertungskriterien zu definieren. Außerdem wird das Projekt zur Entwicklung konkreter Handlungsempfehlungen beitragen, indem es einen kulturell informierten Rahmen bereitstellt, der die verantwortungsvolle Entwicklung und Anwendung von KI-Technologien leiten kann. Die Wirkung des Projekts erstreckt sich auf akademische Disziplinen, Partnerinstitutionen, gesellschaftliche Interessengruppen und politische Akteure. Es wird den interdisziplinären Wissensaustausch fördern, Diskussionen über die Standardisierung anregen und zum Abbau potenzieller Ungleichheiten beitragen, die sich aus der Einführung von Technologien ergeben. Das Projekt zielt darauf ab, den Wandel voranzutreiben, indem es aktiv zur Umsetzung der Empfehlungen beiträgt und das Wohlbefinden der Nutzer und das Vertrauen in KI-Systeme sicherstellt.

EFE BOZKIR: ECHOES OF PRIVACY: EXPLORING USER PRIVACY DECISION-MAKING PROCESSES TOWARDS LARGE LANGUAGE MODEL-BASED AGENTS IN IMMERSIVE REALITIES

Die Bedenken und Präferenzen der Nutzer in Bezug auf den Datenschutz wurden im Zusammenhang mit verschiedenen Technologien wie intelligenten Lautsprechern, IoT-Geräten und Augmented-Reality-Brillen umfassend erforscht, um eine bessere Entscheidungsfindung in Bezug auf den Datenschutz und menschenzentrierte Lösungen zu ermöglichen. Mit dem Aufkommen der generativen künstlichen Intelligenz (KI) wurden große Sprachmodelle (LLMs) in unsere täglichen Routinen integriert, wobei die Modelle mit großen Datenmengen, einschließlich sensibler Informationenmarbeiten. Die Möglichkeit, diese Modelle in immersive Umgebungen einzubetten, wirft eine Fülle von Fragen in Bezug auf den Datenschutz und die Benutzerfreundlichkeit auf. In diesem Projekt werden wir durch mehrere Nutzerstudien, darunter auch Crowdsourcing-Studien, Datenschutzbedenken und Präferenzen gegenüber LLM- und sprachbasierten Chat-Agenten für immersive Umgebungen und die Wahrscheinlichkeit der Inferenz von alarmierenden Nutzerattributen untersuchen. Die Ergebnisse werden dazu beitragen, die Auswirkungen solcher Einstellungen auf die Privatsphäre zu verstehen, Verfahren zur informierten Zustimmung zu entwerfen, die Nutzer in immersiven Räumen mit LLMs unterstützen, und datenschutzfreundliche technische Lösungen zu erleichtern.

 

BARIS C. CANTÜRK: FUTURE FINANCE LAW HUB (“F2L_HUB”)

Der Future Finance Law Hub ("F2L_Hub") ist ein an der TUM angesiedeltes Projekt, das sich zum Ziel gesetzt hat, eine Drehscheibe für politische Entscheidungsträger an der Schnittstelle von IT-Recht und Wirtschaftsrecht zu werden und mittel- bis langfristig Einfluss auf Deutschland und die Europäische Union zu nehmen. Zentraler Bestandteil der Arbeitsweise ist die Zusammenführung prominenter Akteure aus Wissenschaft und Wirtschaft in multidisziplinären Bereichen, einschließlich Recht, Finanzen und IT, um signifikante Ergebnisse zu erzielen.
Wie in der vorstehenden Zusammenfassung dargelegt, verkörpert F2L_Hub eine Aufgabe von beträchtlicher Tragweite, mit der mittel- und langfristige Ziele zur Institutionalisierung einer Tradition in diesem Bereich festgelegt werden. Somit ist dieses Stipendium in der Lage, als Katalysator für die Einrichtung von F2L_Hub zu fungieren, indem es sowohl finanzielle Mittel als auch den Zugang zu einem hervorragenden akademischen Umfeld bereitstellt. Durch dieses geschätzte Stipendium wird ein bemerkenswerter organisatorischer Meilenstein erreicht, der die Beschaffung der erforderlichen Finanzmittel und Partnerschaften erleichtert, die für die Durchführung von Nebenprozessen unerlässlich sind.

 

DARYNA DEMENTIEVA: HARMFUL SPEECH PROACTIVE MODERATION

Beleidigende Äußerungen sind trotz laufender Bemühungen nach wie vor ein allgegenwärtiges Problem, wie die jüngsten EU-Verordnungen zur Eindämmung digitaler Gewalt unterstreichen. Bestehende Ansätze stützen sich in erster Linie auf binäre Lösungen, wie z. B. die völlige Sperrung oder das Verbot, werden aber der komplexen Natur von Hassreden nicht gerecht. In dieser Arbeit möchten wir für einen umfassenderen Ansatz plädieren, der darauf abzielt, beleidigende Äußerungen in mehreren neuen Kategorien zu bewerten und zu klassifizieren: (i) Hassreden, deren Veröffentlichung verhindert werden kann, indem eine entschärfte Version empfohlen wird; (ii) Hassreden, die Gegenredeinitiativen erfordern, um den Sprecher zu überzeugen; (iii) Hassreden, die tatsächlich blockiert oder verboten werden sollten, und (iv) Fälle, die ein weiteres menschliches Eingreifen erfordern.

 

MENNATULLAH HENDAWY: SETTING UP THE FUTURE WITH SUSTAINABLE CHOICES: GENAI SUPPORT IN RESOLVING MULTI- STAKEHOLDER CONFLICTS IN SUSTAINABLE CRITICAL METALS & MINERALS DEVELOPMENT

Dieses Projekt skizziert einen innovativen Ansatz zur Lösung von Multi-Stakeholder-Konflikten bei der nachhaltigen Entwicklung von kritischen Metallen und Mineralien, die für die Dekarbonisierung unerlässlich sind. In Anbetracht der Komplexität und der Nachhaltigkeitsherausforderungen innerhalb der Lieferketten dieser Materialien, insbesondere jener, die aus dem globalen Süden / den Schwellenländern stammen, schlägt das Projekt eine digitale Plattform vor, die reaktive maschinelle KI (RM-AI) und generative KI (Gen-AI) mit Human-in-the-Loop-Funktionalitäten nutzt. Diese Plattform soll transparente und integrative Diskussionen zwischen Vertretern der Öffentlichkeit/Gemeinschaft, der Regierung und der Industrie ermöglichen und eine ausgewogene Berücksichtigung ökologischer, wirtschaftlicher und sozialer Nachhaltigkeitsziele gewährleisten. Durch die gemeinsame Entwicklung eines Konzepts für ein interaktives, spielbasiertes Entscheidungsfindungswerkzeug, das von Gen-AI unterstützt wird, zielt das Projekt darauf ab, gemeinsame Interessen zu identifizieren, Nachhaltigkeitskompromisse zu modellieren und Konsenslösungen zu finden, die mit den gesellschaftlichen Zielen der Verringerung von Ungleichheit und der Förderung von Wirtschaftswachstum mit menschenwürdigen Arbeitsbedingungen übereinstimmen. Durch die Integration von RM und Gen-AI soll die Kluft zwischen technischen und nicht-technischen Entscheidungsträgern überbrückt werden, um das Engagement der Interessengruppen und das Vertrauen in KI-gesteuerte Prozesse zu stärken. Dies steht in engem Einklang mit der Mission des Stipendiums, die auf menschenzentrierte Innovation und interdisziplinäre Zusammenarbeit für das Gemeinwohl ausgerichtet ist.

FRANZISKA M. POSZLER: RESEARCH-BASED THEATER: AN INNOVATIVE METHOD FOR COMMUNICATING AND CO-SHAPING AI ETHICS RESEARCH & DEVELOPMENT

Dieses Projekt wird einen kreativen Ansatz für die Durchführung, Aufklärung und Vermittlung von KI-Ethikforschung durch die Brille der Kunst (d. h. forschungsbasiertes Theater) umsetzen. Der Kerngedanke ist die Durchführung von qualitativen Interviews und Nutzerstudien zu den Auswirkungen von KI-Systemen auf die menschliche ethische Entscheidungsfindung. Dabei geht es insbesondere darum, die potenziellen Chancen und Risiken des Einsatzes dieser Systeme als Hilfsmittel für ethische Entscheidungen zu erforschen, ebenso wie ihre breiteren gesellschaftlichen Auswirkungen und empfohlenen Systemanforderungen. Die gewonnenen wissenschaftlichen Erkenntnisse werden in ein Theaterskript und eine (immersive) Aufführung umgesetzt. Diese Aufführung soll die Zivilgesellschaft auf ansprechende Weise über aktuelle Forschungsergebnisse aufklären und gemeinsame Diskussionen (z. B. über notwendige und bevorzugte Systemanforderungen oder -beschränkungen) ermöglichen. Die Erkenntnisse aus diesen Diskussionen sollen wiederum die wissenschaftliche Gemeinschaft informieren und so eine menschenzentrierte Entwicklung und Nutzung von KI-Systemen als moralische Dialogpartner oder Berater erleichtern. Insgesamt soll dieses Projekt als Proof-of-Concept für innovative Lehre, Wissenschaftskommunikation und Co-Design in der KI-Ethikforschung dienen und den Grundstein für ähnliche Projekte in der Zukunft legen.

Weitere Informationen über das Projekt finden Sie hier: https://www.ieai.sot.tum.de/research/moralplai/

MALTE TOETZKE: DEVELOPING THE GOOGLE MAPS FOR THE CLIMATE TRANSITION

Ich stelle mir vor, Google Maps für den Klimawandel zu entwickeln. Wirtschaftsführer und politische Entscheidungsträger brauchen umfassendere und zeitnahe Erkenntnisse, um die industrielle Entwicklung von Klimatechnologien wirksam zu beschleunigen. Dank der jüngsten Fortschritte im Bereich der künstlichen Intelligenz (KI) ist es nun möglich, Modelle zu entwickeln, die solche Erkenntnisse in großem Maßstab und nahezu in Echtzeit generieren. Im Rahmen des Projekts werde ich das globale Netzwerk von Organisationen analysieren, die im Bereich der Klimatechnologie-Innovation zusammenarbeiten. Das Netzwerk basiert auf der Verarbeitung der Social-Media-Posts von Organisationen mittels großer Sprachmodelle (LLMs). Es umfasst wichtige öffentliche und private Akteure und erstreckt sich auf verschiedene Arten von Klimatechnologien (z. B. Solar, Wasserstoff, Elektrofahrzeuge) und Arten von Kooperationen (F&E-Kooperationen, Demonstrationsprojekte, Kapitalbeteiligungen). Ich werde das Stipendium nutzen, um eingehende Analysen durchzuführen, die Managern und politischen Entscheidungsträgern wertvolle Erkenntnisse zur Förderung von Innovationsclustern liefern. Außerdem plane ich, die Informationsbeschaffung und -verarbeitung zu operationalisieren, um Analysen in Echtzeit zu ermöglichen.

CHIARA ULLSTEIN: PARTICIPATORY AUDITING (IN COOPERATION WITH AUDIT.EU)

Das EU-KI-Gesetz sieht vor, dass Anbieter (Management und Entwickler) von KI-Systemen mit hohem Risiko einer Konformitätsbewertung unterzogen werden müssen. Die Konformitätsbewertung umfasst mehrere Maßnahmen, die bestätigen sollen, dass ein System rechtskonform, technisch robust und ethisch einwandfrei ist und als "vertrauenswürdige KI" betrachtet werden kann. Das Projekt "Partizipatives Auditing" soll einen Beitrag zum Projekt Audit.EU leisten, indem es (1) untersucht, wie Unternehmen ihre Erkenntnisse aus etablierten Compliance-Praktiken, z. B. für die DSGVO, nutzen können, und (2) indem es Partizipation als Ansatz vorschlägt, um für die Einhaltung des KI-Gesetzes relevante Informationen von geeigneten Stakeholdern zu erhalten, um die Inklusivität zu erhöhen und Diskriminierungsrisiken zu mindern. Es wird davon ausgegangen, dass die Beteiligung den Prozess der Einhaltung der Vorschriften durch einen umfassenden Test- und Feedbackprozess verbessert. Auf der Grundlage der Erfahrungen mit etablierten Compliance-Maßnahmen wird ein Rahmen für die Durchführung von Audits auf partizipative Weise und in Übereinstimmung mit dem EU AI Act entwickelt und evaluiert. Das primäre Ziel des Frameworks ist es, Entwicklerteams als Leitfaden zu dienen.

 

NIKLAS WAIS: LAW & AI: NAVIGATING THE INTERSECTION

Die meisten Rechtsgebiete, die prinzipiell für KI relevant sind, lassen derzeit viele übergreifende Fragen unbeantwortet. Der Grund für diese offenen Fragen liegt darin, dass die Rechtswissenschaft ihrer Aufgabe, KI in die bestehende Dogmatik einzubinden, nicht nachkommen kann, weil es ihr an ausreichendem technologischen Verständnis fehlt. Gleichzeitig mangelt es den Entwicklern an Rechtskenntnissen, so dass sie sich bei ihren Designentscheidungen nur an der Leistung orientieren, nicht aber an der Einhaltung z.B. des Datenschutzes oder des Antidiskriminierungsrechts. Obwohl Studierende mit unterschiedlichem beruflichem Hintergrund mehr über die zugrundeliegenden Schnittstellenprobleme erfahren wollen, fehlt es an wirklich interdisziplinärem Lehrmaterial. Mein Projekt wird hier ansetzen und die seltene Fachexpertise, die es derzeit nur an der TUM gibt, in einen frei verfügbaren Online-Kurs überführen. Durch die Förderung der interdisziplinären Zusammenarbeit zwischen Recht und Technik und die möglichst effektive Weitergabe von Spitzenwissen soll das Projekt den verantwortungsvollen Einsatz von KI zum Nutzen der Gesellschaft fördern.

Als Partner des "Festival der Zukunft" werden wir uns mit dem Thema: Zukunftsinsel im Deutschen Museum in München. Treffen Sie uns dort:

GovTech in Action: Herausforderungen der Digitalisierung in Deutschland meistern

Der öffentliche Sektor in Deutschland steht bei seiner digitalen Transformation vor großen Herausforderungen. Diese Podiumsdiskussion wird untersuchen, wie GovTech Lösungen für diese anhaltenden Probleme bieten kann. Wir werden uns mit dem Potenzial von KI zur Verbesserung öffentlicher Dienstleistungen befassen und die Bedeutung der Zusammenarbeit von Behörden mit Start-ups diskutieren. Die Podiumsdiskussion wird sich auch mit den größten Hürden befassen, darunter regulatorische Einschränkungen, Bedenken hinsichtlich des Datenschutzes und der erforderliche Kulturwandel innerhalb von Regierungsorganisationen. Seien Sie dabei, wenn wir herausfinden, wie innovative Technologien die digitale Zukunft des öffentlichen Sektors in Deutschland vorantreiben können. Moderiert von unserem Geschäftsführer, Markus Siewert.

Panelist:innen:

Donnerstag, 27. Juni 2024: 15 - 16 Uhr
Dome Stage - Festival der Zukunft - Deutsches Museum
Mehr Informationen hier.

 

Entdecken Sie unsere Labs & Projekte am Familientag - Freier Eintritt am Samstag, 29. Juni

Kommen Sie zu unserem Stand in den ersten Stock des Hauptgebäudes! Bringen Sie Ihre Familie und Freunde mit und werfen Sie mit uns einen Blick in die Zukunft!

Das durch das Bayerische Forschungsinstitut für Digitale Transformation (BIDT) geförderte Forschungsprojekt "Einsatz von KI zur Erhöhung der Resilienz gegen Toxizität in der Online-Unterhaltung", von Prof. Dr. Yannis Theocharis (Lehrstuhl für Digital Governance), erforscht die Verbreitung extremistischer, verschwörerischer und irreführender Inhalte in sozialen Medien und untersucht dabei, wie diese Inhalte durch unterhaltsame Inhalte eingebettet werden. Es zielt darauf ab, durch die Kombination von Unterhaltungstheorien, visueller Kommunikation und toxischer Sprache mit KI-Methoden, das Verständnis für die Wirkung dieser Inhalte auf das Nutzerverhalten zu vertiefen. Dieses Projekt leistet einen wichtigen Beitrag zur Analyse und Bekämpfung von Online-Toxizität. Mehr Informationen finden Sie auf der Projektseite oder der Pressemitteilung des BIDT.

Am Freitag, den 23. Juni 2023, nahmen Mitglieder der Generative AI Taskforce an einem Arbeitstreffen teil, das von der Electronic Transactions Development Agency (ETDA) in Thailand organisiert wurde. Ein Schwerpunkt des Treffens war es, mehr über den europäischen Ansatz zur KI-Governance zu erfahren und insbesondere das EU-KI-Gesetz (AIA) unter die Lupe zu nehmen und zu untersuchen, wie Europa mit dem Aufstieg der generativen KI umgeht. Christian Djeffal, Assistenzprofessor für Recht, Wissenschaft und Technologie und Mitglied unserer Gen AI Taskforce, gab einen Beitrag zu diesem Thema. In diesem Blogartikel teilt er seine wichtigsten Erkenntnisse mit.

Der AI-Act der Europäischen Union könnte als wirksamer Balanceakt zwischen Risikoregulierung und Innovationsförderung dienen. Das Rezept für ein ideales Gleichgewicht beinhaltet meiner Meinung nach:

Daher hat das KI-Gesetz mit seiner Mischung aus einem breit angelegten Rahmen und sektorspezifischen Vorschriften und Durchsetzung durchaus Potenzial. Es sind jedoch die Feinheiten, die verfeinert werden müssen, damit es sich wirklich durchsetzen kann. Ein Hauptaugenmerk sollte auf der Verfeinerung der Definition des Hochrisikosystems liegen. So sind beispielsweise die derzeitigen Umrisse in Annex III so weit gefasst, dass sie Anwendungen einschließen könnten, die die Hochrisikokriterien kaum erfüllen.

Vor diesem Hintergrund bergen KI-Sandkästen ein großes Potenzial und dienen als Nährboden für Innovationen und als praktisches Instrument für regulatorisches Lernen. Bei den aktuellen Vorschlägen rund um das KI-Gesetz geht es vor allem um die Etablierung allgemeiner Strukturen sowie um die Koordination und Kooperation zwischen den Mitgliedsstaaten. Der Erfolg dieser Sandkästen hängt in hohem Maße von ihrer effektiven Einführung durch diese Staaten ab. Interessanterweise könnten andere europäische Rechtsentwicklungen wie der Data Governance Act - der den geschützten Austausch von Daten ermöglicht - die Sandboxen auf ein völlig neues Niveau heben, da sie auch den Austausch von Daten unter dem Schutz des Datenschutzes oder des Rechts des geistigen Eigentums ermöglichen würden.

Wenn ich mir in Bezug auf das KI-Gesetz etwas wünschen dürfte, würde ich mir mehr partizipative Elemente wünschen, insbesondere beim Risikomanagement. Die Einbindung von Nutzern und Bürgern in die Identifizierung und Abschwächung von Risiken ist von entscheidender Bedeutung. Daher wäre es vorteilhaft, solche Praktiken "gegebenenfalls" einzubeziehen. Entsprechende Bestimmungen gibt es bereits in der Allgemeinen Datenschutzverordnung und im Gesetz über digitale Dienste. Es ist ein Trugschluss zu glauben, dass nur Unternehmen, Compliance-Abteilungen und Stellen, die für algorithmische Bewertungen zuständig sind, die gesellschaftlichen Auswirkungen neuer Systeme vollständig verstehen können.

 

Stephanie Hare präsentierte uns am 27. Februar 2023 die Hauptthemen ihres Buches "Technology is not neutral: Ein kurzer Leitfaden zur Technologieethik". In ihrem Buch geht Stephanie Hare auf einige Schlüsselfragen rund um moderne digitale Technologien ein: Ein Schwerpunkt ist die Frage, wie Entwickler von Technologien, aber auch die Gesellschaft als Ganzes versuchen können, den Nutzen von Technologien und Anwendungen zu maximieren und gleichzeitig deren Schaden zu minimieren. Lesen Sie hier die wichtigsten Erkenntnisse aus unserer Diskussion. 

Einige wichtige Erkenntnisse aus der Diskussion

Unter Verwendung eines philosophischen Rahmens nutzt Hare verschiedene Bereiche und Ansätze der Ethik und Philosophie, um auf diese Fragen aufmerksam zu machen. So zeigt die Metaphysik beispielsweise auf, welches Problem gelöst werden muss, während die Erkenntnistheorie uns hilft, nach den relevanten Wissensquellen zu fragen, um diese Fragen und Probleme anzugehen. Die politische Philosophie hingegen beleuchtet die Frage, wer die Macht hat, diese Lösungen zu verfolgen, während die Ästhetik aufzeigt, wie Technologien gestaltet und dargestellt werden sollten. Die Ethik schließlich gibt uns Antworten auf die Frage, welche Werte der Technologie innewohnen.

In der Diskussion mit Alexander v. Janowski und dem Publikum wurden wichtige Beobachtungen zum Design von Technologien angesprochen, die in unserer Alltagswelt eingesetzt werden können. So wurde beispielsweise die Größe vieler Smartphones an größere, typisch männliche Hände angepasst, ähnlich wie Airbags in Fahrzeugen nur an Schaufensterpuppen getestet wurden, die dem durchschnittlichen männlichen Körper ähneln. Diese Beobachtungen untermauern die ethischen Überlegungen zu der Frage, wer und welche Instanzen die Kontrolle über die Entwicklung und Anwendung von Technologien haben und haben sollten.

Insgesamt hofft Stephanie Hare, dass ihr Buch "Menschen und menschliche Kultur hackt", indem es dazu beiträgt, die Menschen zu inspirieren, Vorurteile und gewollte oder ungewollte Ungleichheiten zu erkennen, die Technologien von ihren Entwicklern übernehmen, wenn sie nicht hinterfragt werden.

Um mehr über Stephanie Hare, das Buch und ihre anderen Werke zu erfahren, besuchen Sie ihre Website unter https://www.harebrain.co  

Behalten Sie den Überblick in Sachen Innovation.

Melden Sie sich für unseren Newsletter an und folgen Sie uns auf unseren Social Media Kanälen.