TUM Think Tank
Wo gesellschaftliche Herausforderungen von heute auf technologische Spitzenleistung von morgen treffen.
Allein im Jahr 2024 finden in über 70 Ländern nationale Wahlen statt – ein entscheidendes Jahr für Demokratien weltweit. Mit dem Aufkommen der generativen KI besteht ein dringender Bedarf, ihre Auswirkungen auf die Integrität und Fairness dieser Wahlprozesse zu verstehen. So hat beispielsweise eine Studie des Massachusetts Institute of Technology gezeigt, dass von KI gesteuerte Desinformationskampagnen bis zu sechsmal schneller verbreitet werden können als tatsächliche Nachrichten. Eine weitere Studie des AI Democracy Projects – unter Leitung von Alondra Nelson, die 2023 den Friedrich Schiedel-Preis für Sozialwissenschaften und Technologie von der TUM erhielt – zeigt, dass die meisten Antworten von KI-Modellen auf Wählerfragen ungenau, unvollständig oder schädlich waren. Die Auswirkungen auf das Wahlverhalten und die Wahlergebnisse sind tiefgreifend und erfordern gründliche Untersuchungen.
Ziele des Projekts
- Kartierung des Feldes: Analyse der globalen Wahllandschaft des letzten Jahres, der Rolle generativer KI in Wahlkampagnen und bei den Wahlen sowie der bestehenden Rahmenbedingungen zur Risikominderung.
- Lernen aus Wahlen rund um den Globus: Erkenntnisse aus den weltweiten Wahlen 2024 gewinnen, um zu verstehen, wie Generative KI Wahlprozesse negativ oder positiv beeinflussen kann.
- Bekämpfung von Miss-/Desinformation:Entwicklung von Strategien zur Minderung der Risiken durch Mis- und Desinformation im Wahlkontext, mit besonderem Fokus auf die kommende Bundestagswahl 2025.
Über Amélie Hennemann-Heldt
Dr. Amélie Hennemann-Heldt bringt eine Fülle an Fachwissen aus ihrer herausragenden Karriere in der digitalen Politik und Medienforschung mit. Sie trat 2022 ins Bundeskanzleramt ein und ist stellvertretende Leiterin des Referats „Allgemeine Fragen der Digitalpolitik“. Zuvor arbeitete sie als Wissenschaftlerin am Leibniz-Institut für Medienforschung | Hans-Bredow-Institut (HBI) und war mit dem Humboldt-Institut für Internet und Gesellschaft verbunden. Zudem war sie Dozentin für Grund- und Menschenrechte an der Hochschule für Wirtschaft und Recht Berlin sowie an der Universität Jena. Amélie absolvierte Fellowships am Information Society Project der Yale Law School, dem Center for Cyber, Law & Policy der Universität Haifa und dem Weizenbaum-Institut.
In ihrer Forschung konzentrierte sie sich auf Plattformregulierung, Social-Media-Governance, die Auswirkungen neuer Technologien auf die digitale Öffentlichkeit und die Ausübung von Grundrechten im Kontext algorithmischer Entscheidungsfindung und autonomer Systeme. Sie ist Mitbegründerin des HBI Digital Disinformation Hub und Mitherausgeberin eines Bandes über die Konstitutionalisierung sozialer Medien. In ihrer Doktorarbeit untersuchte sie die mittelbare Drittwirkung der Meinungsfreiheit auf Social-Media-Plattformen.
Fellowship of Practice in Zusammenarbeit mit unseren Labs
Als Fellow of Practice wird Amélie mit dem Civic Machines Lab unter der Leitung von Orestis Papkyriakopoulos, dem Content Moderation Lab unter der Leitung von Yannis Theocharis und verschiedenen Mitgliedern der GenAI Task Force zusammenarbeiten, um die Auswirkungen von GenAI auf Wahlen zu erforschen.
Friedrich Schiedel Fellows
Lernen Sie die Friedrich-Schiedel-Stipendiaten kennen, die daran arbeiten, Brücken zwischen Sozialwissenschaften, Technologie und anderen Disziplinen zu schlagen. Ihre interdisziplinären Forschungsprojekte unter dem Motto "Human-Centered Innovation for Technology in Society" beschäftigt sich mit der Frage, wie Technologien verantwortungsvoll, menschenzentriert und demokratisch entwickelt werden können um dem Gemeinwohl dienen.
AUXANE BOCH: PSYCHOLOGY IMPACT ASSESSMENT FOR INTERACTIONAL SYSTEMS: DEFINING THE EVALUATION SCOPE (PSAIS)
Dieses Forschungsprojekt zielt darauf ab, den Mangel an Rahmenwerken für die systematische Bewertung der verschiedenen psychologischen Auswirkungen von KI zu beheben. Durch die Anwendung eines partizipativen Ansatzes und die Berücksichtigung kultureller Werte soll ein multikulturelles Mapping-Rahmenwerk für die Bewertung der psychologischen Auswirkungen von KI-Systemen entwickelt werden. Das Forschungsprojekt wird Workshops und Konsultationen mit Interessenvertretern aus verschiedenen Sektoren und Regionen umfassen, um Bewertungskriterien zu definieren. Außerdem wird das Projekt zur Entwicklung konkreter Handlungsempfehlungen beitragen, indem es einen kulturell informierten Rahmen bereitstellt, der die verantwortungsvolle Entwicklung und Anwendung von KI-Technologien leiten kann. Die Wirkung des Projekts erstreckt sich auf akademische Disziplinen, Partnerinstitutionen, gesellschaftliche Interessengruppen und politische Akteure. Es wird den interdisziplinären Wissensaustausch fördern, Diskussionen über die Standardisierung anregen und zum Abbau potenzieller Ungleichheiten beitragen, die sich aus der Einführung von Technologien ergeben. Das Projekt zielt darauf ab, den Wandel voranzutreiben, indem es aktiv zur Umsetzung der Empfehlungen beiträgt und das Wohlbefinden der Nutzer und das Vertrauen in KI-Systeme sicherstellt.
EFE BOZKIR: ECHOES OF PRIVACY: EXPLORING USER PRIVACY DECISION-MAKING PROCESSES TOWARDS LARGE LANGUAGE MODEL-BASED AGENTS IN IMMERSIVE REALITIES
Die Bedenken und Präferenzen der Nutzer in Bezug auf den Datenschutz wurden im Zusammenhang mit verschiedenen Technologien wie intelligenten Lautsprechern, IoT-Geräten und Augmented-Reality-Brillen umfassend erforscht, um eine bessere Entscheidungsfindung in Bezug auf den Datenschutz und menschenzentrierte Lösungen zu ermöglichen. Mit dem Aufkommen der generativen künstlichen Intelligenz (KI) wurden große Sprachmodelle (LLMs) in unsere täglichen Routinen integriert, wobei die Modelle mit großen Datenmengen, einschließlich sensibler Informationenmarbeiten. Die Möglichkeit, diese Modelle in immersive Umgebungen einzubetten, wirft eine Fülle von Fragen in Bezug auf den Datenschutz und die Benutzerfreundlichkeit auf. In diesem Projekt werden wir durch mehrere Nutzerstudien, darunter auch Crowdsourcing-Studien, Datenschutzbedenken und Präferenzen gegenüber LLM- und sprachbasierten Chat-Agenten für immersive Umgebungen und die Wahrscheinlichkeit der Inferenz von alarmierenden Nutzerattributen untersuchen. Die Ergebnisse werden dazu beitragen, die Auswirkungen solcher Einstellungen auf die Privatsphäre zu verstehen, Verfahren zur informierten Zustimmung zu entwerfen, die Nutzer in immersiven Räumen mit LLMs unterstützen, und datenschutzfreundliche technische Lösungen zu erleichtern.
BARIS C. CANTÜRK: FUTURE FINANCE LAW HUB (“F2L_HUB”)
Der Future Finance Law Hub ("F2L_Hub") ist ein an der TUM angesiedeltes Projekt, das sich zum Ziel gesetzt hat, eine Drehscheibe für politische Entscheidungsträger an der Schnittstelle von IT-Recht und Wirtschaftsrecht zu werden und mittel- bis langfristig Einfluss auf Deutschland und die Europäische Union zu nehmen. Zentraler Bestandteil der Arbeitsweise ist die Zusammenführung prominenter Akteure aus Wissenschaft und Wirtschaft in multidisziplinären Bereichen, einschließlich Recht, Finanzen und IT, um signifikante Ergebnisse zu erzielen.
Wie in der vorstehenden Zusammenfassung dargelegt, verkörpert F2L_Hub eine Aufgabe von beträchtlicher Tragweite, mit der mittel- und langfristige Ziele zur Institutionalisierung einer Tradition in diesem Bereich festgelegt werden. Somit ist dieses Stipendium in der Lage, als Katalysator für die Einrichtung von F2L_Hub zu fungieren, indem es sowohl finanzielle Mittel als auch den Zugang zu einem hervorragenden akademischen Umfeld bereitstellt. Durch dieses geschätzte Stipendium wird ein bemerkenswerter organisatorischer Meilenstein erreicht, der die Beschaffung der erforderlichen Finanzmittel und Partnerschaften erleichtert, die für die Durchführung von Nebenprozessen unerlässlich sind.
DARYNA DEMENTIEVA: HARMFUL SPEECH PROACTIVE MODERATION
Beleidigende Äußerungen sind trotz laufender Bemühungen nach wie vor ein allgegenwärtiges Problem, wie die jüngsten EU-Verordnungen zur Eindämmung digitaler Gewalt unterstreichen. Bestehende Ansätze stützen sich in erster Linie auf binäre Lösungen, wie z. B. die völlige Sperrung oder das Verbot, werden aber der komplexen Natur von Hassreden nicht gerecht. In dieser Arbeit möchten wir für einen umfassenderen Ansatz plädieren, der darauf abzielt, beleidigende Äußerungen in mehreren neuen Kategorien zu bewerten und zu klassifizieren: (i) Hassreden, deren Veröffentlichung verhindert werden kann, indem eine entschärfte Version empfohlen wird; (ii) Hassreden, die Gegenredeinitiativen erfordern, um den Sprecher zu überzeugen; (iii) Hassreden, die tatsächlich blockiert oder verboten werden sollten, und (iv) Fälle, die ein weiteres menschliches Eingreifen erfordern.
MENNATULLAH HENDAWY: SETTING UP THE FUTURE WITH SUSTAINABLE CHOICES: GENAI SUPPORT IN RESOLVING MULTI- STAKEHOLDER CONFLICTS IN SUSTAINABLE CRITICAL METALS & MINERALS DEVELOPMENT
Dieses Projekt skizziert einen innovativen Ansatz zur Lösung von Multi-Stakeholder-Konflikten bei der nachhaltigen Entwicklung von kritischen Metallen und Mineralien, die für die Dekarbonisierung unerlässlich sind. In Anbetracht der Komplexität und der Nachhaltigkeitsherausforderungen innerhalb der Lieferketten dieser Materialien, insbesondere jener, die aus dem globalen Süden / den Schwellenländern stammen, schlägt das Projekt eine digitale Plattform vor, die reaktive maschinelle KI (RM-AI) und generative KI (Gen-AI) mit Human-in-the-Loop-Funktionalitäten nutzt. Diese Plattform soll transparente und integrative Diskussionen zwischen Vertretern der Öffentlichkeit/Gemeinschaft, der Regierung und der Industrie ermöglichen und eine ausgewogene Berücksichtigung ökologischer, wirtschaftlicher und sozialer Nachhaltigkeitsziele gewährleisten. Durch die gemeinsame Entwicklung eines Konzepts für ein interaktives, spielbasiertes Entscheidungsfindungswerkzeug, das von Gen-AI unterstützt wird, zielt das Projekt darauf ab, gemeinsame Interessen zu identifizieren, Nachhaltigkeitskompromisse zu modellieren und Konsenslösungen zu finden, die mit den gesellschaftlichen Zielen der Verringerung von Ungleichheit und der Förderung von Wirtschaftswachstum mit menschenwürdigen Arbeitsbedingungen übereinstimmen. Durch die Integration von RM und Gen-AI soll die Kluft zwischen technischen und nicht-technischen Entscheidungsträgern überbrückt werden, um das Engagement der Interessengruppen und das Vertrauen in KI-gesteuerte Prozesse zu stärken. Dies steht in engem Einklang mit der Mission des Stipendiums, die auf menschenzentrierte Innovation und interdisziplinäre Zusammenarbeit für das Gemeinwohl ausgerichtet ist.
FRANZISKA M. POSZLER: RESEARCH-BASED THEATER: AN INNOVATIVE METHOD FOR COMMUNICATING AND CO-SHAPING AI ETHICS RESEARCH & DEVELOPMENT
Dieses Projekt wird einen kreativen Ansatz für die Durchführung, Aufklärung und Vermittlung von KI-Ethikforschung durch die Brille der Kunst (d. h. forschungsbasiertes Theater) umsetzen. Der Kerngedanke ist die Durchführung von qualitativen Interviews und Nutzerstudien zu den Auswirkungen von KI-Systemen auf die menschliche ethische Entscheidungsfindung. Dabei geht es insbesondere darum, die potenziellen Chancen und Risiken des Einsatzes dieser Systeme als Hilfsmittel für ethische Entscheidungen zu erforschen, ebenso wie ihre breiteren gesellschaftlichen Auswirkungen und empfohlenen Systemanforderungen. Die gewonnenen wissenschaftlichen Erkenntnisse werden in ein Theaterskript und eine (immersive) Aufführung umgesetzt. Diese Aufführung soll die Zivilgesellschaft auf ansprechende Weise über aktuelle Forschungsergebnisse aufklären und gemeinsame Diskussionen (z. B. über notwendige und bevorzugte Systemanforderungen oder -beschränkungen) ermöglichen. Die Erkenntnisse aus diesen Diskussionen sollen wiederum die wissenschaftliche Gemeinschaft informieren und so eine menschenzentrierte Entwicklung und Nutzung von KI-Systemen als moralische Dialogpartner oder Berater erleichtern. Insgesamt soll dieses Projekt als Proof-of-Concept für innovative Lehre, Wissenschaftskommunikation und Co-Design in der KI-Ethikforschung dienen und den Grundstein für ähnliche Projekte in der Zukunft legen.
Weitere Informationen über das Projekt finden Sie hier: https://www.ieai.sot.tum.de/research/moralplai/
MALTE TOETZKE: DEVELOPING THE GOOGLE MAPS FOR THE CLIMATE TRANSITION
Ich stelle mir vor, Google Maps für den Klimawandel zu entwickeln. Wirtschaftsführer und politische Entscheidungsträger brauchen umfassendere und zeitnahe Erkenntnisse, um die industrielle Entwicklung von Klimatechnologien wirksam zu beschleunigen. Dank der jüngsten Fortschritte im Bereich der künstlichen Intelligenz (KI) ist es nun möglich, Modelle zu entwickeln, die solche Erkenntnisse in großem Maßstab und nahezu in Echtzeit generieren. Im Rahmen des Projekts werde ich das globale Netzwerk von Organisationen analysieren, die im Bereich der Klimatechnologie-Innovation zusammenarbeiten. Das Netzwerk basiert auf der Verarbeitung der Social-Media-Posts von Organisationen mittels großer Sprachmodelle (LLMs). Es umfasst wichtige öffentliche und private Akteure und erstreckt sich auf verschiedene Arten von Klimatechnologien (z. B. Solar, Wasserstoff, Elektrofahrzeuge) und Arten von Kooperationen (F&E-Kooperationen, Demonstrationsprojekte, Kapitalbeteiligungen). Ich werde das Stipendium nutzen, um eingehende Analysen durchzuführen, die Managern und politischen Entscheidungsträgern wertvolle Erkenntnisse zur Förderung von Innovationsclustern liefern. Außerdem plane ich, die Informationsbeschaffung und -verarbeitung zu operationalisieren, um Analysen in Echtzeit zu ermöglichen.
CHIARA ULLSTEIN: PARTICIPATORY AUDITING (IN COOPERATION WITH AUDIT.EU)
Das EU-KI-Gesetz sieht vor, dass Anbieter (Management und Entwickler) von KI-Systemen mit hohem Risiko einer Konformitätsbewertung unterzogen werden müssen. Die Konformitätsbewertung umfasst mehrere Maßnahmen, die bestätigen sollen, dass ein System rechtskonform, technisch robust und ethisch einwandfrei ist und als "vertrauenswürdige KI" betrachtet werden kann. Das Projekt "Partizipatives Auditing" soll einen Beitrag zum Projekt Audit.EU leisten, indem es (1) untersucht, wie Unternehmen ihre Erkenntnisse aus etablierten Compliance-Praktiken, z. B. für die DSGVO, nutzen können, und (2) indem es Partizipation als Ansatz vorschlägt, um für die Einhaltung des KI-Gesetzes relevante Informationen von geeigneten Stakeholdern zu erhalten, um die Inklusivität zu erhöhen und Diskriminierungsrisiken zu mindern. Es wird davon ausgegangen, dass die Beteiligung den Prozess der Einhaltung der Vorschriften durch einen umfassenden Test- und Feedbackprozess verbessert. Auf der Grundlage der Erfahrungen mit etablierten Compliance-Maßnahmen wird ein Rahmen für die Durchführung von Audits auf partizipative Weise und in Übereinstimmung mit dem EU AI Act entwickelt und evaluiert. Das primäre Ziel des Frameworks ist es, Entwicklerteams als Leitfaden zu dienen.
NIKLAS WAIS: LAW & AI: NAVIGATING THE INTERSECTION
Die meisten Rechtsgebiete, die prinzipiell für KI relevant sind, lassen derzeit viele übergreifende Fragen unbeantwortet. Der Grund für diese offenen Fragen liegt darin, dass die Rechtswissenschaft ihrer Aufgabe, KI in die bestehende Dogmatik einzubinden, nicht nachkommen kann, weil es ihr an ausreichendem technologischen Verständnis fehlt. Gleichzeitig mangelt es den Entwicklern an Rechtskenntnissen, so dass sie sich bei ihren Designentscheidungen nur an der Leistung orientieren, nicht aber an der Einhaltung z.B. des Datenschutzes oder des Antidiskriminierungsrechts. Obwohl Studierende mit unterschiedlichem beruflichem Hintergrund mehr über die zugrundeliegenden Schnittstellenprobleme erfahren wollen, fehlt es an wirklich interdisziplinärem Lehrmaterial. Mein Projekt wird hier ansetzen und die seltene Fachexpertise, die es derzeit nur an der TUM gibt, in einen frei verfügbaren Online-Kurs überführen. Durch die Förderung der interdisziplinären Zusammenarbeit zwischen Recht und Technik und die möglichst effektive Weitergabe von Spitzenwissen soll das Projekt den verantwortungsvollen Einsatz von KI zum Nutzen der Gesellschaft fördern.
Wie können wir abstrakte Technologien wie die Quantentechnologie erlebbar machen?
Auf den ersten Blick scheinen Kunst und Technologie getrennte Bereiche zu sein. Neue Technologien inspirieren jedoch häufig die Kreativität in der Kunst und erweitern ihren Horizont kontinuierlich. Darüber hinaus bietet die Kunst einzigartige und manchmal überraschende Perspektiven auf technologische Fortschritte, die die tiefe Verbindung zwischen den beiden Bereichen offenbaren.
Beim QuantWorld-Projekt sind wir der festen Überzeugung, dass die Kunst als Übersetzer dienen kann, um die oft schwer fassbaren Konzepte der Quantentechnologien und ihre Auswirkungen auf unser tägliches Leben greifbar zu machen, und dass ein ganzheitlicher Ansatz, der Gedanken der Verantwortung und des Bewusstseins einschließt, weitere Entwicklungen verbessern kann.
Deshalb haben wir beschlossen, künstlerische Interventionen und Künstler prominent in das Projekt einzubeziehen.
Wir freuen uns, mit einer Gruppe bemerkenswerter Künstler zusammenzuarbeiten, deren künstlerische Interventionen der abstrakten Welt der Quantentechnologien eine einzigartige Perspektive verleihen. Wir sind davon überzeugt, dass durch diesen kreativen Ansatz die transformative Kraft dieser neuen Technologien für jedermann verständlich und erlebbar wird.
Gleichzeitig haben wir mit MATTER und dem XR Hub Bavaria tolle Partner an unserer Seite, um innovative Wege an der Schnittstelle von Kunst und Technologie zu beschreiten. Mit MATTER entwickeln wir einen einzigartigen Rahmen für künstlerische Interventionen, während der XR Hub Bavaria es uns ermöglicht, Kunst in immersiven Extended Reality (XR) Formaten zum Leben zu erwecken.
Für die Vorstellung der kreativen Köpfe beim QuantWorld, hier entlang zur Englischen Version.
Data Studies und Ethische Datenarbeit - Zwei Stellen verfügbar
Die Ethical Data Initiative am Lehrstuhl für Philosophie und Geschichte der Naturwissenschaften und Technik (bis September 2024) von Prof. Sabina Leonelli ist ein globales Koordinationszentrum für Forschung im Bereich der Datenethik und der damit verbundenen Bildungs- und Politikaktivitäten. Wir freuen uns auf die Zusammenarbeit mit einem hoch motivierten Postdoktoranden, der unser großes Interesse an der Erforschung von Bildungs-, Sozial- und Governance-Fragen teilt, die sich im Zusammenhang mit der Arbeit mit Daten (sowohl innerhalb als auch außerhalb der wissenschaftlichen Forschung) ergeben, sowie an möglichen zukünftigen Szenarien und Anwendungen, insbesondere im Zusammenhang mit künstlicher Intelligenz.
Wir suchen Stipendiaten mit einem Hintergrund in Politik, Governance oder Datenwissenschaft und einem starken Interesse an Datenstudien und praktischen Anwendungen.
Wir sind ein sehr interdisziplinäres Team und verfügen über weltweit führendes Fachwissen in den Bereichen Philosophie, Geschichte und Sozialkunde von Daten, Datenethik und Governance von Daten und KI. Wir laden den Forscher, der diese Stelle im Rahmen des Lehrstuhls für Philosophie und Geschichte der Wissenschaft und Technik übernimmt, dazu ein, einen wichtigen Beitrag zur Ethical Data Initiative zu leisten.
Über die Ethical Data Initiative am TUM Think Tank
Die Ethical Data Initiativeist ein globales Koordinationszentrum für datenethische Forschung und damit verbundene Bildungs- und Politikaktivitäten. Sie bringt ein Netzwerk relevanter Partner mit dem Ziel zusammen, die verfügbaren Ressourcen zu erweitern, um eine gerechte, ethische und verantwortungsvolle Datenproduktion, -handel, -verarbeitung und -nutzung auf der ganzen Welt zu fördern. Unser besonderes Interesse gilt der Entwicklung von Schulungsressourcen und Governance-Modellen für ressourcenschwache Teile der Gesellschaft, darunter Forschungseinrichtungen sowie kleine und mittlere Unternehmen, zivilgesellschaftliche Organisationen, Sozialdienste, öffentliche Verwaltungen und andere öffentliche Einrichtungen, die weltweit wichtige Datenarbeit leisten, aber in der Regel nicht über interne Ressourcen zur Entwicklung von Fähigkeiten für ein verantwortungsvolles Datenmanagement verfügen.
Was wir bieten:
- Spitzenforschung in einem kollaborativen Umfeld
- Möglichkeiten zur Gestaltung von Politik und Verwaltung in Bezug auf innovative Technologien
- Eine globale Gemeinschaft und Kooperationen mit Partnern wie UNESCO, FAO und OECD
Bewerbung
Wir freuen uns auf Ihre Bewerbung bis zum 1. April 2024!
Da wir die Bewerbungen fortlaufend prüfen, sollten sie so früh wie möglich per E-Mail an tumthinktank@hfp.tum.deeingereicht werden.
Erfahren Sie mehr und bewerben Sie sich hier.
Das Urban Digitainability Lab zielt darauf ab, Digitalisierung und Nachhaltigkeit in städtischen Räumen zu integrieren, um eine zukunftsfähige urbane Daseinsvorsorge zu gestalten. Es adres- siert die Herausforderung, dass trotz der existierenden Forderungen nach einer solchen Integra- tion, ein gemeinsames Verständnis und effektive Konzepte zur Verbindung von Nachhaltigkeit und Digitalisierung nur in Ansätzen vorhanden sind. Das Projekt plant, durch die Schaffung einer Community of Practice, Fortbildungsangebote und einen Kriterienkatalog zur Erfolgsmessung, diesen Mangel zu beheben. Zudem soll der Austausch zwischen Wissenschaft und Praxis ge- stärkt werden, um innovative und nachhaltige Lösungsansätze in den Bereichen “Mobilität”, “Wohnen” und “Gesundheit” zu fördern.
Aktuell suchen wir Expertise in drei Aufgabenbereichen:
- Community-Expert:in
- Transformationstrainer:in
- Wissenschaftliche Mitarbeiter:in
Die Rollenbeschreibungen und weitere Informationen über das Bewerbungsverfahren finden Sie hier:
Bewerben Sie sich bis zum 2. April und werden Sie Teil unserer bunten TUM Think Tank Gemeinschaft.
Die Stiftung Mercator unterstützt die Umsetzung des Projekts am TUM Think Tank in ihrem Bereich „Digitalisierte Gesellschaft“ über drei Jahre.
Das durch das Bayerische Forschungsinstitut für Digitale Transformation (BIDT) geförderte Forschungsprojekt "Einsatz von KI zur Erhöhung der Resilienz gegen Toxizität in der Online-Unterhaltung", von Prof. Dr. Yannis Theocharis (Lehrstuhl für Digital Governance), erforscht die Verbreitung extremistischer, verschwörerischer und irreführender Inhalte in sozialen Medien und untersucht dabei, wie diese Inhalte durch unterhaltsame Inhalte eingebettet werden. Es zielt darauf ab, durch die Kombination von Unterhaltungstheorien, visueller Kommunikation und toxischer Sprache mit KI-Methoden, das Verständnis für die Wirkung dieser Inhalte auf das Nutzerverhalten zu vertiefen. Dieses Projekt leistet einen wichtigen Beitrag zur Analyse und Bekämpfung von Online-Toxizität. Mehr Informationen finden Sie auf der Projektseite oder der Pressemitteilung des BIDT.
Was?
Der TUM Think Tank und byte – Bayerische Agentur für Digitales setzen gemeinsam auf die Zukunft mit einer KI-Roadshow für die Staatsministerien in Bayern! Ziel? Mitarbeiter:innen für generative Künstliche Intelligenz begeistern, Potenziale für die öffentliche Verwaltung aufzeigen und Bewusstsein für mögliche Risiken schärfen.
Wen suchen wir?
Studierende mit Neugierde und ersten Erfahrungen in den Bereichen:
- Generativer KI
- Erstellung didaktischer Lernmaterialien
- Informations- und Wissensaustausch im öffentlichen Sektor
- Technischer und/oder sozialwissenschaftlicher Expertise
Aufgabenfelder:
- Gestaltung der KI-Roadshow: Anwendungsfälle von generativer KI in der Verwaltung, co-kreative Workshop-Formate, Lernmaterialien.
- Durchführung der KI-Roadshow mit Bayerischen Staatsministerien: Präsentation, Informationsveranstaltungen, Mini-Workshops.
- Erarbeitung von Informations- und Lernmaterialien als Open Educational Resources.
- Aufbau einer Workbench für generative KI in der Verwaltung.
Was bieten wir?
- ECTS-Anrechnung z. B. als Teil eines Pflichtpraktikums oder Forschungspraktikums.
- Co-Working im Herzen Münchens.
- Möglichkeit einer Abschlussarbeit mit TUM Think Tank und byte.
- Einblicke in zwei tolle Institutionen sowie eine Zusammenarbeit mit mehreren bayerischen Ministerien
Wann?
Bewirb dich ab jetzt und sei dabei, wenn die Zukunft gestaltet wird!
Wann: 18. Januar 2024
Wo: Innenstadt München, Bayerischer Rundfunk (BR)
Veranstalter: Bayerischer Rundfunk & TUM
Zielgruppe: Forscherinnen und Forscher (Professoren, Postdocs, Promovierende) mit Interesse an KI und/oder Journalismus und KI.
Treten Sie mit uns ein in die Erkundung der Schnittstelle von Technologie und Journalismus. Dieser Workshop konzentriert sich darauf, die Projekte und Methoden in diesem spannenden interdisziplinären Bereich kennenzulernen. Außerdem sollen mögliche Kooperationen in Bezug auf Anwendungsfälle und Methoden entdeckt werden. Wir freuen uns darauf, Forscherinnen und Forscher aus den Bereichen Grundlagen, Anwendungen und Daten zu vernetzen! Wir ermutigen ausdrücklich Nachwuchsforscherinnen und -forscher zur Bewerbung.
Wir möchten von Ihnen hören, wenn Ihre Arbeit einem der folgenden Themenbereiche zuzuordnen ist:
- Sprachmodelle für Textdienste im Journalismus
- Training von Dialekt-Sprachmodellen
- Projekte von Daten zu Text, Daten zu Grafiken
- Automatisierte Audiofragmentierung und Markierung
- Gesichtserkennung in Videoinhalten für die Extraktion von Metadaten
- Bild- oder Mustererkennung für Untersuchungen, z.B. in Satellitenbildern
Die Anmeldefrist endet am 5. Dezember 2023: https://collab.dvb.bayern/x/V5IuDQ
Die Auswahl der Teilnehmer erfolgt innerhalb von zwei Wochen nach Ablauf der Anmeldefrist.
Bei Fragen wenden Sie sich bitte an Emmelie Korell unter emmelie.korell@tum.de.
Wir freuen uns darauf, Sie im Januar zu sehen!
Als eine der ersten Forschungsorganisationen Europas stellt die Fraunhofer-Gesellschaft zusammen mit Microsoft einen internen KI-Chatbot bereit, der ähnlich wie ChatGPT von OpenAI funktioniert. Die generative Text-KI FhGenie bietet Mitarbeitenden die Möglichkeit, Texte mit nicht-öffentlichen Daten sicher zu bearbeiten, verändern oder erzeugen zu lassen. Eingeführt wird der DSGVO-konforme Dienst im Einklang mit den Handlungsempfehlungen der Taskforce »Chatbot« des Fraunhofer-Verbunds IUK-Technologie für die Fraunhofer-Gesellschaft.
"Es freut mich sehr, dass es gelungen ist, in kürzester Zeit mit Microsoft ein speziell an die Anforderungen der Fraunhofer-Gesellschaft angepasstes KI-Chatsystem zu entwickeln", sagt Ingo Weber, Direktor Digitalisierung und IuK-Infrastruktur der Fraunhofer-Gesellschaft und Mitglied der Generative AI Taskforce am TUM Think Tank. "Wir haben festgestellt, dass viele Kolleginnen und Kollegen schon Chat-basierte KI im Rahmen ihrer Arbeit und zu Forschungszwecken nutzen möchten. Für die dienstliche Verwendung sind die bisherigen öffentlichen Angebote allerdings problematisch, unter anderem aus Gründen des Datenschutzes, der Vertraulichkeit und der Informationssicherheit", so Weber weiter.
Lesen Sie den Bericht der Fraunhofer Gesellschaft hier.
Weber wurde kürzlich zudem zum renommierten Dagstuhl-Seminar zum Thema Softwarearchitektur und maschinelles Lernen eingeladen. Mehr dazu lesen Sie hier.
Behalten Sie den Überblick in Sachen Innovation.
Melden Sie sich für unseren Newsletter an und folgen Sie uns auf unseren Social Media Kanälen.