TUM Think Tank
Wo gesellschaftliche Herausforderungen von heute auf technologische Spitzenleistung von morgen treffen.
Wann: 18. Januar 2024
Wo: Innenstadt München, Bayerischer Rundfunk (BR)
Veranstalter: Bayerischer Rundfunk & TUM
Zielgruppe: Forscherinnen und Forscher (Professoren, Postdocs, Promovierende) mit Interesse an KI und/oder Journalismus und KI.
Treten Sie mit uns ein in die Erkundung der Schnittstelle von Technologie und Journalismus. Dieser Workshop konzentriert sich darauf, die Projekte und Methoden in diesem spannenden interdisziplinären Bereich kennenzulernen. Außerdem sollen mögliche Kooperationen in Bezug auf Anwendungsfälle und Methoden entdeckt werden. Wir freuen uns darauf, Forscherinnen und Forscher aus den Bereichen Grundlagen, Anwendungen und Daten zu vernetzen! Wir ermutigen ausdrücklich Nachwuchsforscherinnen und -forscher zur Bewerbung.
Wir möchten von Ihnen hören, wenn Ihre Arbeit einem der folgenden Themenbereiche zuzuordnen ist:
- Sprachmodelle für Textdienste im Journalismus
- Training von Dialekt-Sprachmodellen
- Projekte von Daten zu Text, Daten zu Grafiken
- Automatisierte Audiofragmentierung und Markierung
- Gesichtserkennung in Videoinhalten für die Extraktion von Metadaten
- Bild- oder Mustererkennung für Untersuchungen, z.B. in Satellitenbildern
Die Anmeldefrist endet am 5. Dezember 2023: https://collab.dvb.bayern/x/V5IuDQ
Die Auswahl der Teilnehmer erfolgt innerhalb von zwei Wochen nach Ablauf der Anmeldefrist.
Bei Fragen wenden Sie sich bitte an Emmelie Korell unter emmelie.korell@tum.de.
Wir freuen uns darauf, Sie im Januar zu sehen!
Das QuantWorld-Projekt hat die zielgruppengerechte Wissensvermittlung von Quantentechnologien der zweiten Generation und deren Erlebbarmachung zum Ziel. Zur Wissensvermittlung bauen wir eine modulbasierte QuantWorld-Lernplattform mit Zertifizierungsmöglichkeit auf. Zentrale Zielgruppe unserer digitalen QuantWorld-Lernplattform sind Bürger:innen, die wir zum bedarfsorientierten Einstieg in die Thematik über ihren Arbeitsplatz abholen, wobei wir uns in diesem Projekt auf die Themenwelten „Medizin“, „Banken“ und „Mobilität” konzentrieren.
Die ausführliche Stellenbeschreibungen mit allen relevanten Informationen für Ihre Bewerbung finden sie hier:
- Ph.D. Researcher and Project Associate in Quantum Technologies, Public Outreach and Responsible Technology (75%). Zur Ausschreibung.
- Science and Community Manager (m/w/d) (50%). Zur Ausschreibung.
- Projektmitarbeit (m/w/d) (75%). Zur Ausschreibung.
Die rasante Entwicklung der Quantentechnologien (QT) versprechen einen wirtschaftlichen Innovationsschub, neue Durchbrüche in der Wissenschaft sowie ungeahnte Wege bei der Lösung globaler gesellschaftlicher Probleme. Die TUM und die Region München sind seit Jahren ein Zentrum für Innovation und Forschung auf dem Gebiet der Quantentechnologien. Ergänzt wird diese Forschung nun durch ein Leuchtturmprojekt des neu gegründeten Quantum Social Lab am TUM Think Tank: Gefördert durch das BMBF mit insgesamt 1.9 Mio. Euro nimmt das Projekt "QuantWorld" die Zukunft der verantwortungsvollen Technologieentwicklung in den Blick und macht Quantentechnologien dort für Menschen antizipierbar, wo sie den Arbeitsalltag verändern werden. Das Projekt integriert soziale Aspekte in die Welt der Quantentechnologien und geht auch methodisch neue Wege, indem es Kunstschaffende in die Wissensvermittlung einbindet und Quantentechnologien erlebbar macht.
Quantentechnologien: Der Weg in die Zukunft
Quantentechnologien haben das Potenzial, die Welt, wie wir sie kennen, neu zu gestalten. Anwendungen reichen von beschleunigter und individualisierter Arzneimittelentwicklung bis zu Beiträgen zum Klimaschutz durch innovative Batterietechnologien oder Optimierung in der Landwirtschaft aufgrund präziserer Vorhersagen von Naturereignissen. Obwohl bereits Anwendungen auf dem Markt sind, wie beispielsweise Quantensensoren in medizinischen Bildgebungsverfahren, stehen andere, wie leistungsfähige Quantencomputer und Entwicklungen im Bereich der Quantenkommunikation, noch am Anfang.
Damit Quantentechnologien ihr volles Innovationspotenzial entfalten können und deren Risiken - etwa im Bereich der Sicherheit oder der Zugangsgerechtigkeit - rechtzeitig adressiert werden können, braucht es neben technischer Forschung auch eine integrale Beschäftigung mit ihren gesellschaftlichen Dimensionen und möglichen Auswirkungen für die Menschen in ihrem (beruflichen) Alltag.
Hier setzt das “QuantWorld” Projekt an. Vom Bundesministerium für Bildung und Forschung (BMBF)gefördert, ermöglicht es Bürgerinnen und Bürgern, unabhängig von ihrem Hintergrund, bereits heute einen Einblick in die Welt der Quantentechnologien und bereitet sie so auf die Zukunft vor. Das Projekt ist Teil des Quantum Social Lab am TUM Think Tank und ist in Zusammenarbeit mit Fraunhofer AISEC und dem TUM Klinikum Rechts der Isar entstanden.
Urs Gasser, Principal Investigator des Projekts und Dekan der TUM School of Social Sciences and Technology, bringt diese Herausforderung auf den Punkt: "Quantentechnologien können uns in vielerlei Hinsicht helfen, eine bessere Zukunft zu gestalten. Doch wir müssen sicherstellen, dass gesellschaftliche, politische und ethische Implikationen von Anfang an berücksichtigt werden und technische Innovationen sich am Wohl der Menschen orientieren. Wir müssen den Fehler vermeiden, nicht wie bei KI erst über diese Aspekte nachzudenken, wenn die Anwendungen aus den Labs kommen. QuantWorld ist ein solcher Versuch, proaktiv und partizipativ tätig zu werden."
Eine Einzigartige Bildungsplattform
Das QuantWorld-Projekt bietet eine einzigartige Bildungsplattform, um Menschen unabhängig von ihrem Vorwissen frühzeitig in die Welt der Quantentechnologien einzuführen. Es kombiniert innovative Lehrmethoden, darunter künstlerische Interventionen, um Quantentechnologien erlebbar zu machen und so die Grundlage für einen breiten Dialog zu den gesellschaftlichen Herausforderungen, die mit der Entwicklung und Etablierung von Quantentechnologien der zweiten Generation einhergehen, zu schaffen.
Fabienne Marco, die in Informatik und Politikwissenschaften promoviert und das Quantum Social Lab leitet, gibt einen Ausblick in die Zukunft: "Quantentechnologien sind abstrakt und bauen auf komplexen mathematischen und physikalischen Prinzipien auf. Diese Abstraktion abzubilden erfordert neue Methoden. Künstlerische Interventionen ermöglichen es uns, auf neue und disruptive Art und Weise einen Zugang zu diesen Technologien zu schaffen und so einen Transfer von der akademischen Welt in Gesellschaft, Politik und Wirtschaft anzustoßen. Dieses Konzept wird in den kommenden Jahren weiterentwickelt, um ein interdisziplinäres Netzwerk aufzubauen, das sich mit der innovativen Kommunikation von Spitzentechnologien und deren Anwendungen sowie den damit einhergehenden gesellschaftlichen Herausforderungen beschäftigt."
Nach Abschluss des Projekts werden alle geeigneten Module in einem QuantumBasics-Kurs zusammengefasst, der als einen Überblick über die grundsätzliche Funktionsweise von Quantentechnologien der zweiten Generation und mögliche Zukunftsszenarien in den Bereichen Medizin, Banken und Mobilität bieten soll.l. Zudem werden die künstlerischen Interventionen digital zugänglich gemacht. Langfristig wird die Lernerfahrung der QuantWorld-Plattform in virtuelle Kursformate überführt, um einen "immersiven Zwilling" von QuantWorld zu schaffen.
Das Projekt steht im Einklang mit der Vision der TUM, die sich dem humanzentrierten Ingenieurswesen verpflichtet hat. Thomas Hoffmann, Präsident der TUM, betont die Bedeutung dieses Ansatzes: "Dieser gesellschaftliche Rückbezug auf komplexe Technologien ist erfolgskritisch für unseren Innovationsstandort München. Das QuantWorld Projekt markiert einen entscheidenden Schritt in Richtung einer Zukunft, in der Innovation und Technologieentwicklung verantwortungsbewusst, gesellschaftlich akzeptiert und nachhaltig sind.“
Mehr Informationen über "QuantWorld" finden Sie hier.
Über das Quantum Social Lab und den TUM Think Tank
Das Quantum Social Lab konzentriert sich auf die Erforschung und Gestaltung der gesellschaftlichen Chancen und Risiken rund um Quantentechnologien und befasst sich unter anderem mit Fragen der verantwortungsvollen Innovation sowie der Regulierung. Es bietet zudem verschiedene Formate der Wissensvermittlung zu den theoretischen und technologischen Grundlagen der Quantentechnologien an und ist Teil des TUM Think Tanks.
Der TUM Think Tank fördert gesellschaftlichen und politischen Wandel durch die Verbindung von Theorie und Praxis. Er schafft interdisziplinäre Lern- und Experimentierräume, in denen Akteure aus Wissenschaft, Gesellschaft und Politik gemeinsam an konkreten Fragen und Problemen zu verantwortungsvollen Technologien arbeiten.
Ein zweitägiger Workshop, bei dem Expert:innen auf dem Gebiet zusammenkamen
Die Inhaltsmoderation und die Meinungsfreiheit im digitalen Raum - und wie man sie ausbalanciert - sind Schlüsselthemen für Forschende, Philosoph:innen, öffentliche Amtsträger, NGOs und natürlich für soziale Medienplattformen und Nutzer:innen. Am TUM Think Tank hatten wir das Vergnügen, eine Reihe internationaler Expert:innen auf diesem Gebiet vor Ort begrüßen zu dürfen. Die Gruppe kam für zwei volle Tage zusammen, um sich intensiv mit diesem drängenden Thema auseinanderzusetzen, Ideen auszutauschen und empirische Forschungsergebnisse aus den Perspektiven der Regierungsführung, der Industrie und des politischen Verhaltens vorzustellen.
Von ideologischen Vorurteilen in der Inhaltsmoderation und der Politik der Plattformregulierung bis hin zu den Präferenzen der Bürger:innen, wie schädliche Online-Sprache eingedämmt und reguliert werden kann, und der Wirksamkeit der Kennzeichnung von Inhalten als KI-generiert, deckte der Workshop eine breite Palette von Themen ab und betonte die Notwendigkeit transnationaler Gespräche über Inhaltsmoderation.
Panel Diskussion
In einer anregenden Diskussionsrunde mit Benjamin Brake (Bundesministerium für Digitale Angelegenheiten und Verkehr), Friedrich Enders (TikTok Deutschland), Andreas Frank (Bayerisches Justizministerium) und Ruth Appel (Stanford University) haben wir die Komplexitäten der Definition schädlicher Sprache und deren Bekämpfung erörtert. Wir sprachen auch darüber, wie Plattformen überprüft werden und wie sie die Transparenz mit dem Schutz der Privatsphäre und der freien Meinungsäußerung der Nutzer in Einklang bringen, wenn es um Entscheidungen zur Inhaltsmoderation geht.
Die Diskussion konzentrierte sich auf die Aufteilung der Verantwortung für die Inhaltsmoderation und die Transparenz der Durchsetzung von Seiten der wichtigsten Beteiligten. Es wurde festgestellt, dass die deutsche Regierung für kleinere Plattformen verantwortlich ist, die nicht vom Digital Services Act (DSA) abgedeckt werden, während die Europäische Kommission für größere Plattformen wie X oder TikTok zuständig ist.
- Während die genauen Methoden, mit denen Technologieunternehmen auf Grundlage der im DSA festgelegten Definitionen und Richtlinien mit schädlicher Sprache umgehen sollten, von einiger Unklarheit geprägt sind, war ein gemeinsames Thema in der Diskussion die Notwendigkeit von Transparenz bei Entscheidungen zur Inhaltsmoderation und die Berücksichtigung des Kontexts. Basierend auf dem Gespräch kann die Unklarheit bei der Definition schädlicher Sprache als eine flexible Möglichkeit angesehen werden, wie Technologieunternehmen und Regierungen damit umgehen können. Forscher wiesen jedoch darauf hin, dass sie auch problematisch sein kann, insbesondere wenn es um die genaue Erkennung durch automatisierte Methoden geht.
- Zusätzlich erläuterte Friedrich Enders den Prozess der Inhaltsmoderation bei TikTok. Die Plattform verwendet eine Kombination aus KI und menschlicher Überprüfung, um schädliche Inhalte schnell zu entfernen. Dabei ist man sich bewusst, dass einige schädliche Inhalte, wie beispielsweise grafische Inhalte, möglicherweise immer noch im öffentlichen Interesse liegen und aus dokumentarischen, pädagogischen und Gegenrede-Zwecken auf der Plattform verbleiben können. Diese Inhalte sind jedoch nicht für die Empfehlung an TikToks "For You"-Feed der Nutzer vorgesehen
- Die Diskussionsrunde betonte auch die Herausforderung, Meinungsfreiheit, Datenschutz und die Sicherheit der Nutzer in Einklang zu bringen. TikTok betonte ihr Engagement für beide Prinzipien, während die Regierung nachdrücklich empfahl, dass die Bedeutung der Wahrung der Meinungsfreiheit so groß ist, dass man sich immer für die Meinungsfreiheit entscheiden sollte, wenn man unsicher ist, wie Grenzfälle moderiert werden sollen.
Der Workshop wurde gemeinsam organisiert vom Lehrstuhl für Digital Governance, der Hochschule für Politik München, der Universität Oxford, der Technischen Universität München und dem Reboot Social Media Lab am TUM Think Tank.
Beim TUM Science Hackathon 2023 stellte sich ein Team von Informatikstudierenden der Herausforderung, eine Social-Media-Plattform zu entwickeln, die Nutzern mehr Transparenz und Kontrolle über die in ihrem Feed angezeigten Inhalte bietet. Sie diskutierten, welche Informationen Nutzer benötigen, um besser zu verstehen, wie Inhalte in sozialen Medien personalisiert werden, und entwarfen Möglichkeiten, wie Nutzer die ihnen angezeigten Inhalte verändern können. Auf der Grundlage dieser Ideen entwarfen sie ihren Prototyp "openLYKE" - eine Social-Media-Plattform, die den Nutzern zusätzliche Funktionen bietet, um den zugrunde liegenden Empfehlungsalgorithmus zu optimieren.
Vom 19. bis 21. Mai veranstaltete die TUM: Junge Akademie den TUM Science Hackathon 2023 zum Thema vertrauenswürdige Systeme. In neun Challenges, die von Partnern aus der TUM und externen Organisationen eingereicht wurden, haben sich Studierende verschiedener Fachrichtungen zusammengetan, um Technologien zu entwickeln, die sicher, zuverlässig und transparent sind und das Vertrauen der Nutzer verdienen. Die Aufgabenstellungen reichten von Raumfahrzeugen und Absturzerkennung bis hin zu Materialwissenschaften und KI-Ethik. Eine der Herausforderungen wurde vom REMODE-Projekt der Professur für Recht, Wissenschaft und Technologie im Rahmen des Reboot Social Media Lab des TUM Think Tanks eingereicht. Unter dem Titel "Trustworthy Recommender Systems" sollten die Studierenden den Prototyp einer Social-Media-Plattform entwickeln, die den Nutzern erweiterte Möglichkeiten bietet, ihre Social-Media-Erfahrungen zu kontrollieren, indem sie die ihnen angezeigten Inhalte verändern. Aufbauend auf den neuen Anforderungen an Online-Plattformen, die in der EU-Verordnung über digitale Dienste (2022) festgelegt sind, zielte die Aufgabe auf Empfehlungssysteme ab, die es den Nutzern ermöglichen, die wichtigsten Parameter, die zur Personalisierung von Online-Inhalten verwendet werden, besser zu verstehen und zu manipulieren.
Insbesondere sollten undurchsichtige Algorithmen und irreführende Designmuster (dark patterns) vermieden werden. Auf diese Weise sollte der Wettbewerb das Vertrauen in die Gestaltung fördern und verantwortungsvollere Empfehlungssysteme in sozialen Medien ermöglichen.
Eine wichtige Erkenntnis aus dem Science Hack war, wie wichtig es ist, bei der Entwicklung innovativer Lösungen und Funktionen für Social-Media-Dienste die technische Machbarkeit im Auge zu behalten. Während sie an ihrem Prototyp arbeiteten, überlegten die Studierenden ständig, wie ihre Ideen in ihren Empfehlungsalgorithmus implementiert werden könnten: Welche Art von Daten würden für jeden Beitrag benötigt werden? Wie könnten die Präferenzen der Nutzer in die Sprache des Algorithmus übersetzt werden? Durch die Nähe zur Technologie gelang es den Studierenden, nicht nur das Front-End (Benutzeroberfläche) ihres Prototyps zu entwerfen, sondern auch das zugrunde liegende Back-End (Software) für die Verarbeitung von Daten und die Empfehlung von Inhalten.
Die Herausforderung "Trustworthy Recommender Systems" wurde vom REMODE-Projektteam bestehend aus Prof. Christian Djeffal (Principal Investigator), Daan Herpers (wissenschaftlicher Mitarbeiter) und Lisa Mette (studentische Hilfskraft) gestellt, die auch das studentische Team während des Hackathons betreute.
Vielen Dank an das openLYKE-Team (Adrian Averwald, Finn Dröge, Thomas Florian, Tim Knothe) für die Teilnahme und die Junge Akademie für die Organisation des TUM Science Hack 2023.
Wir hatten das Privileg, mit unserem Projekt "Mobilität.Leben" am Citizens.Lab auf der IAA teilzunehmen. Im vergangenen Jahr hat das Team die Mobilitätsdaten von über 3000 Teilnehmenden untersucht, um die Auswirkungen des 9-Euro-Tickets und seines Nachfolgers, des Deutschlandtickets, zu messen. Hier teilen wir unsere wichtigsten Erkenntnisse nach einem Jahr der Studie:
Umsteigen mit Tickets
Das 9-Euro-Ticket und das Deutschlandticket haben vor allem in den Sommermonaten eine wichtige Rolle dabei gespielt, die Menschen dazu zu bewegen, ihr Auto stehen zu lassen und zumindest für einen Teil ihrer Fahrten auf nachhaltigere öffentliche Verkehrsmittel umzusteigen.
Herausforderungen des Übergangs
In der Zeit zwischen dem 9-Euro-Ticket und dem Deutschlandticket kehrten die Teilnehmenden ohne attraktive ÖPNV-Tickets jedoch fast zu ihrem Reiseverhalten vor dem 9-Euro-Ticket zurück. Obwohl jeder kleine Schritt in Richtung Nachhaltigkeit wertvoll ist, erwarten wir nicht, dass das Deutschlandticket allein die CO2-Emissionen des Verkehrssektors wesentlich reduzieren kann.
Ein Blick in die Zukunft
Eine realistische Kosten-Nutzen-Analyse der Tarifinnovationen im ÖPNV kann Ende des Jahres vorgenommen werden. Unbestreitbar ist, dass beide Tickets bereits zu einer Vereinfachung des Tarifsystems geführt haben, was die Nutzung des ÖPNV fördert und zu Einsparungen bei den Fahrtkosten führt. Es ist klar, dass billigere öffentliche Verkehrsmittel nur ein Teil des größeren Puzzles der "Mobilitätswende" sind, und so geht die Diskussion darüber weiter, welche zusätzlichen Möglichkeiten wir brauchen, um nachhaltigere Verkehrsmittel zu fördern.
Anstoß zum Nachdenken
Die Studie wurde von den Teilnehmenden gut angenommen, die von Anfang an bereitwillig ihre Mobilitätsdaten zur Verfügung stellten und uns bis zur Einführung des Deutschlandtickets treu blieben. Ihr Feedback war von unschätzbarem Wert, und wir freuen uns, dass unsere Tracking-App zum Nachdenken über die persönlichen Mobilitätsgewohnheiten angeregt hat. Die Studie kann auch als Zeichen dafür gewertet werden, dass die Bürger:innen gerne in Forschungsprojekte einbezogen werden und sich an der gemeinsamen Suche nach möglichen Lösungen für die großen gesellschaftlichen Herausforderungen unserer Zeit beteiligen wollen.
Unsere Studie ist weltweit eine der größten ihrer Art. Sie hat nicht nur unser Verständnis von Mobilität vorangetrieben, sondern auch die Aufmerksamkeit der weltweiten Verkehrsforschungsgemeinschaft auf sich gezogen, Münchens Positionierung auf der globalen Forschungslandkarte gestärkt und neue Standards gesetzt. Wir sind stolz darauf, dass die Studie öffentliche Aufmerksamkeit in regionalen und überregionalen Medien und mehrere wissenschaftliche Arbeiten, Bachelor- und Masterarbeiten ausgelöst hat - und weitere Forschungen sind in Vorbereitung, da mehrere Doktorand:innen die Daten für ihre Studien nutzen.
"KI-Anwendungen sind nur so gut in der Medizin wie die Datensätze, auf denen sie trainiert werden. Man braucht also wirklich gute Datensätze, die auch von unseren Patientinnen und Patienten aus Deutschland stammen. Diese sollten nicht verzerrt sein und hohen Qualitätsstandards genügen. Dann bekommt man die bestmögliche medizinische KI. Und wenn sorgfältig nachgewiesen ist, dass eine solche KI-Anwendung einzelne Aufgaben besser kann als Ärztinnen und Ärzte oder bisherige Software, dann sagen wir vom Deutschen Ethikrat, dass sie breit zur Verfügung stehen sollte. Da gibt es allererste Beispiele, etwa in der Diagnostik in der Bildgebung" sagt Alena Buyx, Vorsitzende des deutschen Ethikrats und Mitglied der Generative AI Taskforce am TUM Think Tank.
In einem Interview mit Tagesspiegel Background zu Medizin und KI spricht sie über Themen wie KI-Algorithmen in der Psychotherapie und die Haltung des Ethikrats zur elektronischen Patientenakte. "In der Medizin wird KI als nützliches Werkzeug gesehen", so Alena Buyx. Bei der Frage nach einer ethischen Bewertung von KI könne eine zentrale Begutachtungsstelle hilfreich sein.
Das vollständige Interview finden Sie nach kostenlosem Abonnement unter: Tagesspiegel Background.
Als eine der ersten Forschungsorganisationen Europas stellt die Fraunhofer-Gesellschaft zusammen mit Microsoft einen internen KI-Chatbot bereit, der ähnlich wie ChatGPT von OpenAI funktioniert. Die generative Text-KI FhGenie bietet Mitarbeitenden die Möglichkeit, Texte mit nicht-öffentlichen Daten sicher zu bearbeiten, verändern oder erzeugen zu lassen. Eingeführt wird der DSGVO-konforme Dienst im Einklang mit den Handlungsempfehlungen der Taskforce »Chatbot« des Fraunhofer-Verbunds IUK-Technologie für die Fraunhofer-Gesellschaft.
"Es freut mich sehr, dass es gelungen ist, in kürzester Zeit mit Microsoft ein speziell an die Anforderungen der Fraunhofer-Gesellschaft angepasstes KI-Chatsystem zu entwickeln", sagt Ingo Weber, Direktor Digitalisierung und IuK-Infrastruktur der Fraunhofer-Gesellschaft und Mitglied der Generative AI Taskforce am TUM Think Tank. "Wir haben festgestellt, dass viele Kolleginnen und Kollegen schon Chat-basierte KI im Rahmen ihrer Arbeit und zu Forschungszwecken nutzen möchten. Für die dienstliche Verwendung sind die bisherigen öffentlichen Angebote allerdings problematisch, unter anderem aus Gründen des Datenschutzes, der Vertraulichkeit und der Informationssicherheit", so Weber weiter.
Lesen Sie den Bericht der Fraunhofer Gesellschaft hier.
Weber wurde kürzlich zudem zum renommierten Dagstuhl-Seminar zum Thema Softwarearchitektur und maschinelles Lernen eingeladen. Mehr dazu lesen Sie hier.
Schon jetzt: Deep-Fakes überschwemmen das Netz. Manche fürchten, KI könne gar helfen, neue Viren zu entwickeln. "Ich glaube nach wie vor, dass das Potential der Menschheit durch KI zu helfen extrem groß ist", sagt KI-Forscher Daniel Rückert, Mitglied der Generative AI Taskforce in der Sendung "Titel Thesen Temperamente". Er forscht vor allem an der KI-gestützten Bildanalyse in der Medizin. So stellt er sich vor, dass in einigen Jahren jeder Hausarzt mithilfe von KI sagen kann: "Sie entwickeln vielleicht in zwei Jahren eine bestimmte Krebserkrankung. Jetzt können Sie folgendes tun, um das noch zu ändern."
Sehen sie die ganze Sendung hier.
Vier Länder, vier Universitäten, vier Perspektiven: In der globalen Diskursreihe „One Topic, One Loop“ diskutieren vier Professor:innen ein aktuelles Thema aus Forschung und Lehre. Den Anfang macht Enkelejda Kasneci, Professorin für Human-Centered Technologies for Learning an der TUM School of Social Sciences and Technology.
“We are currently preparing students for jobs that don’t yet exist, using technologies that haven’t been invented, in order to solve problems, we don’t even know are problems yet.” Richard Riley (Bildungsminister in der Regierung Clinton)
Generative Künstliche Intelligenz (KI) mit ihrer Fähigkeit synthetische Daten zu erzeugen, gilt als Revolution im Maschinellen Lernen. Dass eine solche Technologie nicht nur die Texterstellung automatisieren, sondern auch die menschliche Kreativität steigern kann, zeigt das Beispiel ChatGPT. Trotz der Einschränkungen und Herausforderungen, die mit der Nutzung dieses Sprachmodells verbunden sind, gab es bereits in den ersten fünf Tagen die rekordverdächtige Zahl von einer Million Nutzer:innen. Darüber hinaus beobachten wir aber auch, dass die Technologiezyklen der generativen KI seit der Veröffentlichung von ChatGPT im November 2022 immer kürzer und kürzer werden.
In der Bildungswissenschaft bergen diese Technologien großes Potenzial für die Entwicklung adaptiver, kooperativer und immersiver Lernumgebungen, die auf den einzelnen Lernenden zugeschnitten sind. Sie zeichnen sich durch ihre Verfügbarkeit und Kosteneffizienz, aber auch durch ihre Anpassungsfähigkeit an den Lernenden aus und könnten im großen Stil zu einer Selbstermächtigung der Nutzer:innen führen. Dies könnte uns der Umsetzung der UNESCO-Bildungsagenda 2030 einen großen Schritt näher bringen. Darin wird ein auf den Menschen ausgerichteter KI-Ansatz gefordert, der Inklusion und Bildungsgerechtigkeit fördert. Zur Verwirklichung der Vision "KI für alle" müssen wir einerseits sicherstellen, dass diese technologische Revolution allen zugute kommt, insbesondere in den Bereichen Innovation und Wissensverbreitung, und andererseits, dass sie verantwortungsvoll genutzt wird.
Kreativität und kritisches Denken fördern
Um die Lernenden angemessen für ihre künftigen beruflichen und persönlichen Ziele zu rüsten, ist es daher von entscheidender Bedeutung, ihnen neben dem Grundwissen auch Kompetenzen zu vermitteln. Diese Kompetenzen sollten die Lernenden in die Lage versetzen, sich in einem Umfeld zu behaupten, in dem zahlreiche Aufgaben automatisiert werden, in dem komplexe kognitive Prozesse erforderlich sind, in dem persönliche Verantwortung und zwischenmenschliche Fähigkeiten zunehmen und in dem die interdisziplinäre Zusammenarbeit die Grundlage für die Lösung komplizierter gesellschaftlicher Probleme bildet. Der Auftrag an die Lehre lautet daher, anstelle von Aufgaben, die auf Routine und Unpersönlichkeit beruhen, Aufgaben zu schaffen, die personalisiert, facettenreich und kreativ sind. Wir müssen Strategien entwickeln, die eine Vielzahl von Kompetenzen fördern, die über die traditionellen Lehrpläne hinausgehen. Im Mittelpunkt sollte dabei die Förderung von Kreativität, kritischem Denken, Zusammenarbeit und Kommunikation stehen.
Die skizzierten Entwicklungen zeigen, vor welch tiefgreifenden und spannenden Veränderungen wir im Bildungswesen stehen. Die entscheidenden Fragen lauten: Wie können wir den Zugang zu Innovation und Wissen demokratisieren, eine gerechtere und integrativere akademische Landschaft schaffen und die Anforderungen einer Welt im Wandel erfüllen? Was sind die dringenden Herausforderungen, um dieses Ziel zu erreichen? Hier interessiert mich auch eine Perspektive aus den Neurowissenschaften - von meinem Kollegen Aldo Faisal: Wie können interdisziplinäre Ansätze und insbesondere Erkenntnisse aus den Neurowissenschaften dazu beitragen, zwischen den von einer KI erzeugten Ergebnissen und Äußerungen und denen von Menschen zu unterscheiden?
Globale Diskursreihe „One Topic, One Loop“
Vier Personen aus vier verschiedenen Ländern und von vier verschiedenen Universitäten diskutieren ein aktuelles Thema aus Forschung und Lehre. Die Serie beginnt mit einer Ausgangsfrage, auf die die erste Person antwortet und der nächsten Person eine weitere Frage zum gleichen Themenkomplex stellt. Die Reihe endet wieder mit der ersten Person, die die letzte Frage beantwortet – und abschließend alle vorangegangenen Antworten reflektiert. Das Thema der ersten Staffel sind Large Language Models und deren Einfluss auf Forschung und Lehre. Die ganze Serie mit Aldo Faisal, Professor für KI und Neurowissenschaften am Imperial College London, Jerry John Kponyo, Associate Professor für Telecomunnications Engineering an der Kwame Nkrumah' University of Science and Technology und Sune Lehmann Jørgensen, Professor am Department für Applied Mathematics and Computer Science an der Technical University of Denmark finden Sie hier.
Zur Autorin
Prof. Dr. Enkelejda Kasneci ist Co-Leiterin der Generative AI Taskforce am TUM Think Tank und leitet den 2022 gegründeten Lehrstuhl für Human-Centered Technologies for Learning an der TUM School of Social Sciences and Technology. Sie ist Direktorin des TUM Center for Educational Technologies und Mitglied des Munich Data Science Institute der TUM. Die studierte Informatikerin forschte vor ihrer Berufung an die TUM zu Mensch-Maschine-Interaktionen an der Universität Tübingen.
Behalten Sie den Überblick in Sachen Innovation.
Melden Sie sich für unseren Newsletter an und folgen Sie uns auf unseren Social Media Kanälen.