Aktivitäten filtern

oder
Typ

Am 16. Februar veranstaltete der TUM Think Tank ein Kamingespräch mit Sir Nick Clegg, President of Global Affairs bei Meta. Im Gespräch mit Urs Gasser, Rektor der Hochschule für Politik (HfP) München, teilte Sir Nick Clegg seine Perspektiven und Einsichten zu einer Reihe von Themen an der Schnittstelle von künstlicher Intelligenz (KI) und Innovation, insbesondere aus europäischer Sicht.

Die weitreichende Diskussion befasste sich mit dem transformativen Potenzial von KI-Technologien und beleuchtete deren Auswirkungen auf verschiedene Sektoren in Europa und weltweit. Sir Nick Clegg, eine führende Persönlichkeit in der Technologielandschaft, beleuchtete die einzigartigen Beiträge Europas und die regulatorischen Überlegungen zu KI und dem Metaverse.

Hier einige der wichtigsten Thesen, die während des Kamingesprächs angesprochen wurden:

1. Die Länder, die am meisten von der KI-Technologie profitieren werden, sind diejenigen, die sie schnell und effektiv einsetzen können, nicht unbedingt diejenigen, die sie entwickeln. Die geopolitischen Diskussionen über KI verlagern sich von Versuchen, den Zugang zu kontrollieren, hin zur Anerkennung der Unvermeidbarkeit ihrer breiten Einführung. Dieser Wandel wird durch Unternehmen wie Meta veranschaulicht, die ihre großen Sprachmodelle (LLMs) als Open Source zur Verfügung stellen, was auf einen Trend zur gemeinsamen Nutzung von Technologie hinweist, um deren Einsatz zu maximieren, statt sie zu kontrollieren.

2. Um das volle Potenzial der KI-Technologien auszuschöpfen, ist eine internationale Zusammenarbeit erforderlich, idealerweise zwischen Technologiedemokratien wie der EU, den USA und Indien. Trotz politischer Herausforderungen und unterschiedlicher Ansätze in der Technologiepolitik könnte die Zusammenarbeit in Forschung und Politik die positiven Auswirkungen der KI erheblich fördern, insbesondere in Bereichen wie Gesundheit und Klimawandel.

 

3. Da KI aufgrund ihres doppelten Verwendungszwecks sowohl zu nützlichen als auch zu schädlichen Zwecken eingesetzt werden kann, insbesondere bei der Erzeugung realistischer Fehlinformationen, sind laufende Bemühungen von Technologieunternehmen zur Identifizierung und Kennzeichnung von KI-generierten Inhalten von entscheidender Bedeutung. Die Zusammenarbeit zwischen den wichtigsten Akteuren bei der Festlegung von Standards und Verantwortlichkeiten für KI-generierte Inhalte kann die Nutzer in die Lage versetzen, Fehlinformationen zu erkennen und zu entschärfen.

4. Das Narrativ, dass Technologie, einschließlich KI, von Natur aus schädlich für die Demokratie ist, wird durch den historischen Kontext und empirische Forschung in Frage gestellt. Bedenken über die Auswirkungen der Technologie werden oft übertrieben, und obwohl es wichtig ist, neben dem technologischen Fortschritt auch ethische Leitplanken zu entwickeln, ist die Beziehung zwischen Technologie und gesellschaftlichem Wandel komplex und nicht von Natur aus negativ.

5. In Diskussionen über die KI werden ihre Gefahren oft sensationslüstern dargestellt, indem Szenarien wie der Terminator als relevant angesehen werden und die Verdrängung des Menschen durch die KI befürchtet wird. Diese Tendenz rührt von der Anthropomorphisierung der KI her, die ihr menschenähnliche Eigenschaften zuschreibt, was zu unangebrachten Bedenken führt. Stattdessen sollte die KI als ein Werkzeug betrachtet werden, das bestimmte Aufgaben hervorragend bewältigt, ähnlich wie ein schnell fahrendes Auto. Darüber hinaus gibt es ein Muster, bei dem neue Technologien sowohl von Befürwortern als auch von Gegnern übertrieben werden, wie es in der Vergangenheit beim Radio zu beobachten war. Gegenwärtig werden die Fähigkeiten der KI überschätzt, was moralische Panik und defensive Vorschriften auslöst und von der eigentlichen Frage ablenkt, wie sie effektiv genutzt werden kann.

 

6. Unternehmen wie Meta, die von 4 Milliarden Menschen pro Tag genutzt werden, tragen eine große Verantwortung, die sie auch anerkennen müssen. Wir brauchen Leitplanken, die nicht nur von Technologieunternehmen entwickelt werden, sondern aus der Zusammenarbeit von Regierung und Gesellschaft entstehen. Es ist nicht ideal, dass die Entwicklung von Leitplanken 20 Jahre nach der Entwicklung der Technologie erfolgt, wie wir es bei den sozialen Medien sehen. Idealerweise sollte dieser Regulierungsprozess gleichzeitig stattfinden.

Das sagen unsere Teilnehmer:innen über die Veranstaltung:

Sofie Schönborn, Doktorandin an der HfP:

"Ich freue mich über die Vielfalt der Menschen, die heute den Weg hierher gefunden haben. Hier treffen Studierende auf Wirtschaftsführer aus der Technologiebranche, auf Wissenschaftler der TUM und auf Vordenker aus dem öffentlichen Raum. Der TUM Think Tank ist ein lebendiger Knotenpunkt, ein Schmelztiegel der Ideen und eine vielfältige Gruppe von Menschen, die sich für Technologie, Gesellschaft und Demokratie einsetzen. Dies ist der Ort für bewusste Diskussionen und gemeinsames Nachdenken über die gesellschaftlichen und politischen Auswirkungen von Technologien, über Verantwortung und mögliche Zukünfte, die vor uns liegen... und um zusammenzuarbeiten, um menschenzentrierte Technologie-Ko-Kreation und Ko-Design zu ermöglichen!"

Doktorand an der HfP:

"Für mich als Forscher ist die Zusammenarbeit mit führenden Praktikern auf diesem Gebiet sehr bereichernd. Er bietet mir direkten Zugang zu wertvollen Informationen aus erster Hand und hat sich als hilfreich erwiesen, um die Empirie für meine Forschung zu ergänzen, wenn ich sie weiterverfolgt habe. Persönlich inspiriert mich ihr Werdegang und ich freue mich schon auf unsere nächsten Gäste im TUM Think Tank."

Franziska Golibrzuch, Masterstudentin an der HfP:

"Es war sehr aufschlussreich, einem solchen Experten zuzuhören - Sir Nick Clegg gab uns die Perspektive der Industrie, obwohl er einen umfangreichen Hintergrund in der Regierung hat. Besonders im Fall von KI und in der aktuellen Debatte über KI-Regulierung, Sicherheit etc. war dies eine großartige Gelegenheit für uns TUM-Studenten. Alles in allem war es eine hochinteressante Veranstaltung, die viele Anknüpfungspunkte für mein Studium bietet, weil sie die Schnittmenge von Technologie und Politik in den Mittelpunkt der Diskussion stellt und immer wieder die kritischen und wichtigen Überschneidungen im Bereich Innovation, Gesellschaft und Politik beleuchtet. Auch nach dem Kamingespräch hatte ich die Möglichkeit, Fragen zu stellen, was ich sehr schätze."

Vielen Dank an das Meta-Team, das dieses Kamingespräch möglich gemacht hat, und an alle, die daran teilgenommen und zum Nachdenken anregende Fragen gestellt haben.

Sir Nick Clegg ist Präsident of Global Affairs bei Meta. Er kam 2018 zu dem Unternehmen, das damals noch Facebook hieß, nachdem er fast zwei Jahrzehnte im britischen und europäischen öffentlichen Leben tätig war. Bevor er 2005 in das Britische Parlament gewählt wurde, arbeitete er in der Europäischen Kommission und war fünf Jahre lang Mitglied des Europäischen Parlaments. Im Jahr 2007 wurde er Vorsitzender der Liberaldemokraten und war von 2010 bis 2015 stellvertretender Premierminister in der ersten britischen Koalitionsregierung der Nachkriegszeit. Er ist Autor von zwei Bestsellern: Politics: Between the Extremes und How to Stop Brexit (And Make Britain Great Again).

Künstliche Intelligenz und Quantentechnologien - disruptive Technologien, die die Welt verändern können. Am 6. Februar besuchte Staatsminister Markus Blume den TUM Think Tank. Anlässlich des Starts des vom Bundesministerium für Bildung und Forschung (BMBF) mit 1,9 Millionen Euro geförderten Projekts QuantWorld, präsentierte der TUM Think Tank dem Staatsminister zwei seiner Projekte: das Quantum Social Lab und die Generative AI Taskforce. Ein tiefgreifender Einblick in die Projekte des TUM Think Tanks, der nicht nur Innovationen vorantreibt, sondern selbst eine innovative Entität verkörpert.

Die Generative AI Taskforce fördert verantwortungsvolle Innovation

“ChatGPT war der ‘iPhone-Moment’ der generativen KI”, erklärte Noha Lea Halim, die die Generative AI Taskforce des TUM Think Tanks präsentierte. Generative Künstliche Intelligenz (KI) - allen voran ChatGPT - hat unsere technologische Landschaft grundlegend verändert. Durch den raschen Markteintritt dieser neuen Technologien ist ein Spannungsfeld zwischen Innovation und Regulierung entstanden. Um diese Fragen zu navigieren, hat der TUM Think Tank im April letzten Jahres die Generative AI Taskforce ins Leben gerufen. “Die Taskforce hier am TUM Think Tank sorgt für einen Wissenstransfer von Universitäten zu Wirtschaft und Staat und stärkt die Vorreiterrolle Bayerns in der globalen KI-Landschaft”, so Halim.

Quantentechnologien: Die gesellschaftliche Transformation von morgen - heute schon im Blick

“Passend zum Thema des iPhone-Momentes der künstlichen Intelligenz warten wir im Bereich Quantentechnologie noch auf den sogenannten QDay”, erklärte Urs Gasser, Rektor der Hochschule für Politik München (HfP). “Auch wenn heute noch in weiten Teilen klassische Computing-Systeme eingesetzt werden, sind Quantentechnologien bereits jetzt vorhanden und haben das Potential, die Zukunft nachhaltig zu verändern.”

Genau deshalb haben Urs Gasser und Fabienne Marco im September 2022 mit Unterstützung von TUM Präsident Thomas Hofmann das Quantum Social Lab gegründet. Das Quantum Social Lab beschäftigt sich mit den ethischen, rechtlichen, gesellschaftlichen und technischen Chancen und Herausforderungen, die uns im Laufe der Weiterentwicklung dieser Technologie erwarten. Im Rahmen dessen wird das Lab mit dem vom Bundesministerium für Bildung und Forschung (BMBF) in Höhe von 1,9 Millionen Euro geförderten Projekt QuantWorld diese neuen Technologien Bürger:innen mit Hilfe von Künstler:innen und einer partizipativen Lernplattform näherbringen. Angesichts der zu erwartenden disruptiven Auswirkungen der Quantentechnologien der zweiten Generation untersucht das Projekt insbesondere konkrete Zukunftsszenarien in den Bereichen Medizin, Banken und Mobilität. “Wir wissen nicht, wie die Zukunft mit Quantentechnologien der zweiten Generation aussehen wird, aber wir sollten nicht die Möglichkeit verpassen, sie zu gestalten”, fasste Fabienne Marco, Leiterin des Labs, zusammen.

„Eine Denkfabrik im besten Sinn und ein echtes Aushängeschild für KI-Forschung und KI-Anwendung in Bayern: Die Projekte des TUM Think Tanks fügen sich hervorragend in die bayerischen KI-Maßnahmen ein. Das KI-Zeitalter und die kommende Quantenrevolution bringen ethische, regulatorische und gesellschaftliche Herausforderungen mit sich, denen wir uns frühzeitig stellen wollen. Das Quantum Social Lab und die Generative AI Taskforce bereiten Bürger und Entscheidungsträger im Freistaat auf die Chancen und gesellschaftlichen Auswirkungen dieser disruptiven Technologien vor. Wir freuen uns, dass diese wichtigen Programme im Freistaat umgesetzt werden und unterstützen die Forschung sowie die Projekte am TUM Think Tank deshalb gerne weiter!“ so der Bayerische Staatsminister für Wissenschaft und Kunst, Markus Blume.

Die Bayerische Staatsregierung setzt sich im Rahmen der Hightech-Agenda aktiv für die Investitionen in Schlüsseltechnologien, Ausbildung, Forschung, Infrastruktur, Transfer und Wissenschaft ein. Der Besuch des Ministers unterstreicht die Bedeutung von Innovation und Zusammenarbeit zwischen Forschungseinrichtungen und Regierungsinstitutionen für die Weiterentwicklung der Gesellschaft und den technologischen Fortschritt. Die Generative AI Taskforce und das Quantum Social Lab sind nur zwei der Beispiele, wie gesellschaftliche und technische Transformation im TUM Think Tank und an der HfP zusammenkommen. Wir bedanken uns für den Besuch und das große Interesse des Staatsministers für Wissenschaft und Kunst, Markus Blume, und freuen uns auf die weitere Zusammenarbeit.

Das durch das Bayerische Forschungsinstitut für Digitale Transformation (BIDT) geförderte Forschungsprojekt "Einsatz von KI zur Erhöhung der Resilienz gegen Toxizität in der Online-Unterhaltung", von Prof. Dr. Yannis Theocharis (Lehrstuhl für Digital Governance), erforscht die Verbreitung extremistischer, verschwörerischer und irreführender Inhalte in sozialen Medien und untersucht dabei, wie diese Inhalte durch unterhaltsame Inhalte eingebettet werden. Es zielt darauf ab, durch die Kombination von Unterhaltungstheorien, visueller Kommunikation und toxischer Sprache mit KI-Methoden, das Verständnis für die Wirkung dieser Inhalte auf das Nutzerverhalten zu vertiefen. Dieses Projekt leistet einen wichtigen Beitrag zur Analyse und Bekämpfung von Online-Toxizität. Mehr Informationen finden Sie auf der Projektseite oder der Pressemitteilung des BIDT.

Wann: 18. Januar 2024

Wo: Innenstadt München, Bayerischer Rundfunk (BR)

Veranstalter: Bayerischer Rundfunk & TUM

Zielgruppe: Forscherinnen und Forscher (Professoren, Postdocs, Promovierende) mit Interesse an KI und/oder Journalismus und KI.

Treten Sie mit uns ein in die Erkundung der Schnittstelle von Technologie und Journalismus. Dieser Workshop konzentriert sich darauf, die Projekte und Methoden in diesem spannenden interdisziplinären Bereich kennenzulernen. Außerdem sollen mögliche Kooperationen in Bezug auf Anwendungsfälle und Methoden entdeckt werden. Wir freuen uns darauf, Forscherinnen und Forscher aus den Bereichen Grundlagen, Anwendungen und Daten zu vernetzen! Wir ermutigen ausdrücklich Nachwuchsforscherinnen und -forscher zur Bewerbung.

Wir möchten von Ihnen hören, wenn Ihre Arbeit einem der folgenden Themenbereiche zuzuordnen ist:

Die Anmeldefrist endet am 5. Dezember 2023: https://collab.dvb.bayern/x/V5IuDQ

Die Auswahl der Teilnehmer erfolgt innerhalb von zwei Wochen nach Ablauf der Anmeldefrist.

Bei Fragen wenden Sie sich bitte an Emmelie Korell unter emmelie.korell@tum.de.

Wir freuen uns darauf, Sie im Januar zu sehen!

"KI-Anwendungen sind nur so gut in der Medizin wie die Datensätze, auf denen sie trainiert werden. Man braucht also wirklich gute Datensätze, die auch von unseren Patientinnen und Patienten aus Deutschland stammen. Diese sollten nicht verzerrt sein und hohen Qualitätsstandards genügen. Dann bekommt man die bestmögliche medizinische KI. Und wenn sorgfältig nachgewiesen ist, dass eine solche KI-Anwendung einzelne Aufgaben besser kann als Ärztinnen und Ärzte oder bisherige Software, dann sagen wir vom Deutschen Ethikrat, dass sie breit zur Verfügung stehen sollte. Da gibt es allererste Beispiele, etwa in der Diagnostik in der Bildgebung" sagt Alena Buyx, Vorsitzende des deutschen Ethikrats und Mitglied der Generative AI Taskforce am TUM Think Tank.

In einem Interview mit Tagesspiegel Background zu Medizin und KI spricht sie über Themen wie KI-Algorithmen in der Psychotherapie und die Haltung des Ethikrats zur elektronischen Patientenakte. "In der Medizin wird KI als nützliches Werkzeug gesehen", so Alena Buyx. Bei der Frage nach einer ethischen Bewertung von KI könne eine zentrale Begutachtungsstelle hilfreich sein.

Das vollständige Interview finden Sie nach kostenlosem Abonnement unter: Tagesspiegel Background.

Als eine der ersten Forschungsorganisationen Europas stellt die Fraunhofer-Gesellschaft zusammen mit Microsoft einen internen KI-Chatbot bereit, der ähnlich wie ChatGPT von OpenAI funktioniert. Die generative Text-KI FhGenie bietet Mitarbeitenden die Möglichkeit, Texte mit nicht-öffentlichen Daten sicher zu bearbeiten, verändern oder erzeugen zu lassen. Eingeführt wird der DSGVO-konforme Dienst im Einklang mit den Handlungsempfehlungen der Taskforce »Chatbot« des Fraunhofer-Verbunds IUK-Technologie für die Fraunhofer-Gesellschaft.

"Es freut mich sehr, dass es gelungen ist, in kürzester Zeit mit Microsoft ein speziell an die Anforderungen der Fraunhofer-Gesellschaft angepasstes KI-Chatsystem zu entwickeln", sagt Ingo Weber, Direktor Digitalisierung und IuK-Infrastruktur der Fraunhofer-Gesellschaft und Mitglied der Generative AI Taskforce am TUM Think Tank. "Wir haben festgestellt, dass viele Kolleginnen und Kollegen schon Chat-basierte KI im Rahmen ihrer Arbeit und zu Forschungszwecken nutzen möchten. Für die dienstliche Verwendung sind die bisherigen öffentlichen Angebote allerdings problematisch, unter anderem aus Gründen des Datenschutzes, der Vertraulichkeit und der Informationssicherheit", so Weber weiter.

Lesen Sie den Bericht der Fraunhofer Gesellschaft hier.

Weber wurde kürzlich zudem zum renommierten Dagstuhl-Seminar zum Thema Softwarearchitektur und maschinelles Lernen eingeladen. Mehr dazu lesen Sie hier.

Vier Länder, vier Universitäten, vier Perspektiven: In der globalen Diskursreihe „One Topic, One Loop“ diskutieren vier Professor:innen ein aktuelles Thema aus Forschung und Lehre. Den Anfang macht Enkelejda Kasneci, Professorin für Human-Centered Technologies for Learning an der TUM School of Social Sciences and Technology.

“We are currently preparing students for jobs that don’t yet exist, using technologies that haven’t been invented, in order to solve problems, we don’t even know are problems yet.” Richard Riley (Bildungsminister in der Regierung Clinton)
Generative Künstliche Intelligenz (KI) mit ihrer Fähigkeit synthetische Daten zu erzeugen, gilt als Revolution im Maschinellen Lernen. Dass eine solche Technologie nicht nur die Texterstellung automatisieren, sondern auch die menschliche Kreativität steigern kann, zeigt das Beispiel ChatGPT. Trotz der Einschränkungen und Herausforderungen, die mit der Nutzung dieses Sprachmodells verbunden sind, gab es bereits in den ersten fünf Tagen die rekordverdächtige Zahl von einer Million Nutzer:innen. Darüber hinaus beobachten wir aber auch, dass die Technologiezyklen der generativen KI seit der Veröffentlichung von ChatGPT im November 2022 immer kürzer und kürzer werden.

In der Bildungswissenschaft bergen diese Technologien großes Potenzial für die Entwicklung adaptiver, kooperativer und immersiver Lernumgebungen, die auf den einzelnen Lernenden zugeschnitten sind. Sie zeichnen sich durch ihre Verfügbarkeit und Kosteneffizienz, aber auch durch ihre Anpassungsfähigkeit an den Lernenden aus und könnten im großen Stil zu einer Selbstermächtigung der Nutzer:innen führen. Dies könnte uns der Umsetzung der UNESCO-Bildungsagenda 2030 einen großen Schritt näher bringen. Darin wird ein auf den Menschen ausgerichteter KI-Ansatz gefordert, der Inklusion und Bildungsgerechtigkeit fördert. Zur Verwirklichung der Vision "KI für alle" müssen wir einerseits sicherstellen, dass diese technologische Revolution allen zugute kommt, insbesondere in den Bereichen Innovation und Wissensverbreitung, und andererseits, dass sie verantwortungsvoll genutzt wird.

Kreativität und kritisches Denken fördern

Um die Lernenden angemessen für ihre künftigen beruflichen und persönlichen Ziele zu rüsten, ist es daher von entscheidender Bedeutung, ihnen neben dem Grundwissen auch Kompetenzen zu vermitteln. Diese Kompetenzen sollten die Lernenden in die Lage versetzen, sich in einem Umfeld zu behaupten, in dem zahlreiche Aufgaben automatisiert werden, in dem komplexe kognitive Prozesse erforderlich sind, in dem persönliche Verantwortung und zwischenmenschliche Fähigkeiten zunehmen und in dem die interdisziplinäre Zusammenarbeit die Grundlage für die Lösung komplizierter gesellschaftlicher Probleme bildet. Der Auftrag an die Lehre lautet daher, anstelle von Aufgaben, die auf Routine und Unpersönlichkeit beruhen, Aufgaben zu schaffen, die personalisiert, facettenreich und kreativ sind. Wir müssen Strategien entwickeln, die eine Vielzahl von Kompetenzen fördern, die über die traditionellen Lehrpläne hinausgehen. Im Mittelpunkt sollte dabei die Förderung von Kreativität, kritischem Denken, Zusammenarbeit und Kommunikation stehen.

Die skizzierten Entwicklungen zeigen, vor welch tiefgreifenden und spannenden Veränderungen wir im Bildungswesen stehen. Die entscheidenden Fragen lauten: Wie können wir den Zugang zu Innovation und Wissen demokratisieren, eine gerechtere und integrativere akademische Landschaft schaffen und die Anforderungen einer Welt im Wandel erfüllen? Was sind die dringenden Herausforderungen, um dieses Ziel zu erreichen? Hier interessiert mich auch eine Perspektive aus den Neurowissenschaften - von meinem Kollegen Aldo Faisal: Wie können interdisziplinäre Ansätze und insbesondere Erkenntnisse aus den Neurowissenschaften dazu beitragen, zwischen den von einer KI erzeugten Ergebnissen und Äußerungen und denen von Menschen zu unterscheiden?

Globale Diskursreihe „One Topic, One Loop“

Vier Personen aus vier verschiedenen Ländern und von vier verschiedenen Universitäten diskutieren ein aktuelles Thema aus Forschung und Lehre. Die Serie beginnt mit einer Ausgangsfrage, auf die die erste Person antwortet und der nächsten Person eine weitere Frage zum gleichen Themenkomplex stellt. Die Reihe endet wieder mit der ersten Person, die die letzte Frage beantwortet – und abschließend alle vorangegangenen Antworten reflektiert. Das Thema der ersten Staffel sind Large Language Models und deren Einfluss auf Forschung und Lehre. Die ganze Serie mit Aldo Faisal, Professor für KI und Neurowissenschaften am Imperial College London, Jerry John Kponyo, Associate Professor für Telecomunnications Engineering an der Kwame Nkrumah' University of Science and Technology und Sune Lehmann Jørgensen, Professor am Department für Applied Mathematics and Computer Science an der Technical University of Denmark finden Sie hier.

Zur Autorin

Prof. Dr. Enkelejda Kasneci ist Co-Leiterin der Generative AI Taskforce am TUM Think Tank und leitet den 2022 gegründeten Lehrstuhl für Human-Centered Technologies for Learning an der TUM School of Social Sciences and Technology. Sie ist Direktorin des TUM Center for Educational Technologies und Mitglied des Munich Data Science Institute der TUM. Die studierte Informatikerin forschte vor ihrer Berufung an die TUM zu Mensch-Maschine-Interaktionen an der Universität Tübingen.

Die Künstliche Intelligenz (KI) hat das Potenzial, den Wissenschaftsbetrieb grundlegend zu verändern. In einer Landtagsanhörung im Ausschuss für Wissenschaft und Kunst wurde Prof. Dr. Enkelejda Kasneci, Co-Leiterin der Generative AI Taskforce am TUM Think Tank, gemeinsam mit anderen Expert:innen zu den Chancen und Risiken von KI im Hochschulbereich befragt. Die Diskussion drehte sich um die Vorbereitung von Studierenden und Lehrenden auf den Einsatz von KI, die Rolle von KI-Tools wie ChatGPT in der Schreibarbeit und die Notwendigkeit einer offenen und zugänglichen Nutzung von KI-Tools in Bibliotheken. Trotz einiger Bedenken betonten die Expert:innen den positiven Einfluss von KI und plädierten für einen optimistischen Blick auf die Zukunft des Wissenschaftsbetriebs.

Die Co-Leiterin der Generative AI-Taskforce betonte, dass die generative KI stetig fortschreitet und immer kürzere technologische Zyklen aufweist. Dies eröffne Möglichkeiten für aktive, kollaborative und immersive Lernumgebungen, die individuell auf die Bedürfnisse der Lernenden zugeschnitten seien und zahlt somit auf die UNESCO Education 2030 Agenda ein, die einen menschenzentrierten Ansatz für KI in der Bildung fordert, um Inklusion und Gerechtigkeit voranzutreiben. Unter dem Motto "AI for All" sollen alle von der technologischen Revolution profitieren und ihre Früchte ernten, insbesondere in Form von Innovation und Wissen.

Grundsätzliche Kompetenzziele im Bereich des wissenschaftlichen Schreibens werden nach wie vor erhalten bleiben und auch langfristig nicht ersetzt werden. Die Einführung von KI-Schreibwerkzeugen erfordert jedoch eine Anpassung, bei der die Integration verantwortungsbewusst erfolgen sollte. Während der Anhörung wurden auch rechtliche Fragen hervorgehoben, wie das Urheberrecht, Datenschutz und Haftung. Hochschulen sollten diese Aspekte sorgfältig prüfen und angemessene Maßnahmen ergreifen, um die Rechte aller Beteiligten zu schützen, so Kasneci.

Obwohl einige Studierende und Lehrende die Effizienz und Unterstützung von KI-Schreibwerkzeugen schätzten und durchaus Vorteile in der Zeitersparnis, der Generierung von Ideen und der Fehlererkennung sähen, bestünde auch eine gewisse Skepsis gegenüber der automatisierten Textgenerierung. Bedenken bezüglich Plagiats und Datenschutz könnten ebenfalls zu Akzeptanzproblemen führen. Vorbehalte haben Studierende und Lehrende laut Kasneci vorwiegend im Bezug auf die Genauigkeit, Zuverlässigkeit und Ethik von KI-generierten Texten. Es könnte ein Gefühl des Kontrollverlusts entstehen, wenn KI-Schreibwerkzeuge als Ersatz für traditionelle Schreibfähigkeiten wahrgenommen werden. Daher sei es wichtig, diese Bedenken anzuerkennen und eine umfassende Aufklärung, Schulung und Beratung bereitzustellen, um das Vertrauen und die Akzeptanz von Studierenden und Lehrenden zu fördern.

Allgemein waren sich die Expert:innen einig, dass ein "kalibriertes Vertrauen" in KI im Wissenschaftsbetrieb erforderlich ist. Dies bedeutet, dass Studierende und Lehrende auf den Einsatz von KI vorbereitet werden sollten, um die Chancen dieser Technologie optimal nutzen zu können. Es wurde betont, dass KI-Tools wie ChatGPT die Schreibarbeit automatisieren und die Kreativität steigern können und so Studierenden und Lehrenden ermöglicht, sich auf anspruchsvollere Aufgaben zu konzentrieren.

Kasneci appellierte: „Bildung muss sich von Routine- und unpersönlichen Aufgaben hin zu persönlichen, komplexeren und kreativen Aufgaben entwickeln. Wir müssen Wege finden, um in der Hochschullehre die Förderung vielseitiger Kompetenzen über Lehrpläne und Curricula hinaus zu ermöglichen und einen starken Fokus auf Kreativität, kritisches Denken, Kollaboration und Kommunikation legen.“

Sie fügt hinzu: „Insgesamt stehen wir vor einer aufregenden Zeit des Wandels in der Bildung. Die Frage wird sein, wie schaffen wir es Innovation und Wissen für alle zugänglich zu machen, eine gerechtere und inklusivere Bildungslandschaft zu ermöglichen, die den Anforderungen der sich disruptiv veränderbaren Welt gerecht wird.“

Nicht nur im Hochschulbereich gibt es dringenden Handlungsbedarf. Im Handelsblatt fordert Kasneci kürzlich ein „Umkrempeln der Lehrpläne“. Der Unterricht sei „viel zu fragmentiert“ – mit Unterstützung der KI sei es zukünftig einfacher möglich, „ganzheitlich“ zu unterrichten. Dafür müssten die Kultusminister aber dafür sorgen, dass alle Lehrkräfte ein Basiswissen über KI erwerben.

Enkelejda Kasneci ist Co-Founderin des neu eröffneten TUM Center for Educational Technologies, wo interdisziplinäre Forschungsteams die Wirksamkeit digitaler Tools für das Lernen und Lehren untersuchen und neue Anwendungen entwickeln. Diese wird das Zentrum über Fortbildungen und mit der Förderung von Start-ups in die Praxis bringen.

Jede Woche stellen wir Ihnen eines der Mitglieder der Generative AI Taskforce des TUM Think Tanks vor. Erfahren Sie, wie sie die neuesten Entwicklungen im Bereich der Generativen KI aus verschiedenen Perspektiven und Bereichen einschätzen.

In unserer ersten Folge: Treffen Sie Georg Groh von der TUM School of Computation, Information and Technology.

Jetzt auf unserem YouTube Kanal:

Am Freitag, den 23. Juni 2023, nahmen Mitglieder der Generative AI Taskforce an einem Arbeitstreffen teil, das von der Electronic Transactions Development Agency (ETDA) in Thailand organisiert wurde. Ein Schwerpunkt des Treffens war es, mehr über den europäischen Ansatz zur KI-Governance zu erfahren und insbesondere das EU-KI-Gesetz (AIA) unter die Lupe zu nehmen und zu untersuchen, wie Europa mit dem Aufstieg der generativen KI umgeht. Christian Djeffal, Assistenzprofessor für Recht, Wissenschaft und Technologie und Mitglied unserer Gen AI Taskforce, gab einen Beitrag zu diesem Thema. In diesem Blogartikel teilt er seine wichtigsten Erkenntnisse mit.

Der AI-Act der Europäischen Union könnte als wirksamer Balanceakt zwischen Risikoregulierung und Innovationsförderung dienen. Das Rezept für ein ideales Gleichgewicht beinhaltet meiner Meinung nach:

Daher hat das KI-Gesetz mit seiner Mischung aus einem breit angelegten Rahmen und sektorspezifischen Vorschriften und Durchsetzung durchaus Potenzial. Es sind jedoch die Feinheiten, die verfeinert werden müssen, damit es sich wirklich durchsetzen kann. Ein Hauptaugenmerk sollte auf der Verfeinerung der Definition des Hochrisikosystems liegen. So sind beispielsweise die derzeitigen Umrisse in Annex III so weit gefasst, dass sie Anwendungen einschließen könnten, die die Hochrisikokriterien kaum erfüllen.

Vor diesem Hintergrund bergen KI-Sandkästen ein großes Potenzial und dienen als Nährboden für Innovationen und als praktisches Instrument für regulatorisches Lernen. Bei den aktuellen Vorschlägen rund um das KI-Gesetz geht es vor allem um die Etablierung allgemeiner Strukturen sowie um die Koordination und Kooperation zwischen den Mitgliedsstaaten. Der Erfolg dieser Sandkästen hängt in hohem Maße von ihrer effektiven Einführung durch diese Staaten ab. Interessanterweise könnten andere europäische Rechtsentwicklungen wie der Data Governance Act - der den geschützten Austausch von Daten ermöglicht - die Sandboxen auf ein völlig neues Niveau heben, da sie auch den Austausch von Daten unter dem Schutz des Datenschutzes oder des Rechts des geistigen Eigentums ermöglichen würden.

Wenn ich mir in Bezug auf das KI-Gesetz etwas wünschen dürfte, würde ich mir mehr partizipative Elemente wünschen, insbesondere beim Risikomanagement. Die Einbindung von Nutzern und Bürgern in die Identifizierung und Abschwächung von Risiken ist von entscheidender Bedeutung. Daher wäre es vorteilhaft, solche Praktiken "gegebenenfalls" einzubeziehen. Entsprechende Bestimmungen gibt es bereits in der Allgemeinen Datenschutzverordnung und im Gesetz über digitale Dienste. Es ist ein Trugschluss zu glauben, dass nur Unternehmen, Compliance-Abteilungen und Stellen, die für algorithmische Bewertungen zuständig sind, die gesellschaftlichen Auswirkungen neuer Systeme vollständig verstehen können.

 

Behalten Sie den Überblick in Sachen Innovation.

Melden Sie sich für unseren Newsletter an und folgen Sie uns auf unseren Social Media Kanälen.