Aktivitäten filtern

oder
Typ

Das durch das Bayerische Forschungsinstitut für Digitale Transformation (BIDT) geförderte Forschungsprojekt "Einsatz von KI zur Erhöhung der Resilienz gegen Toxizität in der Online-Unterhaltung", von Prof. Dr. Yannis Theocharis (Lehrstuhl für Digital Governance), erforscht die Verbreitung extremistischer, verschwörerischer und irreführender Inhalte in sozialen Medien und untersucht dabei, wie diese Inhalte durch unterhaltsame Inhalte eingebettet werden. Es zielt darauf ab, durch die Kombination von Unterhaltungstheorien, visueller Kommunikation und toxischer Sprache mit KI-Methoden, das Verständnis für die Wirkung dieser Inhalte auf das Nutzerverhalten zu vertiefen. Dieses Projekt leistet einen wichtigen Beitrag zur Analyse und Bekämpfung von Online-Toxizität. Mehr Informationen finden Sie auf der Projektseite oder der Pressemitteilung des BIDT.

Am Freitag, den 23. Juni 2023, nahmen Mitglieder der Generative AI Taskforce an einem Arbeitstreffen teil, das von der Electronic Transactions Development Agency (ETDA) in Thailand organisiert wurde. Ein Schwerpunkt des Treffens war es, mehr über den europäischen Ansatz zur KI-Governance zu erfahren und insbesondere das EU-KI-Gesetz (AIA) unter die Lupe zu nehmen und zu untersuchen, wie Europa mit dem Aufstieg der generativen KI umgeht. Christian Djeffal, Assistenzprofessor für Recht, Wissenschaft und Technologie und Mitglied unserer Gen AI Taskforce, gab einen Beitrag zu diesem Thema. In diesem Blogartikel teilt er seine wichtigsten Erkenntnisse mit.

Der AI-Act der Europäischen Union könnte als wirksamer Balanceakt zwischen Risikoregulierung und Innovationsförderung dienen. Das Rezept für ein ideales Gleichgewicht beinhaltet meiner Meinung nach:

Daher hat das KI-Gesetz mit seiner Mischung aus einem breit angelegten Rahmen und sektorspezifischen Vorschriften und Durchsetzung durchaus Potenzial. Es sind jedoch die Feinheiten, die verfeinert werden müssen, damit es sich wirklich durchsetzen kann. Ein Hauptaugenmerk sollte auf der Verfeinerung der Definition des Hochrisikosystems liegen. So sind beispielsweise die derzeitigen Umrisse in Annex III so weit gefasst, dass sie Anwendungen einschließen könnten, die die Hochrisikokriterien kaum erfüllen.

Vor diesem Hintergrund bergen KI-Sandkästen ein großes Potenzial und dienen als Nährboden für Innovationen und als praktisches Instrument für regulatorisches Lernen. Bei den aktuellen Vorschlägen rund um das KI-Gesetz geht es vor allem um die Etablierung allgemeiner Strukturen sowie um die Koordination und Kooperation zwischen den Mitgliedsstaaten. Der Erfolg dieser Sandkästen hängt in hohem Maße von ihrer effektiven Einführung durch diese Staaten ab. Interessanterweise könnten andere europäische Rechtsentwicklungen wie der Data Governance Act - der den geschützten Austausch von Daten ermöglicht - die Sandboxen auf ein völlig neues Niveau heben, da sie auch den Austausch von Daten unter dem Schutz des Datenschutzes oder des Rechts des geistigen Eigentums ermöglichen würden.

Wenn ich mir in Bezug auf das KI-Gesetz etwas wünschen dürfte, würde ich mir mehr partizipative Elemente wünschen, insbesondere beim Risikomanagement. Die Einbindung von Nutzern und Bürgern in die Identifizierung und Abschwächung von Risiken ist von entscheidender Bedeutung. Daher wäre es vorteilhaft, solche Praktiken "gegebenenfalls" einzubeziehen. Entsprechende Bestimmungen gibt es bereits in der Allgemeinen Datenschutzverordnung und im Gesetz über digitale Dienste. Es ist ein Trugschluss zu glauben, dass nur Unternehmen, Compliance-Abteilungen und Stellen, die für algorithmische Bewertungen zuständig sind, die gesellschaftlichen Auswirkungen neuer Systeme vollständig verstehen können.

 

Stephanie Hare präsentierte uns am 27. Februar 2023 die Hauptthemen ihres Buches "Technology is not neutral: Ein kurzer Leitfaden zur Technologieethik". In ihrem Buch geht Stephanie Hare auf einige Schlüsselfragen rund um moderne digitale Technologien ein: Ein Schwerpunkt ist die Frage, wie Entwickler von Technologien, aber auch die Gesellschaft als Ganzes versuchen können, den Nutzen von Technologien und Anwendungen zu maximieren und gleichzeitig deren Schaden zu minimieren. Lesen Sie hier die wichtigsten Erkenntnisse aus unserer Diskussion. 

Einige wichtige Erkenntnisse aus der Diskussion

Unter Verwendung eines philosophischen Rahmens nutzt Hare verschiedene Bereiche und Ansätze der Ethik und Philosophie, um auf diese Fragen aufmerksam zu machen. So zeigt die Metaphysik beispielsweise auf, welches Problem gelöst werden muss, während die Erkenntnistheorie uns hilft, nach den relevanten Wissensquellen zu fragen, um diese Fragen und Probleme anzugehen. Die politische Philosophie hingegen beleuchtet die Frage, wer die Macht hat, diese Lösungen zu verfolgen, während die Ästhetik aufzeigt, wie Technologien gestaltet und dargestellt werden sollten. Die Ethik schließlich gibt uns Antworten auf die Frage, welche Werte der Technologie innewohnen.

In der Diskussion mit Alexander v. Janowski und dem Publikum wurden wichtige Beobachtungen zum Design von Technologien angesprochen, die in unserer Alltagswelt eingesetzt werden können. So wurde beispielsweise die Größe vieler Smartphones an größere, typisch männliche Hände angepasst, ähnlich wie Airbags in Fahrzeugen nur an Schaufensterpuppen getestet wurden, die dem durchschnittlichen männlichen Körper ähneln. Diese Beobachtungen untermauern die ethischen Überlegungen zu der Frage, wer und welche Instanzen die Kontrolle über die Entwicklung und Anwendung von Technologien haben und haben sollten.

Insgesamt hofft Stephanie Hare, dass ihr Buch "Menschen und menschliche Kultur hackt", indem es dazu beiträgt, die Menschen zu inspirieren, Vorurteile und gewollte oder ungewollte Ungleichheiten zu erkennen, die Technologien von ihren Entwicklern übernehmen, wenn sie nicht hinterfragt werden.

Um mehr über Stephanie Hare, das Buch und ihre anderen Werke zu erfahren, besuchen Sie ihre Website unter https://www.harebrain.co  

Behalten Sie den Überblick in Sachen Innovation.

Melden Sie sich für unseren Newsletter an und folgen Sie uns auf unseren Social Media Kanälen.