Aktivitäten filtern

oder
Typ

Oft wird angenommen, dass KI neutral, ethisch und im Einklang mit menschlichen Werten trainiert werden kann. Eine wachsende Zahl an Forschungsarbeiten – darunter neue Erkenntnisse aus dem Civic Machines Lab – stellt dieses Ziel jedoch zunehmend in Frage.

Beim Participatory AI Research & Practice Symposium (Sciences Po) im Rahmen des Paris AI Action Summit stellte das Civic Machines Lab Forschung zu einer grundlegenden Herausforderung der KI-Alignment-Debatte vor:

Das Problem: KI-Alignment übersieht Wertepluralismus

KI-Alignment meint die Ausrichtung künstlicher Intelligenz auf menschliche Werte – aber auf welche genau?Unsere Gesellschaft ist alles andere als einheitlich, und unterschiedliche demografische Gruppen bewerten KI-Antworten auf sehr unterschiedliche Weise.

Das Civic Machines Lab hat ein neues Alignment-Datenset entwickelt, das KI-generierte Antworten anhand von fünf zentralen Dimensionen bewertet:

  • Toxizität

  • Emotionale Wahrnehmung

  • Sensibilität & Offenheit

  • Hilfsbereitschaft

  • Stereotypenbasierte Voreingenommenheit

Die Studie mit 1.095 Teilnehmenden aus Deutschland und den USA zeigt deutliche Unterschiede in der Wahrnehmung von KI-Verhalten:

  • Männer bewerteten KI als 18 % weniger toxisch als Frauen.

  • Ältere Teilnehmende (51–60 Jahre) empfanden die KI-Antworten als 40,6 % weniger hilfreich als jüngere.

  • Eher konservative sowie Black/African American Teilnehmende bewerteten die KI als deutlich sensibler und emotional bewusster (+27,9 % bzw. +58,2 %).

  • Der Herkunftsstaat spielte kaum eine Rolle – entscheidender waren Ideologie, Geschlecht, ethnische Zugehörigkeit und Alter.

Soziale und politische Hintergründe prägen die Bewertung ein und derselben KI-Antwort – das erschwert die Definition universeller Standards. Die teils widersprüchlichen Bewertungen der Teilnehmenden machen deutlich: KI-Alignment ist komplex, denn Werte überlagern sich und stehen oft in Spannung zueinander.

Was das bedeutet: Es könnte keine „perfekt ausgerichtete“ KI geben

Diese Erkenntnisse stellen die Vorstellung infrage, dass KI-Alignment lediglich ein technisches Problem sei. Wenn unterschiedliche Bevölkerungsgruppen nicht übereinstimmen, wie KI sich verhalten soll – wie lässt sich dann überhaupt definieren, was „Alignment“ bedeutet?

  • Beim Paris AI Action Summit diskutierten Expert*innen zentrale Herausforderungen der KI-Governance:
  • Wie kann partizipative KI-Governance konkret funktionieren?
  • Wer profitiert am meisten von einer KI, die sich an dominanten Perspektiven orientiert?
  • Kann KI jemals wirklich unvoreingenommen sein – oder wird sie immer gesellschaftliche und ideologische Bruchlinien widerspiegeln?

Wie geht es weiter?

Die Debatte über KI-Alignment ist noch lange nicht abgeschlossen. Wenn KI darauf trainiert wird, sich an dominanten Perspektiven auszurichten – besteht dann die Gefahr, dass andere Stimmen an den Rand gedrängt werden?
Sollten KI-Systeme auf Mehrheitsmeinungen, inklusive Ausgewogenheit oder etwas ganz anderes abzielen?

Erkenntnisse vom AI Action Summit in Paris

Der AI Action Summit in Paris bot eine Plattform für grundlegende Diskussionen an der Schnittstelle von KI, Governance und gesellschaftlicher Wirkung. Das Participatory AI Research & Practice Symposium an der Sciences Po widmete sich insbesondere der Frage, wie die Entwicklung und Regulierung von KI gestaltet werden kann – unter Einbeziehung vielfältiger und bislang unterrepräsentierter Perspektiven. Zentrale Themen waren partizipative Governance, Machtverhältnisse und Rechenschaftspflicht im Kontext von KI.

Erkenntnis 1: Partizipative Perspektiven auf KI können transformative Wirkung entfalten und unterrepräsentierte Stimmen stärken. Dennoch bestehen erhebliche Hürden bei der praktischen Umsetzung – oft werden solche Ansätze von Politik und Industrie übersehen.

Das AI & Society House Event, organisiert von Humane Intelligence im Rahmen des Paris AI Action Summit, versammelte internationale Vertreter*innen aus Zivilgesellschaft, Industrie und Politik. Diskutiert wurden zentrale Herausforderungen rund um KI-Ethik, Sicherheit und verantwortungsvolle Technologiegestaltung. Die Panels behandelten Themen wie den Kampf gegen Online-Hass, generative KI und geschlechtsspezifische Gewalt sowie die Rolle des Journalismus bei der Bewertung gesellschaftlicher KI-Auswirkungen.

Die Eröffnungskonferenz der International Association for Safe and Ethical AI zielte darauf ab, ein gemeinsames Verständnis der kurz- und langfristigen Gefahren von KI zu entwickeln. Teilgenommen haben Fachleute aus KI-Sicherheit und -Ethik, politische Entscheidungsträger*innen und zivilgesellschaftliche Organisationen. Es wurden Formate für Zusammenarbeit und gemeinsame Maßnahmen diskutiert.

Erkenntnis 2: Obwohl viele Risiken rund um KI bestehen, wurde das Thema Sicherheit von politischen Akteur*innen auf dem Gipfel eher am Rande behandelt.

Die AI Verify Foundation und MLCommons brachten führende Fachleute zusammen, um die Zukunft von KI-Tests, -Vertrauenswürdigkeit und -Sicherheit zu beleuchten. Vorgestellt wurde der neue AI Luminate Benchmark. Es gab spannende Diskussionen mit Unternehmen aus dem Bereich Compliance, NGOs und Sicherheitsforscher*innen.

Erkenntnis 3: Es entsteht ein Ökosystem, das aktiv an Standards und Prozessen für eine sicherere KI arbeitet.

Der Business Day des AI Summit war Treffpunkt für Start-ups und Großunternehmen aus ganz Europa und der Welt. Ein Highlight waren die kontrovers diskutierten Beiträge von Yann LeCun und Sam Altman, die unterschiedliche Visionen für die Zukunft der KI vertraten.

Erkenntnis 4: Es herrscht Spannung zwischen offenen und geschlossenen Systemen – und der Frage, wer die Zukunft der KI prägen wird. Wirtschaftliche und geopolitische Interessen nehmen dabei immer mehr Einfluss auf Innovation und Wachstum.

Am AI Act Haupttag kündigten Frankreich und Europa zusätzliche Fördermittel und eine stärkere strategische Fokussierung auf KI an. Außerdem wurde eine große europäische Initiative für öffentliche KI-Infrastruktur vorgestellt. In Panels diskutierten Wissenschaft, Industrie, Zivilgesellschaft und Politik über vielfältige Themen.

Erkenntnis 5: Europa versucht, im globalen Wettbewerb aufzuholen. Sicherheit spielte dabei eine geringere Rolle – im Fokus standen geopolitische Relevanz und wirtschaftliche Anschlussfähigkeit.

Fazit: Die Veranstaltungen unterstrichen die Bedeutung inklusiver, ethischer und verantwortungsvoller KI-Praktiken und boten Raum für substanzielle Beiträge und Austausch in einer vielfältigen Gemeinschaft.

TL;DR

Oft wird angenommen, dass KI neutral, ethisch und im Einklang mit menschlichen Werten trainiert werden kann. Doch eine wachsende Zahl an Studien – darunter auch neue Erkenntnisse aus dem Civic Machines Lab – deutet darauf hin, dass dieses Ziel möglicherweise unerreichbar ist.

Behalten Sie den Überblick in Sachen Innovation.

Melden Sie sich für unseren Newsletter an und folgen Sie uns auf unseren Social Media Kanälen.