Output / Forschungstagebuch

Künstliche Lehrlinge

von Nicklas Berild Lundblad
22. Sep 2025

Notiz 2 aus dem Forschungsjournal von Nicklas Lundblad: Gedanken und Fragen zu Agenten, Agency und Institutionen

Note 2.

Stell dir vor, du würdest eine jüngere Kollegin oder einen jüngeren Kollegen in deinem Fach ausbilden. Wie würdest du am besten sicherstellen, dass diese Person sich schnell entwickelt und echte Fähigkeiten aufbaut? Würdest du ihr einfach alles erklären, was du weißt? Oder würdest du ihr zeigen, wie man mit konkreten Fällen umgeht? Es liegt auf der Hand, dass Letzteres der bessere Weg ist – und genau das ist das Prinzip der Lehre oder der „Ausbildung“.

Ein aktuelles Paper greift diesen Gedanken auf und formuliert, was man das „Agent Efficiency Principle“ nennen könnte:

„Maschinelle Autonomie entsteht nicht aus Datenfülle, sondern aus der gezielten Kuratierung qualitativ hochwertiger agentischer Demonstrationen.“

(See Xiao, Y., Jiang, M., Sun, J., Li, K., Lin, J., Zhuang, Y., Zeng, J., Xia, S., Hua, Q., Li, X. and Cai, X., 2025. LIMI: Less is More for Agency. arXiv preprint arXiv:2509.17567.)

 

Mit anderen Worten: Wir sollten Agenten nicht theoretisch belehren, sondern sie an die Besten ihres Fachs in die Lehre geben. Der Begriff der „künstlichen Lehrlinge“ beschreibt also viel besser, was tatsächlich passiert, als die Idee „künstlicher Agenten“. Diese Systeme handeln nicht völlig autonom, sondern im Sinne dessen, was wir ihnen gezeigt haben.

Daraus folgt, dass wir Architekturen entwickeln sollten, in denen Menschen und KI gemeinsam lernen – Apprenticeship-Architekturen. Wie könnten deren Hauptkomponenten aussehen?

  1. Erstens müssten Menschen ihre eigenen Praktiken in einer für die KI zugänglichen Form reflektieren. Sich hinzusetzen und zu beschreiben, wie man etwas getan hat, ist ein klassisches Muster in der Lehre.
  2. Zweitens müssten wir Wege finden, strategische Fragen an die KI zu stellen – nicht, um „richtige“ Antworten zu bekommen, sondern um die KI dazu zu bringen, ihr Verhalten anzupassen. Das ist bemerkenswert, weil diese Form des Fragens sich fundamental von der heutigen Nutzung unterscheidet. Chatbots versuchen heute, möglichst wahrscheinlich passende Antworten zu geben – oder das, was wir hören wollen. In einer Lehre aber sind Fragen sokratischer Natur: Sie sollen das Weltmodell und die Handlungslogik des Lehrlings verändern. Dafür müssten wir KI-Systeme bauen, die diese beiden Modi der Befragung unterscheiden können.  
  3. Drittens bräuchte es formale Prüfungen und Zertifikate, um die Fähigkeiten eines Agenten zu überprüfen. So wie ein Lehrling eine Meisterprüfung ablegt, sollte ein Agent zeigen können, dass er ein Problem löst, das in seinem Handwerksbereich liegt, aber jenseits dessen, worauf er trainiert wurde. Das ist schwierig – aber ein echter Test dafür, ob die neuen Fähigkeiten tatsächlich verankert sind.

Das Paper, das diesen Gedanken anstößt, geht nur einen Teil des Weges hin zu echten künstlichen Lehrlingen, doch es macht einen entscheidenden Punkt: Agenten werden nicht wie Modelle trainiert. Sie lernen durch Tun, nicht durch Wissen. Die Autorinnen schreiben:

„Diese grundlegende Fähigkeit markiert den Beginn des Zeitalters der AI-Agency, angetrieben von einem entscheidenden industriellen Wandel: dem dringenden Bedarf an KI-Systemen, die nicht nur denken, sondern arbeiten. Während heutige KI im Denken und Generieren glänzt, verlangen Branchen autonome Agenten, die Aufgaben ausführen, Werkzeuge bedienen und reale Ergebnisse liefern können. Während agentische Intelligenz zum Unterscheidungsmerkmal zwischen kognitiven Systemen und produktiven Arbeitern wird, wird die effiziente Kultivierung maschineller Autonomie zentral.“

 

Die Unterscheidung zwischen Denken und Arbeiten eröffnet einen neuen, produktiven Rahmen: die agentische Fähigkeitsgrenze – also die Frage, bis wohin Maschinen wirklich handeln können.

Alle Ausgaben hier

Autor

Nicklas Berild Lundblad

fellow of practice

Projekte

Integrating experienced practitioners into the work of the TUM Think Tank

Fellowship

Nicklas Berild Lundblad joins the TUM Think Tank as a Senior Fellow of Practice to develop a novel interdisciplinary framework for understanding how artificial agency transforms institutions, shapes human identity, and increases social complexity. 

Fellowship