Output / Forschungstagebuch

Agenten, Welten und Hände

von Nicklas Berild Lundblad
22. Sep 2025

Notiz 5 aus dem Forschungsjournal von Nicklas Lundblad: Durch die Hand lernt das Gehirn die Handlungsmöglichkeiten der Welt kennen – wie Objekte Widerstand leisten, nachgeben oder zerbrechen – und verfeinert entsprechend seine inneren Modelle.

Notiz 5.

In einem kürzlich erschienenen Paper von Google DeepMind stellen die Autorinnen und Autoren fest, dass jedes hinreichend fortgeschrittene System – oder, wie wir es zuvor genannt haben, jeder „Delegate“ – über eine Art Weltmodell verfügen muss. Sie schreiben:

„Sind Weltmodelle eine notwendige Voraussetzung für flexibles, zielgerichtetes Verhalten, oder reicht modellfreies Lernen aus? Wir liefern eine formale Antwort auf diese Frage, indem wir zeigen, dass jeder Agent, der in der Lage ist, auf mehrstufige, zielgerichtete Aufgaben zu generalisieren, ein prädiktives Modell seiner Umgebung erlernt haben muss. Wir zeigen, dass dieses Modell aus der Policy des Agenten extrahiert werden kann und dass die Verbesserung seiner Leistung oder die Steigerung der Komplexität der Ziele, die er erreichen kann, das Erlernen immer genauerer Weltmodelle erfordert.“

Es gibt keine Form von Agency außerhalb einer Welt. Das klingt trivial, ist es aber möglicherweise nicht: Wenn das stimmt, dann ist auch unsere eigene Agency durch die Welt geprägt – auf eine Weise, die subtil bestimmt, was wir tun oder wollen können.

Das wiederum ist interessant, weil es eine operationalisierbare Definition von Intelligenz nahelegt: Agency/Welt-Passung.

Etwas, das eine hohe Passung zwischen dem, was es wollen kann, und der Welt, in der es sich befindet, aufweist – und das das volle Spektrum der Handlungsmöglichkeiten kennt, die diese Welt bietet –, wäre sehr intelligent in Bezug auf diese Welt. Das ist eine faszinierende Achse von Intelligenz. Wenn wir von Intelligenz sprechen, meinen wir oft die Fähigkeit, Probleme zu lösen – meist mathematisch-logische Probleme. Aber hier geht es um etwas anderes, und diese Unterscheidung ist keineswegs neu.

Schon Aristoteles unterschied zwischen Theoria und Phronesis. Diese beiden Dimensionen von Intelligenz lassen sich direkt auf das Konzept der Agency/Welt-Passung übertragen.
Theoria bezeichnet die kontemplative, theoretische Intelligenz – das Verständnis der stabilen Strukturen der Welt, also das, was ein Agent als sein Weltmodell betrachten würde. Sie ist die Fähigkeit, die zugrunde liegenden Muster zu erkennen, die Vorhersage und Erklärung ermöglichen.
Phronesis hingegen ist die praktische Intelligenz: die situierte Fähigkeit, in einer konkreten Welt gut zu handeln. Sie betrifft Wahl, Timing und Anpassung und sorgt dafür, dass theoretische Einsicht in wirksames, angemessenes Handeln übersetzt wird.
Im Kontext künstlicher Agenten entspricht Theoria dem gelernten Modell der Umwelt, während Phronesis beschreibt, wie gut dieses Modell angewendet wird – wie geschickt der Agent sein Verhalten anpasst, um eine hohe Agency/Welt-Passung zu wahren.

Es genügt also nicht, die Welt zu verstehen – man muss auch in ihr handeln können.

Dabei könnte es einen interessanten Zielkonflikt geben: Die Komplexität des Weltmodells könnte die Agency/Welt-Passung einschränken, da Handeln zeitkritisch ist. Ab einem gewissen Punkt frisst epistemischer Reichtum pragmatische Leistungsfähigkeit auf. Die Evolution hat diesen Trade-off über Jahrmillionen feinjustiert; unsere Fitness könnte man als die Fähigkeit verstehen, Weltmodell und Agency/Welt-Passung so zu kombinieren, dass effektives Handeln möglich bleibt. Gäbe es hier eine Art Pareto-Grenze, wäre es denkbar, dass wir zugunsten besserer Handlungskompetenz auf Weltkomplexität verzichten müssen.

In einem Bild: 

Wie also ließe sich eine Situation erreichen, in der die technologische Pareto-Grenze die biologische übertrifft? Das ist eine äußerst spannende Forschungsfrage. Die Evolution optimiert diese Balance über Zeit, indem sie ein Weltverständnis selektiert, das Energieverbrauch und Agency/Welt-Passung für bestimmte Umgebungen optimiert. Unsere heutige Technologie hingegen ist stark in der Theoria, aber schwach in der Phronesis.

Das ultimative Beispiel dafür ist vielleicht die Hand. Wie oft betont wurde – auch von Elon Musk – sind Hände schwer zu bauen. Doch die Hand ist das Bindeglied zwischen Weltmodell und Agency/Welt-Passung. Sie verkörpert die Synthese aus Theoria und Phronesis, die Maschinen bislang nicht erreichen: Sie ist sowohl Werkzeug des Verstehens als auch Werkzeug des Handelns.
Durch die Hand lernt das Gehirn die Handlungsmöglichkeiten der Welt – wie Objekte Widerstand leisten, nachgeben oder brechen – und verfeinert seine Modelle entsprechend. Jede Bewegung ist eine kleine Hypothese, die an der Realität getestet wird. Diese ständige Rückkopplung zwischen Wahrnehmung und Handlung bedeutet, dass die Hand kein bloßer Aktuator ist, sondern ein Feedback-System, das Wissen und Tun miteinander verschmilzt. Maurice Merleau-Ponty würde sagen: In der Hand begegnet das Bewusstsein der Welt – dort wird der abstrakte Raumbegriff greifbar.

Für künstliche Agenten würde eine vergleichbare Fähigkeit bedeuten, nicht nur feinmotorische Kontrolle zu beherrschen, sondern auch die kognitive Plastizität zu entwickeln, die aus verkörperter Interaktion entsteht. Künstliche Phronesiswürde verlangen, dass das Weltmodell eines Systems sich dynamisch durch seine Erfahrungen verändert, statt lediglich als statische Datenbank abgefragt zu werden. Ziel ist nicht perfekte Genauigkeit, sondern adaptive Kohärenz – genug über die Welt zu wissen, um sinnvoll in ihr zu handeln, und bereit zu sein, das eigene Modell zu revidieren, wenn die Welt zurückstößt.

Wenn wir uns also auf künstliche Delegierte zubewegen, lautet die Herausforderung: Systeme zu entwerfen, die die Welt nicht nur abbilden, sondern in ihr leben – im Spannungsfeld zwischen Komplexität und Reaktionsfähigkeit, das die Evolution durch Milliarden kleiner verkörperter Experimente gelöst hat.

Vielleicht ist das die neue Form eines Turing-Tests: wenn eine künstliche Intelligenz uns an die Hand nehmen und in eine größere, komplexere und tiefere Welt führen kann.

 

Alle Ausgaben des Forschungstagebuchs hier

Autor

Nicklas Berild Lundblad

fellow of practice

Projekte

Integrating experienced practitioners into the work of the TUM Think Tank

Fellowship

Nicklas Berild Lundblad joins the TUM Think Tank as a Senior Fellow of Practice to develop a novel interdisciplinary framework for understanding how artificial agency transforms institutions, shapes human identity, and increases social complexity. 

Fellowship