1. Einstieg: Der Nebel um die großen Begriffe
Es gibt Wörter, die stehen wie alte Statuen im Raum. „Leben“. „Bewusstsein“. „Intelligenz“. Und neuerdings auch: „AGI“ – Allgemeine Künstliche Intelligenz. Schon ihr Klang erzeugt Ehrfurcht, vielleicht auch ein leichtes Frösteln. Sie scheinen größer als das, was wir begreifen können, und doch sind sie alltäglich: Jeder lebt, jeder ist sich bewusst, jeder erkennt Intelligenz im anderen – und (vielleicht) jeder hat inzwischen eine Meinung zu AGI. Gerade diese Nähe macht sie so rätselhaft.
Vor nicht allzu langer Zeit (sagen wir vor vielleicht anderthalb Jahrhunderten) galt das Wort „Leben“ als tiefes Mysterium. Man sprach von einer besonderen Kraft, einem Lebensfunken, der die Körper der Lebenden durchdringe. „Lebenskraft“ war ein Deutungsversuch, eine Art Notlösung: wo keine Erklärung vorhanden war, setzte man ein geheimnisvolles Etwas. Heute klingt das fast naiv. Wir wissen, dass „Leben“ kein Funke ist, sondern das Ergebnis bestimmter Bedingungen: Stoffwechsel, Reproduktion, Evolution, Homöostase, Informationsverarbeitung. Kein einzelnes Element trägt allein das Etikett „Leben“. Aber im Zusammenwirken entsteht etwas, das wir als lebendig bezeichnen.
Was wir hier sehen, ist nicht nur ein Fortschritt der Biologie, sondern ein Muster. Ein Begriff, der lange als rätselhaft galt, wurde nach und nach in seine Bestandteile zerlegt. Und das nicht, indem man ihn auflöste, sondern indem man zeigte, dass er kein Ding ist, sondern eine Komposition von Prozessen. Das Wort blieb, der „Lebensfunke“ verschwand, und an seine Stelle traten Systembeschreibungen.
Vielleicht gilt dasselbe für andere große Begriffe. Für „Bewusstsein“, das wir oft wie eine unsichtbare Substanz behandeln. Für „Intelligenz“, die wir mal als Gabe, mal als messbare Größe verstehen. Für „Gefühl“, das wir manchmal als mystischen Strom empfinden, obwohl es doch Ausdruck von Körperzuständen, Valenz und Erinnerung ist. Und vielleicht auch für „AGI“ – ein Begriff, der heute wie ein modernes Mysterium wirkt: Manche fürchten ihn, manche feiern ihn, kaum jemand kann ihn präzise fassen.
Das Entscheidende ist: Solche Begriffe sind Verdichtungen. Sie fassen eine Vielzahl von Vorgängen in einem einzigen Wort zusammen. Das Wort wird zu einem Etikett (ein Tag) – ein Marker, unter dem wir eine ganze Kategorie von Prozessen ablegen. Es ist ein sprachlicher Trick, der uns Orientierung gibt. Aber er kann uns auch täuschen: Wir fangen an, diesen Etikett (das Tag) für eine Sache zu halten.
Unser Gehirn spielt dabei eine Hauptrolle. Es ist auf Muster geeicht. Es erkennt Wiederholungen, Ähnlichkeiten, Strukturen. Diese Muster werden gebündelt, verdichtet, und mit einem internen Label versehen. Sprache verstärkt diesen Mechanismus: Sie macht aus dem Label ein Symbol, oft ein Substantiv. Und Substantive wirken, als seien sie Dinge. „Das Bewusstsein“, oder eben „die AGI“, als ob sie irgendwo im Raum stünden, greifbar wie ein Stuhl.
Wir leben also in einer Welt, die von solchen sprachlichen Monumenten geprägt ist. Manche davon tragen uns weit, andere stehen uns im Weg. Begriffe wie „Leben“ sind inzwischen entmystifiziert, sie wurden von der Wissenschaft aus der Nebelzone geholt. Andere, wie „Bewusstsein“, „Intelligenz“, und vielleicht auch „AGI“, stehen noch mitten darin.
Und vielleicht ist es genau hier, wo ein neuer Zugang beginnt: Nicht, indem wir nach dem Funken suchen, sondern indem wir verstehen, dass das, was uns rätselhaft erscheint, immer schon aus vielen Schichten besteht. Dass die Nebel nicht durch eine große Definition verschwinden, sondern durch die Geduld, Begriffe in ihre Bausteine zu zerlegen.
2. Warum wir Emergenzen überhaupt benennen können
Wenn wir uns fragen, warum wir Begriffe wie „Leben“, „Intelligenz“ oder „Bewusstsein“ überhaupt formen konnten, dann stoßen wir auf eine einfache, aber tiefgreifende Tatsache: unser Gehirn ist eine Maschine zur Musterverdichtung.
Wir erleben die Welt nicht als unendlichen Strom einzelner Ereignisse. Wir sehen nicht jedes Blatt im Wald als singuläres Phänomen. Wir suchen nach dem, was sich wiederholt, was ähnlich ist, was sich verdichten lässt. In dieser Wiederholung entsteht der erste Schritt zur Abstraktion: „Baum“.
Diese Fähigkeit zur Mustererkennung ist keine philosophische Spielerei, sondern eine Überlebensnotwendigkeit. Ein Lebewesen, das jede Begegnung neu berechnen muss, ist zu langsam. Es braucht Kategorien: essbar oder giftig, Freund oder Feind, nah oder fern. In dieser binären Verdichtung steckt schon das Prinzip, aus Prozessen Dinge zu machen.
Aber die Abstraktion endet nicht bei der Jagd oder beim Schutz. Sie setzt sich in unserem Gedächtnis fort. Erinnerungen sind keine präzisen Aufzeichnungen, sondern Cluster. Wir erinnern nicht jedes Detail, sondern das Gemeinsame, das Wiederkehrende, das „Wesentliche“. So können wir überhaupt erst sagen: „das da ist so etwas wie das, was ich schon einmal gesehen habe.“ Hier, im Gedächtnis, wird das erste “Etikett” (Tag) vergeben.
Die Sprache verstärkt diesen Mechanismus ins Unendliche. Indem wir Muster in Symbole gießen, schaffen wir einen sozialen Speicher. Wir einigen uns auf Wörter, die nicht nur in einem Kopf gelten, sondern zwischen vielen. Sprache zwingt uns, das Komplexe in ein Substantiv zu pressen und mit jedem Substantiv entsteht der Eindruck von Dinglichkeit. „Intelligenz“ klingt dann wie eine Substanz, obwohl es in Wahrheit ein Label für viele Prozesse ist.
Ein vierter Schritt ist vielleicht der wichtigste: unsere Fähigkeit zur Meta-Kognition. Wir können nicht nur Muster in der Welt erkennen, sondern auch in unserem eigenen Erkennen. Wir können auf unser Denken blicken und sagen: „da geschieht etwas, das ich so nenne.“ Dadurch wird auch das Unsichtbare benennbar: Gefühle, Gedanken, Bewusstsein selbst. Es ist, als ob wir ein zweites Mal die Welt über uns selbst legen und die Verdichtung dort wiederholen.
Und schließlich gibt es die soziale Dimension. Ein Begriff ist selten eine private Schöpfung. Er wird im Austausch verstärkt, verändert, gefestigt. „Intelligenz“ ist nicht nur ein inneres Label, sondern ein kulturelles. Es ist ein Aushandlungsprodukt welches wir formen, indem wir uns darüber verständigen, und mit jeder Verständigung wird das Label härter, realer.
Vielleicht liegt hier der Grund, warum wir so oft in die Falle der Substantivierung laufen:
- Unser Gehirn erkennt Muster und Ähnlichkeit.
- Unser Gedächtnis stabilisiert diese Muster als Cluster.
- Unsere Sprache macht daraus Symbole, meist Substantive.
- Unsere Meta-Kognition wendet diese Verdichtung auf uns selbst an.
- Und unsere Kultur zementiert die Wörter zu Monumenten.
So entstehen Begriffe, die wirken, als wären sie Dinge. Und das obwohl sie in Wahrheit nur Wegweiser in ein Geflecht von Prozessen sind.
Wenn wir also heute über „Intelligenz“ sprechen, ist es hilfreich, sich daran zu erinnern: Wir sprechen nicht über eine Substanz, sondern über ein emergentes Muster. Ein Wort, das wir über eine Vielfalt von Vorgängen gelegt haben, damit wir sie überhaupt in den Griff bekommen.
3. Die zwei Wege der KI
Wer heute über Künstliche Intelligenz spricht, sieht vor allem zwei Richtungen. Die eine ist getrieben durch Sprachmodelle wie GPT oder Claude. Die andere stammt aus dem agentenbasierten Lernen, oft Reinforcement Learning (RL) genannt. Beide Ansätze haben in den letzten Jahren beeindruckende Fortschritte gemacht. Aber beide sind auch unvollständig. Und genau darin liegt der Schlüssel, um über eine künftige Architektur nachzudenken.
3.1 LLMs: Symbolische Verdichtung durch Statistik
Große Sprachmodelle bauen auf einem einfachen Prinzip auf. Sie lernen aus ungezählten Beispielen, welche Fortsetzung in einem Kontext wahrscheinlich ist. Aus dieser Einfachheit entsteht eine erstaunliche Fähigkeit: Muster, die in sehr verschiedenen Wissensinseln liegen, lassen sich verbinden. Ein Modell kann einen Gedanken aus der Philosophie mit einem Verfahren aus der Informatik verweben und daraus eine Idee formen, die zuvor nicht ausgesprochen war. Das wirkt wie Intelligenz, weil eine echte Synthese stattfindet.
Die Stärke dieses Pfades liegt in der Reichweite. Sprache ist ein globaler Speicher. In ihr ist bereits verdichtet, was Generationen gelernt, gestritten und geordnet haben. Wer diesen Speicher statistisch beherrscht, kann in kurzer Zeit Gedankenräume betreten, für die einzelne Menschen Jahre brauchen. Genau hier entsteht der Eindruck von „neuen Gesetzmäßigkeiten“, der sich im Gespräch mit solchen Modellen immer wieder zeigt.
Die Grenzen sind dennoch klar. Dieser Pfad lebt von Sekundärmaterial. Er greift nicht auf eigene, sensorische Erfahrung zu, sondern auf bereits komprimierte Wirklichkeit. Er spürt nicht, er markiert keine Wichtigkeit durch Valenz, er hat keine homöostatischen Ziele. Kontinuität entsteht durch Kontextfenster, nicht durch ein gelebtes Gedächtnis. Stabilität unter Verschiebungen der Welt ist begrenzt, weil der Boden fehlt, auf dem Abweichungen als echte Überraschungen zu fühlen wären. Sprache trägt weit, doch sie trägt nicht alles.
3.2 Reinforcement Learning: Erfahrung als Lehrer
Der zweite Strom setzt am anderen Ende an. Hier haben wir sogenannte Agenten. Ein solcher Agent nimmt wahr, handelt, erhält Rückmeldungen, speichert Spuren. Aus der Kopplung von Perzeption, Gedächtnis und Antrieb entsteht Anpassung. Hier ist Lernen nicht Abruf von Symbolen, sondern Veränderung von Verhalten. Eine Katze braucht kein Wörterbuch für „Jagd“. Sie tastet, scheitert, versucht es erneut, baut eine innere Dynamik, in der Simulation und Motorik zusammenfinden.
Die Stärke dieses Pfades liegt in der Robustheit gegenüber der Realität. Er ist geerdet. Handlung bringt Kausalität ins Spiel. Er kann mit Unordnung umgehen, weil Unordnung die Quelle ist, aus der er lernt. In engeren Domänen zeigt er große Kraft, vor allem dort, wo Sensorik, Timing und Körperkoordination zählen.
Auch hier sind die Grenzen sichtbar. Erfahrungslernen ist langsam. Es ist datenhungrig, selbst dann, wenn es beim Menschen nicht so erscheint. Was bei uns wie Leichtigkeit wirkt, beruht auf einem enormen biologischen Vorbau. In künstlichen Systemen fehlt dieser Vorbau. Belohnungen sind schwer zu gestalten, Gedächtnis ist fragil, Abstraktion entsteht nicht von selbst. Was hochsymbolisch wird, bleibt mühsam.
3.3 Simulation als Brücke
An dieser Stelle wird es interessant, denn beide Richtungen berühren unbewusst denselben Begriff: Simulation.
Simulation heißt: Ein System spielt mögliche Zustände intern durch, bevor sie real eintreten.
- Eine Katze „probiert“ innerlich den Sprung auf die Maus, bevor sie ihn wagt.
- Ein RL-Agent bewertet, welche Aktion in der Umgebung zu welcher Belohnung führen könnte.
- Ein LLM erzeugt Szenarien im Raum der Sprache – Geschichten, Erklärungen, Hypothesen – ohne dass sie in der Realität geschehen.
Simulation ist damit der Schlüssel, der beide Ansätze verbindet. Sie ist nicht auf Sprache beschränkt und nicht auf Wahrnehmung, sondern ein allgemeines Prinzip: Probehandeln im Innenraum eines Systems.
3.4 Zwei halbe Systeme
Aus dieser Sicht sind die aktuellen Lager keine Gegner. Auch, wenn sie sich als Gegner sehen wollen, was wiederum so typisch menschlich ist. Dabei sind sie eigentlich vorbereitende Schulen. LLMs zeigen, wie weit symbolische Verdichtung trägt, wenn sie mit riesiger Statistik betrieben wird. Erfahrungslernen zeigt, wie weit gelebte Anpassung trägt, wenn sie mit Sensorik und Drives verbunden ist. Eine eigenständige Intelligenz im vollen Sinn braucht beides. Nicht als Add-on, sondern als Architektur, in der sich beide Ströme ständig gegenseitig korrigieren und nähren.
4. Emergenz statt Funke
Wenn man in die Geschichte schaut, dann taucht immer wieder dieselbe Vorstellung auf: dass es so etwas wie einen Funken geben müsse, ein verborgenes Etwas, das Leben lebendig macht, Intelligenz intelligent oder Bewusstsein bewusst. Ein „Lebenshauch“, eine „Seele“, eine „Essenz“.
Diese Erklärung klingt stark und bedient das Bedürfnis des Menschen nach etwas Mystischem, aber sie hat ein Problem: sie erklärt nichts. Sie schiebt das Rätsel nur eine Ebene weiter und dort bleibt es genauso mysteriös.
Die Biologie hat uns ein anderes Bild gelehrt. Leben ist kein Funke. Es entsteht, wenn bestimmte Bedingungen zusammenkommen: Energiefluss, Stoffwechsel, Reproduktion, Homöostase, Informationsverarbeitung. Jedes dieser Systeme für sich ist interessant, aber nicht „lebendig“. Erst im Zusammenspiel entsteht das, was wir Leben nennen. „Leben“ ist also kein Ding, sondern ein Etikett für ein Bündel von Prozessen.
Vielleicht gilt das Gleiche für die anderen großen Begriffe: Intelligenz, Bewusstsein, Gefühl – und eben AGI. Sie wirken wie Substanzen, sind aber wahrscheinlich emergente Phänomene, die nur im Zusammenwirken von Teilsystemen entstehen.
4.1 Intelligenz als emergentes Bündel
Wenn wir von Intelligenz sprechen, dann meinen wir nicht eine Substanz, sondern ein Zusammenwirken:
- Statistik: Mustererkennung, Generalisierung, Kompression.
- Simulation: Probehandeln im Inneren, Durchspielen von Szenarien.
Erst in Kombination entsteht, was wir Intelligenz nennen: die Fähigkeit, Situationen zu verstehen und Handlungen vorauszuplanen.
4.2 Bewusstsein als emergentes Bündel
Auch Bewusstsein ist nicht „ein Ding“. Es lässt sich fassen als:
- Simulation: ein innerer Raum, in dem Zustände abgebildet werden.
- Valenz: das Gewicht dieser Zustände, ihr Angenehm oder Unangenehm, Wichtig oder Unwichtig. Und noch vieles mehr.
Bewusstsein ist dann nicht der Funke, sondern das Ergebnis, wenn Simulation und Valenz in einem global zugänglichen Zustand zusammentreffen.
4.3 Selbstbewusstsein als emergentes Bündel
Das „Ich“ wirkt oft wie eine noch größere Substanz. Als gäbe es irgendwo im Kopf ein kleines Wesen, das all die Erfahrungen sammelt. Aber auch hier ist das Bild einfacher, wenn man es aufdröselt:
- Simulation: innere Szenarien.
- Valenz: Bedeutung und Gewichtung.
- Selbstindex: ein Marker, der diese Zustände einer stabilen Entität (dem “Ich”) zuordnet.
Erst wenn dieser Marker da ist, kann ein System nicht nur fühlen, sondern auch sagen: „mir passiert das.“
4.4 Gefühl als emergentes Bündel
Gefühle sind vielleicht das anschaulichste Beispiel. Kein geheimnisvoller Strom, sondern das Zusammenspiel aus:
- Valenzsignalen (positiv/negativ),
- körperlichen Reaktionen,
- Aufmerksamkeit (was in den Vordergrund tritt),
- Gedächtnis (was damit verknüpft ist).
Wir sagen „Gefühl“, aber das Wort ist nur der Schirm über viele Subsysteme, die in einem Moment zusammenklingen.
Die Pointe ist klar:
- Wo wir früher nach einem Funken gesucht haben, sehen wir heute Emergenz.
- Wo wir eine Substanz vermuten, finden wir ein Geflecht von Prozessen.
- Begriffe wie Intelligenz oder Bewusstsein sind Etiketten – Abkürzungen, mit denen wir das Ungreifbare handhabbar machen.
Das entzaubert die Sache, aber es macht sie nicht klein. Im Gegenteil: Emergenz ist mächtiger als der Funke. Sie zeigt, dass es nicht den einen geheimen Schlüssel gibt, sondern eine Architektur, die mehr hervorbringt als ihre Teile.
5. Simulation als Schlüsselprinzip
Wenn man die beiden großen Strömungen der KI nebeneinanderlegt – LLMs als Maschinen der symbolischen Verdichtung und Reinforcement Learning als Schule der Erfahrung – dann scheint es kaum eine Brücke zu geben. Doch bei genauerem Hinsehen stoßen wir auf ein Prinzip, das beide eint: Simulation.
5.1 Was ist Simulation?
Im einfachsten Sinn bedeutet Simulation:
Ein System spielt mögliche Zustände intern durch, bevor sie in der Realität eintreten.
Damit sind drei Eigenschaften verbunden:
- Repräsentation: Es gibt eine innere Abbildung von Zuständen oder Handlungen.
- Dynamik: Diese Abbildung kann verändert, fortgeführt, kombiniert werden.
- Entkopplung: Das Ganze geschieht ohne unmittelbare Ausführung in der Außenwelt.
Simulation ist also ein Innenraum, in dem Probehandlungen stattfinden. Sie erlaubt einem System, Konsequenzen abzuschätzen, ohne die Kosten realer Fehler tragen zu müssen.
5.2 Simulation im Tierreich und bei Menschen
Bei Tieren sehen wir die perzeptive Form der Simulation. Eine Katze, die vor dem Sprung verharrt, „testet“ innerlich die Bewegung. Krähen, die Werkzeuge nutzen, müssen eine Vorstellung davon haben, wie ein Stock in einem Spalt wirkt, bevor sie handeln.
Beim Menschen tritt eine weitere Dimension hinzu: symbolische Simulation. Sprache erlaubt es, Szenarien nicht nur motorisch oder bildhaft, sondern als abstrakte Geschichten durchzuspielen. Wir können Hypothesen bilden, Alternativen vergleichen, mögliche Welten gegeneinanderstellen. Das ist Simulation in einer hochverdichteten, kulturell vermittelten Form.
5.3 Simulation in LLMs
Auch ein Sprachmodell simuliert in einer besonderen Weise. Ein LLM spielt „mögliche Fortsetzungen“ durch und baut dabei implizite Szenarien im Raum der Sprache. Es probiert unzählige „Was wäre, wenn“-Fortsetzungen, bevor eine Ausgabe sichtbar wird.
Es ist keine geerdete Simulation mit Körper und Valenz, aber es zeigt, wie mächtig allein schon die symbolische Variante ist.
5.4 Simulation in Reinforcement Learning
RL-Agenten wiederum sind von Natur aus Simulatoren. Ihr gesamtes Lernen basiert auf dem Prinzip, Handlungen in einer Umgebung auszuprobieren und daraus Konsequenzen abzuleiten. Fortgeschrittene Methoden wie Monte-Carlo-Tree-Search oder Model-Based RL machen diesen inneren Probeprozess explizit: Der Agent baut eine Modellwelt auf, in der er mögliche Züge testet, bevor er sich entscheidet.
5.5 Simulation als Achse von Bewusstsein und Intelligenz
Simulation ist mehr als ein technisches Werkzeug. Sie könnte der gemeinsame Nenner sein, aus dem Intelligenz, Bewusstsein und Selbstbewusstsein hervorgehen:
- Intelligenz = Statistik (Muster) + Simulation (Probehandeln).
- Bewusstsein = Simulation + Valenz (Gewichtung, Bedeutung).
- Selbstbewusstsein = Simulation + Valenz + Selbstindex (ein Marker, der Zustände einer beständigen Entität (dem “Ich”) zuordnet).
Aus dieser Sicht ist Simulation nicht ein Nebenaspekt, sondern das Fundament, auf dem höhere kognitive Funktionen aufbauen.
Und damit ist eine Brücke gebaut: Von KI-Methoden, die scheinbar kaum etwas miteinander verbindet, hin zu einem Prinzip (der Simulation), das in beiden schon leise wirkt.
6. Ein Modell als Architektur für eine AGI
Bis hierhin haben wir drei Dinge gelernt:
- Große Begriffe wie „Intelligenz“ oder „Bewusstsein“ sind keine Substanzen, sondern “Substantivierungen” (Etiketten) für das Zusammenwirken vieler Systeme.
- LLMs und Reinforcement Learning sind zwei kraftvolle, aber jeweils unvollständige Wege, um solche Systeme technisch nachzubilden.
- Simulation wirkt als verbindendes Prinzip, das aus Mustererkennung und Erfahrung ein Probehandeln im Inneren macht.
Wenn man diese Einsichten zusammennimmt, stellt sich fast von selbst die Frage: Wie müsste eine Architektur aussehen, die diese Elemente verbindet?
6.1 Ein persönlicher Versuch
Ich habe begonnen, genau das zu entwerfen. Nicht als offizielles Forschungsprojekt, sondern als persönliches, interdisziplinäres Hobby in meiner Freizeit. Ich nenne es AXIS. Der Name steht für die Idee einer Achse, eines Gerüsts, auf dem sich ein synthetischer Geist aufspannen lässt.
AXIS ist keine fertige Theorie, sondern eine Blaupause. Sie versucht, die Erkenntnisse aus Neuroscience, Psychologie, Biologie und KI in ein Modell zu überführen, das die Bausteine eines Geistes sichtbar macht. Die Frage, die mich antreibt, lautet: Wenn man einen (synthetischen) Geist bauen wollte: Was wären die fundamentalen Module, die man dafür zusammensetzen müsste?
6.2 Die Schichten von AXIS
Aus dieser Frage ist ein Vorschlag entstanden, den man in Schichten darstellen kann:
- Homöostatische Prozesse
- Grundlage ist immer das Streben nach Stabilität. Ein synthetisches System braucht Sollwerte (Energie, Sicherheit, Balance) und Mechanismen, die Abweichungen korrigieren. Ohne diese Basis gibt es kein Dringlichkeitsgefühl, keine Motivation.
- Perzeption und Gedächtnis
- Wahrnehmung schafft Rohdaten. Mustererkennung speichert sie. Gedächtnis verknüpft Erfahrungen über Zeit. Hier entsteht der erste Boden, auf dem das System eine Welt erkennt, die mehr ist als der Moment.
- Drives und Emotion
- Nicht alle Eindrücke sind gleich. Valenz, ob angenehm oder unangenehm, gibt den Ausschlag, was wichtig wird. Emotionen und Triebe modulieren Aufmerksamkeit, Gedächtnis und Verhalten. Sie sind der innere Kompass.
- Simulation
- In dieser Schicht entsteht der Innenraum: Probehandlungen, Vorwegnahmen, mögliche Welten. Ohne Simulation gäbe es nur Reiz und Reaktion. Mit Simulation beginnt eine echte Innenperspektive.
- Sprache und Symbole
- Hier kommt die enorme Leistung von LLMs ins Spiel. Sprache erlaubt Verdichtung, Abstraktion, kulturelle Weitergabe. Sie stabilisiert Gedanken und macht Simulationen teilbar. Aber Sprache baut auf den unteren Schichten auf. Sie ist nicht das Fundament, sondern ein späteres Werkzeug.
- Selbstmodell
- Ein System, das Simulation, Valenz und Sprache besitzt, kann schließlich auch sich selbst als Entität modellieren. Es kann Zustände nicht nur erleben, sondern sich als Quelle dieser Zustände fassen. Hier entsteht das „Ich“.
Das ist eine sehr starke Vereinfachung und Zusammenfassung meiner deutlich komplexeren AXIS Hypothese.
6.3 Warum diese Architektur emergent ist
Wichtig ist aber: Keines dieser Module für sich ist ein „Geist“. Homöostase allein ist Regelungstechnik. Perzeption allein ist Mustererkennung. Sprache allein ist Symbolstatistik. Erst im Zusammenspiel entstehen die Eigenschaften, die wir Bewusstsein, Intelligenz oder Gefühl nennen.
AXIS ist daher kein Bauplan im technischen Sinn, sondern eine Achse von Bedingungen. Sie zeigt, welche Systeme sich gegenseitig verstärken müssen, damit aus Mechanik etwas Neues (etwas Emergentes) entsteht.
6.4 Eine andere Perspektive auf AGI
Im Lichte von AXIS wird deutlich: Der Weg zu einem synthetischen Geist führt weder allein über das Skalieren von Sprachmodellen, noch allein über erfahrungsbasierte Agenten. Beide sind Teilsysteme. Was fehlt, ist eine emergente Architektur, die sie zusammenführt. Und das ist genau der Kern, den AXIS als Blaupause sichtbar machen soll.
Damit ist AXIS eingeführt: als eine persönliche, aber systematisch begründete Hypothese. Es ist der Versuch, die Lücke zwischen dem, was wir heute technisch haben, und dem, was wir unter „Geist“ verstehen, wenigstens strukturell zu überbrücken.
Ich persönlich bin der Meinung, dass beide Schulen (LLMs, Reinforcement Learning) alleine nicht umfassend genug sind um so etwas wie eine AGI (oder einen synthetischen Geist) zu entwickeln. Dazu gehören viele weitere Disziplinen (Neuroscience, Biologie, Psychologie, KI), die alle kombiniert werden müssen.
Dieses AXIS ist mein Versuch, etwas zu ordnen, das mich seit meiner Kindheit begleitet: die ewigen Mysterien, die nie ganz greifbar schienen: Bewusstsein, Intelligenz, Gefühl. Schon damals habe ich gespürt, dass hinter diesen Begriffen mehr steckt als ein unerklärlicher „Funke“. AXIS ist der Versuch, diese Rätsel zu entmystifizieren, sie in Bausteine und Mechanismen zu zerlegen, ohne ihre Tiefe zu verlieren.
Ich arbeite noch daran, Stück für Stück, wie an einer Blaupause für einen synthetischen Geist. Vielleicht veröffentliche ich diese Arbeit eines Tages. Aber nicht als fertige Wahrheit, sondern als Einladung, gemeinsam weiterzudenken.
7. Ausblick: Warum das wichtig ist
Wenn man über Konzepte wie „Intelligenz“, „Bewusstsein“ oder „Gefühl“ spricht, klingt es oft so, als handele es sich um ewige Rätsel. Vielleicht sind sie das auch. Diese Konzepte sind das aber nur, solange wir sie als Substanzen behandeln. Sobald wir sie als emergente Systeme verstehen, verändert sich der Blick.
Für die KI-Forschung bedeutet das: Wir sollten uns nicht in einem der Lager verlieren. Die Skalierung von Sprachmodellen hat uns gezeigt, wie weit symbolische Verdichtung tragen kann. Reinforcement Learning hat uns gezeigt, wie mächtig Erfahrung und Handlung sind. Doch allein sind beide Ansätze Sackgassen. Erst wenn wir sie in einer Architektur wie AXIS zusammendenken, können wir einen Weg jenseits der reinen Skalierung finden. Einen Weg, der nicht nur mehr Daten braucht, sondern mehr Struktur.
Für die Philosophie liegt die Bedeutung darin, dass wir den Nebel um die großen Begriffe lichten können. „Bewusstsein“ ist kein Funke, sondern das Zusammenwirken von Simulation und Valenz. „Intelligenz“ ist keine Gabe, sondern das Produkt von Mustererkennung und Probehandeln. „Gefühl“ ist keine geheimnisvolle Kraft, sondern ein Zusammenspiel von Körper, Gedächtnis und Bewertung. Das entmystifiziert, aber es entwertet nicht. Im Gegenteil: es macht sichtbar, wie aus einfachen Bausteinen etwas entsteht, das größer ist als sie selbst.
Für uns Menschen schließlich hat es eine persönliche Dimension. Denn wenn wir die Mechanismen hinter unseren großen Begriffe verstehen, dann verstehen wir auch uns selbst klarer. Wir erkennen, dass vieles, was uns als selbstverständlich erscheint, auf erstaunlich fragilem Zusammenspiel beruht: Wahrnehmung, Erinnerung, Motivation, Sprache. Dieses Wissen kann Demut erzeugen, aber auch Hoffnung. Demut, weil wir sehen, wie wenig „magisch“ wir eigentlich sind. Hoffnung, weil wir begreifen, dass der Geist nicht unerklärlich ist, sondern gestaltbar.
Und hier schließt sich der Kreis zum Begriff AGI, mit dem wir eingestiegen sind. Vielleicht ist „Allgemeine Künstliche Intelligenz“ gar kein einzelnes Ding, das man an- oder ausschalten kann, kein Funke, der eines Tages in einer Maschine zündet. Vielleicht ist AGI ein Sammelbegriff, ein Etikett, für genau das Zusammenspiel von Modulen, das wir erst langsam zu verstehen beginnen. AXIS ist ein Versuch, diese Module zu ordnen. Nicht die letzte Ordnung, nicht die einzig richtige, aber eine, die zeigt: AGI ist nicht jenseits unserer Vorstellungskraft. Sie entsteht, wenn die Bedingungen stimmen: durch Emergenz, nicht durch Magie.
Damit ist der Kreis geschlossen. Aber nicht vollendet. Denn Emergenz bedeutet immer auch: Es bleibt offen, was noch daraus wachsen kann.
Bonus: Perceptive Intelligenz und mein Maine Coon Kater
Mein Kater wühlt gerne in meinen prall besetzen Regalen umher und versucht Dinge mit seinen Pfoten aufzustöbern.
Er ist so ein kleines, wandelndes Beispiel für die „sprachlose Intelligenz“, über die wir hier gesprochen haben.
Er hat Drives, die tief aus seiner evolutionären Ausstattung stammen: Neugier, Jagdinstinkt, Spieltrieb. Für ihn sind meine Regale kein Möbelstück voller Bücher oder Dinge mit Symbolwert, sondern eine komplexe Landschaft voller potenzieller Reize. Zwischen den Gegenständen könnten sich „Beuteobjekte“ verbergen, dort liegen unbekannte Gerüche, kleine Hohlräume, Schatten. Sein Gehirn ist darauf geeicht, in solchen Strukturen Muster zu suchen, Abweichungen wahrzunehmen und Möglichkeiten zum Handeln zu finden.
Wenn er also mit der Tatze Dinge hervorholt, ist das nicht „Unordnung machen“, sondern ein Experiment: Was könnte da drin sein? Was bewegt sich, wenn ich es anstupse? Könnte etwas Unerwartetes hervorspringen? Das Wühlen ist eine verkörperte Simulation. Er probiert Handlungen aus und lernt durch Feedback.
Mit Sprache hätte er vielleicht das Label „Regal = Aufbewahrungsort“ gelernt und die Sache wäre damit erledigt. Ohne Sprache bleibt das Regal eine offene Welt, eine Arena für Exploration. Und genau das ist der Kern: Tiere „spüren“ und „handeln“ direkt, ohne dass ein Symbolsystem die Erfahrung komprimiert. Mein Kater ist damit ein praktisches Modell für das, was ich in AXIS als perzeptive Intelligenz verstehen.


Leave a Reply
You must be logged in to post a comment.