„Selbstmodelle, Bewusstsein und die Zukunft künstlicher Subjektivität“ – Zoomposium mit Thomas Metzinger

„Selbstmodelle, Bewusstsein und die Zukunft künstlicher Subjektivität“ – Zoomposium mit Thomas Metzinger

„Selbstmodelle, Bewusstsein und die Zukunft künstlicher Subjektivität“ – Zoomposium mit Thomas Metzinger

Teil 1 und Teil 2 „Hinter dem Ego-Tunnel“ – ein Interview über phänomenales Bewusstsein, Minimal Experience und künstliche Intelligenz –

Informationen zur Person:

Prof. Dr. Thomas Metzinger gehört zu den bekanntesten und einflussreichsten Philosophen der Gegenwart, insbesondere im Bereich der Philosophie des Geistes und der Bewusstseinsforschung. Er war bis 2022 Professor für Theoretische Philosophie an der Johannes Gutenberg-Universität Mainz und hat die Schnittstelle zwischen analytischer Philosophie, Neurowissenschaften und Kognitionswissenschaften maßgeblich geprägt.

Metzinger ist international bekannt für seine Selbstmodell-Theorie der Subjektivität, die er 2003 in seinem fachwissenschaftlichen Buch „Being No One. The Self-Model Theory of Subjectivity“  und in seinem 2009 erschienenen populärwissenschaftlichen Buch „Der Ego-Tunnel“ ausführlich darlegt. In dieser Theorie beschreibt er das „Ich“ als ein selbstgeneriertes Modell des Gehirns, das die Welt und den eigenen Körper abbildet. Dieses Modell ist in seiner Transparenz so perfekt, dass es für uns so aussieht, als ob das „Ich“ eine stabile und eigenständige Entität ist. Diese innovative Perspektive stellt die gängige Vorstellung des Selbst in Frage und revolutioniert unser Verständnis von Subjektivität und Bewusstsein.

Ein zentrales Thema in Metzingers Werk ist die Verbindung von Phänomenologie und Empirie. Er betont, dass subjektive Erfahrungen nicht nur philosophisch beschrieben, sondern auch formalisiert und wissenschaftlich untersucht werden müssen. Dieser interdisziplinäre Ansatz hat das Feld der Computational Phenomenology geprägt, bei dem er den Versuch unternimmt, phänomenologische Zustände in formale Modelle zu überführen, die mit empirischen Methoden getestet werden können.

Neben seiner Forschung über das Bewusstsein und die Selbstwahrnehmung beschäftigt sich Metzinger auch intensiv mit den ethischen und philosophischen Implikationen der Künstlichen Intelligenz. Besonders hervorzuheben ist sein Beitrag zur KI-Ethik, in dem er auf das Risiko von künstlichem Leid und der möglichen Entstehung von künstlichem Bewusstsein hinweist. Für Metzinger ist der Unterschied zwischen Bewusstsein und Intelligenz von zentraler Bedeutung, um die ethischen Grenzen der KI-Forschung zu verstehen und verantwortungsvoll zu handeln.

Metzinger ist auch ein leidenschaftlicher Kritiker des Szientismus, der Ansicht, dass die Wissenschaften die einzigen legitimen Erklärungen für alle Aspekte der menschlichen Existenz liefern können. In seinen Arbeiten plädiert er für einen differenzierten und interdisziplinären Ansatz, der die Komplexität des Bewusstseins und der mentalen Phänomene berücksichtigt, ohne diese in eindimensionale wissenschaftliche Modelle zu zwängen.

Zu seinen zahlreichen Veröffentlichungen gehören nicht nur wissenschaftliche Aufsätze, sondern auch populärwissenschaftliche Werke, in denen er komplexe philosophische und wissenschaftliche Konzepte einem breiten Publikum zugänglich macht. Mit seinen Arbeiten hat Metzinger nicht nur die akademische Diskussion über Bewusstsein und Selbstmodellierung beeinflusst, sondern auch die breitere Öffentlichkeit für die tiefen Fragen des menschlichen Geistes und der Künstlichen Intelligenz sensibilisiert.

Insofern waren dies mehr als genügend Gründe einmal ein Zoomposium mit Herrn Metzinger zu führen. Und nach mehreren erfolglosen Anfragen, hatte ich schließlich das große Vergnügen und die Ehre ihn einmal live und in Farbe in einem Vortrag 2025 der Münsterschen Vorlesungen an der Universität Münster zu erleben und ihn im Anschluss einmal persönlich um ein Interview zu bitten.

Diesem Ansinnen ist er nun freundlicherweise nachgekommen und daher konnten wir nun das hier vorliegende Zoomposium mit ihm führen, das wir aufgrund der Länge und der unterschiedlichen Inhalte in zwei Teile geteilt haben. Wobei sich Teil 1 „Hinter dem Ego-Tunnel“ – ein Interview über phänomenales Bewusstsein, Minimal Experience und künstliche Intelligenz mehr mit seinen philosophischen Selbstmdell-Theorien beschäftigt. Im Teil 2 beschäftigen wir uns dann intensiver mit den politischen, sozialen und ethischen Implikationen dieser Thematik.  

Informationen zum Zoomposium: „Selbstmodelle, Bewusstsein und die Zukunft künstlicher Subjektivität“

In unserem Gespräch erläutert Metzinger, wie diese Selbstmodelle möglicherweise im Verlauf der biologischen Evolution entstanden ist. Aus seiner Sicht handelt es sich um eine besonders effiziente Form der Informationsverarbeitung: Organismen entwickeln interne Modelle ihrer Umwelt, um ihr Verhalten besser zu steuern und ihre Überlebenschancen zu erhöhen. In diesem Prozess entsteht schließlich ein phänomenales Modell des eigenen Körpers und der eigenen Perspektive – das, was wir gewöhnlich als unser „Selbst“ erleben.

Ein zentrales Thema des Interviews ist dabei die Frage, wie sich subjektive Erfahrung wissenschaftlich untersuchen lässt. Metzinger betont immer wieder, dass phänomenologische Beschreibungen – also Beschreibungen dessen, wie sich Bewusstsein aus der ersten Person anfühlt – nicht bei rein narrativen Darstellungen stehen bleiben dürfen. Vielmehr sollten sie schrittweise in formal beschreibbare und empirisch überprüfbare Modelle überführt werden. Die Herausforderung besteht darin, die oft unscharfen Begriffe der Alltagsphänomenologie mit den Methoden der kognitiven Neurowissenschaften zu verbinden.

In diesem Zusammenhang spricht Metzinger über seine jüngeren Arbeiten zur computational phenomenology, einem Forschungsprogramm, das versucht, phänomenologische Strukturen mathematisch oder rechnerisch zu modellieren. Ein besonders interessantes Untersuchungsfeld bilden für ihn dabei Zustände minimaler bewusster Erfahrung, sogenannte Minimal Phenomenal Experience (MPE). Dabei handelt es sich um sehr einfache Formen von Bewusstheit – etwa in bestimmten meditativen Zuständen –, in denen eine Form von Präsenz oder Wachheit bestehen bleibt, ohne dass ein ausgeprägtes Ich-Narrativ vorhanden ist. Solche Zustände könnten nach Metzinger besonders geeignet sein, um die grundlegenden Strukturen bewusster Erfahrung empirisch zu erforschen.

Ein weiterer Schwerpunkt des Gesprächs betrifft die Frage nach künstlichem Bewusstsein. Metzinger gehört zu den wenigen Philosophen, die früh auf mögliche ethische Risiken hingewiesen haben. In seinem viel diskutierten Aufsatz über Artificial Suffering argumentiert er, dass die Entwicklung bewusster künstlicher Systeme moralisch problematisch sein könnte – insbesondere dann, wenn diese Systeme in der Lage wären, Leid zu erfahren. Diese Perspektive verschiebt die Debatte über KI-Ethik deutlich: Während sich viele Diskussionen auf Fragen von Kontrolle, Verantwortung oder Arbeitsplatzverlust konzentrieren, fordert Metzinger, auch die Möglichkeit phänomenaler Zustände in künstlichen Systemen ernst zu nehmen.

Dabei betont er, dass Intelligenz und Bewusstsein nicht dasselbe sind. Ein System kann hochgradig intelligent sein – etwa beim Lösen komplexer Probleme –, ohne notwendigerweise eine subjektive Perspektive zu besitzen. Umgekehrt wäre ein bewusstes System ethisch relevant, selbst wenn es nur begrenzte kognitive Fähigkeiten hätte. Diese Unterscheidung ist entscheidend für die Bewertung zukünftiger KI-Technologien.

Auch die aktuellen Entwicklungen in der KI-Forschung – etwa neuromorphe Systeme, Deep Learning oder spiking neural networks, die sich stärker an biologischen Gehirnen orientieren – werden im Interview diskutiert. Metzinger zeigt sich vorsichtig gegenüber der Vorstellung, dass solche Technologien kurzfristig zu künstlichem Bewusstsein führen könnten. Gleichzeitig hält er es für prinzipiell möglich, dass künstliche Systeme eines Tages Formen phänomenaler Erfahrung entwickeln. Sollte dies geschehen, hätte dies tiefgreifende ethische und gesellschaftliche Konsequenzen. Dies wird auch in unserem 2. Teil noch ausführlicher diskutiert werden.

Zum Abschluss richtet sich der Blick auf eine breitere kulturelle Perspektive. Metzinger spricht von der Notwendigkeit einer neuen Bewusstseinskultur – einer gesellschaftlichen Haltung, die sich stärker mit der Natur des Bewusstseins, mit Formen mentalen Leidens und mit den ethischen Implikationen neuer Technologien auseinandersetzt. Wissenschaftliche Erkenntnisse über den Geist können dabei zwar „entzaubernd“ wirken, weil sie traditionelle Vorstellungen vom Selbst in Frage stellen. Gleichzeitig eröffnen sie aber auch die Möglichkeit, bewusster und verantwortungsvoller mit dem Phänomen des Bewusstseins umzugehen.

Das Gespräch mit Thomas Metzinger zeigt eindrucksvoll, wie eng Philosophie, Neurowissenschaften und KI-Forschung heute miteinander verbunden sind. Es macht deutlich, dass die Frage nach dem Bewusstsein nicht nur ein theoretisches Problem der Philosophie bleibt, sondern zunehmend auch zu einer zentralen Herausforderung unserer technologischen Zukunft wird.

Interviewfragen: „Selbstmodelle, Bewusstsein und die Zukunft künstlicher Subjektivität“

Einleitung:

Sehr geehrter Herr Professor Metzinger, Sie gehören zu den wichtigsten Vertretern der Philosophie des Bewusstseins und haben über Jahrzehnte hinweg die Schnittstellen zwischen analytischer Philosophie des Geistes und empirischer Bewusstseinsforschung geprägt.

Im Rahmen Ihrer Selbstmodell-Theorie der Subjektivität haben Sie sich grundlegend mit der Frage beschäftigt, warum wir uns als Subjekt bzw. als „Ich“ erleben. Diese Theorie wurde einer breiteren Öffentlichkeit insbesondere durch Ihr Buch Der Ego-Tunnel bekannt. Der Ego-Tunnel beschreibt ein vom Gehirn erzeugtes phänomenales Modell, das Welt und Selbst repräsentiert und dabei so transparent ist, dass wir es nicht als Modell erkennen.

  • Können Sie dieses Selbstmodell und seine mögliche Entstehung im Zuge der Evolution näher erläutern?

  • Wenn wir dieses Modell aufgrund seiner Transparenz nicht erkennen können, stellt sich unmittelbar die Frage: Wer ist dann das „Wir“? Sie haben dieses Subjektproblem als ein sprachlich erzeugtes Scheinproblem bezeichnet. Können Sie dennoch versuchen, dieses Problem begrifflich aufzulösen?

  • Inwiefern erlaubt Ihr Modell ein besseres Verständnis von Qualia?

Phänomenologie und Modellbildung

In vielen Ihrer Texte betonen Sie, dass phänomenologische Beschreibungen nicht rein narrativ bleiben dürfen, sondern in überprüfbare Modelle überführt werden sollten. Die zentrale Herausforderung sehen Sie darin, „unscharfe mentale Universalien der Alltagsphänomenologie“ mit einer empirisch orientierten Psychologie zu verbinden (Das Problem des Bewußtseins).

  • Welche theoretischen und praktischen Hürden sehen Sie bei der Formalisierung von Phänomenen wie „Awareness ohne Ich“?

  • Wo liegen aus Ihrer Sicht die prinzipiellen Grenzen formaler Modelle – und worin unterscheiden sie sich von rein philosophischen Beschreibungen?

  • Wie sollten Bewusstseinsforscher:innen mit dem Spannungsverhältnis zwischen subjektiver Erfahrung und objektiven Daten umgehen?

  • Halten Sie es für möglich, dass KI auch eine subjektive Erfahrung entwickeln könnte und wir es aber aufgrund der objektiven Datenlage gar nicht mitbekommen würden, da uns eine Theorie zum phänomenalen Bewusstsein nach wie vor fehlt?

Computational Phenomenology & Minimal Phenomenal Experience

Ein Schwerpunkt Ihrer jüngeren Arbeit ist die Idee einer computational phenomenology, in der phänomenologische Beschreibungen formal modellierbar werden sollen. Eng damit verbunden ist das Konzept der Minimal Phenomenal Experience (MPE) – sehr einfache Formen bewusster Erfahrung, die empirisch untersucht werden können. Sie beschreiben MPE als Zustände eines „Anwesendseins ohne Ich-Narrativ“, etwa in tiefen meditativen Zuständen (vgl. Sandved-Smith 2025).

  • Wie würden Sie computational phenomenology möglichst einfach definieren, und warum halten Sie MPE für ein besonders geeignetes Forschungsziel?

  • Wenn diese Zustände keine starke Ich-Perspektive, aber eine stabile Bewusstheit aufweisen – was sagt das über die Struktur normalen Bewusstseins aus?

  • Welche empirischen Methoden erscheinen Ihnen geeignet, um MPE-Phänomene systematisch zu erfassen und mit formalen Modellen zu verbinden?

Artificial Consciousness & Synthetic Phenomenology

Ein weiterer zentraler Aspekt Ihrer Forschung betrifft künstliches Bewusstsein bzw. synthetic phenomenology. In Ihrem Aufsatz Artificial Suffering argumentieren Sie, dass die Erzeugung bewusster künstlicher Entitäten ethisch hoch problematisch sein kann: „Artificial suffering is a foreseeable and morally relevant risk.“

  • Was verstehen Sie unter synthetic phenomenology, und warum halten Sie dieses Forschungsfeld für besonders risikobehaftet?

  • Weshalb gehört das Risiko künstlichen Leidens Ihrer Ansicht nach bereits heute in die ethische Debatte – und nicht erst in eine ferne Zukunft?

  • Welche Arten künstlicher Systeme sollten besonders kritisch betrachtet oder möglicherweise vorerst nicht erforscht werden?

KI-Ethik, Bewusstsein und Leiden

Sie kritisieren, dass traditionelle KI-Ethik phänomenale Aspekte wie mögliches Leiden weitgehend ausblendet. In Interviews haben Sie betont, dass Bewusstsein und Intelligenz zwei verschiedene Dinge sind und hohe Intelligenz kein Bewusstsein impliziert.

  • Können Sie diesen Unterschied für Nicht-Spezialist:innen erläutern und erklären, warum er für die ethische Bewertung von KI so relevant ist?

  • Unter welchen Bedingungen – wenn überhaupt – würden Sie davon sprechen, dass eine Maschine „Leid“ erlebt?

  • Welche rechtlichen, technischen oder regulatorischen Konsequenzen hätte eine solche Zuschreibung?

Selbst, Modellierung und neuromorphe KI

In Ihren Arbeiten beschreiben Sie Bewusstsein als dynamischen, intern konstruierten Prozess. Das Gehirn vergleichen Sie mit einem Flugsimulator, der ein internes Modell der Welt erzeugt und fortlaufend aktualisiert (Der Ego-Tunnel, 2009).

  • Welche Rolle spielt dieses Modell des phenomenal self in der Diskussion um künstliches Bewusstsein?

  • Wie könnte ein künstliches System ein solches Selbstmodell entwickeln oder simulieren, und wie ließe sich empirisch prüfen, ob es funktioniert?

Heute wird intensiv an künstlichen neuronalen Netzwerken, neuromorphem Computing, Deep Learning und spiking neural networks geforscht, die sich an biologischen Vorbildern orientieren.

  • Bedeutet diese Biologisierung“ der KI-Forschung aus Ihrer Sicht einen möglichen Schritt in Richtung künstlichen Bewusstseins oder computational phenomenology?

  • Erleben wir hier einen Paradigmenwechsel weg vom rein datengetriebenen Ansatz des Big Data hin zu funktional-biologischen Modellen?

  • Halten Sie es für denkbar, dass ein künstliches System jemals eine Ich-Erfahrung entwickelt, die mit menschlicher Subjektivität vergleichbar ist – und würde dies die ethische Debatte grundlegend verändern?

Ausblick, Entzauberung und Bewusstseinskultur

In einem Interview sagten Sie, dass künstliches Bewusstsein vermutlich nicht in naher Zukunft entstehen wird, aber prinzipiell möglich ist, da phänomenale Eigenschaften kausal „von unten“ determiniert seien (hpd-Interview 2022).

  • Was wäre aus Ihrer Sicht der größte erkenntnistheoretische oder ethische Fehler, den die Bewusstseins- oder KI-Forschung in den nächsten zehn Jahren machen könnte?

  • Welche Formen internationaler Regulierung oder Zusammenarbeit halten Sie für notwendig, um synthetische Phänomenologie verantwortungsvoll zu erforschen?

Im Gespräch mit Philip Kovce sprachen Sie davon, dass wissenschaftliche Erkenntnisse oft „entzaubernd“ wirken und schmerzhafte Illusionen zerstören können.

  • Können Sie dafür ein persönliches Beispiel nennen, und sehen Sie sich selbst als eine Art „Entzauberer“?

Sie plädieren zudem für die Entwicklung einer neuen Bewusstseinskultur, um verantwortungsvoll mit Bewusstsein umzugehen und Leid zu minimieren.

  • Was verstehen Sie unter diesem Begriff – eine Form säkularer Spiritualität?

  • Sehen Sie die enormen Möglichkeiten von KI eher als Chance oder als Hindernis für die Entwicklung einer solchen Bewusstseinskultur?

Die beiden Teil des Interviews sind unter folgenden Links auf unserem Youtube-Kanal „Zoomposium“ zu sehen: 

Teil 1 https://youtu.be/bn9m2CRot-Y

Teil 2 https://youtu.be/Ibf2mrZ3uzM

Ich bin immer mit meiner „Diogenes-Lampe“ unterwegs, um Menschen zu finden, die sich auch nach ein wenig „Licht der Erkenntnis“ sehnen. Also wenn Ihr eigene Beiträge oder Posts für meinen Wissenschaft-/Philosophie-Blog habt, immer her damit. Sie werden mit Eurem Namen als Autor auf meiner Seite veröffentlicht, so lange sie den oben genannten Kriterien entsprechen. Denn nur geteiltes Wissen ist vermehrtes Wissen.
5 1 vote
Article Rating
Abonnieren
Benachrichtige mich bei
guest

 

3 Comments
Inline Feedbacks
View all comments
Wolfgang Stegemann
Wolfgang Stegemann
29 Tage zuvor

Metzinger im Kreuzverhör: Meine virtuelle Sokratische Demontage einer Modephilosophie
Die folgenden Fragen und Antworten sind ein gedankliches Experiment. Metzingers Repliken sind aus seinen öffentlichen Äußerungen, Interviews und Schriften rekonstruiert, nicht wörtlich zitiert. Das Verfahren ist sokratisch, die Demontage ist real.
I. Das Selbstmodell
Kommentar: Metzinger beginnt mit einer eindrucksvollen Geste: Er nennt sein Vorhaben „interdisziplinäre analytische Philosophie“ und verspricht „genauere begriffliche Instrumente“. Was folgt, ist ein Karussell von Metaphern, die sich gegenseitig tragen, ohne jemals Boden zu berühren. Der Egotunnel erklärt das Selbst dadurch, dass das Gehirn ein Modell des Selbst erzeugt. Warum das mehr ist als eine Umbenennung, wird nie geklärt.
ICH: Sie sagen, das Gehirn erzeugt ein phänomenales Selbstmodell, das so „transparent“ ist, dass wir es nicht als Modell erkennen. Was genau meinen Sie mit „transparent“ hier?
Metzinger: Das Modell ist transparent, weil wir hindurchschauen, ohne es als Modell wahrzunehmen. Wir erleben nicht das Modell, sondern die Welt, die das Modell repräsentiert.
ICH: Also ist „transparent“ hier eine Metapher für „unbewusst prozessiert“?
Metzinger: Nicht ganz, es geht um phänomenale Transparenz, um das, was es ist, ein Modell zu haben ohne es als Modell zu erleben.
ICH: Schön. Aber worin besteht dann der explanatorische Gewinn? Wenn ich sage „das Gehirn erzeugt ein Modell, das transparent ist, weil es nicht als Modell erlebt wird“, dann erkläre ich das Phänomen des Erlebens durch den Begriff des Erlebens selbst, nur in Modellsprache verkleidet. Wo genau endet die Metapher und beginnt die Erklärung?
Metzinger: Das Modell ermöglicht es, wissenschaftliche Disziplinen zu vernetzen. Es ist eine logische Brücke.
ICH: Eine logische Brücke zwischen wem und was? Zwischen Hirnforschung und Bewusstseinsphilosophie? Aber eine Brücke ist nicht dasselbe wie eine Erklärung. Sie beschreiben, dass das System sich selbst modelliert. Was erklärt das über die phänomenale Qualität dieses Modells, also darüber, dass es sich von innen nach irgendetwas anfühlt?
Kommentar: Hier nähern wir uns dem klassischen Erklärungslücken-Problem, das Metzinger selbst kennt. Seine Strategie ist bezeichnend: Er benennt das Problem, delegiert es an die Transparenz-These und hofft, dass niemand nachfragt, warum ein informationsverarbeitendes System überhaupt eine Innenperspektive haben sollte, nur weil es ein Modell von sich erzeugt. Das Immunsystem, das er selbst anführt, trifft täglich millionenfach die Unterscheidung „das bin ich“ und „das bin ich nicht“. Hat es eine erste Personenperspektive? Metzinger sagt nein. Warum nicht? Antwort: weil es keine hat. Das ist kein Kriterium, das ist eine Exemtion per Dekret.
ICH: Sie erwähnen das Immunsystem als tiefste Form von Selbstmodellierung, sagen aber, es hat kein Bewusstsein. Worin besteht der prinzipielle Unterschied zwischen dem Immunsystem, das „ich“ von „nicht-ich“ unterscheidet, und einem neuronalen Selbstmodell, das dasselbe tut?
Metzinger: Es ist eine Frage der Komplexität, der Integration, der Art der Repräsentation.
ICH: Das klingt wie eine empirische Vermutung, keine Erklärung. Welches der drei Kriterien ist notwendig, welches hinreichend, und woher wissen Sie, welche Schwelle überschritten werden muss, damit aus Informationsverarbeitung Erleben wird?
Metzinger: Das wissen wir nicht. Wir haben keine Theorie des Bewusstseins.
ICH: Das sagen Sie wörtlich im Interview. Wenn wir aber keine Theorie des Bewusstseins haben, was leistet dann das Selbstmodell über eine Re-Beschreibung des Phänomens hinaus?
Kommentar: Tapfer. Ein Philosoph, der eingesteht, dass wir keine Theorie haben, und gleichzeitig eine Theorie präsentiert. Das ist die Meisterklasse der akademischen Philosophie des Geistes: Man postuliert ein erklärungsbedürftiges Phänomen, benennt es um, nennt das eine Theorie und kassiert dafür drei Jahrzehnte Zitationen.

ICH: Sie sagen, die Selbstmodelltheorie erklärt, wie ein Ichgefühl entsteht, „in Systemen, die sowas wie ein Selbst nicht besitzen“. Ist das nicht eine schlichte Kontradiktion? Wenn ein System kein Selbst besitzt, wie kann es dann ein Ichgefühl haben? Das Gefühl wäre dann ein Gefühl von etwas, das nicht existiert.
Metzinger: Genau darum geht es. Das Ichgefühl ist eine Illusion, erzeugt vom Selbstmodell.
ICH: Wer hat die Illusion?
Metzinger: Das System, der Organismus.
ICH: Aber dann gibt es jemanden, für den es sich nach einem Ich anfühlt. Das ist keine Illusion, das ist ein reales Erleben. Sie haben das Phänomen, das Sie erklären wollen, einfach in den Organismus verschoben und umbenannt.
Kommentar: Das ist das zentrale Kunststück der No-Self-Theorie: Das Ich wird für illusorisch erklärt, aber es muss jemanden geben, dem gegenüber es illusorisch ist. Andernfalls gibt es nicht einmal eine Illusion, sondern schlicht gar nichts. Die Theorie sägt den Ast ab, auf dem sie sitzt, und behauptet dabei, das sei Parsimonie.

ICH: Sie führen das Sparsamkeitsprinzip an, um das Selbst als ontologische Entität zu eliminieren. Haben Sie damit die Parsimonie gewonnen, oder haben Sie sie nur in eine andere Währung umgetauscht: statt eines Selbst haben wir jetzt ein Selbstmodell, phänomenale Zustände, Repräsentationen, Transparenz, Integration? Ist das wirklich sparsamer?
Metzinger: Es ist sparsamer, weil es keine nicht-physikalischen Entitäten voraussetzt.
ICH: Aber „Repräsentation“, „Modell“, „Transparenz“ sind das physikalische Entitäten? Wo genau im Gehirn ist das Selbstmodell? Zeigen Sie mir ein Neuron, das repräsentiert.
Kommentar: Das ist der Moment, in dem die Modephilosophie des Geistes regelmäßig die Taschenspieler-Karte zieht. „Repräsentation“ und „Modell“ sind Beschreibungsvokabular, das auf der Ebene der Theorie operiert, nicht der Physik. Das ist vollkommen legitim, aber dann ist die Sparsamkeitsgeste gegenüber dem Dualismus auch keine ontologische, sondern eine terminologische. Man hat nicht das Selbst eliminiert. Man hat das Wort Selbst durch das Wort Modell ersetzt.

II. Free Energy und Predictive Processing
Kommentar: Hier wird es noch lustiger. Metzinger importiert Fristons Free Energy Principle nicht als empirische Hypothese, die er überprüft, sondern als Stimmungsverstärker. Die Anzahl von Fristons Zitationen wird als Argument angeführt. Doppelt so viele wie Einstein. Das ist kein philosophisches Argument, das ist Namenshuberei. Wenn Einstein falsch liegen kann, kann Friston das erst recht.
ICH: Sie sagen, Friston habe doppelt so viele Zitationen wie Einstein, und das sei in Deutschland noch nicht durchgedrungen. Warum ist die Anzahl von Zitationen ein philosophisches Argument?
Metzinger: Das war natürlich keine Begründung, sondern ein Hinweis auf die Reichweite des Ansatzes.
ICH: Schön. Dann zur Sache. Das Free Energy Principle besagt, biologische Systeme minimieren freie Energie, verstanden als Überraschung oder Vorhersagefehler. Was erklärt das über Bewusstsein?
Metzinger: Es erklärt, warum Systeme Selbstmodelle entwickeln, warum Wahrnehmung als hypothesentestendes Verfahren funktioniert.
ICH: Aber das setzt bereits Repräsentationen, Hypothesen, Modelle voraus. Woher kommen die im Rahmen des Free Energy Principle? Das FEP beschreibt, dass Systeme sich so verhalten, als minimierten sie freie Energie. Es beschreibt nicht, warum dieses Verhalten von innen als Erleben erscheint.
Kommentar: Das ist die Grundkrankheit des gesamten Predictive Processing-Paradigmas. Es ist ein Formalismus, der das Verhalten von Systemen unter einem Variationsprinzip beschreibt. Aus diesem Formalismus folgt nichts über phänomenale Qualität. Die berühmte „kontrollierte Halluzination“ ist eine Metapher, kein Ergebnis des Formalismus. Wenn man Friston fragt, warum das System überhaupt etwas erlebt, antwortet er mit Markov-Blankets. Warum Markov-Blankets Erleben erzeugen sollten, erklärt er nicht. Metzinger importiert diese Lücke kommentarlos.
ICH: Sie verwenden die Metapher „Bewusstsein ist eine kontrollierte Halluzination“. Wer halluziniert?
Metzinger: Der Organismus, das System.
ICH: Aber eine Halluzination ist definiert als eine Wahrnehmungserfahrung ohne adäquaten externen Stimulus. Wenn der Organismus halluziniert, muss es eine Perspektive geben, aus der das als Halluzination erscheint. Woher kommt diese Perspektive in Ihrem Modell?
Metzinger: Die Perspektive entsteht durch das Selbstmodell.
ICH: Wir drehen uns im Kreis. Die Perspektive entsteht durch das Selbstmodell, das Selbstmodell erzeugt die Illusion des Selbst, das Selbst hat die Halluzination, die Halluzination ist das Bewusstsein. Das ist kein Erklärungsfortschritt, das ist ein begriffliches Perpetuum mobile.
Kommentar: Metzinger ist klug genug, das zu wissen. Er sagt es sogar selbst, wenn er bemerkt, dass Bewusstsein als „kontrollierte Halluzination“ sofort die Frage aufwirft, wer halluziniert. Seine Antwort: das ist ein sprachliches Problem. Subjekt-Objekt-Grammatik. Das ist die Notausgangsstrategie der Bewusstseinsphilosophie: Wenn die Theorie an einen unlösbaren Knoten stößt, erklärt man, das sei ein Problem der Sprache, nicht der Theorie. Das ist intellektuell bequem und philosophisch wertlos.

ICH: Sie beschreiben das Minimal Phenomenal Selfhood als Selbstlokalisation in Raum und Zeit plus eine sensorische Perspektive. Sie sagen ausdrücklich, Agentivität und Denken sind darin nicht enthalten. Warum sollte räumliche Lokalisation allein phänomenales Bewusstsein konstituieren?
Metzinger: Weil man zeigen kann, dass man Orientierung in Raum und Zeit verlieren kann und trotzdem noch bei Bewusstsein ist.
ICH: Das zeigt, dass Orientierung nicht notwendig für Bewusstsein ist. Es zeigt nicht, dass Selbstlokalisation hinreichend für Bewusstsein ist. Haben GPS-Systeme phänomenales Bewusstsein? Die haben exakte Selbstlokalisation in Raum und Zeit und eine Art sensorischer Perspektive.
Metzinger: GPS-Systeme haben keine Integration, keine phänomenale Bindung.
ICH: Jetzt kommt wieder die Integrations-These, für die es keine Ableitung gibt, nur eine Benennung. Ich frage Sie direkt: Gibt es einen Schritt in Ihrer Theorie, an dem Sie aus nicht-phänomenalen physikalischen oder funktionalen Eigenschaften phänomenale Qualität ableiten, ohne dabei das Explanans durch das Explanandum zu ersetzen?
Metzinger: (Pause) Das ist das schwere Problem des Bewusstseins.
ICH: Genau. Und Ihre Theorie löst es nicht. Sie beschreibt, strukturiert und benennt um. Das ist wertvoll, aber es ist nicht dasselbe wie Erklärung. Der Unterschied zwischen Ihrer Position und einer offenen Mysterianismus-Position liegt nicht in der Erklärungstiefe, sondern in der Bereitschaft, das Defizit einzugestehen.

Kommentar zum Abschluss: Die Philosophie des Geistes ist tatsächlich ein Modezirkus, aber das Ärgerliche an Metzinger ist, dass er das weiß und trotzdem mitmacht. Er weiß, dass „Repräsentation“ eine Beschreibungsebene ist, kein ontologischer Befund. Er weiß, dass Parsimonie-Argumente keine Erklärungen ersetzen. Er weiß, dass die Transparenz-These das schwere Problem nicht löst. Und er sagt das sogar, gelegentlich, in Nebensätzen.
Was er nicht tut, ist die Konsequenz zu ziehen: dass sein Programm ein systematisches Umbenennungsprojekt ist, das den phänomenalen Raum leer lässt und diese Leerstelle mit Metaphern aus der Informatik und der Physik dekoriert. „Online-Träumen“, „kontrollierte Halluzination“, „Egotunnel“, „Minimalmodell“ sind Begriffe, die suggestiv genug sind, um wie Erklärungen auszusehen, aber präzise genug, um immer weiter nach hinten delegiert zu werden, wenn man nachfragt.
Das ist keine Philosophie. Das ist Begriffsarchitektur für Leute, die das Unbehagen vor dem schweren Problem lieber in einer gut klingenden Terminologie schlafen legen als es auszuhalten.

Epilog: Die Hybris der Komplexität: Warum Vereinfachung kein Abstieg ist
Metzinger sagt, er wolle nicht weiter „nach unten“ gehen als mit dem Egotunnel. Das klingt nach Bescheidenheit, ist aber das Gegenteil: Es ist die Schutzstrategie des Theoretikers, der die Vereinfachung fürchtet, weil er weiß, dass dort die Löcher sichtbar werden.
Denn was passiert, wenn man eine Theorie wirklich auf die einfachste Ebene bringt, auf die Ebene, wo jeder fragen kann, nicht nur der eingeweihte Kollege? Dann gibt es plötzlich keine Fachsprache mehr, hinter der man sich verstecken kann. Kein „phänomenale Transparenz“ und kein „nichtduales Bewusstsein“ und kein „Markov-Blanket“. Dann muss man auf Deutsch und ohne Kunstgriffe sagen, was man eigentlich meint. Und genau da zeigt sich, ob eine Erklärung trägt oder nur glänzt.
Die wirklich starken Theorien überleben diesen Test. Darwins Grundgedanke lässt sich einem Kind erklären. Das Relativitätsprinzip, jedenfalls in seinen Grundzügen, ebenfalls. Nicht weil diese Theorien simpel wären, sondern weil sie einen echten Kern haben, der sich nicht auflöst, wenn man die Fachsprache entfernt.
Was bleibt vom Egotunnel, wenn man ihn wirklich vereinfacht? Das Gehirn erzeugt ein Modell von sich selbst. Dieses Modell ist so beschaffen, dass wir uns für ein Selbst halten, obwohl wir keines sind. Und dann, unvermeidlich, kommt die Frage, die jedes Kind stellen würde: Wer hält sich für ein Selbst, wenn keines da ist? Metzinger antwortet: der Organismus. Aber der Organismus ist dann das Selbst, nur mit anderem Namen. Das merkt das Kind sofort. Der Fachkollege nickt und schreibt einen Aufsatz darüber.
Das ist das Privileg der Komplexität: Sie macht Zirkel unsichtbar. Je dichter das Vokabular, desto weiter der Weg von der Prämisse zur Schlussfolgerung, und desto schwieriger, zu bemerken, dass man denselben Schritt zweimal gegangen ist, einmal auf Latein und einmal auf Griechisch.
Metzingers Weigerung, weiter „nach unten“ zu gehen, ist also keine Rücksicht auf intellektuelle Redlichkeit, sondern eine Absicherung gegen die brutalste Form der philosophischen Prüfung: das direkte Nachfragen ohne Vorkenntnisse. Gerade wer keine Theorie zu verbergen hat, kann diese Prüfung ohne Angst bestehen. Wer sie fürchtet, gibt damit ungewollt mehr preis als durch jede Kritik.
Die Naivität des Nichtexperten ist kein Mangel. Sie ist ein Seismograph. Und Metzinger hält sich lieber von diesem Instrument fern. Denn ein Kind könnte ja rufen: „Der hat ja gar nichts an“.

Wolfgang Stegemann
Wolfgang Stegemann
28 Tage zuvor

Was kann die Philosophie des Geistes überhaupt leisten?

Stellen wir uns vor, ein Kind nimmt einen Stock in die Hand und spielt damit Flugzeug. Die Vorstellung, der Stock sei ein Flugzeug, spielt sich einzig im Kopf des Kindes ab. Diese Vorstellung ändert weder etwas an dem Stock noch an einem Flugzeug, das am Himmel gerade vorbeifliegt. Das Kind interpretiert den Stock als Flugzeug. Genauso ist es mit der Philosophie des Geistes: Sie interpretiert die Erfahrungen aus Alltag und Wissenschaft und packt sie in ein bestimmtes theoretisches Konstrukt. Dabei spielt es keine Rolle, ob man absteigende Verbindungen im visuellen Kortex so beschreibt, dass sie Vorhersagen transportieren, und aufsteigende Verbindungen so, dass sie primär Vorhersagefehler weitergeben, oder ob man irgendeine andere Beschreibungsweise verwendet. An den Verbindungen ändert sich dadurch nicht das Geringste. Ebenso wenig beeinflussen diese Konzepte in irgendeiner Form die Wissenschaft, auch wenn das manche Autoren gerne glauben möchten.

Bedeutet das, dass die Philosophie des Geistes überflüssig ist? Nein, das kann man nicht sagen, denn die Menschen möchten Interpretationen der Welt, sie möchten die Welt verstehen. Da keine der angebotenen philosophischen Bewusstseinstheorien das Phänomen Bewusstsein auch nur annähernd beschreiben kann, spielt es letztlich keine Rolle, welches theoretische Selbstverständnis von Bewusstsein man sich zu eigen macht. Keine der Theorien bietet ein durchgängiges, in sich konsistentes und widerspruchsfreies Konzept. Die Widersprüchlichkeit und Inkonsistenz der Theorien wäre gerechtfertigt, wenn die Natur selbst widersprüchlich und inkonsistent wäre. Es ist ähnlich wie mit der Religion: Sie bietet den Menschen vor allem Trost angesichts des Todes. Hat der einzelne Mensch aber erst einmal aufgehört zu existieren, braucht er diesen Trost nicht mehr. Die Religion hat ihre Aufgabe dann erfüllt. Seien wir also großzügig mit der Philosophie des Geistes, denn letztlich kommt es nicht auf die Details an und noch nicht einmal auf die große Konzeption. Begnügen wir uns mit den vorherrschenden Interpretationen, auch wenn sie ihre Konsistenz mit allerlei Metaphysik erkaufen und ihre teils abenteuerlichen Schlussfolgerungen vom Maschinenbewusstsein bis zum Panpsychismus reichen. Die angewandten Neurowissenschaften haben ohnehin ganz andere Sorgen.

Wolfgang Endemann
Wolfgang Endemann
22 Tage zuvor

Thomas Metzinger ist ein hervorragender Advokat des Naturalismus, der gleichwohl dessen derzeitige Grenzen kennt, sie womöglich verschieben will, aber offen läßt, skeptisch bleibt, ob sie vollständig überwunden werden können.
Danke für dieses erhellende Interview.
Hinsichtlich der großen Frage nach der Kontinuität oder Diskontinuität des Bewußtseins mit der biologischen Anpassung leuchtet Metzinger sehr schön die Nahtstelle zwischen einem selbstlosen und einem selbsthaftigen Bewußtsein aus, wobei ich ersteres lieber als Bewußtheit ansprechen würde, aber immerhin macht Metzinger den qualitativen Unterschied. Er sieht auch, daß die ersten Formen der Selbsthaftigkeit noch weit entfernt sind von den reflektierten Formen der Repräsentationalität in Wissenschaft und Selbstbildern.
Ich bin gespannt auf den 2. Teil des Interviews, in dem wohl zur Sprache kommen wird, was man aufgrund des methodischen Reduktionismus, etwas so einfach zu erklären, wie es geht, zu dem sagen kann, was nicht mehr reduzierbar ist. Denn nach dem, was er bisher hier gesagt hat, darf man vermuten, daß er trotz der Rede von „kontrollierter Halluzination“ über die Ebene der biologischen Anpassung hinausgeht. Sonst wäre es nicht nur ein methodologischer Reduktionismus.