Gedankenlesen - Kaleidskop 1.3.

Folge 3: Gedankenlesen per Hirnscanner? – Staffel 1 Kaleidoskop der Wissenschaft

🧠 Folge 3: Gedankenlesen per Hirnscanner? – Staffel 1 Kaleidoskop der Wissenschaft 🔭

Willkommen zu einer weiteren Folge des „Kaleidoskop der Wissenschaft“ auf unserem YouTube-Kanal Zoomposium! 📽🌐

Mit dem neuen Format „Kaleidoskop der Wissenschaft“ bringen wir Expertinnen und Experten aus Neurowissenschaften, Philosophie und Kognitionsforschung zusammen. In kurzen, prägnanten Beiträgen beleuchten sie zentrale Fragen der Bewusstseinsforschung – interdisziplinär, verständlich und nah an aktuellen wissenschaftlichen Debatten. Jede Folge versammelt unterschiedliche Perspektiven zu einem Thema und macht so sichtbar, wie komplex und vielschichtig unser Nachdenken über Geist, Gehirn und Bewusstsein ist.

🎯 Folge 3: Wie nah sind wir wirklich am Gedankenlesen?

Die dritte Folge stellt eine Frage, die gleichermaßen fasziniert und beunruhigt:
Wie realistisch ist die Vorstellung, Gedanken mit Hilfe von Hirnscannern auszulesen?

Fortschritte in der Neurobildgebung und im Machine Learning nähren seit Jahren die Idee, mentale Inhalte ließen sich direkt aus neuronaler Aktivität rekonstruieren. In der Diskussion wird jedoch schnell deutlich, dass diese Vorstellung deutlich relativiert werden muss. Zwar ist eine basale Dekodierung von Gehirnaktivität heute bereits möglich – etwa bei einfachen Wahrnehmungen oder begrenzten semantischen Inhalten. Doch je komplexer Gedanken werden, desto deutlicher treten die Grenzen dieser Verfahren hervor.

Ein zentrales Problem: Gehirnaktivität ist hochgradig individuell. Erfolgreiche Dekodierung erfordert umfangreiche, personenspezifische Trainingsdaten. Ein allgemeines „Gedankenlexikon“, das unabhängig von Person und Kontext funktioniert, ist bislang nicht in Sicht.

Bedeutung entsteht nicht nur im Gehirn

Ein weiterer Schwerpunkt der Folge liegt auf einer philosophisch zentralen Einsicht: Gedanken und Bedeutungen sind nicht rein interne Zustände. Der philosophische Externalismus betont, dass Sprache, Bedeutung und Denken wesentlich durch soziale Praktiken, Gemeinschaften und Kontexte geprägt sind. Gedanken lassen sich daher nicht einfach als isolierte neuronale Muster verstehen, die unabhängig von Umwelt und Kommunikation entschlüsselt werden könnten.

Diese Perspektive verschiebt den Blick: Gedankenlesen ist nicht nur ein technisches Problem der Messgenauigkeit, sondern ein konzeptuelles Problem unseres Verständnisses von Denken, Sprache und Bedeutung.

Ethische Dimensionen: mentale Privatsphäre

Neben den erkenntnistheoretischen Fragen thematisiert die Folge auch die ethischen Implikationen neurotechnologischer Entwicklungen. Begriffe wie adversarial mind reading verweisen auf Szenarien, in denen mentale Zustände gegen den Willen von Personen ausgelesen oder manipuliert werden könnten. Die Diskussion macht deutlich, dass der Schutz mentaler Privatsphäre künftig eine zentrale Rolle spielen wird – nicht erst dann, wenn entsprechende Technologien voll ausgereift sind.

Fazit

Die dritte Folge von „Kaleidoskop der Wissenschaft“ zeigt eindrucksvoll, dass Gedankenlesen weder bloße Science-Fiction noch unmittelbar bevorstehende Realität ist. Neurotechnologische Verfahren eröffnen neue Möglichkeiten, stoßen jedoch an klare empirische, konzeptuelle und ethische Grenzen.

Wer verstehen will, was Hirnscanner leisten können – und was nicht –, muss nicht nur auf Daten und Algorithmen schauen, sondern auch auf Sprache, Bedeutung und soziale Kontexte. Genau hier setzt das Kaleidoskop an: als Einladung zum interdisziplinären Weiterdenken.

Ein Kaleidoskop der Perspektiven

Wie der Titel des Formats verspricht, entsteht auch in dieser Folge kein einheitliches Erklärungsmodell, sondern ein vielschichtiges Bild aus unterschiedlichen Disziplinen. 

👥 Mit dabei sind wieder unsere renommierten Experten:
Konrad Körding – Computational Neuroscience & Bayes’sche Modelle
Patrick Krauß – Neurowissenschaften, KI und linguistische Kognition
Holger Lyre – Philosophie des Geistes, Bewusstsein & Wissenschaftstheorie
Achim Stephan – Affektivität, situierte Kognition & Emergenz

Ihre Perspektiven formen erneut ein lebendiges, vielfältiges Bild – ein echtes Kaleidoskop der Wissenschaft.

🎬 Bleiben Sie dran, abonnieren Sie den Kanal und klicken Sie auf den Link am Ende des Videos, um weitere Folgen der ersten Staffel nicht zu verpassen!

https://youtu.be/3p96qQQkUE8

Ich bin immer mit meiner „Diogenes-Lampe“ unterwegs, um Menschen zu finden, die sich auch nach ein wenig „Licht der Erkenntnis“ sehnen. Also wenn Ihr eigene Beiträge oder Posts für meinen Wissenschaft-/Philosophie-Blog habt, immer her damit. Sie werden mit Eurem Namen als Autor auf meiner Seite veröffentlicht, so lange sie den oben genannten Kriterien entsprechen. Denn nur geteiltes Wissen ist vermehrtes Wissen.
0 0 votes
Article Rating
Abonnieren
Benachrichtige mich bei
guest

 

4 Comments
Inline Feedbacks
View all comments
Wolfgang Endemann
Wolfgang Endemann
10 Tage zuvor

Dieses Kaleidoskop der Perspektiven präsentiert wahrscheinlich das gegenwärtige Problembewußtsein der Forschung zur wissenschaftlichen Erfassung des Bewußtseins. Was mich etwas wundert, ist ein riesiger blinder Fleck, vielleicht auch nur eine Nebelstelle, die jedoch dringend durchlüftet werden muß.

Die Wissenschaftler sind sich einig, auf metaphysische Überlegungen zu verzichten. Das ist gut so. Alles, was im Bewußtsein ist und im Bewußtsein sich entwickelt, hat seine materielle Spur, die detektiert werden kann (sollte?). Die Erfassung der mentalen Welt (eines jeden Einzelnen und eines Ensembles einer Sprachgemeinschaft) ist nur von der quantitativen Beschränkung der endlichen Maschinenkapazität begrenzt. In diesem Sinn kann die Maschinenwelt den „menschlichen Computer“ überholen, und wird es wohl, weil/solange keine Notwendigkeit erkannt wird, die technologische Entwicklung auszubremsen.

Ich weiß nicht, ob es in den statements nur ausgespart worden ist, weil hier off topic, von Anathema möchte ich gar nicht sprechen, hard-core-Materialisten sind doch wohl selten geworden, aber es ist schon merkwürdig, daß niemand ausspricht, daß die substantielle Grenze der maschinellen, ich würde lieber sagen: der mechanischen Erfassung des Bewußtseins in der Unzugänglichkeit der semantischen, der „intensionalen“ Ebene des Kognitiven liegt. Mechanisch kann man bis in die kleinsten Details feststellen, womit ein Denkinhalt verknüpft ist. Das ist die extensionale Bestimmtheit des „Gedankenworts“, dann wissen wir, wie es von dem Individuum gebraucht wird, und genauso kann man extensional feststellen, wie es von der Sprachgemeinschaft gebraucht wird. Und in der streng materialistischen Sicht ist das schon alles, Verstehen beschränkt sich hier auf den Gebrauch denotativer Zeichen.
Dann hat man jedoch kein Verständnis von „Sinn“, „Bedeutung“, „Deutung“ = „Interpretation“. Diese flache, oberflächliche Sicht auf die Welt ist in meinen Augen erkenntnistheoretisch absurd, ich glaube nicht, daß die Wissenschaftler, selbst die Naturwissenschaftler, mehrheitlich solch ein verkürztes Selbstverständnis haben.
Wenn aber die reinmaterialistische Konzeption (der Emergenz negierende antimetaphysische Physikalismus) falsch ist, bleibt die Maschine immer auf der materialistischen Ebene, sie kann den Gebrauch der Sprache vollkommener als jeder Einzelmensch erfassen, aber keinen Sinn, sie begreift nichts. Maschinen sind „schuldunfähig“, die Gefährlichkeit der Maschinen/Technologien liegt in den Anwendern, die das Mechanische interpretieren, die es in Hinblick auf ihren Sinn, intentional (hier darf der Hinweis nicht fehlen, daß die häufige Gleichsetzung von „intentional“ und „intensional“ verkürzend, oft verfälschend ist) anwenden. Die Maschinen erfassen immer genauer, an was wir denken, aber überhaupt nicht, wie wir daran denken; sie können die Gedanken/das Bewußtsein extensional „lesen“, aber nicht intensional, sie können Intentionen erkennen*, aber nicht verstehen, sie können Konventionen erkennen*, aber nicht die Motive, die sie hervorgebracht haben.
* Besser wäre es, statt von „erkennen“ von „identifizieren“ zu reden. Extensionalität wird detektiert, identifiziert, das ist das Erkennen einer Einfachheit, Begreifen ist Erkennen eines Komplexen, das man als Ganzes begreifen muß. Begriffsbildung ist die sinnhafte Integration zu einem Ganzen.

zu Patrick Krauß
Es ist unklar, ob er Gedankenlesen und Gedankenverstehen gleichsetzt. Jedenfalls deutet „Kodieren-Dekodieren“ auf eine Verkürzung des Denkens/der Sprache auf ein(e) rein denotative(s) hin. Wenn man (De-)Kodieren auch als einen Interpretationsvorgang versteht, ist das in Ordnung.
Richtig ist, daß basale Reizverarbeitung bei allen Menschen weitgehend gleich abläuft und daher sehr schnell sehr sicher identifiziert werden kann. Mir fehlt der Hinweis, daß das bei bewußtseinsgesteuerten Prozessen nahezu ausgeschlossen ist, nicht nur wegen der individuellen lebensgeschichtlich-inkompatiblen Bewertungen, und nicht nur wegen dem grundsätzlich idiosynkratischen Denken jedes Einzelnen, sondern schon wegen der mannigfaltigen konstitutiven Interpretationsprozesse. Auch der Einzelne reinterpretiert ständig differentiell seine Bestände.

zu Holger Lyre
Das Argument für den Externalismus ist selbstverständlich richtig. Das betrifft allerdings die extensionale Innen-Außen-Differenz. Hier fehlt mir der Hinweis auf die erkenntnistheoretische/linguistische Innen-Außen-Differenz von äußerer Dingwelt und innerer Sprachwelt (=Sinndimension der extensionalen Sprachobjekte). Ohne diese innere Dimension ist man wieder bei der materialistischen Verkürzung.

zu Konrad Kording
Hier zeigt sich überdeutlich, daß er nicht die Uninterpretiertheit, also Extensionalität der Lautsprechersprache im Blick hat. Dabei ist unwesentlich, ob es ein Lautsprecher ist oder ein Schrifttext. Hier wird vergessen, daß der Prozeß Klartext-Chiffretext-Ausgabeklartext aus syntaktischen 1:1-Übersetzungen besteht, die keine Interpretationen enthalten. Wenn wir mit einem Menschen reden, wissen wir noch, daß er im Rahmen seiner Interpretationen der Welt redet, und wir im Rahmen unserer Interpretationen sein sprachlich kodiertes Denken rezipieren. Die Maschine suggeriert ein objektives, interpretationsunabhängiges Wissen.

Verkürzt ist auch, wenn man das Verstehens-Problem nur in der Differenz sieht, ob wir als Experten oder als Laien kommunizieren. Das ist ein zusätzlicher Gesichtspunkt, aber auch Experten haben keine Objektivität gepachtet, auch sie sind meistens Interpreten und kommunizieren (hoffentlich verläßlichere) Interpretationen.

Recht haben die Wissenschaftler: Auch wenn die Maschinen Bewußtsein/Gedanken nur extensional lesen können, ist das schlimm genug, die Möglichkeit des Mißbrauchs exorbitant. Eine offene Frage, ob wir diese Möglichkeiten so einhegen können, daß der Nutzen gemehrt und die Gefahr minimiert werden kann.

Wolfgang Stegemann
Wolfgang Stegemann
9 Tage zuvor

Wenn wir über Gedankenlesen per Hirnscanner sprechen, müssen wir strikt zwischen zwei Beschreibungsebenen unterscheiden: der Syntax (dem physischen Gehirn mit seinen neuronalen Aktivierungsmustern) und der Semantik (den Bedeutungen und Inhalten).
Wir können niemals direkt von der Syntax auf die Semantik schließen. Was empirisch möglich ist, sind ausschließlich Korrelationen. Das heißt, man muss ein Individuum trainieren und dabei feststellen: wenn neuronales Muster X auftritt, dann berichtet die Person semantischen Gehalt Y. Man etabliert also eine Zuordnung: Syntax X bedeutet bei dieser Person Semantik Y.
Diese Korrelationen sind notwendigerweise individuell. Es gibt keine natürliche Kodierung, die uns erlauben würde, aus der bloßen Beobachtung neuronaler Muster auf Bedeutungen zu schließen. Die Syntax enthält die Semantik nicht wie ein Text eine Botschaft. Sie realisiert semantische Gehalte in einem biologischen System mit einer spezifischen Geschichte.
Die entscheidende Frage ist: Wenn man über viele Individuen hinweg solche Korrelationen sammelt, kann man dann irgendwann Verallgemeinerungen herstellen? Kann man sagen: neuronales Muster X bedeutet generell Y, unabhängig vom Individuum?
Die Antwort hängt davon ab, um welche Art von mentalen Zuständen es geht. Für sensomotorische Prozesse wie Gehen oder grundlegende Wahrnehmung funktioniert Verallgemeinerung recht gut. Diese Prozesse sind eng an die gemeinsame anatomische Architektur des menschlichen Gehirns gebunden. Die neuronale Syntax für motorische Programme im prämotorischen Cortex oder für visuelle Verarbeitung in V1 ist zwischen Individuen relativ ähnlich, weil diese Strukturen phylogenetisch konserviert sind.
Eine Bewegung allgemein lässt sich viel besser verallgemeinern als mein gestriger Spaziergang im Wald. Je konkreter und persönlicher der Inhalt wird, desto idiosynkratischer die neuronale Realisierung.
Und dieselbe Syntax kann in verschiedenen Kontexten unterschiedliche Semantik haben.
Die entscheidende prinzipielle Grenze liegt in der Plastizität des Gehirns. Plastizität destabilisiert die Syntax-Semantik-Korrelationen in zweifacher Hinsicht.
Erstens innerhalb eines Individuums über Zeit. Selbst wenn wir heute eine robuste Korrelation zwischen Syntax X und Semantik Y bei Person A finden, ist diese Zuordnung nicht stabil.
Zweitens zwischen Individuen. Jedes Gehirn hat eine einzigartige Entwicklungsgeschichte.
Verallgemeinerungen sind am stabilsten dort, wo die Plastizität am geringsten ist, also in phylogenetisch alten, strukturell konservierten Systemen.
Je höher und assoziativer die kognitive Verarbeitung, desto fragiler die Verallgemeinerung. Die Plastizität macht die Syntax zu einem beweglichen Ziel. Es bräuchte ein kontinuierliches Re-Training und möglicherweise implementierte Neurofeedback-Systeme.
Es wird bereits versucht, durch massiven KI-Einsatz immer mehr Muster und Algorithmen zu finden, die Vorhersagen ermöglichen in Bezug auf die Korrelation von Syntax zu Semantik, so dass ganze Korrelationsmuster entstehen, die per Rückkopplung verifizierbar sind auf Grundlage von Versuch-Irrtum.
Man trainiert Modelle, testet sie, identifiziert Fehler, verfeinert die Muster. Machine-Learning-Systeme können riesige Mengen biometrischer und kontextueller Daten simultan verarbeiten und Muster über Zeit und Raum hinweg identifizieren.
Die Plastizität setzt hier aber eine fundamentale Grenze. Selbst wenn die KI ein perfektes Korrelationsmuster für Person A zum Zeitpunkt t findet, reorganisiert sich das Gehirn durch Erfahrung, Lernen, neuronale Umstrukturierung. Was heute Muster X ist, kann morgen Muster Y sein. Die KI muss ständig nachtrainiert werden.
Das bedeutet: Gedankenlesen bleibt bestenfalls auf einer allgemeinsten Ebene verallgemeinerbar.

Wolfgang Endemann
Wolfgang Endemann
8 Tage zuvor

„Wir können niemals direkt von der Syntax auf die Semantik schließen.“
Richtig. Und ich bleibe mal bei dieser Differenzierung in Syntax und Semantik, die schon viel über das Denken als einen kognitiven Prozeß verrät. Und wenn man sehr sauber arbeitet, wird man in einer groben Weise physiologische Muster mit Denkinhalten korrelieren können. Aber hier müssen wir schon genauer sein: wir korrelieren ja keineswegs die Denkinhalte mit neuronalen Mustern, sondern die (alltags-)sprachliche Selbstauskunft des Probanden. Der hat seine Gedanken sprachlich kodiert, verdinglicht in die alltagssprachliche Syntax. Tatsächlich korrelieren wir neuronale mit lingualer Syntax. Ist nicht schlimm, wenn uns das bewußt ist. Tatsächlich steht immer ein kategorialer Bruch zwischen den Gedanken und ihrer materialen Äußerungsform. Wenn man das in der Aussage „Man etabliert also eine Zuordnung: Syntax X bedeutet bei dieser Person Semantik Y“ nicht berücksichtigt, reproduziert man die vorher beschriebene materialistische Verkürzung.

„Es gibt keine natürliche Kodierung, die uns erlauben würde, aus der bloßen Beobachtung neuronaler Muster auf Bedeutungen zu schließen.“ Ja, und: „Je konkreter und persönlicher der Inhalt wird, desto idiosynkratischer die neuronale Realisierung.“
So richtig das ist, so geht es an dem „Verständnis-Problem“ vorbei. Anders gesagt, das hier geschilderte Problem liegt auf der Oberfläche, berührt nicht das substantielle Problem. Man könnte meinen, daß man ein fremdes Individuum versteht, wenn man nur alle seine (körperlichen und geistigen) individuellen Erfahrungen nacherleben kann. Aber das Bewußtsein ist nicht nur die Summe der kognitiv verarbeiteten Inputs, es wäre überflüssig, funktionslos, wenn es nicht mehr wäre. Entscheidend (im kategorialen Sinn) ist die Selbstorganisation des Bewußtseins, die Subjektivität. In der verkürzten materialistischen Sicht hängt das Bewußtsein nur von der Gesamtheit des objektiven Inputs ab, aber in der kognitiven Ordnung ist das autogen Erzeugte weder zu ignorieren noch von dem Heterogenen zu separieren. Das ist das, was wir „Sinn“, „Bedeutung“ nennen, das ist die Semantik, die nicht schon in der Syntax steckt. Wer glaubt, er kann die Semantik auf Syntax zurückführen, hat nichts „verstanden“.

Ja, jeder Mensch drückt einen gegebenen Sachverhalt idiosynkratisch aus, mit anderen Worten: die Sprache ist nicht normiert, so daß sie einen Sachverhalt ʃ nur auf eine einzige Weise S ausdrücken kann. Vielleicht kann man eine formale Sprache so normieren, daß es tatsächlich eine Normalform S für alle funktionalen Äquivalente Sₓ gibt, die ʃ beschreiben, beispielsweise die syntaktische Minimalform; in diesem Fall könnte man die idiosynkratischen Individualsprachen in eine subjektunabhängige Objektsprache übersetzen, die alle in gleicher Weise verstehen. Die funktional äquivalenten Individualsprachen über einem gemeinsamen Objektbereich U∩Sₓ = US (U steht hier für Vereinigungsmenge) wären auf diese gemeinsame Sprache zurückgeführt, es gäbe eine eineindeutige Übersetzung mit Einträgen von der Mächtigkeit (Größe des Objektbereichs = Anzahl der unterscheidbaren ʃ) · Individuenzahl ₓ. Es müßte nichts verstanden werden, alles wäre explizit.
Übrigens hat man genau das in der Logik getan, eine formale Sprache kann, die Logik sollte bis ins 20. Jahrhundert so konzipiert sein. Mit der Gödelisierung etwa hat man eine über den Zahlenwert normierte Normalform. Der Intuitionismus erlaubt nur einen solchen definiten Aufbau. Aber formale Sprachen sind uninterpretierte Sprachen, sie besitzen nur eine minimale basale Semantik (Aussagen-, Prädikatelogik), die mathematischen Aussagen definierten implizit Strukturen, keine Realobjekte, allenfalls, und dem würde ich zustimmen: einen Strukturenrealismus.

„Und dieselbe Syntax kann in verschiedenen Kontexten unterschiedliche Semantik haben.“
Selbstverständlich. Aber das ist nicht der entscheidende Punkt, sondern daß eine inhaltliche Sprache immer eine Semantik hat, die jenseits der Syntax liegt, die verstanden werden muß, irreduzibel ist. Die semantischen Unterschiede sind inkompatibel, es gibt keine gemeinsame Sprache für sie. Der Versuch, eine inhaltliche Sprache wie etwa unsere natürliche interpretationsfrei zu machen, zu objektivieren, ist wie die Quadratur des Kreises, der Versuch, die komplexen Zahlen auf die Menge der reellen Zahlen abzubilden. Das geht nicht, denn ihre Mächtigkeit ist verschieden. Sie sind inkompatibel.

Du sprichst das aus, wenn Du sagst: „Selbst wenn wir heute eine robuste Korrelation zwischen Syntax X und Semantik Y bei Person A finden, ist diese Zuordnung nicht stabil.“ Denn die Kognition ist kein starrer Körper, sie ist ein Fluß. Allerdings nicht bloß, weil sich ihr immer wieder Hindernisse und Möglichkeiten in den Weg stellen, neue Situationen neue Antworten erfordern, sondern auch, weil das Subjekt Entscheidungen trifft, die Möglichkeit der Selbstbestimmung hat, und damit die Situation selbst verändert.
Und: „Je höher und assoziativer die kognitive Verarbeitung, desto fragiler die Verallgemeinerung.“ Das ist allerdings etwas schwammig und unpassend ausgedrückt. Die kognitive Verarbeitung lenkt das Bewußtsein und integriert in das Bewußtsein. Der Begriff „Verallgemeinerung“ ist dafür ein ganz unglücklicher Begriff. Und „fragil“ ist geradezu paradox. Die kognitive Verarbeitung stabilisiert im Gegensatz dazu die Abbildung von Reizen in Denkstrukturen. Man könnte sagen, sie semantisiert Fakten. Ist die Stabilität der unbewußten Reizverarbeitung in den evolutiv erworbenen mechanischen Verbindungen begründet, so die der bewußten in der reflexiven Überwindung von kognitiven Dissonanzen (dieser Prozeß dürfte großenteils intuitiv, dh überwiegend auf der Gefühlsebene stattfinden).
„Plastizität“ drückt den Sachverhalt zu einseitig, zu passiv aus. Natürlich ist richtig, daß die Anpassung durch Akkomodation und Assimilation primär ist. Aber die höheren Formen der Anpassung werden erst in der Autopoiesis erreicht. Wir passen uns nicht nur an die Welt an, sondern wir konzeptualisieren, konstruieren und bilden auch unsere Nahwelt (im Rahmen dessen, was möglich ist). Unsere Anpassung hängt nicht nur davon ab, wie die Welt ist, sondern auch davon, wie wir die Umwelt einrichten. Kognition ermöglicht uns, den Möglichkeitsraum dessen, was sein kann, zu erschließen und dementsprechend Handlungsentscheidungen zu treffen.

Ja, die immer wieder neuen Konstellationen/Erfahrungen erfordern ständige Anpassung. Aber es gibt hinsichtlich der Bewältigung der Konstellationen keinen optimalen Pfad, dem man folgen könnte. Nicht nur, weil man ihn nicht erkennen kann (weil wir nicht allwissend sind), sondern weil wir selbst Einfluß darauf haben, in welcher Konstellation wir uns befinden und welche Dynamik wir darin auslösen können.

Wolfgang Stegemann
Wolfgang Stegemann
7 Tage zuvor

Du argumentierst mal wieder zielsicher an meinem Kommentar vorbei.
Meine Ausgangsfrage war konkret und entsprechend dem Artikel hier: Kann man statistisch herausfinden, ob neuronales Muster X bei Person A den Gedanken „Hund“ repräsentiert? Das ist eine methodologische Frage über die Reichweite korrelativer Verfahren in der Neurowissenschaft.
Deine Antwort transformiert das in eine bewusstseinsphilosophische Grundsatzdebatte über Subjektivität, Autopoiesis und „echtes Verstehen“. In der Schule würde man sagen, Thema verfehlt.