Ich fühle, also bin ich

Zoomposium mit Professor Dr. Achim Stephan: „Ich fühle, also bin ich. Wie Gefühle unser Denken beeinflussen.“

Zoomposium mit Professor Dr. Achim Stephan: „Ich fühle, also bin ich. Wie Gefühle unser Denken beeinflussen.“

1. Informationen zur Person und seinen wissenschaftlichen Forschungsarbeiten

In einem weiteren sehr spannenden Interview aus unserem Zoomposium-ThemenblogErkenntnistheorie und Philosophie des Geistes“ sprechen Axel und ich diesmal mit dem bekannten deutschen Philosophen Achim Stephan. Er „studierte an den Universitäten Mannheim und Göttingen Philosophie, Mathematik, Pädagogik, Psychotherapie und Psychosomatik und ist heute Professor für Philosophie der Kognition an der Universität Osnabrück. Seit dem Jahr 2003 ist er zudem Studiendekan des Studiengangs Cognitive Science. Sein Hauptarbeitsgebiet ist die Philosophie des Geistes, und dort besonders die Emergenz, Emotionen und Affektivität.“ (https://de.wikipedia.org/wiki/Achim_Stephan, Hervorhebungen hinzugefügt)

Auf Herrn Stephan war ich schon seit Längerem aufmerksam geworden, da sein Namen im Zusammenhang zur Emotionsforschung und zum Begriff der Emergenz bei meinen Recherchen zu meinem Essay „Das System braucht neue Strukturen – nicht nur für/gegen die Künstliche Intelligenz (KI)“ häufiger genannt wurde. Es ging hier speziell um die Frage, inwiefern das Konzept der „verkörperten oder situierten Kognition“ oder des Enaktivismus für die Konstitution von „künstlichem Bewusstsein“ eine Rolle spielen könnte. In seinen Artikeln „Embodied Targets, or the Origins of Mind-Tools“ (2006) oder „A Taxonomy of Environmentally Scaffolded Affectivity“ (2021) hatte er sich zum Beispiel sehr intensiv mit der Frage beschäftigt, wie eine verkörperte oder situierte Kognition unser Denken beinflusst oder sogar erst ermöglicht.

Da sein weiterer Forschungsschwerpunkt auf der Aufklärung des Phänomens der „Emergenz“ liegt, die er z. B. in seinen Buch „Emergenz: von der Unvorhersagbarkeit zur Selbstorganisation“ (4. Auflage 2016) und seinen Artikel, wie z. B. „Phenomenal Emergence“ (2004) und „Consciousness: Emergent and Real“ (2015) genauer untersucht hat, war es natürlich umso verlockender ihn auch einmal im Zusammenhang zu der Möglichkeit von „künstlichem Bewusstsein“ zu befragen. In weiteren Artikeln hatte er sich bereits mit der Möglichkeiten von emergenten Eigenschaften, Kommunikationsformen und Affekten in künstlichen Agenten explizit auseinandergesetzt, wie z. B. in „Emergent Properties of Natural and Artificial Systems“ (1998), „Communication and cooperation in living beings and artificial agents“ (2008) und „Could positive affect help engineer robot control systems?“ (2011).

Es ging in diesem Interview aber natürlich nicht nur um die „künstliche Intelligenz“, sondern natürlich auch im besonderen Maße um die „natürliche Intelligenz“. Da Herr Professor Stephan ebenso durch seine langjährige Lern- und Forschungstätigkeit ein ausgewiesener Experte im Bereich der Pädagogik, Psychotherapie und Psychosomatik ist, haben wir ihn natürlich auch zu dieser Thematik befragt. Um sich ein besseres Bild von dem sehr freundlichen und zugewandten Interview zu machen, seien hier schon einmal die Interviewfragen abgedruckt.

2. Interviewfragen: „Ich fühle, also bin ich. Wie Gefühle unser Denken beeinflussen.“

1. Sehr geehrter Herr Professor Stephan zu Beginn unserer Interview stellen wir häufig eine nicht immer ganz ernst gemeinte Frage, um einen etwas lockeren Einstieg in die Thematik zu erhalten. Daher zunächst einmal die Frage an Sie:

Könnten Sie mit geeigneten Messmethoden feststellen, ob unsere Vorfreude auf dieses Interviewnatürlichen Gefühlen“ entspringt oder ob sie „künstlich“ durch eine „Euphorie-Pille“ erzeugt worden ist?

2. Ein weiterer Aspekt Ihrer Arbeit in der Philosophie des Geistes liegt auch auf dem Konzept der „verkörperten oder situierten Kognition“. In diesem Zusammenhang haben Sie bereits mehrere Artikel, z. B. „Embodied Targets, or the Origins of Mind-Tools“ (2006) oder „A Taxonomy of Environmentally Scaffolded Affectivity“ (2021) verfasst.

  • Wenn Sie so freundlich wären unseren Zuschauer:innen einmal kurz Ihren Ansatz zu erläutern und vielleicht auch hierbei darauf eingehen könnten, warum die Konzepte der „4 E’s“ des „extended“, „embodied“, „embededded“ und „enactive“ mind einer „situierten Kognition“ zur Beschreibung der Konstitution des Bewusstseins so wichtig sind?
  • Könnten Sie sich vorstellen, dass eine explizite Einbeziehung des „embodiment“- und „embededdness“- und „nestedness“-Konzeptes auch zu einem Paradigmawechsel in den kognitiven Neurowissenschaften führen könnte, die monentan eher noch naturalistisch und physikalistisch orientiert sind und die Phänomenologie außen vor lassen?

3. Ein Schwerpunkt in Ihrer wissenschaftlichen Arbeit ist das Phänomen der „Emergenz“ (siehe z. B. Ihr Buch „Emergenz: von der Unvorhersagbarkeit zur Selbstorganisation“ (4. Auflage 2016) und Artikel, wie z. B. „Phenomenal Emergence“ (2004) und „Consciousness: Emergent and Real“ (2015)). Emergenz wir oft im Zusammenhang mit dem Qualia-Problems (auf das Sie in Ihrer Habilitationsschrift ausführlich eingehen) und der damit verbundene Erklärungslücke thematisiert. Z. B.: Schmerzerfahrung lässt sich nicht (wie etwa Wärme auf Molekularbewegung) explanatorisch reduzieren.

  • Es gibt Philosophen wie z. B. Daniel Dennett, die die erwähnte Erklärungslücke in Abrede stellen. Wie stehen Sie zu dieser Erklärungslücke in Bezug auf Qualia? Worin genau besteht Sie Ihrer Ansicht nach?
  • Was verstehen Sie unter dem Begriff Emergenz? Kann Emergenz die Konstitution von Bewusstsein bzw. Qualia erklären und die Erklärungslücke schließen?
  • Könnten Qualia als emergente Phänomene kausal wirksam sein (Bieri-Trilemma)?
  • Könnte das holistische Konzept des Emergentismus als Gegenentwurf zum reduktionistischen Konzept des Naturalismus und Physikalismus sehen?
  • Inwiefern könnte ein deterministisches Chaos als komplexes System im Gehirn wichtig für die emergenten Eigenschaften des Bewusstseins sein? Oder macht diese Form der dualistische Trennung zwischen „Geist vs. Materie“, „Körper vs. Bewusstsein“ oder „Umwelt vs. Gehirn“ eigentlich gar keinen Sinn, da es sich vielleicht nur um strukturale Rückkopplungen in Form eines „embodiment“ und „embededdness“ handeln könnte, die lediglich wie ein emergentes Phänomen wirkt?
  • Impliziert das Konzept der Emergenz nicht immer automatisch auch einen latenten Dualismus, da es von einem Epiphänomenalismus ausgeht?

4. In Ihren Artikeln „Emergent Properties of Natural and Artificial Systems“ (1998), „Communication and cooperation in living beings and artificial agents“ (2008) und „Could positive affect help engineer robot control systems?(2011) setzen Sie sich mit der Möglichkeiten von emergenten Eigenschaften, Kommunikationsformen und Affekten in künstlichen Agenten auseinander?

  • Sehen Sie eine realistische Möglichkeit Gefühle oder Affekte auf „KI-Systemen“ zu simulieren?
  • Wenn die möglich wäre, könnte die mögliche Realisierung von „Gefühlen“ oder „Affekten“ auf einer Maschine nicht auch zu einer Form von „künstlichem Bewusstsein“ führen?

Das vollständige Interview ist auf unserem Youtube-Kanal „Zoomposiumunter folgendem Link zu sehen:

https://youtu.be/gMherlB50K4

(c) Dirk Boucsein (philosophies.de), Axel Stöcker (die-grossen-fragen.com)

 

Ich bin immer mit meiner „Diogenes-Lampe“ unterwegs, um Menschen zu finden, die sich auch nach ein wenig „Licht der Erkenntnis“ sehnen. Also wenn Ihr eigene Beiträge oder Posts für meinen Wissenschaft-/Philosophie-Blog habt, immer her damit. Sie werden mit Eurem Namen als Autor auf meiner Seite veröffentlicht, so lange sie den oben genannten Kriterien entsprechen. Denn nur geteiltes Wissen ist vermehrtes Wissen.
5 1 vote
Article Rating
Abonnieren
Benachrichtige mich bei
guest

 

21 Comments
Inline Feedbacks
View all comments
Wolfgang Stegemann
Wolfgang Stegemann
7 Monate zuvor

Hallo Dirk,

vielleicht ein letztes mal hier zu den 4 E’s:

Bewusstsein auf den gesamten Körper – oder sogar auf die ganze Umwelt – zu erweitern, ergibt zwei Fehler:

1. Durch die Erweiterung des psychologischen Begriffs des Mentalen auf den physiologischen Begriff des Körperlichen entsteht eine unzutreffende Kategorisierung, man verbindet Äpfel mit Birnen.

2. Alle Sensoren laufen nun mal im Gehirn zusammen und die Daten werden dort ‚verarbeitet‘. Nur dort wird Realität transformiert. Die ‚Körperlichkeit‘ kommt dadurch ins Spiel, dass Denken und Empfinden ständig Rückkopplungen erfahren mit dem eigenen Körper und der Umwelt. Dies sind hochkomplexe Prozesse, die man mit den 4 E’s nicht einfangen kann.

Embeddedness, Enaktivismus und extended mind thematisieren faktisch nicht das Bewusstsein, sondern das Subjekt aus einer soziologischen Perspektive.

Aus dieser Perspektive erscheint das Subjekt als Bestandteil eines Systems.

Nur hat die Neurowissenschaft eine ganz andere Perspektive als die Soziologie. Sie hat das Subjekt im Fokus, und da speziell das Gehirn, also jenes Organ, das für die Orientierung zuständig ist (im Gegensatz dazu ist das Herz für das Pumpen des Blutes zuständig).

Für embodiment gilt Ähnliches wie für die drei genannten E’s. Thema ist faktisch nicht das Bewusstsein, sondern der Organismus.

Aber wir können das beim Bier vertiefen. Ich komme diesmal gern nach Münster.

Dirk Boucsein
7 Monate zuvor

Lieber Wolfgang,

die „Gebetsmühle dreht sich weiter“ und da sind wir schon wieder bei unserem „Lieblingsthema“ ;-). Ich dachte bei unserer letzten „Tafelrunde“ wären wir doch schon weiter gekommen.

Aber egal, dann nochmals zu den „4 E’s“, „Neurozentrismus“ (https://de.wikipedia.org/wiki/Neurozentrismus) ja – oder nein, „Dualismus Körper vs. Bewusstein“ oder das „Mentale das auf dem Physischen schwebt“.

Also zu 1): Du hattest doch selber in unserer Diskussion gesagt, dass es nur um den „physiologischen Begriff“ geht. Warum muss jetzt schon wieder die Ebene „Mentales“ darauf gesetzt werden, wenn Du schreibst: „Durch die Erweiterung des psychologischen Begriffs des Mentalen auf den physiologischen Begriff des Körperlichen entsteht eine unzutreffende Kategorisierung, man verbindet Äpfel mit Birnen.“
Nein, es muss nichts erweitert werden, weil nichts zu erweitern ist. Es gibt nur Äpfel. Das sind die Birnen ;-).

Zu 2): Du schreibst „Alle Sensoren laufen nun mal im Gehirn zusammen und die Daten werden dort ‚verarbeitet‘. Nur dort wird Realität transformiert. Die ‚Körperlichkeit‘ kommt dadurch ins Spiel, dass Denken und Empfinden ständig Rückkopplungen erfahren mit dem eigenen Körper und der Umwelt. Dies sind hochkomplexe Prozesse, die man mit den 4 E’s nicht einfangen kann.“
Da muss nichts im Gehirn zusammenlaufen, geschweige denn „verarbeitet“ werden. Ganz zu schweigen von der Realität, die höchstens eine „Wirklichkeit“ sein kann und dann auch nicht „transformiert“ werden muss. Deshalb müssen die „4 E’s“ auch nichts einfangen, weil sie schon den Inhalt besitzen. Wie in „Königswinter“, „nix davor und nix dahinter“ ;-).

Du schreibst „Thema ist faktisch nicht das Bewusstsein, sondern der Organismus.“ Jo, endlich „ham was“.

Darauf trinken wir uns mal ein „lecker Pilsken“ in Münster und besprechen den Rest.

Machet joot und bis denne
Dirk

Wolfgang Stegemann
Wolfgang Stegemann
7 Monate zuvor

Im Begriff Verkörpertes Bewusstsein (embodiment) ist der Dualismus schon enthalten. Körper und Geist in einem Begriff, mehr Dualismus geht nicht.
Veräpfelte Birnen quasi. Derselbe Sprachfehler wie beim Geist – Körper Problem. Descartes wäre amüsiert.

Dirk Boucsein
7 Monate zuvor

Hi Wolfgang,

der Begriff strebt übrigens das Gegenteil von einem Dualismus an, deshalb besteht er auch aus einem Adjektiv + Nomen und nicht aus zwei Nomen. Das nur zur Sprachlogik. Es ist also kein „Sprachfehler“, sondern beabsichtigt.

Die „veräpfelten Birnen“ sind daher eher ein „Pseudo-Problem“, ebenso wie Descartes Dualismus von „Geist vs. Körper“ oder moderner „Bewusstsein vs. Körper“. Wo soll denn eigentlich das Bewusstsein herkommen, wenn nicht aus dem „embodiment“. Ich würde daher eher bei diesem Pseudo-Problem anstelle von „veräpfelten Birnen“ von „Nashi-Birnen“ sprechen, die man auch für „Pseudo-Äpfel“ halten kann.

Aber die anderen Obstsorten können wir vielleicht in einem persönlichen Gespräch erörtern.

Liebe Grüße
Dirk

Philipp
Philipp
7 Monate zuvor
Reply to  Dirk Boucsein

Folgendes Beispiel bezüglich des Zusammenhangs zwischen Physiologie (Körper) und Mentalem (Bewusstsein, Qualia).

Stellt euch den Sound eines Films vor. Woraus besteht die Tonspur digital?
Sie besteht aus einzelnen sampling points (Datenpunkten); beispielsweise 44.100 Hz (also 44.100 Datenpunkte pro Sekunde). Diese Datenpunkte (Zeitreihe, time-series) lässt sich über drei Bestandteile vollständig beschreiben: 1) Wellenlänge/Frequenz, 2) Phase/Phasenwinkel, und 3) Amplitude. Es sind praktsich nur „Zahlenwerte“.

Dieses digitale Signal kann nun über Lautsprecher in ein analoges umgewandelt werden. Wir hören dann den Film (Musik, Sprache, etc.). Das Innenohr macht so etwas wie eine Fourier Transform. Die Basilarmembran zerlegt den auditorischen Input in einzelne Frequenzen die jeweisl mit eigener Stärke „Amplitude“ assoziiert sind. Dieses Signal wird an den auditorischen Cortex des Gehirns weitergeleitet.

Am Ende hören wir dann (Bewusstsein, Qualia).

Jetzt kommt der Punkt auf den ich eigentlich hinaus möchte.
Stellt euch jetzt vor ich könnte mit genialer Technik genau die elektrophysiologische Aktivität des Gehirns aufnehmen die den auditorischen Input in das neuronale Signal laufend enkodiert. Stellt euch vor ich könnte dieses Signal perfekt ohne Störsignale aufnehmen.

Dieses Signal speicher ich dann in einem Computer, eben genauso wie auch der Sound des Films gespeichert ist, oder eben die Gehirndaten.
Dann wandel ich dieses perfekt aufgenommene Signal beispielsweise in eine .wav Datei um und spiele diese ab.

Was würden wir dann hören? Richtig, ich bin überzeugt dass wir dann in etwa das hören würden was der Mensch gehört hat (Bewusstsein, Qualia!) von dem dieses ideal (perfekt) aufgenommene elektrophysiologische Signal stammt.

Und das würde eben zeigen dass Bewusstsein einfach nur eine Transformation ist (und kein kausaler Zusammenhang beispielsweise zwischen „Physiologie“ und „Mentalem“ besteht). Sprich; es ist sinnlos zu fragen wie „Qualia“ aus „Physiologie“ entstehen, denn die Dynamik ist ein und diesselbe, man beschreibt sie nur aus verschiedenen epistemischen Standpunkten heraus.

Heinz Luediger
Heinz Luediger
7 Monate zuvor
Reply to  Philipp

Hallo Philipp,

ein sehr interessantes Gedankenexperiment. Verstehe ich es richtig, daß „die geniale Technik“ ein Drittes ist, von dem Physiologisches und Mentales Perspektiven, Momente, oder wie Du sagst, Transformationen sind? Wenn ich nun davon ausgehe, daß diese „geniale Technik“ prinzipiell nicht realisierbar ist und somit nur ein Notbegriff für ein noch Unbenanntes/Unbekanntes (Nichts, Ding-an-sich, Rauschen, Komplexität, etc.) ist, welches erst im ‚Physiologischen‘ und ‚Mentalen‘ begrifflich claire et distincte zutage tritt, bin ich mir nicht sicher ob Du mir noch folgen würdest. 

Falls doch, wäre Dein Gedankenexperiment eine reductio ad absurdum gegen jede kausale Verknüpfung von ‚matter’ und ‚mind‘, denn sie sind nicht mehr (aber auch nicht weniger) als vernünftige Denkweisen über ein Drittes, was immer es auch sein mag.

Gruß,
Heinz

P.S. Im Gegensatz zu vielen Anderen hat Einstein das Gedankenexperiment nie zur Beschreibung einer Möglichkeit, sondern immer nur zur Falsifikation, d.h. als reductio eingesetzt. Menschliches Wissen ist halt so strukturiert, daß es sich nicht beweisen, wohl aber falsifizieren läßt. Wenn das Falsche aus der Sprache verschwindet bleibt nicht das logisch Wahre, sondern die ungleich mächtigere Menge des Absolut-Nicht-Falschen (darin sind wir frei!). Philosophie, aus meiner Sicht, ist 99 Prozent Kritik und nur der Rest ist Kreativität.

Wolfgang Stegemann
Wolfgang Stegemann
7 Monate zuvor
Reply to  Heinz Luediger

Eigentlich ist doch alles ganz einfach: wir betrachten einen Menschen. Nun können wir ihn unter physiologischem Aspekt betrachten, dann verwenden wir Begriffe wie Neuron oder Gehirnareal etc. Wir können ihn unter einem Verhaltensaspekt betrachten, wie die Psychologie das tut, dann verwenden Begriffe wie bewusst oder unbewusst etc.pp.

Wir können von außen auf ihn blicken und nennen das dann die 3. Personperspektive, oder wir sprechen von der 1. Personperspektive, dann sprechen wir z.B. von der Qualia.

Egal, aus welcher Perspektive wir auf den Menschen blicken, es ist immer derselbe Mensch, dasselbe Gehirn und dieselben Neuronen. Der Unterschied ist einzig die Perspektive.
Das ist das, was Philipp meint.

Und wenn man diese Perspektiven durcheinanderbringt oder ihnen eine Substanz zuspricht, obwohl es nur Perspektiven sind, oder eine Kausalität zwischen ihnen propagiert, dann kommen genau die bekannten philosophischen Probleme heraus, über die man seit zweieinhalb tausend Jahren rätselt.

Man könnte meinen, die Menschen sind naiv, wenn sie das Denken, nur weil man es nicht anfassen kann, substanziieren und ‚Geist‘ daraus machen. Der schwirrt dann verselbständigt durch die Welt.

Was wir nicht können, ist, das persönliche Erleben objektivieren. Das Erleben ist dem einzelnen Individuum vorbehalten, nämlich dem, der es erlebt. Ich kann Ihren Schmerz nicht erleben, denn es ist Ihr Schmerz.

Und da ist nichts Drittes, das enträtselt werden müsste.

Philipp
Philipp
7 Monate zuvor
Reply to  Heinz Luediger

Hallo Heinz,

lass mich etwas ausholen um deine Frage zu beantworten. Denn dann kann ich das was ich zuvor geschrieben habe in einem verständlicheren Kontext rücken.

Ich analysiere gerade einen fMRI Datensatz. 182 Personen wurden gescannt während sie 15 Minuten im Scanner einen Film geschaut haben. Es handelte sich um Ausschnitte von Hollywoodfilmen (Oceans 11, Inception, etc.). Dabei hatten die Personen auch Kopfhörer im Ohr sodass sie den Film auch hören konnten.

Nun habe ich drei Datentypen analysiert:
Erstens: Das BOLD Signal (also die „Gehirnaktivität“).
Zweitens: den auditorischen Input des Films.
Drittens: den visuellen Input des Films.

Was das für ein Aufwand ist könnt ihr euch vielleicht denken…

Die Details kann ich dazu nicht alle erläutern; das geht über einen Blogkommentar hinaus. Jedenfalls habe ich alle 3 Daten auf _eine_ Variable untersucht, und ich habe geschaut wie sich diese Variable über die Zeit (also über die Zeit des Films schauen) verändert.

Von allen 182 Personen habe ich den Mittelwert pro untersuchter Gehirnregion gewählt. Ergebnis?

  • Die visuellen Areale V1 bis V4 folgen nahezu exakt dem visuellen Input des Films! Granger causality signifikant, spearman correlation bis zu 0.8!
  • Die ersten 5 auditorischen Areale folgen ebenfalls nahezu exakt dem auditorischen Input des Films!

Nochmal, das ist nichtmal ein elektrophysiologisches Signal wie in EEG und MEG, nein, das ist eine Variable die auf dem BOLD Signal von fMRI ermittelt wurde, und trotzdem konnte ich zeigen dass das Gehirn quasi exakt den Input trackt! Meine Kollegen konnten das selbst nicht glauben; bevor ich das publiziert habe verlinke ich hier keine Grafiken. Das zeigt mir übrigens auch mal wieder das fMRI lange nicht so schlecht ist wie es in den Medien von manchen Personen dargestellt wird….

Was bedeutet das für mich neurophilosophisch? Klar, das Gehirn folgt in den low-order regions, also den Arealen die mit Inputs aus der Umwelt „gekoppelt“ sind, quasi perfekt den Inputs.

Nun zu meiner Idee: es ist technisch nicht möglich genau DIE neurophysiologische Aktivität im Gehirn zu messen die unser Erleben ist. Philosophisch ausgedrückt: ich kann nur empirisch etwas messen, d.h. immer mit Störsignalen verbunden, abstraktionen (z.B. misst jede Elektrode in EEG Signale die von zehntausenden, hunderttausenden… Neuronen stammen).

Wenn ich aber (rein theoretisch) gedacht genau und _nur_ die neurophysiologische Aktivität messen könne die z.B. mit dem „Hören“ zusammenhängt, wenn ich also nicht „empirisch“ messen würde, sondern wenn ich genau die neuronale Aktivität messen könnte die ontologisch z.B. mit „Hören“ zusammenhängt, dann bin ich überzeugt das meine Idee bzw. mein Gedankenexperiment oben funktionieren würde.

Das geht aber nicht; denn die heutigen Techniken (EEG, MEG, fMRI, single unit recording, etc.) sind dafür alle zu limitiert. Sie haben alle Vor- und Nachtteile, aber es ist nicht möglich nur eingeschränkt die Aktivität zu messen die z.B. mit einem bestimmten „Gedanken“ oder mit einem bestimmten Input der gehört wurde zu messen.

Philipp
Philipp
7 Monate zuvor
Reply to  Philipp

Transformation:

Es gibt einen auditorischen Input; Druckschwankungen in der Luft, Wellen….

Dieser wird in neuronale Aktivität über die Transduktion im Innenohr umgewandelt („transformiert“). Das ist was wir hören. D.h. eine Modalität (oder wie man es auch immer bezeichnen möchte) – also Schwankungen oder Wellen von Molekühlen in der Luft – wird in ein neuronalen Signal transformiert. Das ist was wir dann hören.

Es gibt für mich also keinen Mind, keinen Geist. Es gibt ein Lebewesen. Wie hört dieses Lebewesen? Es transformiert Inputs aus der Umwelt in neurophysiologische Aktivität um. Diese neuronale Aktivität _ist_ das Hören.

Und ich kann das Hören nun in mentaler Sprache beschreiben (Phänomenologie, Psychologie, etc.). Oder ich beschreibe es biologisch (neurowissenschaftlich). Man kann das eine nicht auf das andere reduzieren. Es sind alles gleichberechtigte (aber verschiedene) Betrachungsebenen.

Heinz Luediger
Heinz Luediger
7 Monate zuvor
Reply to  Philipp

Hallo Philipp,

dank für die Erklärungen. Ich glaube, ich habe als Nicht-Neurowissenschaftler ungefähr verstanden was Du gemacht hast. Trotzdem kann ich Deinem Verständnis des Gehirns als signalverarbeitende Maschine nicht folgen, weil Sehen und Hören mit Erwartungswerten verbunden sind, die m.E. deutlich mehr als die Hälfte des phänomenalen Gehalts ausmachen. Diese Annahme ließe sich dadurch untermauern, daß, wenn im Deinem Experiment der Film rückwärts laufen würde (arme Probanden…), die Korrelationen zusammenbrechen würden. Da sich an der Korrelation zwischen physischem Bild- und Tonsignal bei Zeitumkehr des Films nichts ändert, sollte sich nach Deinem Datenverarbeitungs-Verständnis des Gehirns nichts an den von Dir festgestellten Ergebnissen ändern?

D.h. ich würde erwarten, daß unter diesen Umständen nicht nur die starke Korrelation zwischen auditorischem bzw. visuellem Boldsignal einerseits und auditorischem bzw. visuellem Filminput andererseits deutlich zurückgehen würde, sondern auch die Korrelation zwischen auditorischem und visuellem Boldsignal selbst, die, wie ich vermute, in Deinem Experiment relativ hoch ist.

Wie denkst Du darüber?

Heinz

Philipp
Philipp
7 Monate zuvor
Reply to  Heinz Luediger

Hallo Heinz,

Trotzdem kann ich Deinem Verständnis des Gehirns als signalverarbeitende Maschine nicht folgen, weil Sehen und Hören mit Erwartungswerten verbunden sind, die m.E. deutlich mehr als die Hälfte des phänomenalen Gehalts ausmachen.“

Man kann das Gehirn (grob) in lower- und higher-order Regionen/Arealen einteilen. Beispielsweise in frühen auditorischen und visuellen Regionen (lower-order) sind wir anatomisch und physiologisch untereinander sehr ähnlich. Das lässt sich z.B. über eine pair-wise Korrelation zwischen Personen zeigen (Korrelation der Aktivität zwischen allen möglichen Paarungen der Personen). Bei einer Pearson correlation kann diese ~0.5 oder ~0.8 betragen (die Höhe hängt von vielen Faktoren ab).

In späteren Arealen (higher-order) sind wir unterschiedlicher. Dort werden die Signale oder Input aus der Umwelt weniger direkt aufgenommen, sondern Signale aus allen möglichen Regionen werden über die Zeit weg intergriert. Diese Regionen „takten“ auch langsamer da sie Signale über längere Wellenlängen über die Zeit aus verschiedenen Quellen integrieren müssen. Hier findet man auch kaum bis gar keine Überschneidung mit Umweltinputs mehr. Diese Areale sind sozusagen von der Umwelt entkoppelt. Hier spielt sich eher etwas wie die von dir genannten „Erwartungen“ ab. Diese Regionen habe ich auch als Kontrolle analysiert, nämlich um zu zeigen dass die Inputs hier keine Auswirkungen mehr haben.

Und du hast sicher Recht dass auch Erwartungen mit ins das bewusste Erleben einspielen. Deshalb sagte ich auch zuvor dass selbst wenn wir beispielsweise ein Signal aus dem auditorischen Cortex ideal aufnehmen und abspielen könnten nie exakt und genau das hören würden was eine Person gehört hat, sondern nur annähernd. Es gab z.B. vor einiger Zeit eine Studie bei der AI eingesetzt wurde und die AI an einem Datensatz bei denen die Personen immer wieder gescannt wurden trainiert wurde. Die AI konnte tatsächlich „Bilder“ rekonstruieren, basierend auf dem BOLD Signal im visuellen Cortex, jene die Personen gesehen haben.

„D.h. ich würde erwarten, daß unter diesen Umständen nicht nur die starke Korrelation zwischen auditorischem bzw. visuellem Boldsignal einerseits und auditorischem bzw. visuellem Filminput andererseits deutlich zurückgehen würde, sondern auch die Korrelation zwischen auditorischem und visuellem Boldsignal selbst, die, wie ich vermute, in Deinem Experiment relativ hoch ist.
Wie denkst Du darüber?“

Das Signal im visuellen und auditorischen Cortex korreliert nicht sondern ist komplett unterschiedlich. Wenn du Sound und Bild rückwärts abspielst verändern sich verschiedene mögliche Variablen die man messen kann, sowohl bezüglich des Films als auch des Gehirns. Die temporale Abfolge ist ja anders, dadurch hört sich der Sound nicht nur anders an und die Abfolge der Bilder ist umgekehrt, sondern das Gehirn würde dann auch anders reagieren.

Inwiefern z.B. der auditorische Cortex dann noch dem Sound folgt kommt wohl auch insbesondere darauf an was genau gemessen wird. Die time-series der von mir gemessenen Variable ist nicht stationary, weder für das Gehirn noch für die Inputs (d.h. der Mittelwert sowie die Varianz des Signals ändern sich über die Zeit). Damit ist beispielsweise auch die Autokorrelation des Signals (z.B. für bestimmte Zeitfenster) nicht gleich wenn der Input rückwärts abgespielt wird. Das würde wiederum das Ergebnis von zig Variablen die man berechnen könnte beeinflussen (und es beeinflusst wie von dir angemerkt natürlich auch das Erleben).

Kurzum: ich sehe keinen Widerspruch und nehme auch ganz klar an dass sich natürlich nicht nur das bewusste Erleben bei einer Rückwärtspräsentation des Films ändern würde sondern auch die Gehirnaktivität.

Ich muss dazu sagen dass visueller Input, auditivier Input sowie Gehirn alle drei ja unterschiedliche sampling rates haben.
Der Film hat 24 Bilder pro Sekunde (also 24 Hz). Der auditorische Input 44.100 Hz. Das BOLD Signal wurde mit 1 Hz aufgenommen. Man kann die drei Daten also gar nicht direkt vergleichen. Und es würde auch keinen Sinn machen visuellen und auditorischen input auf 1 Hz downzusamplen um sie vergleichen zu können, da sie bei 1 Hz ja ihren kompletten Inhalt verlieren würden.

Ich habe die Daten daher über einen sliding window approach via Messungen im power spectrum (in der frequency domain nach einer Fourier transform) verglichen.
Dabei fahre ich die drei time-series mit einem window ab und nehme für jedes window eine Fourier transform vor, berechne dann die Variable, und wiederhole das im 1-Sekunden anstieg über die time-series (1 Sekunde da das Bold Signal mit 1 Hz aufgenommen wurde).

Somit umgehe ich das Problem der unterschiedlichen sampling rates. Am Ende erhalte ich dann für alle 3 Datentypen (inputs sowie Gehirn) jeweils eine neue time-series. Aber diese time-series ist nicht mehr das original aufgenommene Signal, sondern jeder Datenpunkt entspricht eben einer von mir gemessenen variable im power spectrum.

Das ist nicht nur ein „Trick“ um die drei Daten zu vergleichen, sondern notwendig. Warum? Weil das extrem langsame BOLD Signal des Gehirns von Natur aus ja völlig anders ist als der auditorische Input. Und der auditorische Input verhält sich auch ganz anders als der visuelle. Nun meine Idee: das Gehirn matcht die Inputs inbesondere über eine Anpassung seiner Frequenzen mit jeweils assoziierterr Power. D.h. das power spectrum des Gehirns passt sich über die Zeit an das power spectrum der inputs an. Und genau diese Idee ist perfekt aufgegangen.

Man kann z.B. ein BOLD Signal mit 1 Hz (also 1 Datenpunkt pro Sekunde) ja bereits rein technisch/mathematisch gar nicht mit einem auditorischen input mit 44.100 Hz korrelieren oder via granger causality verrechnen. Deshalb geht das nur über Umwege. Da sind natürlich auch noch zig weitere Schritte notwendig, aber das würde hier zu weit führen.

Philipp
Philipp
7 Monate zuvor
Reply to  Philipp

Vielleicht noch der wichtigste Punkt im Bezug auf deine Frage (Zeitumkehr der Inputs, Rückwärtsabspielen):

Im Computer während die sampling points der Input zeitlich einfach gedreht bzw. gespiegelt, das ist richtig. Aber wenn man das Signal dann wirklich rückwärts abspielt ist es natürlich nicht identisch; nur die einelnen sampling points sind identisch. Aber nicht die Relation (über die Zeit hinweg bzw. über bestimmte Zeitabstände) wäre identisch. Das Gehirn enkodiert auch nicht 1:1 „punktgenau“ oder punktuell inputs, sondern setzt sie über die Zeit hinweg in Relation zueinander. Daher würde sich auch das bewusste Erleben in Kombination mit gemessener neuronaler Aktivität (oder BOLD oder was auch immer) ändern. Und ich denke dass diese zeitliche Integration bzw. Verlinkung oder Relation auch fundamental für Bewusstsein ist. Würden wir Inputs nur punktuell verarbeiten, quasi „digital“, dann würden wir nichts erleben.

Heinz Luediger
Heinz Luediger
7 Monate zuvor
Reply to  Philipp

Hi Philipp,

hmm…Deine Antwort bezüglich der Zeitumkehr scheint mir nicht ganz konsistent zu sein, werd’ mal drüber nachdenken. Vorläufig Dank für Zeit und Mühe,

Heinz

Philipp
Philipp
7 Monate zuvor
Reply to  Heinz Luediger

Hi Heinz,

dann zurück zu deiner ursprünglichen Frage:

Da sich an der Korrelation zwischen physischem Bild- und Tonsignal bei Zeitumkehr des Films nichts ändert, sollte sich nach Deinem Datenverarbeitungs-Verständnis des Gehirns nichts an den von Dir festgestellten Ergebnissen ändern?“

Korrekt, die Korrelation zwischen beiden Inputs würde sich natürlich nicht ändern (im Bezug auf die rein digitalen Daten, nicht im Bezug auf das was der Mensch hören und gleichzeitig sehen würde da beide Inputs phänomenologisch gesehen nicht mehr identisch wären).

Wir würden etwas anderes sehen und hören. Damit ist natürlich auch eine andere Gehirnaktivität verbunden. D.h. die ursprüngliche time-series, also unser Rohsignal, wäre verändert. Damit würden sich auch alle Variablen die man mathematisch nun auf Basis der time-series berechnen kann automatisch verändern.

Wolltest du darauf hinaus? Wenn ja lautet meine Antwort dass das gemessene Signal des Gehirns natürlich auch anders wäre, das ist selbstverständlich.

Philipp
Philipp
7 Monate zuvor
Reply to  Philipp

Der Korrelation (Pearson, etc. – mathematisch) ist die Richtung der Datenpunkte egal. Die können wir so lassen wie sie sind oder sie um eine imaginäre Mittellinie oder -achse Spiegeln. Die Korrelation bleibt identisch (solange die Datenpunkte für beide Inputs nur gespiegelt und nicht untereinander geshuffled werden).

Was nicht identisch bleibt ist das abgespieglte Signal, denn hier zählt die Reihenfolge der Datenpunkte. Deshalb reagiert das Gehirn auf eine zeitlich umgedrehte time-series (sei es vom Sound oder vom Bild) natürlich auch anders.

Wenn das also die Frage war: ja, natürlich reagiert das Gehirn dann auch anders (und wir erleben es anders…).

Heinz Luediger
Heinz Luediger
7 Monate zuvor
Reply to  Philipp

Philipp,

alles richtig was Du sagst. Meine Idee war viel einfacher. Wenn ich es richtig verstehe, glaubst Du den Nachweis erbracht zu haben, daß eine starke Korrelation zwischen den physischen Film-Inputs und den zugeordneten Boldsignalen besteht. Diese Aussage macht wissenschaftlich Sinn, wenn sie für JEDEN Film gilt (der rückwärts laufende Film könnte ja das Werk eines Regisseurs unter Drogen sein!). Und da, wenn ich es richtig verstehe, das Gehirn auf dieser Verarbeitungstufe keine Erwartungswerte, Vergleichsmuster etc. beisteuert, sondern sich verhält wie ein strohdummes Digitalboard, unterscheidet sich der rückwärts laufende Film bzgl. seiner physischen Inhalte (Samplig Points und Leistungsspektrum sind invariant gegen Zeitumkehr, das Amplitudenspektrum ist konjugiert komplex) nur minimal vom vorwärts laufenden Film. Außerdem bleibt natürlich die Korrelation zwischen Ton und Bild bestehen.

Meine Idee war, einen Film zu schaffen, der mit dem Original physisch (datentechnisch) möglichst identisch ist, sinnlich (für den Betrachter) aber extrem vom Original abweicht. Unter diesen Umständen wäre meine Erwartung, daß die Korrelationen physisch-Bold bei weitem nicht so hoch ausfallen wie beim Original. Es geht also nicht um die Korrelation Bold-Original und Bold-Umkehr, die dürfte nahe bei Null liegen.

Die Frage ist also, ob die Korrelationen, die Du festgestellt hast, universell gültig sind oder nur für Filme gelten, die der menschlichen Erfahrung (Erwartung) entsprechen.

gruß

Heinz

Philipp
Philipp
7 Monate zuvor
Reply to  Heinz Luediger

Hi Heinz,

(ich fühle mich schon schuldig, da unsere Diskussion so weit vom eigentlichem Thema „Emotionen“ weggekommen ist, aber das Thema Bewusstsein ist eben auch mein Lieblingsthema…)

Es kommt darauf an was du letztendlich konkret(er) mit Erwartung oder Erfahrung meinst. Klar, im allgemeinen verstehe ich was du meinst. Aber man müsste dann schon konkreter werden.

Grundsätzlich:
Die Personen wurden 4x für 15 Minuten gescant. Und sie haben in jedem der 4 Scans unterschiedliche Filmclips von jeweils ca. 3-5 Filmen gesehen. D.h. ca. 16 Clips insgesamt. Dieses „matching“ zwischen Input und Gehirn funktioniert mehr oder weniger gut in alle 4 Aufnahmen. Die Idee den Probanden Filme zu zeigen ist grundsätzlich ein naturalistisches Setting zu schaffen, d.h. Inputs die mehr an echte Inputs aus der Umwelt (reale Wahrnehmung im Alltag) herankommen (statt einzelne zeitlich zerhackte Stimuli oder Aufgaben zu präsentieren).

Dazu muss man bedenken:
Der Scanner wird bis zu 140 dB laut. Die Personen haben keine „Googles“ auf dem Gesicht auf denen sie den Film sehen (die sind zu teuer, für MRI kostet alles ein Vermögen), sondern die sehen den Film auf einem kleinen Spiegel über den Head coils. Hinten an der Wand im MRT Raum hängt ein abgeschmirter TV und von diesem wird das Bild auf dem Spiegel vor den Augen der Probanden gespiegelt.

Was heißt das?
Das heißt dass das Licht das auf die Retina der Augen fällt nicht nur das Bild des Films (Spiegel) beinhaltet, sondern dass vielleicht 50-60% der „Sehfläche“ die Plastikverkleidung der Head coils und des scanners ausmacht.

Und trotz all dieser Faktoren bekommt man ein so gutes matching hin, in 4 unterschiedlichen Runs (unterschiedliche Clips).

Will sagen: es ist für mich absolut klar dass das Gehirn „draußen“ in der echten Welt genauso funktioniert, d.h. dass es die Inputs jene wir in der realen Umwelt erfahren natürlich in lower-order regions genauso matchen muss um sie richtig zu erfassen.

Karl Friston drückt das in seiner Theorie immer gerne so aus: „man muss selbst ein Modell der Umwelt werden in der man lebt um sich optimal an sie anzupassen, um in ihr zu überleben…“

Heinz Luediger
Heinz Luediger
7 Monate zuvor
Reply to  Philipp

Mein Lieblingsspruch: Wer sich vom Fluss treiben läßt, ertrinkt im Meer.

Philipp
Philipp
7 Monate zuvor
Reply to  Heinz Luediger

Was möchtest du damit sagen? Sagst du was wegen dem Friston Zitat? Ich folge weder Friston noch einem Mainstream (Fluss) nur weil ich eine Aussage von ihm passend finde.

Zum Abschluss von meiner Seite:
Du hast ja die Zeitumkehr angesprochen. Wie du geschrieben hast ist es richtig dass das power spectrum invariant gegenüber der Zeitumkehr einer time-series ist. Aber nur wenn du die ganze time-series umdrehst und dann einmal ein power spectrum auf ihr berechnest. Wenn du über kleine Zeitfenster via einem sliding window (mit überlappenden windows) immer wieder ein power spectrum berechnest sind die einzelnen windows nicht mehr identisch.

Ein anderer interessanter Punkt:
Ich kann in dieser Analyse nicht zeigen dass dieser matching Effekt mit Bewusstsein korrespondiert. Es kann sein dass das was ich dort berechnet habe nur eine notwendige Bedingung fü Bewusstsein ist. D.h. dieser Matchingprozess wäre notwendig aber nicht ausreichend für Bewusstsein, er ist nicht das Erleben per se.

Man könnte z.B. die Phasen der einzelnen Frequenzen eines Signals in der frequency domain „durchmischen“ und danach das Signal mit einer inversen Fourier Transform zurück in die time domain bringen. Der Sound würde sich dann komplett anders anhören, aber das power spectrum wäre exakt identisch. Würde das Gehirn dann immer noch das power spectrum der Inputs enkodieren, obwohl der Input sich komplett anders anhört? Wenn er sich anders anhört heißt das automatisch dass etwas an der neuronalen Aktivität anders ist. Aber was genau? Das power spectrum bleibt vielleicht ähnlich, aber andere Messungen würden stärkere Veränderungen aufweisen.

Philipp
Philipp
7 Monate zuvor

Zeitpunkt 7 min 30 sec im Interview:

„Gute Gefühle via Neurotransmitter“

Woraus sich Achim Stephan hier bezog ist die elektrische Stimulation des Belohnungssystems über die sogenannte intrakranielle elektrische Selbststimulation (IESS) die man erst bei Tieren getestet hat. Diese hat man später in den 1960er-Jahren auch bei einem Menschen mit Schizophrenie getestet.

Man implantierte einem 35 Jahre alten Mann der aufgrund Schizophrenie bereits Jahre in der Psychiatrie war Elektroden in verschiedene Areale des Gehirns. Es handelte sich um Areale die insbesondere für den Ausstoß von Dopamin zuständig sind.

Der Patient hatte zwei Schalter über die er den Strom selbst bestimmen konnte. Einmal so dass es ein belohnendes Gefühl gab und einmal ein aversives. Der Patient drückte den Schalter für Belohnung dann über Stunden hinweg ohne Pause.

Er bekam beispielsweise einen Tag lang nichts zu essen und darauf gab man ihm den Schalter und einen Korb mit Nahrungsmitteln. Statt zu den Nahrungsmitteln griff er zum Schalter und drückte sofort wieder ohne Pause los.

Das gleiche konnte man bei Ratten zuvor in den Tierexperimenten beobachten. Die Ratten drückten solange bis zur voller Erschöpfung zusammenbrachen; sie ignorierten Wasser und Nahrung, da das belohnende Gefühl stärker war.

Dirk Boucsein
5 Monate zuvor

Hallo Herr L.,

vielen Dank für Ihren interessante Kommentar, auf den ich hier kurz antworten möchte.

Ja, ich denke tatsächlich (oder sollte ich besser gesagt fühlen sagen ;-), dass der alte cartesische Wahlspruch ein Update in Form eines „Ich fühle, also bin ich“ benötigt, wenn man das Phänomen „Bewusstsein“ besser verstehen möchte. Die Philosophie des Geistes und besonders die kognitiven Neurowissenschaften haben an der „falschen Stelle“ gesucht und suchen dort immer noch, im Neokortex.

Bewusstsein, besonders menschliches, wird immer noch mit Kognition gleichgesetzt, obwohl es etwas sehr Einfaches oder Basales sein kann, wie ein interaktives Embodiment von Körper und Gehirn und strukturales Embededdness von Gehirn und Umwelt. Dies haben Achim Stephan und Mark Solms auch in unseren Interviews herausgestellt.

Patrick Krauß hatte in unserem älteren Interview „Bauanleitung Künstliches Bewusstsein“ (https://philosophies.de/index.php/2023/10/24/bauanleitung-kuenstliches-bewusstsein/) sogar schon Vorschläge für eine Umsetzung von „Künstlichem Bewusstsein“ (AC/DC = artificial consciousness/ digital consciousness) auf der Basis Damasios „Theorie des Bewusstseins“ 1:1 in konkrete Schaltpläne für ein Deep Learning auf Maschinen versucht zu überführen. Hierzu werden verschiedene Strategien von „feed-forward connections“, „recurrent connections“ in Form von „reinforcement learning“ und „unsupervised learning“ angewendet, um die biologischen Prozesse der neuronalen Netze zu simulieren.

Der Fokus der Forschung und damit verbunnden Risikofolgenabschätzung sollte daher nicht auf „KI“ als „Künstliche Intelligenz“ liegen, das haben die Maschinen schon mehr als erreicht, sondern eher auf „KB“ als „Künstliches Bewusstein“.

In diesem Sinne gilt wohl immer noch die Inschrift am Apollotempel von Delphi: „Gnṓthi sautón „Erkenne dich selbst!“

Liebe Grüße
Dirk