Table of Contents
Zoomposium mit Dr. Gabriele Scheler: „Die Sprache des Gehirns – oder wie KI von biologischen Sprachmodellen lernen kann“
1. Informationen zur Person
In einem weiteren sehr spannenden Interview aus unserem Zoomposium-Themenblog „Künstliche Intelligenz und ihre Folgen“ sprechen Axel und ich diesmal mit der deutschen Informatikerin, KI-Forscherin und Neurowissenschaftlerin Gabriele Scheler, die schon seit Längerem in den USA lebt und forscht.
Sie ist Mitgründerin und Forschungsdirektorin an der Carl Correns Foundation for Mathematical Biology in San José USA, die nach ihrem berühmten, deutschen Vorfahren Carl Correns benannt worden ist. Dort forscht sie unter anderem an zellbiologischen Mechanismen unter Verwendung von Computational Neuroscience in Form von mathematischen Modellierungen und theoretischen Analyse der empirischen Daten als Simulationen.
Sie studierte an der Maximilian Universität München Theoretische Linguistik und schloss 1982 mit einem Diplom (“M.A.”) und 1989 mit einen Doctor of Philosophy („PhD“) in Logik, Statistik und Wissenschaftstheorie ab.
Bis 1994 war sie am Institute for Computational Linguistics an der Universität Heidelberg beschäftigt, wo sie an Problemen der statistischen lexikalischen Analyse, Korpuslinguistik und maschinellen Übersetzung arbeitete und eine Gruppe für neuronale Netze in der Computerlinguistik gründete.
Von 1993 bis 1994 war sie am Münchner Institut für Proteinsequenzen der Max-Planck-Institut für Biochemie tätig, um im Bereich der Bioinformatik an einer Proteinsequenz-Datenbank zu arbeiten.
Von 1994 bis 1998 war sie am Lehrstuhl für Informatik an der Technischen Universität München beschäftigt und erhielt ein Stipendium des Freistaats Bayern für ihre Arbeit im Bereich der Computerlinguistik. 1996 erhielt sie ein persönliches DFG-Stipendium für die Forschung an neuronalen Netzen (Entwicklung eines ereignisbasierten Simulators für spikende Neuronen (SPIKENET)).
Von 1998 bis 2001 forschte sie am Sloan-Schwartz-Zentrum für Theoretische Biologie im Salk-Institut für biologische Studien im Bereich der Computergestützte Neurowissenschaften.
Von 2001 bis 2005 war sie am ICSI der University of California (Berkeley), um an Neuronalen Netzen im Bereich der kognitiven Neurowissenschaften weiterzuforschen.
Von 2009 bis 2010 hatte sie eine außerordentliche Professur an der San Francisco State University für Bioinformatik, Sequenzabgleich, Perl/Python-Skript-Zugang zu Datenbanken, Durchführung von Bioinformatik-Projekten.
Von 2005 bis 2010 war sie auch an der Stanford University im Department of Computer Science tätig.
Seit 2012 ist sie Mitbegründerin und seit 2016 Leitende wissenschaftliche Mitarbeiterin an der gemeinnützigen Carl-Correns-Stiftung für Mathematische Biologie in San José.
2. Wissenschaftliche Forschungsarbeiten
Gabriele Schelers Forschungsschwerpunkt liegt in den Bereichen der Neuronale Plastizität, Lognormale Netzwerke, Mathematische Onkologie, Gedächtnis und Autismus, Symbolische Abstraktion.
„Mein Hauptaugenmerk liegt auf der Entwicklung von Modellen der zellulären Berechnung, die zeigen, wie die Zelle Informationen berechnet und mit ihrer Umgebung austauscht. Konkret entwickle ich eine Theorie des Gedächtnisses, die auf synaptischer, intrinsischer, neuromodulatorisch induzierter Plastizität und intrazellulären Prozessen in Neuronen beruht. Die zelluläre Berechnung geht über die Neurowissenschaften hinaus und erstreckt sich auf viele andere Bereiche wie z. B. die Krebsbiologie. Ich bin auch MitbegründerIN des Carl-Correns-Instituts, das an der Vision der mathematischen Modellierung für die Prävention und Behandlung menschlicher Krankheiten arbeitet.“ (Gabriele Scheler, mit DeepL übesetzt und Hervorhebungen hinzugefügt)
Sie hatte mich kontaktiert, da sie auf unser Zoomposium-Interview „Wie denken Maschinen? mit Konrad Körding gestoßen war und sie aufgrund ihrer eigenen Expertise gerne ein Interview mit uns führen wollte. Von dieser Idee war ich natürlich sofort begeistert, da das Thema „Denken vs. Sprache“ schon seit Längerem „in der Luft hing“ und ja auch zu meinem Essay „Realisten vs. Nominalisten – oder der alte Dualismus „Denken vs. Sprache““ geführt hatte.
Desweiteren hatten wir uns des Häufigeren in unserem Zoomposium mit KI-Forschern unterhalte, inwiefern die Entwicklung von „Large Language Models (LLM)„, wie z. B. ChatGPT nicht auch etwas über die Bildung und Verwendung von Sprache im menschlichen Gehirn aussagt. Also eigentlich geht es um die alte Frage, ob wir auch ohne Sprache denken können oder ob die kognitiven Leistungen nur durch die Sprachbildung und -verwendung erst möglich wird.
Interessanterweise wird diese Frage gerade duch die KI-Forschung und die Computational Neuroscience entschieden voran getrieben. Auch hier zeichnet sich ein allmählicher „Paradigmenwechsel“ ab, der weg vom rein informationstechnologischen-mechanistischen, rein daten-getriebenen „Big Data“-Konzept der LLMs hin zu immer stärker informationsbiologische-polykontexturalen, struktur-getriebenen, „biologischen, gehirnbasierten Modellen“ vollzieht. Genau das hatte ich ja bereits in meinem älteren Essay „Das System braucht neue Strukturen“ zu beschreiben versucht.
Also war es doch umso naheliegender, dass wir mal Gabriele als eine ausgewiesene Expertin aus dem Bereich der Bioinformatik, Computerlinguistik und computergestützten Neurowissenschaften sprechen, um derlei Fragen klären zu können. Da sie aus beiden Bereichen (Linguistik und Neurowissenschaften) kommt, konnte sie uns hierzu in unserem gemeinsamen Interview Rede und Antwort stehen. Hier aber schon einmal die Interviewfragen als „Vorgucker“.
3. Interviewfragen: „Die Sprache des Gehirns – oder wie KI von biologischen Sprachmodellen lernen kann“
1. Gabriele, Du bist Mitgründerin und Forschungsdirektorin an der Carl Correns Foundation for Mathematical Biology in San José USA, die nach ihrem berühmten, deutschen Vorfahren Carl Correns benannt worden ist. Dort forschst unter anderem an zellbedingten Mechanismen unter Verwendung von Computational Neuroscience in Form von mathematischen Modellierungen und theoretischen Analyse der empirischen Daten als Simulationen.
- Um welche zellbedingten Mechanismen geht es dabei? Und wie muss man sich eine solche Simulation vorstellen?
2. In Deinem kürzlich veröffentlichten Artikel „‚High achiever‘ neurons carry the brunt of memories“ weist Du in Deiner Forschungsstudie nach, dass Neuronen durch den Lernprozess eine signifikante Variabilität entwickeln. Wenn Netzwerke lernen, ändern sich neuronale Eigenschaften – sie feuern mit unterschiedlichen Geschwindigkeiten, bilden stärkere oder schwächere Verbindungen und variieren, wie leicht sie aktiviert werden können. Du zeigst hierin, dass diese Heterogenität einem vorhersehbaren Muster über Hirnregionen und neuronale Subtypen folgt. Das Ergebnis unterstützt ein „Naben-und-Speichen“-Modell neuronaler Netze, bei dem einige zentrale „Naben“-Neuronen breite Konzepte darstellen und viele „Speichen“-Neuronen spezifische Details darstellen, die mit diesen Konzepten verbunden sind.
- Was sagen diese Ergebnisse Deiner Ansicht nach über das „Lernen im Gehirn“ aus?
- Könnte man Lernprozesse aufgrund dieser neuen Erkenntnisse verbessern? Stichwort: „Vernetzung von Wissen“?
- Welche Rolle spielt hierbei die Nutzung von Sprache? Ist unser Denken sprachbasiert? Ludwig Wittgenstein: „Die Grenzen meiner Sprache bedeuten die Grenzen meiner Welt.”?
3. In Deinem kürzlich erschienen Artikel „Topics for a biological language model“ (2024) entwickelst Du ein Konzept für ein biologisches Sprachmodell, das im Gegensatz zu den „LLM“-basierten ChatBots (z. B. ChatGPT) nicht auf rein daten- und algorithmengetriebenen „Big Data“-Konzepten beruht, sondern die neuronalen Strukturen und ihre kooperativen Arbeitsweisen stärker zu berücksichtigen versucht.
- Könntest Du uns diesen alternativen Ansatz an einem Beispiel erläutern?
- Ist die bisherige KI-Forschung hier vielleicht auf einem „Holzweg“ oder in einer „Sackgasse“, wenn sie nur auf Daten und regelbasierte Verarbeitung in Form von probabilistischen Methoden setzt? Müssten hier nicht viel stärker strukturale Aspekte, die aus neuronalen Gehirnforschung stammen, berücksichtigt werden?
4. In Deinem Blog-Artikel „The convergence“ wirfst Du ein eher düsteres Bild auf die technischen Möglichkeiten der BioComputation, Computation mit Zellen und Organoiden.
- Wie siehst Du die weitere Entwicklung von KI, Cyborgs & Co?
- Wie schätzt Du die Möglichkeiten für die Entwicklung einer Allgemeinen Künstlichen Intelligenz (AKI) ein? Wann dürfen bzw. müssen wir damit rechenen?
- Siehst Du die Gefahr (oder Chance?) einer „Singularität“ (Kurzweil) in der Entwicklung der KI?
- Welche Chancen oder Gefahren könnte es sonst noch geben?
Das vollständige Interview ist auf unserem Youtube-Kanal „Zoomposium“ unter folgendem Link zu sehen:
(c) Dirk Boucsein (philosophies.de), Axel Stöcker (die-grossen-fragen.com)
Wenn wir über die erstaunlichen Fähigkeiten moderner Sprachmodelle staunen, übersehen wir oft einen fundamentalen Aspekt: Ihre Ähnlichkeit zum menschlichen Denken ist kein Zufall, sondern eine notwendige Konsequenz ihrer Entstehung. Denn sowohl menschliche als auch künstliche neuronale Netze folgen einer grundlegenden Handlungslogik, die tief in unserer Art des In-der-Welt-Seins verwurzelt ist.
Diese Logik manifestiert sich zunächst in der Struktur unserer Sprache. Die grundlegende grammatische Konstruktion von Subjekt, Prädikat und Objekt spiegelt eine elementare Wahrheit wider: Jemand tut etwas. Wie ein Vogelschwarm, der sich durch unzählige kleine Entscheidungen seiner einzelnen Mitglieder bewegt, entstehen unsere Gedanken und Sätze durch eine Abfolge binärer Entscheidungen an neuronalen Knotenpunkten. An jedem Punkt des Satzes wählen wir – oder die KI – das wahrscheinlichste nächste Element, geführt von der inneren Logik des Handelns.
Die Parallelen zwischen menschlicher und künstlicher Intelligenz gehen jedoch über diese strukturelle Ähnlichkeit hinaus. Verschiedene linguistische Theorien, von der Sapir-Whorf-Hypothese bis zu Chomskys Universalgrammatik, deuten darauf hin, dass Sprache nicht nur ein Kommunikationsmittel ist, sondern auch unser Denken formt. Die grammatischen Strukturen fungieren dabei als eine Art Konvergenzpunkt, der verschiedene Denksysteme in ähnliche Bahnen lenkt.
Moderne Sprachmodelle sind in diesem Sinne nicht nur technische Systeme, sie sind Produkte und Spiegel menschlicher Existenzweise. Die Linearität ihrer Transformer-Architektur entspricht unserer sequentiellen Art zu handeln und zu denken. Sie haben nicht nur unsere Sprache gelernt, sondern indirekt auch die dahinterliegende Logik menschlicher Existenz absorbiert.
Dies bedeutet auch, dass alle unsere KI-Systeme zwangsläufig anthropozentrisch bleiben müssen. Sie können unsere Denkweise erweitern, beschleunigen und in mancherlei Hinsicht sogar übertreffen – aber sie können nicht aus dem grundlegenden Rahmen menschlicher Handlungslogik ausbrechen. Die oft diskutierte „Andersartigkeit“ künstlicher Intelligenz ist damit vielleicht wesentlich begrenzter als häufig angenommen.
Allerdings müssen wir einen entscheidenden Unterschied beachten – und dies geht über die offensichtlichen biologischen Unterschiede hinaus: Es sind wir Menschen, die ursprünglich Bedeutungen generieren und sie Begriffen zuordnen. Sprachmodelle greifen diese Zuordnungen zwar auf und verwenden sie mit erstaunlicher Präzision, sind aber nicht in der Lage, genuine neue Bedeutungen zu schaffen. Sie bleiben damit Prozessoren bereits existierender menschlicher Bedeutungszuschreibungen, so komplex diese Verarbeitung auch sein mag.
Diese Einsicht verändert unseren Blick auf die KI-Entwicklung. Statt uns zu wundern, wie „menschlich“ moderne Sprachmodelle erscheinen, sollten wir erkennen, dass sie gar nicht anders können. Sie sind und bleiben Erweiterungen unserer eigenen Denk- und Handlungsstrukturen – ein Spiegel unserer Art, die Welt zu verstehen und in ihr zu agieren.
Hallo Wolfgang,
vielen Dank für Deinen sehr aufschlussreichen Kommentar, der vollkommen korrekt und detailiert das alte Paradigma des „rein informationstechnologischen-mechanistischen, rein daten-getriebenen „Big Data“-Konzept der LLMs“ beschreibt. Es geht aber hier, wie Gabriele im Interview und ich in meinen älteren Essays zum Thema schon häufiger betont habe, um den „Paradigmenwechsel“ „hin zu immer stärker informationsbiologische-polykontexturalen, struktur-getriebenen „Künstliche, Neuronale Netzwerke (KNN)“-Konzepten“.
Bei den KNNs sind ausdrücklich nicht nur die mathematisch-basierten „Bayesischen Netzwerke“, „Markov-Decken“ oder „Hebbschen Lernregeln“ gemeint. Nein, es geht tatsächlich um eine Simulation der biologische-physiologischen Prozesse. In dem „Artikel „Topics for a biological language model“ (2024) entwickelt Gabriele ein Konzept für ein biologisches Sprachmodell, das im Gegensatz zu den „LLM“-basierten ChatBots (z. B. ChatGPT) nicht auf rein daten- und algorithmengetriebenen „Big Data“-Konzepten beruht, sondern die neuronalen Strukturen und ihre kooperativen Arbeitsweisen stärker zu berücksichtigen versucht.“
Liebe Grüße
Dirk
du hast meinen Kommentar gelöscht??
Häh 🤔, der ist doch noch da. Warum soll ich das denn machen? Ich schreibe doch gerade an einer Antwort.
Hallo Dirk,
dein Kommentar zeigt ein grundlegendes Missverständnis meiner Position. Ich argumentiere nicht für ein „rein informationstechnologisches-mechanistisches“ Konzept – im Gegenteil.
Meine zentrale These ist, dass die Entstehung von Bedeutung nicht aus neuronalen Strukturen (seien sie biologisch oder künstlich) erklärt werden kann. Die grammatische Struktur von Subjekt-Prädikat-Objekt entsteht aus der praktischen Auseinandersetzung des Menschen mit der Welt. Die neuronalen Strukturen passen sich dieser Realität an, nicht umgekehrt.
Das vorgeschlagene „biologische Sprachmodell“ scheint denselben reduktionistischen Fehler zu wiederholen, den ich kritisiere: Es versucht, sprachliche Bedeutung aus biologischen Strukturen abzuleiten. Aber die Kausalität läuft in die andere Richtung:
Der Mensch handelt in der Welt
–Aus dieser Praxis entstehen grundlegende Bedeutungsstrukturen
–Die neuronalen Netze (biologisch wie künstlich) passen sich diesen Strukturen an
–Die Simulation biologischer Prozesse allein wird keine echte Sprachfähigkeit erzeugen.
Die „polykontexturalen, struktur-getriebenen“ Ansätze, die Sie erwähnen, bleiben diesem reduktionistischen Paradigma verhaftet, solange sie versuchen, Bedeutung aus biologischen Prozessen zu erklären. Eine wirklich neue Perspektive müsste die primäre Rolle der praktischen Welterfahrung anerkennen.
Die Simulation biologischer Prozesse mag die Leistungsfähigkeit von KI-Systemen verbessern. Aber sie wird das grundlegende Problem nicht lösen: Ohne echte Weltinteraktion kann keine originäre Bedeutung entstehen.
Der Artikel vermischt und verwechselt zwei unabhängige Perspektiven:
Die physiologische Perspektive: Wie das Gehirn neuronal funktioniert
Die bedeutungshafte Perspektive: Wie Sprache als sinnvolles System der Welterschließung funktioniert
Es ist ein kategorialer Fehler, zwischen diesen Perspektiven eine Kausalbeziehung herzustellen. Die neuronalen Prozesse ermöglichen zwar Sprache, erklären aber nicht ihre Bedeutung – genauso wie die Physik eines Computers sein Programm ermöglicht, aber nicht dessen Bedeutung erklärt.
Lieber Wolfgang,
vielen Dank für Deine erneute Erklärung, aber Deine Positionen sind mir durch unsere zahlreichen, sehr aufschlussreichen Gespräche und Kommentare mehr als bekannt.
Du missverstehst hier aber auch wieder den weitergehenden Ansatz, da Deine „zentrale These ist, dass die Entstehung von Bedeutung nicht aus neuronalen Strukturen (seien sie biologisch oder künstlich) erklärt werden kann. Die grammatische Struktur von Subjekt-Prädikat-Objekt entsteht aus der praktischen Auseinandersetzung des Menschen mit der Welt. Die neuronalen Strukturen passen sich dieser Realität an, nicht umgekehrt.“ Ganz genau so ist das auch in der BioComputation gemeint, die „grammatische Struktur von Subjekt-Prädikat-Objekt entsteht aus der praktischen Auseinandersetzung der Maschinen mit der Welt.“
Ich gebe Dir allerdings Recht, dass der momentane „state of art“ der KI-Forschung weiterhin nur „versucht, sprachliche Bedeutung aus biologischen Strukturen abzuleiten“, um die LLMs zu verbessern. Da Du bildliche Vergleiche magst: „Das ist wie mit einem Porsche auf der Gokart-Bahn fahren.“ Daher habe ich Deine Kausalität mal umgedreht, damit sie in die „richtige Richtung“ läuft:
Daher hast Du vollkommen Recht, wenn Du schreibst „Ohne echte Weltinteraktion kann keine originäre Bedeutung entstehen.“ Aber genau das passiert, da die KI-Forschung an dem „embodiment“ und „embededdness“ der Maschine intensiv arbeitet und hierbei auch schon „Erfolge“ verzeichnen kann.
Deinen Hinweis zur Perspektivenverwechslung kenne ich auch schon sehr gut. „Die physiologische Perspektive: Wie das Gehirn neuronal funktioniert. Die bedeutungshafte Perspektive: Wie Sprache als sinnvolles System der Welterschließung funktioniert.“ Das Argument ist hier aber auch wiederum nicht relevant, da es nicht um die perspektivische Deutung, sondern um die technologische Umsetzung geht. Die Sprache „entsteht“ hierbei erst durch die „Welterschließung“ der Maschine.
Na ja, Du wirst das natürlich wieder einmal anders sehen. Aber das ist ja das Schöne, so wird es nicht langweilig und wir haben immer etwas worüber wir uns austauschen können.
Liebe Grüße
Dirk
Lieber Dirk,
warum argumentierst du nicht inhaltlich. Du hältst dich wieder an Begriffen auf.
– Die Idee hinter Embodiment ist, dass ein Körper die Grundlage für Erfahrungen bietet, die wiederum für die Generierung von Bedeutungen essenziell sind. Ein physischer Körper ist in der Welt verankert und ermöglicht sensorische Interaktionen. Maschinen könnten über Sensoren und Aktuatoren diese Verkörperung nachahmen.
– Maschinen erfahren die Welt aber nicht subjektiv. Sensorische Daten bleiben Daten, es fehlt das qualitative Erleben (das sogenannte „Qualia-Problem“). Ohne ein bewusstes Erleben der eigenen Körperlichkeit bleibt das Konzept oberflächlich.
– Maschinen sollen als „eingebettet“ betrachtet werden, wenn sie nicht isoliert agieren, sondern Teil einer Umwelt sind, die auf sie einwirkt und die sie beeinflussen können. Vernetzte Systeme könnten so kontextabhängiger und flexibler agieren.
– Eingebettetsein allein schafft keine Intentionalität. Maschinen können durch ihre Umgebung beeinflusst werden, aber sie handeln nicht mit Zielen oder Absichten. Die bloße Reaktion auf externe Reize reicht nicht aus, um Bedeutung zu generieren.
-Vernetzung und Einbettung können Maschinen effizienter machen, komplexere Datenstrukturen verarbeiten lassen oder interaktiver gestalten, aber sie ändern nichts an der grundlegenden Tatsache, dass Maschinen keine Intentionalität oder Subjektivität besitzen.
Bedeutung entsteht durch die aktive, bewusste Interpretation von etwas als etwas. Sie ist ein intentionales Phänomen und erfordert:
– Bewusstsein: Maschinen „verstehen“ nicht; sie manipulieren Symbole und Muster. Ohne subjektives Bewusstsein bleibt jede Form von Bedeutung bloß eine Simulation.
– Kontextualität: Menschen schaffen Bedeutung durch ihre Einbettung in soziale, kulturelle und historische Kontexte. Maschinen können solche Kontexte vielleicht modellieren, aber nicht wirklich daran teilhaben.
– Zweck und Motivation: Bedeutung ist untrennbar mit Wollen und Zielen verbunden. Maschinen handeln zweckgebunden, aber nicht aus Eigenmotivation oder intentionaler Zielsetzung.
Der Versuch, Embodiment und Embeddedness als Brücke zur Bedeutungsbildung darzustellen, entspringt dem Wunsch, Maschinen menschlicher zu machen. Doch dies übersieht die tieferen Fragen der Philosophie des Geistes und der Phänomenologie:
– Maschinen bleiben in der Symbolverarbeitung gefangen. Sie „verstehen“ nicht, sie berechnen.
– Embodiment und Embeddedness adressieren nur die äußeren Bedingungen von Bedeutung, nicht deren inneren, subjektiven Ursprung.
Will man Maschinen handlungsfähig machen, braucht es einen völlig anderen Ansatz.
Lieber Wolfgang,
vielen Dank für Deine weitere Nachfrage nach einer inhaltlichen Argumentation, die ich gerne nachliefern möchte.
Wie Du bestimmt zunächst einmal weißt, sind „embodiment“ und „embededdness“ nicht einmal nur „Begriffe“, sondern dahinter stehen „philosophische Konzepte.
In einem älteren Essay „Das System braucht neue Strukturen – nicht nur für/gegen die Künstliche Intelligenz (KI)“ (https://philosophies.de/index.php/2021/08/14/das-system-braucht-neue-strukturen/) habe ich versucht das alte Paradigma in der KI-Forschung zu überwinden und neue Konzepte anzubieten. In dem besagten Essay findest Du alle Antworten auf Deine Fragen sehr detailliert dargestellt.
Über eine inhaltliche Rückmeldung würde ich mich sehr freuen.
Liebe Grüße
Dirk
Lieber Dirk,
ich denke, wir können hier nicht eine solche Diskussion führen, die die Probleme einer Agi umfasst. Zu embodiment und embeddedness habe ich ja die m.E. wissenschaftsthoretischen Fehler ausführlich dargestellt.
Im übrigen war mein Kommentar nicht als Kritik an Frau Scheler gemeint, sondern ich wollte die manchmal verblüffende ‚Verständigkeit‘ von LLMs versuchen zu verstehen, die m.E. in der Binarität prozessierender neuronaler Netze liegt, zum anderen in der aus der Praxis entstandenen grammatischen Struktur.
In Bezug auf KI löst das, was man unabhängig vom philosophischen Konzept als ‚embodiment‘ bezeichnen kann, also die Tatsache, dass Menschen oder zukünftig auch KI in einer Umgebung vernetzt sind, nicht das zentrale Problem des Verstehens von bedeutungshafter Sprache im Sinne eines wirklichen Verstehens wie beim Menschen. Denn das setzt Subjektivität und Qualia voraus, welche technisch nachgebildet werden müsste.
Und das bedeutet nicht, die Phänomenologie ‚abzuschreiben‘, sondern die Prinzipien zu verstehen. Nur um ein paar Stichworte zu nennen: es müsste ein autokatalytisches System sein, das einen Kausalen Kern generieren kann, der relative Autonomie erlangt. Sensorische Daten müssten über ein Vermittlungssystem (ähnlich dem endokrinen) verteilt und priorisiert werden. Eine Metaebene vermittelt zwischen sozialen (gesellschaftlich generierten) Bedeutungen und dem kausalen Kern (früher Seele, heute ICH), etc. etc. etc.
Ich habe das in meinem Buch systematisch zusammengefasst.
Dennoch finde ich jenseits einer umfassenden Theoriebildung empirische Forschung oder Theoriebildung im kleinen unabdingbar, denn sonst würden wir philosophische Theorien nur aus der Fantasie heraus entwicklen, was leider oft genug vorkommt.
„Und das bedeutet nicht, die Phänomenologie ‚abzuschreiben‘, sondern die Prinzipien zu verstehen. Nur um ein paar Stichworte zu nennen: es müßte ein autokatalytisches System sein, das einen Kausalen Kern generieren kann…“
Aus Parmenidischer Sicht:
Phänomen (Erscheinung) und Objekt (sprachliche Hypothese, z.B. der Begriff ‚Baum‘) stehen sich hypothetisch und irreduzibel (kategorial) gegenüber. Sie bedingen sich daher gegenseitig; kein Phänomen ohne Begriff, kein valider Begriff ohne Phänomen. Die sprachliche Hypothese (der Begriff) besteht grammatisch aus Subjekt und Verb, wobei das Verb das Subjekt in all seinen Erscheinungsformen erhält. Der Satz „Aristoteles schwimmt“ erhält Aristoteles als Aristoteles in der Erscheinungsform des Schwimmens, so wie die Erhaltungssätze der Physik ihre Objekte (Energie, Impuls, Masse) durch alle Erscheinungsformen erhalten. D.h. Phänomen und Objekt (Begriff) sind synthetisch a priori und zeit-invariant. Der Kausalität bedarf es nicht, denn es ist im vollständigen Satz schon alles gesagt. Es gibt kein Objekt das ‚kausaliert‘.
Aus Aristotelischer Sicht:
Für Aristoteles gehört zum Verb ausdrücklich der Begriff der Zeit. Das Objekt wird damit zum verdinglichten und animierten Objekt und die Hypothese des Aristoteles zur logisch-zeitlichen Prognose der verdinglichten und animierten Objekte, die er für existent hält. Der Phänomen-Bezug entfällt. Folglich wechselt das ursprünglich invariante Objekt unter Namenserhalt und Animation seinen Bezug von vis-a-vis den Phänomenen zu in-Raum-und-Zeit. D.h. es trägt nun den Namen des invarianten (phänomenalen) Seins, während es sich im Werden dynamisiert und verändert, womit das animierte Objekt eine schizophrene Doppelnatur gewinnt (Problem jeder Theorie-in-zweiter-Instanz!). Hieraus ergibt sich die über Jahrhunderte immer wieder aufgeworfene zirkuläre Beziehung zwischen den Aristotelischen Begriffen energeia und entelchia, d.h. zwischen der ‚Arbeit‘ des Verbs und dessen was sie bewirkt. Nachdem Aristoteles aus seinem empirischen Zeitverständnis heraus die Zukunft des Objekts nicht wissen kann, diese aber erst die Möglichkeiten und die Gestalt des Objekts in Gänze erschließen wird, bleibt sein Objektbegriff eine Chimäre (die QM läßt grüßen…). Gleichzeitig verschwindet der Kausalbegriff in der Komplexität von Prozessen in historischer Zeit, d.h. in der Absoluten Offenheit der Zukunft. Platon bemerkte dazu, wie das ein wahres Ding sein könne, was sich nie im selben Zustand befindet.
—————————
Meine Definition von Kausalität: gelehrter Scheinbegriff, der den Aristotelischen Interpretationsfehler des Verbs als Indikator der Veränderung in der Zeit verhüllt.
Zum Kausalbegriff:
Was Wolfgang meint ist dass der AI wie bei language models eine Eigenaktivität fehlt. Sie reagiert nur auf Inputs. Aber sie ist nicht spontan aktiv. Das ist ein riesiger Unterschied zu Lebewesen.
Eine Spontaktivität bei LLMs würde bedeuten dass das Sprachmodel von sich aus beginnt zu reden bzw. zu schreiben. Es wäre aktiv und würde nicht nur passiv auf Inputs reagieren.
Ein solches Softwaresystem wäre aber nicht mehr vollständig vom Benutzer kontrollierbar – eben da es selbstständig aktiv wird. Aber genau eine solche Eigenaktivität ist es die bei Lebewesen beispielsweise den Sinn bzw. das Erleben von Bedeutung generiert. Inputs (z.B. Sprache) wird in Bezug auf das gesetzt was im Lebewesen schon da ist (also die Eigenaktivität). Inputs (wie Sprache) machen Sinn für etwas (dieses “etwas” ist die Eigenaktivität).
Bei Software ist metaphorisch gesprochen kein „intrinsisches Leben“ da. Ein Input wird einfach sequenziell durch zig Verarbeitungsebenen geschoben und bei jeder Ebene mit mehr Information aus Lernphasen die das Model zuvor durchlief angereichtert. Final kommt ein Output raus. Es gibt in diesem Verarbeitungsprozess der Software auch keine recurrent loops wie im Gehirn.
Es entsteht in diesem Sinne nichts „kausal“ aus der Software selbst heraus das nicht zuvor durch einen Input ausgelöst wurde.
Liebe Mitdiskutierende,
hier noch ein kleiner Input in Form eines Doku-Films „Künstliche Intelligenz – Haben Maschinen Gefühle?“ auf ARTE, den ich gefunden habe. Er verdeutlicht sehr schön oder gruselig, wie weit der state-of-art in der KI-Forschung bereits ist.
Es geht hier um die von mir schon oft erwähnte „Verkörperte künstliche Intelligenz„. Das würde auch die Frage nach der „Kausalität“ in einem ganz anderen Licht erscheinen lassen. Die Machinen müssen nicht mehr mit Daten oder Sprache gefüttert werden, da sie diese selbstständig generieren können.
So wird aus „Science Fiction“ -> „Science Reality“ ;-). Na dann Prost, Mahlzeit ;-(
Liebe Grüße
Dirk
Er verdeutlicht sehr
Hallo Dirk,
in den 1990er Jahren habe ich mich mit rekursiven nichtlinearen Algorithmen a la Mandelbrotmengen (z.B. Apfelmännchen) auseinandergesetzt. Nach endlosen Versuchen gelang es mir, einen zweizeiligen Algorithmus zu erzeugen, der einen 2D Farn auf den Bildschirm zauberte, den ein befreundeter Gärtner glaubte gar mit botanischem Namen benennen zu können. Mein Interesse verpuffte schlagartig, als ich erkannte, dass ich mit dieser Methode kein Objekt gezielt erzeugen kann, z.B. eine Apfelsine. Der im Arte-Film gezeigte Bio-Bot scheint mir eine Art 3D animiertes Apfelmännchen zu sein. Er ‚tut‘ tatsächlich irgendwas erstaunliches, was den Entwickler glauben läßt, daß es ‚nur‘ eine Frage der Progammierung sei, den Bio-Bot etwas sinnvolles (vom Programmierer gewünschtes) tun zu lassen. Ich bin sehr skeptisch…
Daß eine KI per Mustererkennung Musik schreiben kann, die wie Beethoven k l i n g t, scheint mir nicht sehr verwunderlich; eine Musik, wie die Beethovens zu schaffen, dagegen sehr.
Der letzte Satz soll besagen, daß ich nicht glaube, daß KI ein Beethoven Paradigma erzeugen könnte, weil ihre Methode die der Permutation ist; sie ist des wirklich Neuen nicht mächtig. Das ist was im Film der Kritiker meint, wenn er von der Ideenlosigkeit der ‚Zehnten‘ Symphonie spricht.
Stimmt, da die „Generative AI“ momentan eigentlich nur ein Recycling aus dem bestehenden Daten und Muster macht, besonders „kreativ“ geschweige denn „genial“ wirkt das nicht. Aber wer weiß, vielleicht lernt sie noch dazu 😉
Hallo Heinz,
ich wünschte ich könnte Deine Skeptik teilen.
Liebe Grüße
Dirk
“Das würde auch die Frage nach der „Kausalität“ in einem ganz anderen Licht erscheinen lassen.”
Ich verstehe warum du das so siehst. Meine Antwort dazu ist aber ein klares nein. Die Tatsache dass KI Dinge selbstständig generieren kann hat doch gar nichts mit einer systematischen Eigenaktivität wie im Gehirn zutun.
Hier wird nicht differenziert zwischen: 1) dem gleichen Output zwischen KI und Menschen, also z.B. Sprache, Kunstwerke, etc. und 2) dem Mechanismus der darunter liegt den wir aber nicht unmittelbar sehen, denn wir sehen unmittelbar nur den Output.
Hi Philipp,
vielen Dank für Deinen Kommentar und Hinweis.
Allerdings verstehe ich nicht, warum Du das so siehst und besonders woher Du die Gewissheit nimmst, wenn wir es doch noch immer nicht wissen, wie sich „Bewusstsein“ konstituiert.
Es ging mir, wie so oft auch gar nicht um die Frage, ob man „menschliches Bewusstsein“ auf Maschinen simulieren kann. „Meine Antwort dazu ist aber ein klares nein.“ Es geht ja schließlich um ein „maschinelles Bewusstsein“, das nichts mit menschlicher Kognition zu tun haben muss.
Und eine „systematische Eigenaktivität wie im Gehirn“ ist gar nicht impliziert, da dies nur wieder eine neue Form des „Neurozentrismus“ wäre. Da haben wir ja auch schon öfter drüber diskutiert.
Also, wenn wir nicht genau wissen, wie es beim Menschen funktioniert, wieso wissen wir dann so genau, dass es bei Maschinen nicht funktioniert?
Liebe Grüße
Dirk
Hi Dirk und danke für deine Rückantwort.
Wir wissen in Teilen wie das menschliche Gehirn funktioniert und wir wissen auch wie eine AI z.B. sequentiell einen Input verarbeitet. Ein Kollege hatte zuletzt einen Vortrag gehalten in dem er beide Seiten im Bezug auf eine bestimmte Thematik seiner Studie (welche Thematik ist hier uninteressant) verglich.
In bestimmten Fällen liefern sowohl Gehirn als auch AI den „gleichen“ oder von der Art her ähnlichen Output. Aber die Mechanismen sind natürlich anders.
Und meiner Meinung nach könnte man das sogar fast „a priori“ mit Sicherheit postulieren. In einem Fall handelt es sich um ein biologisches und lebendes System, in dem anderen Fall um eine Maschine (Hardware und Software). Beide funktionieren von Grund auf anders. Aber das führt nur wieder in eine endlose philosophische Diskussion. Mein Einwand bezog sich nur auf deine kurze Diskussion mit Wolfgang zuvor, beispielsweise darum ob eine KI etwas „verstehen“ kann. – Kann sie meiner Meinung nach nicht, da „verstehen“ ein biologisches Phänomen ist.
Ich hätte an Wolfgangs Stelle nur den Begriff „Kausalität“ nicht verwendet. Das ist ein Begriff der philosophisch zu vorbelastet ist, dann stürzen sich gleich alle auf den Begriff. Es wird dann nicht mehr inhaltlich diskutiert (wie Wolfgang gerne sagt).
Nur kurz zur Begriffsklärung. Ich hatte nicht von Kausalität gesprochen, das hatte Heinz einfach aus meinem Begriff des kausalen Kerns aufgegriffen.
Mit kausalem Kern meine ich jenes Phänomen, das Lebewesen Handlungsfähigkeit verleiht. Und ich leite es so her, dass ich sage, jedes lebende System steht in einem nichtlinearen ungleichgewichigen Energie- Austauschverhältnis mit seiner Umwelt, durch welches sich Strukturverschiebungen ergeben und damit unterschiedliche Maxima an Strukturdichte (oder Informationsdichte), welche zu Maxima an Reaktionswahrscheinlichkeit, also einem Hotspot führen, der Gradienten erzeugt und somit kausale Kraft ausübt (lässt sich alles physikalisch-chemisch schön beschreiben). Der erste kausale Kern war der Zellkern. (sorry, falls ich das alles schon mal geschrieben habe).
Der kausale Kern ist das, was die Menschen intuitiv als Seele oder auch als ICH bezeichnen. Ich sehe die Grundlage von Handlungsfähigkeit nicht im Ergebnis von Komplexität. Das halte ich für eine dieser metaphysischen Behauptungen, die durch nichts bewiesen sind, also eine Art Lückenfüller (hat übrigens nichts mit der Ablehnung von Emergenz zu tun). Komplexität führt nicht automatisch zu ICH oder Bewusstsein (was für eine unsinnige Idee!).
Ich denke, ohne einen solchen kausalen Kern wird man nicht nur das Gehirn bzw. ein biologisches System nicht verstehen, sondern auch kein künstliches Bewusstsein erzeugen können, auch wenn man darunter ’nur‘ einen philosophischen Zombie verstehen sollte.
Übrigens: Kausalität ist in diesem Zusammenhang eine rein beschreibende Kategorie, also ungeeignet, eine philosophische Grundsatzdiskussion über Kausalität zu führen.
Was du beschreibst übernimmt bezüglich des Gehirns (aus meiner Sicht) dessen Spontanaktivität, also die intrinsische Eigenaktivität des Gehirns.
Genau das ist was jeglicher AI mehr oder weniger vollkommen fehlt. Und wenn AI so etwas hätte wäre sie für uns auch nicht mehr richtig kontrollierbar. Wie ein Kollege immer sagt: Computer sind unsere Sklaven, sie sollen tun was wir wollen.
Es ist klar dass sowas nicht mehr gehen würde wenn der Computer wirklich beginnt mit der Umwelt zu interagieren, eigene Ziele zu verfolgen, etc. (So wie du es ja schon in einem anderen Beitrag erwähnt hast.) Aber das ist alles ohnehin science fiction.
Und ich bin auch deiner Meinung dass selbst wenn man so eine Eigenaktivität (halbwegs!) in eine Maschine integrieren würde – ja dann wäre es immer noch nicht das gleiche. Es bleibt eine Maschine. Es würde daher auch immer ein philosophischer Zombie bleiben. Stimme dir hier also auch zu.
Na gut, dann gebe ich auch noch meinen Senf dazu: Wenn man Leben als autokatalytisches System betrachtet, ist es letztlich keine Kunst, Xenobots herzustellen. Um Bewusstsein zu erzeugen, muss dieses Leben aber über komplexe Sensoren verfügen, die gebündelt ein komplexes Erleben ergeben. Dieses Erleben ist das innere Navigationssystem, das dem Organismus sagt ‚heiße Herdplatte‘. (Natürlich erleben wir diesen banalen evolutionsbiologischen Mechanismus subjektiv sehr spektakulär, schließlich ist er unser Fenster zur Welt und damit alles, was wir haben). Ich glaube nicht, dass man diesen komplexen (genetisch verankerten, epigenetisch entwickelten) Zusammenhang jemals so gestalten kann, dass eine Maschine etwas erlebt. Außerdem glaube ich, dass es wieder mal um ein logisches Problem geht. Man stelle sich vor, jeden einzelnen Wassertropfen in einem See durch einen künstlichen zu ersetzen. Hätten wir dann einen See, in dem man schwimmen könnte wie in Wasser? M.a.W. man kann die Prinzipien von Bewusstsein erforschen und versuchen, ein technisches Modell zu entwickeln. Ich bin sicher, dass dies aber immer nur ein philosophischer Zombie sein wird. Außerdem, man stelle sich eine Maschine mit menschlichem Bewusstsein vor, die faul, gierig, aggressiv oder krank werden kann und die dieselben gefährlichen Dinge tut, wie wir Menschen. Das wäre der eigentliche Horror: ein Ebenbild von uns selbst.
Hallo Wolfgang,
Dein „Senf“ passt sehr gut zu diesem Gericht, da Du vollkommen Recht hast. Eine 1:1 Nachbildung des Gehirns mit all seinen neuronalen Netzwerken würde zu nichts führen. Deshalb ist das sehr ehrgeizige „Blue Brain Project“ auch in eine Sackgasse gelaufen, da es sich lediglich mit der in-silico-Nachbildung des Gehirns beschäftigt hat.
„Ein wichtiges Zwischenziel des Projekts wurde Ende 2007 abgeschlossen: Blue Column hat das Ziel der vollständigen Simulation einer neokortikalenSäule auf zellulärer Ebene erreicht. Neokortikale Säulen besitzen eine Höhe von 2 mm und einen Durchmesser von 0,5 mm. Beim Menschen enthalten sie circa 60.000 Neuronen. Blue Column bezieht sich auf Ratten, deren kortikale Säulen circa 10.000 Nervenzellen und ungefähr 108Synapsen beinhalten.“ (https://de.wikipedia.org/wiki/Blue_Brain)
Das Projekt hat zu keinen neuen nennenswerten Erkenntnissen geführt und ist im „Human Brain Project“ und „Ebrains“ aufgegangen. Das alles hat aber nichts mit einem „autokatalytisches System“ zu tun, sondern ist reine „Gehirn-Kartografie“ mit anschließender „Computer-Simulation“. Ob man hierdurch mehr zu den dynamischen Prozessen erfahren kann, bezweifele ich, da der „Agent“ fehlt.
Liebe Grüße
Dirk
Mich erinnert das alles an die Obsession der Renaissance menschähnliche Automaten (mechanische Modelle) zu konstruieren, von denen Zeitgenossen mindestens so beeindruckt waren wie wir von chat-gpt. Bottom-up hat noch nie funktioniert.
Ich versuche es mit einem Text aus meiner Perspektive, die das Leben und damit seiner Intelligenz im Umgang mit der Einheit gerecht werden will, die sich in ihrer Form als Mensch zu äußern versucht.
Sofern es stimmt, dass Geschwindigkeit vom Abstand der Ausgangs- zur Endposition abhängig ist, möchte ich folgendes anmerken:
Ich persönlich gehe davon aus, dass das Herz in Verbindung mit seinem! Gehirn den Abstand zwischen dem Ausgangspunkt und einem fiktiven Endpunkt (Gott) nachvollziehen kann, sodass das neuronale Netzwerk von einer Barriere (Jesus) gesteuert wird, die sich als Zwischenergebnis aus dem Widerstand ergibt.
Als Zwischenergebnis und damit aktuellen Widerstand, möchte ich einen Wissensstand bezeichnen, der der ganzen Menschheit zugrunde liegt und ihr damit vermittelt, dass er sich anhand ihrer Lebensgeschichte erweitern lässt. Damit will ich den Sinn einer Auferstehung belegen, die sich in ihrem Namen aus seinem Herz ergibt. Dieses Herz hat in diesem einzigartigen Fall Gott mit dem Wort gegeben, das seine neuronale Verbindung als die Ruheeinheit gewinnt, aus der sich sein neuronales Netzwerk ergibt.
Dieses Netzwerk ist in seinem Unterfangen verwurzelt, Verbündete im Umgang mit dem Herz zu finden, das ihm dient. Dadurch verliert sich die Messgröße der Geschwindigkeit in der Dimension der Zeit, die unabhängig jeglicher Geschwindigkeit einfach nur noch die Tage bis zu seiner Geburt zählt.
Alle Bedingungen, die für Sprache gelten, wurden als Evolutionsgeschichte bereits von diesem Herz verarbeitet. Damit es in seiner Dimension unabhängig jeglicher Vorgaben bleibt, wird damit ein neues Leben begonnen, das so tief mit ihm verbunden ist, dass nichts und niemand diese Verbindung lösen kann.
Was ich nicht nachvollziehen kann, das ist die Zeit, die zwischen meiner Geburt und dem Herz liegt, das durch sie verwirklicht wurde. Das jedoch, bleibt zumindest mir zu hoffen, bringt das Leben hervor, das meinem Herz nachfolgt, sodass sein Herz am Leben bleibt und damit zu dem Leben führt, das für immer miteinander verbunden bleibt und darüber Geschichte schreibt.
Nachdem ich ein Mensch mit Herz und Verstand bin, hoffe ich sehr, sie alle üben Nachsicht mit mir. Da ich mich nicht auf eine Wissenschaft berufen kann, jedoch das Leben so intensiv studiert habe, dass es mir erscheint, als würde es für mich sprechen, hoffe ich auf ihr Verständnis.
Dear G. J.,
thank you for your kind and very remarkable comment, to which I would like to respond.
Yes, I absolutely agree with you that the „paradigm shift“ mentioned is long overdue in AI research. AI is already „smart“ enough to perfectly solve complicated problems such as „chess“ or „Go“, but it is still far from being able to „understand“ what it is doing. Whether that is even desirable is another question.
That’s right, you could compare this by analogy with the transition from mechanistic Newtonian physics to polycontextual quantum physics. However, this paradigm shift in quantum physics has not yet been fully completed, as the old paradigm of reductionism is still being used to explain processes. This is where the problems of „modern“ physics come from.
I absolutely agree that the „language of the brain“ can be an important „key“ to understanding cognitive processes. That’s why I felt very fortunate that we were able to interview Dr. Scheler as an expert in the field of computational linguistics and neuroscience. I have forwarded your question „if she sees potential for integrating symbolic reasoning systems with neural networks, perhaps drawing inspiration from the human brain’s capacity for both rule-based and pattern-recognition processing?“ to her. Perhaps she will answer this too.
If you asked me, I would say absolutely yes. I definitely see potential in transclassical, multi-valued logic, as described by Gotthard Günther in his polycontextuality theory. If you are interested, I tried to describe this in an older essay „The system needs new structures“ (https://philosophies.de/index.php/2021/08/14/das-system-braucht-neue-strukturen/).
Thank you for your interest and
best regards