Bauanleitung Künstliches Bewusstsein

Zoomposium mit Dr. Patrick Krauß: „Bauanleitung Künstliches Bewusstsein“

Zoomposium mit Dr. Patrick Krauß: „Bauanleitung Künstliches Bewusstsein

1. Informationen zur Person

In einer weiteren Folge in unserer Zoomposium-Reihe“ zum Thema „KI-Forschung oder den Möglichkeiten einer Bauanleitung für ein Künstliches Bewusstsein (#AC/#DC = artificial consciousness/digital consciousness) hatte mein Kollege Axel Stöcker vom „Blog der großen Fragen“ und ich die Möglichleit mit dem bekannten und renommierten deutschen Physiker, Neurowissenschaftler und Linguistiker Dr. Patrick Krauß ein Interview führen zu können.

Patrick Krauß arbeitet als Kognitions- und Neurowissenschaftler an der Friedrich-Alexander-Universität Erlangen-Nürnberg als wissenschaftlicher Mitarbeiter am Lehrstuhl für experimentelle HNO-Heilkunde und habilitiert im Bereich der Linguistik. Er forscht an folgenden Themenschwerpunkten, die ich von der Uni-Homepage zitieren darf:

  • Integration von Künstlicher Intelligenz und Neurowissenschaft
  • Anwendung von Methoden der Neurowissenschaft und Entwicklung neuer Methoden zur Interpretation von künstlichen Neuronalen Netzen (Black Box Problem, explainable AI)
  • Übertragen von Informationsverarbeitungsprinzipien aus der Neurobiologie auf KI-Systeme („neuroscience inspired AI„)
  • KI als Werkzeug zur Analyse und Visualisierung von hochdimensionalen Daten aus neurowissenschaftlichen Experimenten mit Elektroenzephalographie (EEG), Magnetenzephalographie (MEG) und kortikalen Ableitungen
  • KI, insbesondere neuronale Netze, als Modell für die Funktion des Gehirns

Auf Herrn Dr. Krauß war ich im Zusammenhang mit einer Titelstory „Bewusste KI – Der Geist in der Maschine“ aus einer Sonderausgabe von „Spektrum der Wissenschaft – Künstliches Bewusstsein“ vom 16.06.21 aufmerksam geworden.

Diesen Artikel aus der Spektrum hatte er zusammen mit Andreas Maier, der Professor für Informatik und Leiter des Lehrstuhls für Mustererkennung an der Friedrich-Alexander-Universität Erlangen-Nürnberg ist, verfasst. Der Text bezieht sich allerdings auf ein älteres wissenschaftliches Paper Will We Ever Have Conscious Machines? (22. Dezember 2020), das beide in dem Wissenschaftsjournal frontiers in Computational Neuroscience veröffentlicht hatten. Patrick Krauß hat aktuell ein populärwissenschaftliches Sachbuch „Künstliche Intelligenz und Hirnforschung – Neuronale Netze, Deep Learning und die Zukunft der Kognition(2023) zur gleichen Thematik publiziert.

2. Informationen zu den wissenschaftlichen Artikeln

Um ein besseres Verständnis des Interviews mit Herrn Dr. Krauß zu erreichen, soll hier aber zunächst einmal eine kurze Zusammfassung der wissenschaftlichen Artikel erfolgen. Beide Forscher beschreiben in ihren Texten, was Bewusstsein aus philosophischer und neurowissenschaftlicher Perspektive nach heutigem Wissensstand überhaupt erst einmal sein könnte. Im Folgenden versuchen sie hauptsächlich auf Basis von Antonio Damasio’s „Theory of Consciousness“ eine eigene „Bauanleitung für Künstliches Bewusstsein“ zu entwickeln.

Damasios Theorie des Bewusstseins, die er zum ersten Mal in seinem Buch „The Feeling of What Happens: Body and Emotion in the Making of Consciousness(1999) entwickelt hat, beruht im Wesentlichen auf der Postulierung von 3 Stufen zur Entwicklung eines Bewusstseins: 1. fundamental protoself„, 2. „core consciousness“ und 3. „extended consciousness„. Seine Theorie zur Entwicklung einer Form von Bewusstsein baut hierbei maßgeblich auf einem Konzept von „Gefühl“ auf, wie der Titel seines Buches bereits verrät. Krauß und Maier nenen dies folglich in Abwandlung des cartesischen Ausspruchs: „Sentio ergo sum“:

In Damasios Theorie wird das Bewusstsein tatsächlich durch einen Trainingsverlust erzeugt, der das System dazu bringt, bewusst sein zu wollen, d.h. „Cogito ergo sum“ wird zu „Sentio ergo sum„. Der Vergleich zwischen trainierbaren Verbindungen nach (Schmidhuber, 1990), Aufmerksamkeitsmechanismen (Vaswani et al., 2017), und diesem Ansatzes sind in der Reichweite zukünftiger maschineller Lernmodelle die neue Erkenntnisse für die Diskussion von integrierten Informationen und globalen Arbeitsräumen liefern. In der Tat hat Schmidhuber bereits die Arbeit an der Kombination seiner frühen Ideen mit modernen Ansätzen aus dem Deep Learning (Schmidhuber,  2015,  2018).“ (Patrick Krauss und Andreas Maier. Will We Ever Have Conscious Machines? (22. Dec. 2020). In: frontiers in Computational Neuroscience, S. 10, Übersetzung i. d. Deutsche m. DeepL, Hervorhebungen u. Ergänzungen d. d. Redakteur)

Diese neue Ansätze setzen natürlich ein Konzept von „embodiment“ und „embededdness“ im Sinne der „4E-Theorie“ der „Philosophie der situierten Kognition“ (PSK) voraus, worauf ich ebenfalls des Häufigeren in meinen Essays, z. B. „Das System braucht neue Strukturen“ hinzuweisen versucht habe. Daher hat es mich umso gefreut, dass diese „neuen Strukturen“ endlich auch mal eine konkrete Umsetzung in der KI-Forschung zur Entwicklung von Künstlichem Bewusstsein finden konnten, wie sie z. B. Krauß und Maier in ihren oben genannten wissenschaftlichen Arbeiten vorgeschlagen haben:

„In allen Theorien, die wir in diesem Artikel behandelt haben, ist der Begriff des Selbst grundlegend, und die Entstehung von Bewusstsein erfordert Verkörperung [embodiment]. Die Rückmeldung von inneren Körperzuständen wird die Grundlage von Emotionen und Gefühlen. Ohne Emotionen und Gefühle kann das System nicht trainiert werden und somit nicht an neue Umgebungen und veränderte Umstände anpassen [embededdness].“ (Patrick Krauss und Andreas Maier. Will We Ever Have Conscious Machines? (22. Dec. 2020). In: frontiers in Computational Neuroscience, S. 10, Übersetzung i. d. Deutsche m. DeepL, Hervorhebungen u. Ergänzungen d. d. Redakteur)

In dem erwähnten Artikel „Will We Ever Have Conscious Machines?“ versuchen nun Krauß und Maier die verschiedenen Stufen von Damasios Theorie des Bewusstseins 1:1 in konkrete Schaltpläne für ein Deep Learning auf Maschinen zu überführen. Hierzu werden verschiedene Strategien von „feed-forward connections„, „recurrent connections“ in Form von „reinforcement learning“ und „unsupervised learning“ angewendet, um die biologischen Prozesse der neuronalen Netze zu simulieren. Allgemeines Ziel ist es:

„Mit den Ideen der kognitiven Computational Neuroscience (Kriegeskorte und Douglas, 2018) und den oben beschriebenen Ansätzen werden wir künstliche Systeme entwerfen, die sich den Mechanismen biologischer Systeme in einer iterativen Weise annähern. Mit der Iterationen werden die künstlichen Systeme an Komplexität und Ähnlichkeit mit den biologischen Systemen. In Bezug auf künstlichen Systemen und maschinellem Lernen sind wir weit entfernt von der Komplexität biologischer neuronaler Strukturen. Dennoch können wir Damasios Strategie übernehmen und das Vorhandensein bestimmter Strukturen und Verbindungen innerhalb dieser Modelle zu identifizieren.“ (Patrick Krauss und Andreas Maier. Will We Ever Have Conscious Machines? (22. Dec. 2020). In: frontiers in Computational Neuroscience, S. 10, Übersetzung i. d. Deutsche m. DeepL, Hervorhebungen d. d. Redakteur)

Dies klingt nicht nur alles sehr stark nach Funktionalismus oder besser gesagt Computationalismus, sondern ist auch genauso intendiert. Somit einen Grund mehr Herrn Dr. Krauß in unserem gemeinsamen Interview einmal genauer auf den Zahn oder besser gesagt auf die Computational Models of Emotion (CMEs) zu fühlen, um die Möglichkeiten für ein Künstliches Bewusstsein #AC/#DC („artificial consciousness/digital consciousness“) einmal genauer zu untersuchen.  Dazu sollen hier zunächst die Interviewfragen voregstellt werden, worauf sich unser Zoomposium-Interview bezieht.

3. Interviewfragen Bauanleitung Künstliches Bewusstsein:

1. Sehr geehrter Herr Dr. Krauß Sie beschäftigen sich im Zusammenhang mit Ihrer wissenschaftlichen Arbeit am Lehrstuhl für experimentelle HNO-Heilkunde an der Friedrich-Alexander Universität in Erlangen-Nürnberg viel mit der „Integration von Künstlicher Intelligenz und Neurowissenschaft“ und haben hierzu kürzlich auch ein sehr interessantes Buch Künstliche Intelligenz und Hirnforschung – Neuronale Netze, Deep Learning und die Zukunft der Kognition“ (Springer 2023) veröffentlicht.

  • Könnten Sie unter „Anwendung von Methoden der Neurowissenschaft und Entwicklung neuer Methoden zur Interpretation von künstlichen Neuronalen Netzen (Black Box Problem, explainable AI) spontan geeignete Messmethoden vorschlagen, um zu überprüfen, ob Ihre beiden Interview-Partner ein „Bewusstsein“ besitzen?
  • Geben Sie uns bitte eine Prognose: Wann wird die erste KI verlässlich den Turing-Test bestehen?

2. Der Artikel „Will We Ever Have Conscious Machines?“, den Sie zusammen mit Professor Andreas Maier in der „frontiers in Computational Neuroscience“ 2020 veröffentlicht haben, beschäftigt sich mit der Frage nach der Konstitution des Bewusstseins in der 1. Person-Perspektive („Qualia“, „Selbst“, etc.) und inwieweit die Philosophie, die kognitive Neurowissenschaften und die KI-Forschung hierauf mögliche Antworten bislang finden konnten. Hierbei unterstreichen Sie die Gemeinsamkeiten der unterschiedlichen Ansätze (Damasio, Tononi, Koch/Crick, Schmidhuber) und leiten hieraus ein neues Konzept ab, dass die Ansätze zu einem computationalen Modell für ein „erweitertes Bewusstsein“ zusammenfasst.

Die Kognitionswissenschaften und die genannten Ansätze definieren Geist als ein Informationsverarbeitungssystem, das nach einer bestimmten Syntax funktioniert. Geist (im Sinne von Qualia) zeichnet sich dagegen doch eher durch seinen semantischen Gehalt aus.

  • Ist der Ansatz, Geist durch einen syntaktischen Ansatz zu erklären, dadurch nicht per se zum Scheitern verurteilt? Oder denken Sie, dass sich Semantik letzten Endes aus der Syntax erklären lässt?

3. In einem Ihrer Video-Vorträge zu dem oben genannten Thema „Werden wir jemals bewusste Maschinen haben?“ gehen Sie explizit auf den momentanen „state-of-art-“ der KI-Forschung ein und stellen das Postulat auf, dass es einen interdisziplinären Austausch zwischen der KI- und Hirnforschung in Form einer neuroscience inspired AI oder einer „cognitive computational neuroscience“ geben sollte.

  • Inwiefern können sich hier beide Disziplinen gegenseitig unterstützen und eventuell neue Konzepte entwickeln?
  • Benötigen wir in diesem Zusammenhang nicht eher auch ganz neue Ansätze, die sich von dem reinen „Nachbau“ des Gehirns, z. B. im „Human Brain Project (HBP)“ oder„Big Data + elaborierte Algorithmen“ (ChatGPT) verabschieden müssen, um so etwas wie „künstliches/digitales Bewusstsein“ (AC/DC) zu schaffen?

4. Sie präferieren in Ihrem Ansatz Damasios „Theorie des Bewusstseins“ mit den 3 Stufen „Proto-Selbst“, „Kernselbst“ und „erweitertes Selbst“, das sich nur über „Ich fühle, also bin ich!“ realisieren lässt und ein „Lernen nur mit Emotionen“ postuliert.

5. Wenn Sie unsere Eingangsfrage nach den Möglichkeiten der Messung von Bewusstsein bei uns beiden nicht mit Sicherheit beantworten konnten.

Das Interview ist auf unserem Youtube-Kanal „Zoomposium“ unter folgendem Link zu sehen:

https://youtu.be/rXamzyoggCo

© Dirk Boucsein (philosophies.de) & Axel Stöcker (die-grossen-fragen.com)

Ich bin immer mit meiner „Diogenes-Lampe“ unterwegs, um Menschen zu finden, die sich auch nach ein wenig „Licht der Erkenntnis“ sehnen. Also wenn Ihr eigene Beiträge oder Posts für meinen Wissenschaft-/Philosophie-Blog habt, immer her damit. Sie werden mit Eurem Namen als Autor auf meiner Seite veröffentlicht, so lange sie den oben genannten Kriterien entsprechen. Denn nur geteiltes Wissen ist vermehrtes Wissen.
0 0 votes
Article Rating
Abonnieren
Benachrichtige mich bei
guest

 

14 Comments
Inline Feedbacks
View all comments
Philipp
Philipp
6 Monate zuvor

Zwei Meinungen zum Thema Bewusstsein in Maschinen oder Computern.

1. Ich betrachte Bewusstsein als biologisch-physiologischen Prozess von Lebewesen. Genauso wie man einer Maschine nicht „Leben“ zuattribuieren kann, so kann man ihr auch kein „Erleben“ bzw. Bewusstsein zuattribuieren.

2. Der Glaube dass Bewusstsein *eigentlich* nur ein spezifischer computationaler Prozess sei, also eine bestimmte Form der „Informationsverarbeitung“, entspricht dem Funktionalismus der Philosophie des Geistes. Dadurch trennt man aber wieder Bewusstsein von Physiologie (also der Biologie des Lebewesens) ab. Für mich ist das nur ein weiter Dualismus in modernem Gewand.

3. Ich habe unter AI Forschern bereits öfter das Argument gehört dass wir Bewusstsein anderen Menschen nur aufgrund Verhaltensäußerungen zuweisen können. Sind wir wieder Behavoristen die nur Verhaltensbeobachtung zulassen? Ich weiß nun einmal a priori dass andere Menschen auch biologische Wesen wie ich sind. Und ich weiß dass ein Mensch kein komplexes Verhalten ohne Bewusstsein zeigen kann, denn ohne Bewusstsein würde er auf der Stelle zusammenklappen. Natürlich, wenn man in einem philosophischen und radikalen Skeptizismus denkt kann man nicht wissen ob der andere bei Bewusstsein ist wenn er gerade mit mir spricht. Aber das ist ein aus meiner Sicht absurdes konzeptuell-logisches Denken der Philosophie das mit der Realität nichts zutun hat. Genauso könnte ich, so einen Skeptizismus erweitert, nicht einmal wissen ob das die Welt gibt – ich könnte gleich zum Solipsismus übergehen.

Philipp
Philipp
6 Monate zuvor

Hallo Dirk,

ich betrachte das einfacher. Man kann „Bewusstsein“ oder „Geist“ nur von physiologischen Prozessen eines Lebewesens trennen wenn man eben mit einer Trennung beginnt bzw. diese a priori voraussetz. Damit setzt man ebenfalls das Leib-Seele Paradigma bzw. Leib-Seele Problem voraus, nämlich die Frage in welchem Zusammenhang Bewusstsein und z.B. neuronale Aktivität stehen. Hier beginnt die dualistische Trennung.

Eine Antwort auf diese ontologische Trennung ist dann die Überlegung dass das Bewusstsein beispielsweise ein bestimmter dynamischer Prozess unabhängig dessen Realisierung (z.B. durch Nerven) sei. Man merkt aber nicht dass man hier schon mit dualistischen Gedanken spielt, wie sonst könnte man Fragen wie „das Bewusstsein“ oder „der Geist“ eigentlich entsteht bzw. in welche Form es in der Welt existiert?

Das ist der Punkt an dem ich persönlich von Anfang an nicht mitgehe, denn es bleibt für mich das Problem dass man „Bewusstsein“ so wieder als etwas neben physiologischer Aktivität in die Welt gebracht hat – ein Dualismus. Bewusstsein ist für mich, wie Stegemann es immer einfach aber auf den Punkt bringt, einfach nur ein philosophischer Begriff, d.h. eine andere epistemische Betrachtungsweise auf bestimmte Prozesse in Lebewesen. Man muss „Leben“ also nicht einmal definieren um Bewusstsein mit Physiologie zu verbinden. Ich würde halt erst gar nicht eine metaphysiche Trennung zwischen dem lebenden Organismus und seinem Erleben vornehmen. Das ist ontologisch einfacher bzw. sparsamer.

Philipp
Philipp
6 Monate zuvor

Um es besser auf den Punkt zu bringen:
Die Frage ob auch Maschinen Bewusstsein haben können kann man nur stellen wenn man eine mögliche Trennung zwischen Prozessen in Lebewesen und Bewusstsein voraussetzt. Für mich denkt man *dann* also im Rahmen des Leib-Seele Problems.

Die Frage ob Maschinen dann auch Bewusstsein erlangen können ist für mich nur ein weiteres philosophisches Pseudoproblem das durch die philosophischen Prämissen des Leib-Seele Problems entstehen kann.
Und wie ihr alle im Interview schon richtig festgestellt hat könnte man empirisch auch nicht wirklich feststellen ob eine Maschine bewusst ist. Es bleibt also wieder eine endlose metaphysische Diskussion.

Dirk Boucsein
Dirk Boucsein
6 Monate zuvor

Hi Philipp,

das ist ja wieder lustig, obwohl ich versucht habe die „Spielregeln“ vorher festzulegen, spielen wir doch wieder nicht zusammen, sondern Du „bedienst hier falsch“ ;-). Als Beispiel, Du schreibst: „Man kann „Bewusstsein“ oder „Geist“ nur von physiologischen Prozessen eines Lebewesens trennen wenn man eben mit einer Trennung beginnt bzw. diese a priori voraussetz.“

Yep, da dreht sich wieder die alte „Metaphysik-Gebetsmühle“ ;-). Ich habe mit keinem Wort von einer „Trennung“ gesprochen, im Gegenteil ich sehe das „Bewusstsein“, oder wie man es auch immer nennen mag, ebenfalls als keine eigenständige Entität an, sondern letzenendes nur als den Prozess selber. Das dachte ich, müssten wir hier doch wirklich nicht mehr durchkonjugieren. Und nein, ich meinte auch nicht erst etwas a priori abzutrennen, um es dann wieder hinzuzufügen. Ich meinte es tatsächlich genau wie Du und wie ich es geschrieben habe, es liegt im Prozess oder der besser gesagt in der Dynamik des Prozesses selbst begründet. Diese „endlose metaphysische Diskussion“ hatten wir doch schon so oft, deshalb dachte ich, dass wir uns diese „Doppelkopf-Regel“ eigentlich hätten sparen können.

Um es noch einmal dezidiert zu sagen: Das „Bewusstsein“ oder „Geist“ oder „Pik 7“ muss in #AC/#DCs nicht „abgetrennt“ werden, da es in den „kybernetischen Prozessen“ eines „künstlichen Lebewesens“ in seinen „dynamisch-strukturalen Prozessen“ bereits impliziert sein könnte. Das ist ja das Fatale, wenn man da wenigstens noch etwas „abtrennen“ könnte, wäre das Problem ja ohnehin obsolet. Und ich meine hier auch nicht schon wieder die „neuronale Aktivität“ oder irgendwelche „Korrelate“ als „NCC“, das müsstest Du doch eigentlich auch mittlerweile wissen. Ich denke da vielleicht sogar noch viel „radikaler“ als Du, würde Axel jetzt bestimmt sagen ;-).

Der Prozess selber ist das „Bewusstsein“ oder „Geist“ oder „Pik 7“ und benötigt m. E. noch nicht einmal ein physiologisches Substrat, auf dessen Klaviatur er gespielt werden muss. Um es in einem Vergleich oder Bild besser zu beschreiben: Die Musik kann ich auf verschiedenen Instrument spielen, entscheidend ist daher nicht das Instrument, sondern wie die Töne sich zu Akkorden und sich schließlich zu Melodien zusammensetzen. Ob ich da auf einer Blockflöte oder einem Klavier spiele, ist doch erst einmal egal.

Daher verstehe ich Dein Argument mit der „dualistischen Trennung“ nicht wirklich. Ich wüsste gar nicht, was man hier abtrennen soll, geschweige denn kann. Das ist ja genau der Grund, warum mir rekurrente, neuronale Netzwerke im „4-E-Design“ solch ein Unbehagen bereiten. Hier geht es nur noch um den dynamisch-strukturalen Prozess, der mit Hilfe von „Reinforcement Learning“ und „Backpropagation“ sich selbständig zu einem autopoeitischen System generieren kann, ohne weiterhin auf ein „Supervised Learning“ angewiesen zu sein. Ich will hier gar nicht auf das „Qualia“-Problem raus. Es ist für mich schon problematisch genug, wenn so „Etwas“ ein „Proto-Selbst“ im Sinne Damasios „Drei-Stufen-Modell“ entwickeln könnte.

Vielleicht auch noch einmal als interessanten Input gemeint: „#ChatGPT & Co – wie intelligent ist KI? | Harald Lesch, Marco Smolla & Hannah Bast“ vom 21.06.2023 (https://www.youtube.com/watch?v=0fq1jlWcUv8) ab 40:00 Minuten wird es interessant zu unserem Thema, obwohl das Thema „Leben“ etwas schwach rüberkommt.

Also nach wie vor, ich hoffe, Du behältst Recht mit Deiner Prognose, dass dies nur für biologisch-physiologische Systeme exklusiv vorbehalten ist.

Liebe Grüße
Dirk

Philipp
Philipp
6 Monate zuvor

Hallo Dirk,

dann habe ich mich nicht klar genug ausgedrückt. Meine Position ist aus deiner Sicht (oder aus der Sicht von manch anderen Menschen) noch radikaler als du annimmst.

Du schreibst u.a. folgendes:
„Ich habe mit keinem Wort von einer „Trennung“ gesprochen, im Gegenteil ich sehe das „Bewusstsein“, oder wie man es auch immer nennen mag, ebenfalls als keine eigenständige Entität an, sondern letzenendes nur als den Prozess selber.

Ich meinte es tatsächlich genau wie Du und wie ich es geschrieben habe, es liegt im Prozess oder der besser gesagt in der Dynamik des Prozesses selbst begründet.“““

Ich rede aber nicht von einem Prozess per se, also einer bestimmten Dynamik per se, sondern von einer PHYSIOLOGISCHEN Dynamik in einem Lebewesen. Für mich ist es bereits Dualismus wenn man nun sagt: ein bestimmter Prozess/Dynamik unabhängig seiner biologischen Basis kann zu Bewusstsein bzw. Erleben führen. Jetzt klar? Natürlich wirst du mir hier wahrscheinlich nicht zustimmen, es ging nur um die Klarstellung der Position.

Philipp
Philipp
6 Monate zuvor

… und damit trenne man „Bewusstsein“ eben von Physiologie ab. Denn für mich ist „Bewusstsein“ NICHTS ALS ein physiologischer Prozess. Daher die Dualismuskritik. Der Glaube dass es „das Bewusstsein“ bzw. einen „Geist“ gibt der beispielsweise nur durch eine bestimmte Dynamik hervortreten kann – unabhängig der biologischen Realisierung in einem lebenden Organismus, ist für mich Dualismus. Was erlebt ist die Physiologie. Nur die Physiologie. „Bewusstsein“ ist einfach ein philosophischer Begriff dafür. Aber das ändert natürlich nichts daran dass es genügend Menschen gibt die glauben es gäbe „ein Bewusstsein“ – und nur wenn man das glaubt kann man Fragen wie Bewusstsein in Relation zu körperlichen Prozessen steht (Leib-Seele Problem), oder man kann fragen ob Maschinen nicht auf Bewusstsein erlangen könnten.

Dirk Freyling
6 Monate zuvor

Gestern wurde ein Gastbeitrag von mir zum Thema »THEORIE UND PRAXIS DER KÜNSTLICHEN INTELLIGENZ« ( https://ansage.org/theorie-und-praxis-der-kuenstlichen-intelligenz/ )veröffentlicht, der u.a. das zentrale Problem der KI beschreibt, ich zitiere mich mal auszugsweise selbst: “…Der Begriff “Künstliche Intelligenz” ist irreführend und bei genauer Betrachtung falsch, weil auch komplexere und verschachtelte Algorithmen, die auf (informations-)mathematischen Verknüpfungen aufbauen, nachweislich keine allgemeinmethodischen Lösungswege generieren…

Es ist aus psychologischer Sicht verblüffend und spricht für den “Zeitgeist des Glaubens”, welcher das Ende der im 18. Jahrhundert gestarteten Aufklärung markiert, dass sich selbst akademisch ausgebildete Mathematiker und Physiker heutzutage ernsthaft mit der Frage beschäftigen, ob ein Algorithmus intelligent sein kann oder gar Gefühle hat. Man möge Philosophen diesbezüglich mit etwas Nachsicht betrachten, da diese in der Regel glaubensaffin sind und hinter der einen oder anderen nicht verstandenen Theorie, Anwendung oder Verfahrensanwendung Metaphysik und mehr vermuten.

Wie auch immer,
interdisziplinäre Weitsicht ist mitunter für die “KI” schon ein riesiges, unlösbares Problem mit fatalen Folgen. Beispiel: Ein Informatiker, der Kurse in Python und Pandas anbietet wurde von Meta/Facebook lebenslang gesperrt. ( https://lerner.co.il/2023/10/19/im-banned-for-life-from-advertising-on-meta-because-i-teach-python/ ) Python ist eine – recht populäre und bekannte – Programmiersprache. Pandas ist eine Python-Programmbibliothek zur Analyse und Darstellung statistischer Daten. Die Annahme, dass seine Werbung lebende Tiere zum Inhalt habe, beruht(e) auf “KI”, nicht auf der Einschätzung eines Menschen. Als er dagegen Beschwerde einlegte, wurde seine Beschwerde wiederum von “KI” beantwortet – und zwar im Ergebnis genauso sinnfrei”…

Philo Sophies
5 Monate zuvor

Dear G C.,

thank you very much for your comment on our interview with Patrick Krauß, on which I would also like to write a few sentences, although I have seen that you have already used your comment more often on medium on the subject of AI ;-).

Regarding your comment: „It’s becoming clear that with all the brain and consciousness theories out there, the proof will be in the pudding.“. Sure, that’s currently the state of the art in the „AI kitchen“. There are lots of chefs and lots of recipes, but unfortunately/thankfully only a „pudding“ comes out every month ;-).

For your information: Edelman’s „recipe“ with his „Theory of Neuronal Group Selection (TNGS)“ in the form of „Neurodarwinism“ is now one of the „standard dishes“ in AI research. So in this respect, your wish is „that there’s lots of data but no unifying theory. I believe the extended TNGS is that theory“ has long since become reality.

If I may refer to Jürgen Schmidhuber, for example, who is one of the most cited German computer scientists. He works primarily in the field of artificial intelligence (AI) and specializes in neural networks. He has been Scientific Director at IDSIA, a Swiss research institute for AI, since 1995. He has written the following article on the „Evolutionary Theory“ of AI research: https://people.idsia.ch/~juergen/diploma.html.

However, in my opinion, the „evolutionary theory“ of AI research as neurodarwinism is not suitable for a „unifying theory“, as it only describes the possible approach, but does not yet contain any explicit algorithms for solving the problem. Perhaps Karl Friston’s „free energy principle theory“ is more useful here, e.g. the article „Applications of the Free Energy Principle to Machine Learning and Neuroscience“ by Beren Millidge (arXiv, 30 Jun 2021): https://arxiv.org/abs/2107.00140

Many thanks, however, for the reference to Jeff Krichmar’s lab at UC Irvine and to Dr. Edelman’s roadmap to a conscious machine is at https://arxiv.org/abs/2105.10461. I researched this and personally found the approaches described here very exciting. I particularly liked the enactive concept in Jeff Krichmar’s research. Like you, I also think that such autopoietic concepts will (unfortunately) take AI research a long way. Hopefully I won’t have to witness this ;-).

With best regards

Torsten Hesse
5 Monate zuvor

Hallo Dirk,
Danke für dieses wieder sehr sehenswerte Symposium. Besonders interessant fand ich den Hinweis auf den Zusammenhang zwischen Bewusstsein und autonomem Lernen. Beim Trainieren eines künstlichen neuronalen Netzwerks (nicht-autonomes Lernen) sagt der Trainer dem Netzwerk jedes mal, ob es sich (entsprechend der Aufgabe) richtig oder falsch verhalten hat. Aufgrund dieses Feedbacks konfiguriert sich das Netzwerk und wird „klüger“.
Ein bewusstes Tier dagegen merkt selbst, ob sich sich richtig oder falsch verhalten hat – dadurch, dass es sich z.B. befriedigt, gesättigt oder in Sicherheit fühlt oder aber Enttäuschung, Hunger oder Furcht empfindet.
Lebewesen ohne Bewusstsein können nicht individuell lernen – nur die Gattung lernt durch die Evolution, also dadurch, dass Individuen, die sich aufgrund ihrer ererbten Programme „falsch“ verhalten, einen geringeren Fortpflanzungserfolg haben, sodass diese Programme tendenziell verschwinden. Das Bewusstsein hat also eine neue, schnellere und effektivere Art des Lernens ermöglicht, und darauf beruhte wohl sein Erfolg in der Evolution (siehe auch meinen Gastbeitrag zu diesem Thema: https://philosophies.de/index.php/2023/01/09/die-funktion-des-bewusstseins/).
Lässt sich das nun auf Maschinen übertragen? Selbst wenn einen Roboter baut, der in einer Umwelt agiert, und der ein „Körperfeedback“ an seine zentrale Steuerung sendet, wird doch der Mensch festlegen müssen oder wollen, was dieses Feedback bedeutet. Beispielsweise melden die Körpersensoren eine bestimmte Innentemperatur – die Steuerung muss nun wissen, welche Temperatur normal ist, welche zu hoch und welche zu niedrig. Die3se Grenzwerte wird der Konstrukteur oder Programmierer festlege, aufgrund seines Wissens aufgrund seines Wissens darüber, was der Maschine gefährlich werden kann. Wenn diese Grenzen aber vom Menschen festgelegt sind, braucht der Roboter hier kein Bewusstsein – er muss nicht spüren, dass es „ihm“ zu heiß oder zu kalt wird.
Also auch Embodyment erzeugt noch kein Bewusstsein. Nur wenn man keine Grenzwerte festlegen würde, die es der Maschine ermöglichen,Inputs zu bewerten, sodass die Maschine (bei Gefahr ihrer Zerstörung) selbst herausfinden müsste, was sie „bedeuten“, d.h. wie darauf zu reagieren ist – nur dann könnte sich Bewusstsein entwickeln. Voraussetzung wären vermutlich Millionen solcher Maschinen und Millionen Jahre – jedenfalls in der Realität. Aber vielleicht kann man den Prozess auf einem Rechner simulieren…

Torsten Hesse
5 Monate zuvor

Hallo Dirk,
auch beim unsupervised learning muss der Mensch (a) das Ziel vorgeben und (b) festlegen, welche Abweichung vom Ziel noch als Treffer zählt (also Verstärkung des Verhaltens zur Folge hat), und welche Abweichung als Fehler gewertet wird und Änderung des Verhaltens zur Folge hat. Es ist immer der Mensch, der festlegt, was die Daten „bedeuten“.
Krauß/Maier schreiben:
„Die Rückmeldung von inneren Körperzuständen wird die Grundlage von Emotionen und Gefühlen. Ohne Emotionen und Gefühle kann das System nicht trainiert werden…“
Das ist bei Lebewesen so. Aber warum sollten sich in einer Maschine innere Zustände in Gefühle verwandeln, wenn die Maschine aufgrund ihres (von Menschen geschriebenen) Programms weiß, wie sie auf diese Daten zu reagieren hat? Gefühle sind dann überflüssig. Bewusste Tiere wissen ausschließlich durch ihre Gefühle, was ihre Körperzustände bedeuten, sie haben keinen anderen Zugang. Maschinen dagegen haben einen anderen Zugang (dank ihres Programms, das auf menschlichem Wissen darüber beruht, was die inneren Zustände der Maschine – z.B. Temperatur oder Akkuladestand – für Maschine bedeuten). Deshalb brauchen sie keine Gefühle.

Es ist also nicht entscheidend, dass die Maschine Körperfeedback hat – sie darf keine menschengemachten Informationen über die Bedeutungen dieser Körperfeedback-Daten haben – kein einprogrammiertes Wissen, wie sie darauf reagieren muss, um sich selbst funktionstüchtig zu erhalten. Dann wird die Maschine aber mit hoher Wahrscheinlichkeit nicht lange funktionieren.

Du schreibst:
Beispielsweise würde die Maschine selber „merken“, dass ihr Akku alle ist und ein Herunterfahren der Systeme vermeiden, was sie bereits schon einmal als negativ „erfahren“ hat und autonom zur Aufladestation fahren.
Mein Handy „merkt“ auch, wenn sein Akku leer ist (und zeigt es mir an), und es wäre technisch kein Problem, das Handy mit einem Roboterkörper und dem nötigen Programm auszustatten, sodass es sich zur Steckdose bewegen und sich wieder aufzuladen könnte. Dazu ist kein Bewusstsein nötig.
In Wirklichkeit „merkt“ das Handy gar nichts, wenn sein Akku sich leert, sondern es findet ein Messprozess statt, und die Messergebnisse werden anhand einer einprogrammierten Skala bewertet als „Akku voll“, „Akku halb voll“, „Akku leer“.
Ich stimme also mit Philipp darin überein, dass Bewusstsein nur in Lebewesen entstehen konnte – denn nur für sie war es von Nutzen. Maschinen brauchen kein Bewusstsein, im Gegenteil, ihre Schnelligkeit beruht gerade darauf, dass sie ohne Bewusstsein auskommen.

Liebe Grüße
Torsten

Philipp
Philipp
5 Monate zuvor

Hallo Torsten,

du hast evolutionäre Vorteile des Bewusstseins bei Lebewesen angesprochen.
Ein guter Psychologieartikel der evolutionäre Vorteile von Bewusstsein diskutiert, wenn auch nicht immer direkt sondern teilweise diese indirekt impliziert, ist unter folgendem Link zu finden. Ich wollte ihn nur empfehlen.

https://epub.ub.uni-muenchen.de/2856/1/2856.pdf

Torsten Hesse
5 Monate zuvor

Hallo Philipp,
danke für den Hinweis auf den Artikel. Der Autor hat richtig erkannt, dass es darauf ankommt, zu erklären, wie Irrtum möglich wird (nur Wesen, die sich irren können, können auch die Wahrheit erkennen). Aber er erklärt den Irrtum als Folge fehlerhafter Informations-Übertragung, und das ist falsch. Wenn ich einen Delphin irrtümlich für einen Fisch halte, oder wenn ich glaube, drei mal drei sei acht, dann liegt das nicht an Fehlern bei der Informations-Übertragung, sondern an meinem mangelnden Wissen.

Die Interpretation von Information (also das Verstehen) erfolgt immer im Kontext vorhandenen Wissens. Und Wissen ist Struktur – also die raumzeitliche Verteilung von Materie und Energie (nicht Materie und Energie selbst, sondern nur deren Verteilung). Mein Wissen steckt in der Struktur meines Gehirns und meines Körpers, und auch das Wissen eines Bakteriums steckt in seiner Struktur. Diese Struktur erlaubt es ihm, auf die Information aus seiner Umgebung (meistens) richtig zu reagieren, sie also zu verstehen.