Das System braucht neue Strukturen – nicht nur für/gegen die Künstliche Intelligenz (KI)
„Ich dachte, die ganze Idee der starken KI ist, dass wir nicht wissen müssen wie das Gehirn funktioniert, um zu wissen wie der Verstand funktioniert.“ (John Searle:“Minds, Brains, and Programs.“ 2000, S. 146)
Table of Contents
Das System braucht neue Strukturen
Diese „neuen Strukturen für das System“ möchte ich nun abschließend in meinem letzten Essay zur Trilogie der Wissenschaftstheorie ausgehend von 5 Grundthesen speziell zu den neuen Ansätzen in der „KI-Forschung„, aber auch allgemein für eine „Neue Wissenschaft“ mit einer „Neuen Metaphysik“ postulieren.
Um diese neuen Strukturen besser erläutern zu können, möchte ich hierzu einmal ein Beispiel für aus der Geologie bemühen: Tektonische Verschiebungen und erdgeschichtliche Verwerfungen werden am besten immer an den Bruchzonen deutlich. In der Philosophie des Geistes und den hierzu korrespondierenden kognitiven Neurowissenschaften ist es ebenso. Die spannendsten Bereiche der diskursiven Formationen, in denen wirklich etwas passiert, liegen im Bereich der „Bruchzonen“ zwischen den Geistes- und Naturwissenschaften.
Die beschriebene „Neurophilosophie“ schien mir ein geeignetes Beispiel für einen solchen angestrebten Umbruch in Form eines wissenschaftlichen „Paradigmenwechsels“ zu sein.
Der erwartete, extreme Widerstand gegenüber der Konsolidierung einer „Neuen Wissenschaft“ mit einer konstituierenden „Neuen Metaphysik“ lässt sich natürlich einerseits mit dem Wirkungs- und Geltungsanspruch und somit auch der Machtanspruch der unterschiedlichen Disziplinen und Wissenschaftsbetrieben begründen; niemand verzichtet gerne auf seine „Pfründe“. Außerdem muss hierzu auch noch der Reduktionismus des „neurozentristischen Weltbild“ in Form von „Ich = Gehirn“ überwunden werden und damit die in die gleichsam in die „Grohirnrinde tätowierte“, dualistische Trennung von „Forschersubjekt vs. Erkenntnisobjekt„:
„Die möglichen Bruchpunkte des Diskurses bestimmen. Diese Punkte charakterisieren sich zunächst als Punkte der Inkompatibilität: Zwei Objekte oder zwei Äußerungstypen oder zwei Begriffe können in derselben diskursiven Formation erscheinen, ohne – es sei denn um den Preis des manifesten Widerspruches oder der Inkonsequenz – in ein und dieselbe Folge von Aussagen eintreten. Sie sind weiterhin als Äquivalenzpunkte charakterisiert:[…]“ (Michel Foucault: „Archäologie des Wissens“, S. 96)
Diese scheinbare Widersprüchlichkeit – bis hin zu Paradoxie – der unterschiedlichen wissenschaftlichen Ansätze zu überwinden und eine gemeinsame Basis für den bidirektionalen Austausch als „Neue Wissenschaft“ zu finden, war das Ziel der Trilogie zur Wissenschaftstheorie. Hier war ein kurzer Blick ins „Reich der Systemtheorie“ sehr hilfreich.
In diesem letzten Schritt möchte ich nun versuchen anhand eines ausgewählten Beispiels aus der Forschung zur künstlichen Intelligenz (KI) diese 5 Grundthesen für den angestrebten Strukturwandel in den Neurowissenschaften – im Speziellen – und im übertragenen Sinne in den Wissenschaften – im Allgemeinen – zu verdeutlichen und damit die Forderung nach der Konsolidierung einer „Neuen Wissenschaft“ mit einer konstituierenden „Neuen Metaphysik“ zu begründen.
Die 5 Grundthesen als Basis für einen „Strukturwandel“ hin zu einer „Neuen Wissenschaft“ mit einer „Neuen Metaphysik“:
1. Grundthese: Der Strukturwandel von der Disziplinarität in eine Interdisziplinarität zum Beispiel im Sinne des Deutschen Wissenschaftsrates als bidirektionaler Austausch zur Erkenntnisgewinnung im kooperativen und nicht im kompetitiven Sinne.
2. Grundthese: Der Strukturwandel vom Reduktionismus in einen Holismus im Quine’schen Sinne als ein skalierbares Kontinuum zwischen “apriori-analytisch-noumenalen“ und „aposteriori-synthetisch-phänomenalen“ Untersuchungsmethoden mit einer zirkulären „concept-fact iterativity“ zur Theoriebildung.
3. Grundthese: Der Strukturwandel der vermeintlichen Objektivität in eine „Kybernetik 2. Ordnung„ im von Foerster’schen Sinne, bei dem der Forschungsprozess („Operation“) selber zum Gegenstand der eigenen Forschung gemacht werden soll und somit das Forschersubjekt („Operator“) und Erkenntnisobjekt („Operand“) miteinbezogen werden.
4. Grundthese: Der Strukturwandel vom Dualismus in eine Polykontexturalität im Günther’schen Sinne als eine Möglichkeit Lösungsansätze für komplexe Fragestellungen und Algorithmen für holistische Problemlösestrategien entwickeln zu können.
5. Grundthese: Der Strukturwandel von linearen Problemlösestrategien in komplexe Problemlösestrategien im Dörner’schen Sinne um genauere Heuristiken, aber auch um bessere Risikofolgenabschätzungen für die wissenschaftliche Forschung und ihre späteren Auswirkungen als eine neue Form der Wissenschaftsethik zu entwickeln.
Diese 5 Grundthesen zum Strukturwandel möchte ich im Folgenden anhand eines ausgewählten Beispiels der KI-Forschung zu den Möglichkeiten zur Konstitution von „künstlichem Bewusstsein“ näher erläutern und damit einer begründeten Legitimation zuführen.
Die Anwendung der 5 Grundthesen des postulierten Strukturwandels auf ein konkretes Beispiel aus der KI-Forschung
Der momentane Stand der KI – „Big Data„, bitte melden!
Der Begriff „künstliche Intelligenz“ (KI) oder „artificial intelligence“ (AI) weist bereits in sich terminologische Schwachstellen auf, da hierzu zunächst einmal überhaupt geklärt werden müsste, was denn unter „Intelligenz“ genau zu verstehen ist.
Allgemein lässt sich die KI als Forschungszweig der Informatik, Neuroinformatik, Kybernetik oder Bionik definieren, die sich mit der Programmierung von Algorithmen beschäftigt, die zu (teilweise) autonomen, maschinellen Lernen der Maschinen und damit zur (teilweise) automatisierten Simulation von „intelligenten Verhalten“ führt. Wie man hieran vielleicht schon unschwer erkennen kann, liegt die momentane „Achillesferse“ bei der Autonomie.
„Schwache vs. starke KI“
In diesem Zusammenhang kommt dann auch schnell die Unterscheidung zwischen „schwacher“ und „starker KI“ ins Spiel. Die schwache KI stellt lediglich die Möglichkeit dar, dass eine Maschine einigermaßen intelligent und adäquat auf konkrete Aufgaben in einem vorgefertigten „Framing“ reagieren kann. Bei einer starken KI muss zusätzlich noch die Fähigkeit zum autonomen Lernen und die adaptive Anpassung an neue Situationen hinzukommen. Das bedeutet, dass dies schon eine Reihe von Kriterien voraussetzt, die schon langsam in Richtung „Bewusstsein“ gehen können, wobei man diesen Begriff aber immer noch deutlich von dem der „Intelligenz“ abgrenzen muss.
Dieser Bereich der starken KI im Zusammenhang mit „künstlichen neuronalen Netzen“ (KNN) wird auch gerne als „Deep Learning“ bezeichnet. Eine technisch-nutzbare Anwendung findet das „Deep Learning“ durch künstliche neuronalen Netze in dem von Google entwickelten, autonomen und selbstlernenden Algorithmus “RankBrain”, der zu zu einer Verbesserung der Suchanfragen geführt hat. Die relevanten Suchergebnisse werden durch eine Art „predictive coding“ automatisch an das Suchverhalten des Benutzers angepasst, was somit den „search range“ der Suchanfrage optimieren hilft.
Der Turing-Test
Um nun aber ein qualitatives Maß für das Vorliegen von starker KI oder einer dem Menschen vergleichbaren Intelligenz zu besitzen, wurde der „Turing-Test“ von Alan Turing, dem Erfinder der gleichnamigen „Turing-Maschine“ entwickelt. Bei dieser Versuchsanordnung stellt ein Mensch an einem Terminal beliebige Fragen entweder an einen anderen Menschen, der ebenfalls an einem Terminal sitzt oder an eine KI. Anhand der Qualität der Antworten muss der Fragensteller hinterher beurteilen, ob es sich um einen Menschen oder eine Maschine gehandelt hat. Sind beide aufgrund ihrer Antworten nicht zu unterscheiden, so kann die Maschine gemäß Turing als intelligent bezeichnet werden.
Inwieweit dieser Test eine Aussagekraft hat, kann allerdings bezweifelt werden, da er in seinem Testdesign doch stark an das Gedankenxperiment „Chinesisches Zimmer“ des in der Einleitung zitierten Philosophen John Searle erinnert. Searle hat dieses Beispiel als Kritik an dem „Turing-Test“ formuliert, da für ihn die Maschine aufgrund der vorprogrammierten oder des erworbenen sprachlichen Inputs, sprachliche Gesetzmäßigkeiten entwickelt und aus dem Datenmaterial aufgrund des Algorithmuses scheinbar sinnvolle Antworten bilden kann, die aber rein syntaktisch sind. Die Antworten, welche die Maschine liefert, scheinen semantisch vollkommen korrekt sein und die Illusion eines menschlichen Gesprächspartners zu liefern. Allerdings „versteht“ die Maschine selbst nicht den Inhalt oder die Bedeutung der sprachlichen Zeichen, sondern errechnet lediglich maximale „Sinnfelder“ für die jeweiligen Antworten.
Erste „Spiel“-Erfolge im „Turing-Pokal“
Den Turing-Test hat allerdings bisher immer noch keine KI vollständig bestanden. Der zur Zeit vielversprechendste Anwärter auf den „Turing-Pokal“ scheint das sehr innovative KI-Sprachmodell „GPT-3“ von „Open AI“ zu sein. GPT-3 („Generative Pretrained Transformer 3“) ist ein ein riesiges künstliches neuronales Netz, das mit 570 Gigabyte an Text aus dem Common-Crawl-Datenkorpus (2016-2019) trainiert wurde; das sind fast eine Billion Wörter. Das neuronale Netz besteht aus 175 Milliarden Parametern, welches mit Text trainiert wurde. Angeblich hat das Training dieses Modells schon alleine 14 Millionen US-Dollar verschlungen. Diese immense Summe wird aber wahrscheinlich wieder sehr schnell amortisiert sein, da Microsoft am 22. September 2020 angekündigt hat, dass sie eine Exclusiv-Lizenz zur Nutzung von GPT-3 erworben haben. Trotzdem hat GPT-3 bis zum heutigen Tage den besagten Turing-Test noch nicht bestanden, wobei Experten davon ausgehen, dass dies nicht mehr lange dauern wird.
Aber trotz dieser Skepsis zum momentanen Status Quo der starken KI hinsichtlich der Bildung von Bewusstsein lesen sich die Erfolge der KI besonders als Spielpartner in diversen Brett- und Videospielen wie eine reine Erfolgsgeschichte:
„Immerhin gelang es 1997 dem von IBM entwickelten System Deep Blue, den Schach-Weltmeister Garri Kasparov in sechs Partien zu schlagen. Im Jahr 2011 gewann das Computerprogramm Watson im Quiz Jeopardy! gegen die beiden bislang erfolgreichsten Spieler. Im März 2016 besiegte das System AlphaGo mit dem Südkoreaner Lee Sedol einen der weltbesten Go-Spieler. Das vom Unternehmen DeepMind entwickelte Programm hatte zuvor Millionen von archivierten Spielen mit Deep Learning ausgewertet und zudem mehrere Millionen Mal gegen sich selbst gespielt. 2019 gelang es der DeepMind-Weiterentwicklung Alpha Star, menschliche Top-Spieler beim populären und als sehr schwer geltenden Strategiespiel StarCraft II 10:1 zu besiegen. (https://de.wikipedia.org/wiki/Geschichte_der_k%C3%BCnstlichen_Intelligenz).
Okay, also im Spiel scheinen uns die Maschinen zugegebenermaßen haushoch überlegen zu sein, da sie mit einer Unmenge an Daten zu den jeweiligen Spielzügen und -strategien gefüttert werden und diese auch noch in Millisekunden zu einem kreativen, intelligenten Spielverhalten verrechnen können. Doch wie sieht es mit der tatsächlichen Nachbildung von Denkoperationen eines menschlichen Gehirns samt seiner Neuroplastizität aus?
Das Blue-Brain-Projekt (BBP)
Einen Versuch das Gehirn in seiner Funktionalität mit Hilfe der ermittelten Messdaten aus den oben erwähnten, verschiedenen Messinstrumenten künstlich nachzubilden, stellt das sogenannte Blue-Brain-Projekt (BBP) dar. Am Brain Mind Institut in Lausanne ist einer der 100 schnellsten Computer weltweit, ein Blue-Gene-Supercomputer mit 360 Teraflops, angeschafft worden, um die gewonnenen Erkenntnisse in einem gigantischen Computermodell zusammenzufassen. Das Projekt basiert auf dem Konzept des “künstlichen neuronalen Netzes” (KNN), das eine Simulation einer neokortikalen Säule auf zellulärer Ebene anstrebt und somit an das “Humain Brain Project” (HBP) anknüpft. Die künstliche „in silico“ Nachbildung des menschlichen Gehirns mit seinen 100 Milliarden Neuronen (Gehirnzellen) und seinen 100 Billionen Synapsen ist das ehrgeizige Ziel.
Bisher begnügen sich die Forscher vom Blue-Brain-Projekt zunächst aber noch damit ein „komplexes Mehrebenensystem“ zur „Neuron-zu-Neuron-Konnektivität“ eines ganzen „Maus-Neocortex“ zu simulieren. Basierend auf diesen Regeln für „neokortikale Mikroschaltungen“ (Markram et al., 2015) hat das Team statistische Instanzen des „Mikrokonnektoms“ von 10 Millionen Neuronen generiert, ein Modell, das sich über fünf Größenordnungen erstreckt und 88 Milliarden synaptische Verbindungen enthält. besitzt als Grundlage die weltweit größte Simulation der digitalen Rekonstruktion. Ziel des EPFL Blue Brain Project ist es, biologisch detaillierte digitale Rekonstruktionen und Simulationen eines Mausgehirns zu erstellen.
Sorry, aber „der Berg kreißte und gebar eine Maus“ (Horaz, Ars poetica). Hier hat der Funtionalismus und im besonderen der Computionalismus aus meiner Sicht seinen Höhepunkt gefunden, da man sich nicht mehr nur mit der Computer-Analogie zufrieden gibt, sondern einfach direkt das Gehirn in-silico nachbaut:
„Die Verbindungen zwischen den Neuronen bilden eine Hierarchie von Schaltkreisen, von lokalen Mikroschaltkreisen bis hin zur Ebene des gesamten Gehirns. Auf einer niedrigeren Ebene hingegen ist jedes Neuron und jede Synapse eine eigenständige komplexe molekulare Maschine. Es sind die Interaktionen zwischen diesen Ebenen, die menschliches Verhalten, menschliche Emotionen und menschliche Kognitionen hervorbringen.“ (https://www.epfl.ch/research/domains/bluebrain/blue-brain/about/digital-reconstruction/)
Zumindest die folgende 1. Grundthese “ Der Strukturwandel von der Disziplinarität in eine Interdisziplinarität“, als „multidisziplinäre Big Science im Bereich der Neurowissenschaften“ wäre damit schon einmal eingelöst, da mindestens 82 Wissenschaftler aus den unterschiedlichsten Disziplinen an den Studien zum Blue-Brain-Project beteiligt waren.
1. Grundthese: Der Strukturwandel von der Disziplinarität in eine Interdisziplinarität
Die Ursprünge der KI-Forschung
In den vorhergehenden Essays hatte ich ja bereits schon mehrfach auf die „Sackgasse der kognitiven Neurowissenschaften“ verweisen müssen und zu einer „Wende im neurozentristischen Weltbild“ aufgefordert. Es mag daher eher als ein „Treppenwitz“ der Wissenschaftsgeschichte wirken, dass nun ausgerechnet diese „Schützenhilfe“ für den angestrebten Strukturwandel von der „Disziplinarität zu der Interdisziplinarität“ für die kognitive Neurowissenschaften oder der Wissenschaftstheorie aus der KI-Forschung (z. B. „Blue Brain Project“) kommt.
Die Geschichte des Biological Computer Laboratory (BCL)
Das gesamte Projekt der KI-Forschung könnte dabei aber auch glatt den Filmtitel „Zurück in die Zukunft IV“ tragen, da die Ursprünge zur Lösung des Problems bereits aus den Jahren 50er bis 70er Jahren des letzten Jahrtausends stammen, also schon seit circa 70 bis 50 Jahre bekannt sind. Die Rede ist vom Biological Computer Laboratory (BCL) als Forschungsinstitut des Departments of Electrical Engineering an der University of Illinois.
Das BCL kann auch als „Keimzelle“ oder „Prototyp“ für eine sich damals an wissenschaftlichen Instituten der USA immer stärker ausbildende Interdisziplinarität gesehen werden. Dieses in Vergessenheit geratene und doch in vielen Bereichen so einflussreiche BCL wurde von der für seine großen Verdienste – ebenso – noch nicht entsprechend gewürdigten Forscher-Persönlichkeit Heinz von Foerster 1958 gegründet. Er war Direktor am BCL bis zu dessen Schließung 1975. Die Geschichte des BCL und seine Einflüsse auf die Wissenschaft und KI-Forschung wäre schon allein ein weiterer Essay wert. Ich beziehe mich hier aber auf einen bereits erschienen, sehr lesenswerten Artikel von Albert Müller „Eine kurze Geschichte des BCL – Heinz von Foerster und das Biological Computer Laboratory„ aus dem Jahre 2000. In seinem Artikel weist Müller auf die vielfältigen, interdisziplinären Einflüsse des BCL zum Beispiel in den Bereichen der Kybernetik, der Systemtheorie, der Bionik, des parallelen Rechnens, der Neurophysiologie, der Bio-Logik, der künstlichen Intelligenz, des symbolischen Rechnens oder des Konstruktivismus hin.
Viele der damals entwickelten Erkenntnisse sind noch weiterhin unentdeckte „Perlen der Wissenschaft“ und haben bis zum heutigen Tage eigentlich leider noch keine entsprechende Aufarbeitung oder Anwendung gefunden. Müller erklärt dies mit der „Vergesslichkeit der history of science„. Ich müsste leider noch einen Schritt weiter gehen und dies eher mit den oben erwähnten Abwehrmechanismen des wissenschaftlichen Betriebs gegenüber Paradigmenwechsel im Kuhnschen Sinne begründen.
Die „Multiperspektivität“ der „Macy-Konferenzen„
Im BCL wurde die methodische Grundbasis für spätere wissenschaftliche Forschungen in diversen Disziplinen gelegt, die aber teilweise immer noch im im „Dornröschenschlaf“ liegen oder einfach schlichtweg den Impuls ignoriert haben. Die wissenschaftlichen Diskussionen am BCL und den hieran angeschlossenen Kybernetik-Tagungen, die „Macy-Konferenzen„, bezeichnete von Foerster als „kooperativ und nicht kompetitiv„. Es ging allen Forschern um Interdisziplinarität zwischen den einzelnen Disziplinen und um „Multiperspektivität“ (eine „Polykontexturalität“ nur im übertragenen Sinne) in verschiedenen Themenbereiche:
„Die Teilnehmer der Macy-Tagungen vertraten 1949 zum Beispiel die Fachrichtungen Psychiatrie, Elektrotechnik, Physiologie, Computerwissenschaft, Medizin, Zoologie, Psychologie, Soziologie, Ethnologie, Anatomie, Neurologie, Verhaltensforschung, Mathematik, Radiobiologie, Biophysik, Philosophie. Bis 1953 erweitert sich diese Liste noch um Ökonomie und andere Disziplinen.“ (Albert Müller: „Eine kurze Geschichte des BCL – Heinz von Foerster und das Biological Computer Laboratory“ 2000, S. 4)
Aus diesem „Spirit“ entwickelte sich die damals noch sehr junge neue Disziplin der „Kybernetik„, die damals auch parallel zum Begriff der „Bionik“ verwendet wurde. Die Impulse, welche im Speziellen die „Kybernetik 2. Ordnung“ (Beobachtung der Beobachtung = Beobachtung 2. Ordnung) durch Heinz von Foerster gesetzt wurden, wirken bis heute in vielen Bereichen (Systemtheorie, KI-Forschung, Konstruktivismus) weiter fort, sind aber in ihren weitreichenden Konsequenzen im Allgemeinen für die Wissenschaftstheorie und hier im Besonderen für die kognitive Neurowissenschaften noch nicht in Gänze erfasst worden.
Dies möchte ich im Folgenden ändern und zugleich die weiterführenden Aspekte für die moderne KI-Forschung als Struktur im System anhand der nächsten Grundthese beleuchten.
2. Grundthese: Der Strukturwandel vom Reduktionismus in einen Holismus
Kompliziertheit vs. Komplexität
Trotz der zu anfangs erwähnten großen Erfolge der künstlichen neuronalen Netzwerke (KNN) und des „Deep Learning„(Yoshua Bengio, Geoffrey Hinton und Yann LeCun)-Projektes hinsichtlich der Lösung von Strategiespielen ist diese schwache KI aber immer noch meilenweit von einer starken KI, hinsichtlich der autonomen Ausführung von zielgerichteten, bewussten Problemlösestrategien entfernt. Geschweige denn, kann hier von so etwas wie „Maschinen-Bewusstsein“ gesprochen werden. Selbst die sehr optimistischen „Big Data„(People Analytic Systems/Data Mining)-/“Microtargeting„(„Cambridge Analytica„)-Projekte der IT-Global Player (Google, Facebook, Amazon & Co.) gehen mittlerweile nicht mehr von der Möglichkeit aus, dass KI so etwas wie „Kreativität“ oder „Empathie“ entwickeln könnte. Diese etwas pessimistischere Einschätzung der Möglichkeiten der KI beschreibt Kai-Fu Lee, einer der führenden und erfolgreichsten Köpfe des „chinese internet sectors„, der lange Jahre als Direktor bei Microsoft Research Asia und als Präsident bei Google China beschäftigt war, in seinem 2018 erschienen Buch „AI Superpowers: China, Silicon Valley, and the New World Order„.
Kann also mit diesem eingestandenen Scheitern, das große Projekt „starke KI“ damit endgültig zu Grabe getragen werden, oder liegt es nicht einfach nur an den „Konstruktionsfehlern“ der bisherigen KI-Ingenieuren? Anzeichen für derlei Konstruktionsfehler könnte ich aus meiner Sicht tatsächlich in der methodischen Hegemonie des Reduktionismus gegenüber einem Holismus im gesamten wissenschaftlichen Bereich, somit auch in der momentanen KI-Forschung erkennen.
1. Konstruktionsfehler: Der Reduktionismus geht vor dem Holismus
Selbst in der nicht-reduktiven Form des Dualismus unter Einbeziehung eines empirisch-unbegründeten, „metaphysischen Kunst(be)griffes“ der „Emergenz“ gelingt es dem Reduktionismus immer noch nicht das „Rätsel des Bewusstseins“ zu lösen. Kann er auch nicht, weil er aus meiner Sicht von einer falschen Prämisse zum „Denken des Denkens“ in Form einer Verwechslung von „Kompliziertheit vs. Komplexität“ ausgeht. Der Reduktionismus versucht die „Kompliziertheit“ eines Systems nach dem Prinzip „pars pro toto“ vollständig auf seine Einzelbestandteile zu reduzieren, um mit Hilfe dieser Simplifizierung das Ganze dann begreifbar und handhabbar zu machen. Hierbei begeht er aber unweigerlich einen mereologischen Fehlschluss, da die Summe der Teile nun einmal nicht das Ganze repräsentieren können. Aus diesem Grunde muss die oben erwähnte Emergenz auch als „Kaninchen-Hutzauber-Trick“ eingestuft werden.
„Es ist unverfänglicher, einfach zu denken oder das Denken im kybernetischen Artefakt wenigstens partiell zu simulieren, als das Denken als Denken selbst in den Griff zu bekommen. Der so erlangte Begriff des Denkens wäre selbst wiederum nur Teil des Denkens und das Denken als Ganzes wäre nicht erfaßt. Das Gödelsche Theorem sorgt hier für die Autonomie des kreativen menschlichen Denkens der Erfassung des Denkens in Symbolsystemen und symbolischen Maschinen gegenüber.“ (Rudolf Kaehr: „Diskontexturalitäten: Wozu neue Formen des Denkens? Zur Kritik der logischen Voraussetzungen der Second Order Cybernetics und der Systemtheorie.“ http://www.vordenker.de/rk/rk_wozu-neue-formen-des-denkens_1994.pdf, S.2)
Der positivistische Ansatz der KI-Forschung geht aber in seinem Konzept von einem „Reduktionismus“ aus, bei dem es folglich nur eine Frage der Kompliziertheit der Algorithmen und der damit verknüpften Datenmenge sei bis eine starke KI ganz von alleine entstünde. Dieses der momentanen KI-Forschung zugrundeliegende Konzept basiert auf der sehr einseitigen, reduktiven, „aposteriori-synthetisch-phänomenalen“ Methodik der Naturwissenschaften und ist meines Erachtens zum Scheitern verurteilt. Der Grund hierfür liegt darin, dass es die nicht-reduktive, „apriori-analytisch-noumenale“ Methodik der Geisteswissenschaften zur Lösung des Problems einfach außer Acht lässt oder schlichtweg ignoriert, wie ich schon in meinem vorhergehenden Essay zur „Neurophilosophie“ versucht habe darzulegen.
2. Konstruktionsfehler: Das „Denken des Denkens“ nicht zu überdenken
Die dort geschilderte Rekursivität und Selbstreferentialität einer „concept-fact iterativity“ (Northoff:“Transdisciplinary Methodology and Neuropsychodynamic Concept–Fact Iterativity“, 2011) könnte auch der aktuellen KI-Forschung zu Gute kommen, da das „Denken des Denkens“ selber einen „infiniten Regreß“ oder auch „Progreß ohne Abschluss“ darstellt. Die Konzepte der Neurophilosophie zu der Konstitution von Bewusstsein könnten zum Beispiel als „Input“ für die KI-Forschung Verwendung finden, da hierdurch die Simulation der Konzepte eine empirische Überprüfung stattfinden könnte. Andersherum dient der „Output“ der Simulation, also die gewonnenen Fakten, wiederum als neuer Input für die Neurophilosophie, um die Konzepte neu zu justieren und entsprechend anzupassen; folglich eine „win-win“-Situation oder „joint-venture“ als bi-direktionaler Austausch. Also ganz im Sinne eines Holismus im Quine’schen Sinne als ein skalierbares Kontinuum zwischen “apriori-analytisch-noumenalen“ und „aposteriori-synthetisch-phänomenalen“ Untersuchungsmethoden mit einer zirkulären „concept-fact iterativity“ zur Theoriebildung. Doch hierzu bedürfte es eines „veränderten Denkens“ im Sinne eines „Paradigmenwechsels“ für die wissenschaftliche Methodik, um zum Beispiel das dualistische Paradigma „Forschersubjekt vs. Erkenntnisobjekt“ aufzulösen.
„Statt die Welt oder sich selbst zu verändern, wäre hier die Notwendigkeit gegeben, das Denken selbst zu verändern. Ein verändertes Denken jedoch würde in ungeahnterweise den Denkenden selbst und seine Welt verändern.“ (Rudolf Kaehr: „Diskontexturalitäten: Wozu neue Formen des Denkens? Zur Kritik der logischen Voraussetzungen der Second Order Cybernetics und der Systemtheorie.“ http://www.vordenker.de/rk/rk_wozu-neue-formen-des-denkens_1994.pdf, S.3)
Im Folgenden möchte ich dieses „veränderte Denken“ einmal mit Hilfe der erwähnten concept-fact iterativity an einem konkreten Beispiel zu der KI-Forschung illustrieren.
3. Konstruktionsfehler: Die falschen „concepts“ der KI-Forschung
Dass die KI noch sehr weit von einer starken – also autonomen – KI entfernt ist, liegt aus meiner Sicht an den momentanen „Konstruktionsfehlern“ der aktuell verwendeten concepts. Das aktuelle Paradigma der KI-Forschung geht gemäß der „Big Data„- und „Deep Learning“-concepts davon aus, dass nur eine hinreichend große Menge an Daten und ein entsprechend elaborierter Algorithmus zu dem gewünschten Ziel führen muss. Die schmalen facts, die diese concepts liefern, habe ich bereits oben erwähnt. Sie führen lediglich zu großartigen Schachcomputern, zu mehr aber auch nicht. Was dieser KI fehlt, sind neue concepts für ein „verändertes Denken„. Diese concepts sind in Wirklichkeit noch nicht einmal neu; sie sind nur nie wirklich zum Zuge gekommen.
Neue concepts für ein „verändertes Denken“
1. concept: „autopoietic system“
Das erste, grundlegende concept stellt das „autopoietic system“ (Paul Bourgine/John Stewart: „Autopoiesis and Cognition“ MIT, 2004) dar, welches auf den grundlegenden Begriff der „Autopoeisis“ (griech. „Selbstherstellung“) des chilenischen Neurobiologen Humberto Maturana zurückgeht. 1960 wird er an das oben erwähnte BCL berufen und beeinflusst maßgeblich mit seinem concept des „autopoietic system“ das von Heinz von Foerster entwickelte concept der „kybernetic second order„. Zusammen mit seinem Kollegen Francisco J. Varela entwickelt er dieses concept der autopoietic systems in ihren bahnbrechenden Büchern „Autopoiesis and Cognition: The Realization of the Living“ (1980) und „Der Baum der Erkenntnis: Die biologischen Wurzeln des menschlichen Erkennens“ (1987) als eine Teilmenge zu den biologischen concepts der „emergenten Selbstorganisation“ von „lebenden Systemen“ zur Konstitution von Kognition weiter fort. Insofern stellt es den Versuch dar, das Phänomen „Kognition“ erklärbar zu machen, in dem es von dem alten, aristotelischen Spruch des Holismus „das Ganze ist immer mehr als die Summe seiner Teile“ ausgeht und als einen selbstorganisierenden, rückgekoppelten Prozess der Evolution mit Hilfe der Mitteln der Systemtheorie zu beschreiben versucht.
Nach Maturana ist ein „autopoietisches System“ ein:
„dynamisches System, das als zusammengesetzte Einheit durch ein Netzwerk von Komponenten definiert wird, die a) durch ihre Interaktionen das Netzwerk der Produktion, das sie selbst hervorgebracht haben, rekursiv regenerieren, und b) dieses Netzwerk als eine Einheit realisieren, indem sie seine Grenzen in dem Raum, in dem sie existieren, festlegen und spezifizieren“ (Maturana 1980, S. 52 f.).
Besonders zu betonen an diesem concept – im Hinblick auf die KI-Forschung – ist hierbei die selbstrekursive, rückgekoppelte Geschlossenheit der Komponenten des autopoietischen Systems bei gleichzeitiger materieller, energetischer und insbesondere informeller Offenheit als a Differenz, aber zugleich auch Interaktionsfähigkeit gegenüber seiner Umwelt. Erst durch diese selbstreferentielle Schließung kann die KI ihre Umwelt auf spezifische Differenzen hin abtasten und hierbei neue Erkenntnisse gewinnen. Nur hierdurch gelingt schließlich eine Steigerung der Komplexität im Sinne einer „Relationierung von Relationen„, die als eine „Beobachtung 2. Ordnung“ fungieren und entgegen den hierbei zwangsläufig auftretenden Paradoxien, weiterhin rekursiv operieren kann:
»Eine autopoietische Maschine ist eine Maschine, die als ein Netzwerk von Prozessen der Produktion (Transformation und Destruktion) von Bestandteilen organisiert (als eine Einheit definiert) ist, das die Bestandteile erzeugt, welche 1. aufgrund ihrer Interaktionen und Transformationen kontinuierlich eben dieses Netzwerk an Prozessen (Relationen), das sie erzeugte, neu generieren und verwirklichen, und die 2. dieses Netzwerk (die Maschine) als eine konkrete Einheit in dem Raum, in dem diese Bestandteile existieren, konstituieren, indem sie den topologischen Bereich seiner Verwirklichung als Netzwerk bestimmen.« (Maturana:“Autopoietic Systems. A Characterization of the Living Organization“ 1975, S. 184 f., Hervorhebung weggelassen)
2. concept: Der Enaktivismus als Philosophie der Verkörperung
Nur durch diese „gekoppelte Differenz“ konstituiert sich das System als „body“ im concept des „embodiment“ im Sinne eines „Enaktivismus“ selber. Der auf dem concept des embodiment basierende Enaktivismus geht auf das Buch „The Embodied Mind“ (Varela et al. 1991) als „Philosophie der Verkörperung“ in Form eines radikalen Konstruktivismus zurück. Leider fehlt an dieser Stelle der weitere Raum, um das concept des Enaktivismus in der vollen Gänze zu erläutern, daher sei hier auf die sehr lesenswerten, weiterführenden Artikel von Myriam Kyselo „Enaktivismus“ (https://docplayer.org/71227750-9-enaktivismus-der-ausdruck-enaktivismus-enactivism-bezeichnet.html) oder von Joerg Fingerhut und Rebekka Hufendiek:“Philosophie des Geistes: Philosophie der Verkörperung. Die Embodied Cognition-Debatte“ (https://www.researchgate.net/publication/320947458_Philosophie_der_Verkorperung_Joerg_Fingerhut_und_Rebekka_Hufendiek_uber_die_Embodied_Cognition-Debatte) verwiesen.
3. concept: Die „4 E’s“
Von weiterem Nutzen ist an dieser Stelle vielmehr die Zusammenfassung der zusätzlichen, implizierten concepts der „4 E’s“ als „extended„, „embodied„, „embededded“ und „enactive“ mind zu einer „situierten Kognition„. Eine in diesem Sinne programmierte, autopoietische KI muss folglich auch mit einer entsprechenden Senso-Motorik ausgestattet sein, die eine Interaktion mit der Umwelt als „extended mind“ (Andy Clark/David Chalmers:“The Extended Mind“,1998 http://consc.net/papers/extended.html) als einen aktiven Externalismus oder Konnektionismus zulässt.
4. concept: „feedback-loops“
Durch diese „Erfahrungsinputs“ erhalten die autopoietischen Algorithmen als „feedback-loop“ ein „propriozeptives Feedback„, was wiederum zu weiteren sensomotorischen Kontrollen und Adaptionen des selbstrekursiven und rückgekoppelten Algorithmencode führt. Auf diese Weise kann die KI autopoietisch ein autonomes concept für ihren „extended“, „embodied“, „embededded“ und „enactive“ „mind“ entwickeln. Die hierbei entwickelten Autokorrelationen des „enactive mind“ der KI können dann zu so etwas wie einer „embededdness“ in Form einer „world-machine“-Relation über die Sensomotorik oder ein „embodiment“ in Form einer „machine-algorithm“-Relation werden. Bezogen auf das „Laufenlernen“ ist dieser Prozess schon sehr genau untersucht worden. Ob hierbei aber tatsächlich so etwas wie ein „Maschinen-Bewusstsein“ entstehen kann, bleibt allerdings noch offen oder vielleicht auch eher zu befürchten und muss unter der 5. Grundthese „Der Strukturwandel von linearen Problemlösestrategien in komplexe Problemlösestrategien“ als „Risikofolgenabschätzung“ noch genauer unter die Lupe genommen werden.
5. concept: Simulation der concepts als concept-fact iterativity
Die vorgenannten concepts können auf jeden Fall aber schon jetzt einmal „in silico“ auf einer entsprechend ausgestatteten KI simuliert werden und somit als facts in Form von empirischen Daten-Outputs wiederum zu einer iterativen Adaption der concepts an die neuen facts führen. So schließt sich auch hier der kontinuierliche feedback-loop der concept-fact iterativity und führt dadurch zu immer elaborierteren Algorithmen der KI und somit vielleicht auch zu einer stärkeren Form der KI.
Hierbei winkt zudem auch noch eine „win-win“-Situation, da als „Nebenprodukt“ zugleich Einblicke in die Konstitution von menschlicher Kognition durch die Simulation auf der Maschine gewährt werden könnten; als Replik auf das Searle-Zitat in der Einleitung. Die hierzu benötigte spezifische Form der Algorithmen als „Herzstück“ oder besser gesagt das „machine-brain“ möchte ich unter der 4. Grundthese: „Der Strukturwandel vom Dualismus in eine Polykontexturalität“ noch ein wenig genauer darstellen. Zunächst aber muss noch der Faktor „Forschersubjekt“ genauer untersucht werden, um ihn bei dieser „Rechnung“ mit einzubeziehen und nicht den alten Konstruktionsfehler des Dualismus wieder fortzusetzen.
3. Grundthese: Der Strukturwandel der vermeintlichen „Objektivität“ in eine „Kybernetik 2. Ordnung“
In der Methodik der wissenschaftlichen Vorgehensweise („Operation„) ging es vermeintlich immer nur darum zu „objektiven“ Aussagen über die Beschaffenheit der Welt („Theorie„) zu gelangen. Hierbei war es stets oberstes Ziel zwischen dem zu erkennenden Objekt („Operand„) und dem forschendem Subjekt („Operator„) einen sehr klaren Unterschied in Form einer Differenz zu bilden.
Das Dilemma von Forschersubjekt und Erkenntnisobjekt
Das Forschersubjekt hatte sich im Prozess der wissenschaftlichen Theoriebildung folglich immer selbst zu eliminieren, um sich nicht den Vorwurf der Subjektivität auszusetzen. Diese absurde – weil logisch nicht zu hintergehende – Vorgehensweise negiert schlicht und einfach den Parameter Operator aus der Operation, um hierdurch den „reinen“ Operanden zu erhalten. Daher wirkt der Vergleich zur Münchhausen-Geschichte, bei der Ross und Reiter sich durch Ziehen am Schopfe aus dem Sumpf befreien können, nicht allzu weit hergeholt.
Der durch diese wissenschaftliche Methodik erzeugte „blinde Fleck“ im „Auge des Beobachters“ oder „tote Winkel“ im „Rückspiegel der Wissenschaftsgeschichte“ wurde von der „community of science“ noch nie wirklich richtig beleuchtet, sondern im Gegenteil bis zum heutigen Tage eher ausgeblendet oder sogar tabuisiert. Die „Objektivität“ der wissenschaftlichen Messergebnisse würde nach diesem methodischen Credo also operatorfrei von Geräten erzeugt, die gleichsam selbständig diese auch noch subjektfrei auswerten und zu Gesetzmäßigkeiten verarbeiten können.
Stimmt, das hört sich an dieser Stelle schon nach „künstlicher Intelligenz“ der Maschinen an.
Die „Kybernetik 2. Ordnung“
Aber genau mit diesem Dilemma der „Subjektivität“ in der wissenschaftlichen Forschung und ihre technologische Überführung als künstliche Intelligenz hat sich das anfangs erwähnte BCL eingehender beschäftigt. Hier wurde zum ersten und zunächst letzten Mal der Einfluss des Forschersubjekts genauer unter die Lupe genommen und ausdrücklich mit in den Forschungsprozess einbezogen. Diese wissenschaftliche Untersuchung der „Beobachtung der Beobachtung“ oder auch der Begriff des „Beobachters“ im Forschungsprozess wurde von von Foerster eingeführt und unter als „Kybernetik 2. Ordnung“ bezeichnet:
„Die Kybernetik stellt den einzigen nennenswerten Versuch des 20. Jahrhunderts dar, eine methodische Metawissenschaft zu etablieren, in der die Trennung zwischen den Geisteswissenschaften und den sui generis subjektlosen Naturwissenschaften im Hegelschen Sinne aufgehoben ist. Oder in anderen Worten ausgedrückt: Die Kybernetik lehnt den dem klassischen Wissenschaftsgefüge impliziten Methodendualismus strikt ab. Ihr Forschungsfeld definiert Ashby folgendermaßen: «Kybernetik untersucht alle Phänomene in Unabhängigkeit ihres Materials, so sie regelgeleitet und reproduzierbar sind.»“ (Eberhard von Goldammer/Joachim Paul:“Die Neuauflage von Das Bewußtsein der Maschinen“ 2002, S. 7)
Der Subjektbegriff in der KI-Forschung
Der Faktor „Mensch/Forschersubjekt“ ist dabei in der Entwicklung der KI eigentlich bisher nur „hinderlich“ gewesen, da das „neurozentristisches Weltbild“ und die „narzisstische Hybris“ des Menschen die KI immer nur als „technologisches Surrogat des menschlichen Gehirns“ gesehen hat und insofern einer echten Autopoiesis der KI immer eher „im Wege“ stand. Der Computer oder das Internet stellen unter diesem Aspekt auch nichts anderes als die Versuche des Menschen dar als seine Vorstellung von der Funktionsweise des Gehirns oder die Konstitution von Bewusstsein auf technologischer Basis nach- oder abzubilden.
Aus diesem Grunde haben wir auch einfach unser bisher sehr bewährtes Konzept des Methodendualismus als Problemlösestrategie für die neue Herausforderungen genommen und nie wirklich hinterfragt. Daher muss ebenso der Subjektbegriff bei der Entwicklung einer starken KI auch einmal einer kritischen Analyse unterzogen werden. Die Dekonstruktion des Subjektbegriffes in der Kybernetik 2. Ordnung musste zwangsläufig eingeführt werden. Zur Lösung des komplexen Problems „das Subjekt als Objekt zu maskieren, um sich selbst zum Thema des Denkens zu machen“ (G. Günther/C. Baldus und Kant) reichte die alte, klassische Logik der Dichotomie im Dualismus nicht mehr aus und musste durch eine vollkommen neue „transklassische Logik“ in Form der Polykontexturalität ersetzt werden.
Die neuen Strukturen als transklassisches, mehrwertiges, ontologisches Ortswertlogik-System
Die in der 2. Grundthese entwickelten Autokorrelationen der concepts lassen sich mit Hilfe des Dualismus in ihrem Strukturenreichtum eben nicht mehr ausreichend abbilden. Daher bedurfte es des oben erwähnten „veränderten Denkens“ eines philosophisch geschulten Logikers, der hierzu aber erst einmal die transklassischen, neuen Strukturen als mehrwertiges ontologisches Ortswertlogik-System für eine neue mehrwertige Stellenwertlogik entwickeln musste; diese Pionierarbeit wurde von Gotthardt Günther geleistet.
Gotthardt Günther hatte von 1961 – 1972 ebenfalls eine Forschungsprofessur an dem besagten BCL inne und brachte von Hause aus eben das entsprechende „Handwerkszeug“ aus der Philosophie und Logik mit. 1933 erwarb er den Doktortitel bei Eduard Spranger mit seiner erweiterten Dissertation „Grundzüge einer neuen Theorie des Denkens in Hegels Logik„. Angeregt durch diese Auseinandersetzung mit Hegels „induzierter Verschiebung des Fokus von den ontischen Relationsgliedern Subjekt und Objekt hin zu den Relationen selbst wird von Günther konsequent fortgeführt.“ (Eberhard von Goldammer/Joachim Paul:“Die Neuauflage von Das Bewußtsein der Maschinen“ 2002, S. 9)
Die Analyse der klassischen, zweiwertigen Logik
Durch diese Analyse der klassische Logik gelangte er schließlich zu dem Ergebnis, dass die bisherige abendländische, aristotelische Ontologie zum Verhältnis von „Denken und Sein“ oder „Subjekt und Objekt“ einer Form des Reduktionismus unterliegt und zur Beschreibung des „Relationenreichtums der Wirklichkeit“ eine zu starke Strukturarmut in Form dieser absoluten Disjunktion (Dualität) aufweist:
„Dass die klassische zweiwertige Logik zur Entwicklung der Theorie sich in ihrer Komplexität ständig steigernden Reflexionsformen unbrauchbar ist, daran dürfte heute nur wenig Zweifel bestehen. Durch ihre Zweiwertigkeit ist ihr äußerste Strukturarmut auferlegt.“(Gotthardt Günther: „Beiträge zur Grundlegung einer operationsfähigen Dialektik“, 1980, S. 137)
In der zweiwertigen, klassischen Logik dieser Welt gibt es nur einen „Ich-Beobachter„, der sich bei seiner Beobachtung quasi „außerhalb der Welt“ stellt und durch die spätere Negation im Prozess der Reflexion zu einer „Form des Objekts“ als „Pseudosubjekt“ gelangt, als „Nicht-Ich„.
Jede Form von Subjektivität soll somit aus dem Denken und dem dazugehörigen Prozess der Reflexion durch den Satz der Identität und dem damit verbundenen Satz vom ausgeschlossenen Dritten strikt eliminiert werden:
„Reflexion als Reflexion, also als Subjektivität, gehört dem Seienden nicht an und ist aus der identitätstheoretischen Thematik ausgeschlossen. Dies endgültig festzustellen ist die Aufgabe des Satzes vom ausgeschlossenen Dritten.“ (Gotthard Günther:“Idee und Grundriss einer nicht-Aristotelischen Logik“, 1959, S. 141)
Die Monokontexturalität der klasssichen Logik als Strukturarmut
Diese Monokontexturalität der klassischen Logik ist – wie der Name schon sagt – extrem strukturarm, da sie zur Aufrechterhaltung der Identität, abgesehen vom Ausschlussprinzip unter systemtheoretischen Gesichtspunkt andere Systeme immer hierarchisch subsumieren muss. Das System in der klassischen Logik kann sich somit nur über seine Differenz zur Umwelt konstituieren. Insofern kann dies keine Basis für autopoietische Systeme, wie eine starke KI, darstellen, da definitiv die Selbstreferenz eines formal kybernetischen Subjekts fehlt:„Man versteht darunter ein System, das eine Umgebung besitzt, sich von ihr absetzen kann und Selbstreferenz besitzt.“ (Gotthard Günther: „Das Problem einer trans-klassischen Logik“, 1965, S. 1294)
Folglich bedurfte es in diesem Sinne der Entwicklung einer transklassischen, polykontexturalen, mehrwertigen Ortswertlogik, um so etwas wie selbstreferentielle Systeme für die Konstitution einer starken KI zu entwickeln. Die Überwindung des klassischen Dualismus hin zu einer transklassischen Polykontexturalität stellt also erst die Basis für die Programmierung entsprechender Algorithmen dar, was ich im Folgenden etwas genauer darstellen möchte.
4. Grundthese: Der Strukturwandel vom Dualismus in eine Polykontexturalität
Das Dual-System der KI-Forschung als punktförmige Struktur des Dualismus
Als „Mutter/Vater“ des ganzen Dilemmas darf wohl mit Fug und Recht der Dualismus und seine weitreichenden Folgen für die Wissenschaftsgeschichte bezeichnet werden, wie ich bereits des Häufigeren in den vorhergehenden Essays versucht habe zu belegen. Wenn man die ontologische Struktur des Dualismus beschreiben möchte, kann man ihn als eine punktförmige Dichotomie in der zuvor beschriebenen, klassischen aristotelischen Logik (positiv/negativ, Subjekt/Objekt, Ich/Welt,…) bezeichnen. Die hierdurch entstehenden dualistischen Geegensatzpaare bilden laut den Hegelschen Logiktexten mit-sich-selbst-identische, widerspruchsfreie, dichotome Punkte, die als Satz vom Grunde somit logische Antipoden darstellen und dadurch ein Drittes ausschließen („Tertium non datur„, TND):
„Die klassische Logik als geschlossene Kontextur ist ein strikt zweiwertiges System, das durch die Prinzipien der irreflexiven Identität, des verbotenen Widerspruchs und des ausgeschlossenen Dritten bestimmt ist. Was dieses System nun zur Kontextur in dem von uns intendierten Sinne macht, ist, dass sie durch keinen höheren Bestimmungsgesichtspunkt von [Dualität in Form von] Positivität und Negativität in der denkenden Reflexion [der platonischen Begriffspyramide] überboten werden kann.“ (Gotthardt Günther:“Die Theorie der ‚mehrwertigen‘ Logik“, in: Berlinger, R. (Hrsg.): Philos. Perspektiven 3,Würzburg 1971, S. 116f, [mit Ergänzungen])
Soweit so gut, schließlich hat dieses logische Konzept über Jahrhunderte hinweg Bestand gehabt und zur Lösung von einfachen, linearen Problemen, die zur Erfassung mit Hilfe des Reduktionismus simplifiziert wurden, seine guten Dienste geleistet. Komplizierte Vorgänge in der Natur wurden durch diese Form des Physikalismus auf wenige zu untersuchende Parameter reduziert, um sie in einem weiteren Schritt zu abstrahieren/zu mathematisieren. Hieraus ließen sich schließlich Gesetzmäßigkeiten ableiten, die zu weiterer Forschung oder technologischer Nutzung führen konnten.
Zur Lösung des Problems der Konstitution von Bewusstsein oder der Implementierung einer starken KI ist das Konzept des Dualismus ob nun als Substanz-/Eigenschafts-/Methodendualismus oder auch nur als Stellenwertsystem allerdings eher kontraproduktiv, da es zu stark simplifiziert und dadurch die vermeintliche Kompliziertheit zwar erfolgreich reduziert, hierbei aber die Komplexität ebenfalls zerstört.
Die Polykontexturalität als transklassische, mehrwertige Ortswertlogik
Gotthard Günther hat mit seiner transklassischen, mehrwertigen Ortswertlogik in Form der Polykontexturalität die Basis für derlei autopoietische Systeme, wie der starken KI, gelegt. Dieses Thema wird von ihm selbst in seinem auch für die Kybernetik 2. Ordnung sehr einflussreichen Buch „Das Bewusstsein der Maschinen: Eine Metaphysik der Kybernetik“ von 1963 behandelt. Das zugrundeliegende Konzept der Polykontexturalität kann ich an dieser Stelle aufgrund des Umfangs leider nur kurz skizzieren. Bei weiterführendem Interesse sei aber auf die zu diesem Thema sehr umfangreiche und instruktive Internetseite „vordenker.de“ von Joachim Paul verwiesen, wo sich unter den Originaltexten von Gotthardt Günther auch hervorragende Erläuterungen zu diesem Thema von Rudolf Kaehr, der bei Gotthard Günther promovierte und Joseph Ditterich finden lassen.
Vereinfacht gesagt, geht es bei dem Konzept der Polykontexturalität, um die Restauration des Subjekt-Begriffes als Distribution für eine neue, logische Form der Identität, die Subjektivität und Selbstreflexivität wieder in den Prozess der Logik einbringt. Die Günthersche Mehrwertigkeit seiner Stellenwertlogik basiert gerade nicht auf einer symmetrischen Modelltheorie mit einer linearen Syntaktik. Vielmehr können für die angestrebte Distribution die polykontexturalen, mehrwertigen Stellenwertsysteme verschiedene semantische Belegungen nicht nur eines „klassischen linearen, symmetrischen Kalküls“ darstellen, sondern als „reculer pour mieux sauter“ gewissermaßen „hinter die Syntaktik“ springen. Die so gebildete „Kenogrammatik“ als gemeinsame „Struktur“ stellt mit ihren zu Morphogrammen zusammenfassbaren Kenogrammsequenzen „lediglich Zeichen von leeren Stellen, die gegebenenfalls mit Werten besetzt werden können oder auch nicht“ (Gotthardt Günther:„Das Problem einer Formalisierung der transzendental-dialektischen Logik“, 1962, S. 90) dar.
„Die Reflexivität der Form auf der Kenoebene und die Produktion von Struktur über ihre Operatoren macht es möglich, auf der Wertebene Systeme zu modellieren, die sich in der Reflexion auf die Umwelt konstituieren.[…] Eine Kenosequenz ist individuelle Struktur, die nicht über Zeichen fixiert ist (Zeichen für Struktur), sondern eine selbstdifferenzierende Leerstellenordnung und als solche Selbstdarstellung von Struktur. Relationen sind so ohne Rückgriff auf die Form der Identität, der Isolation in einer neuen Form (der Relation) ausgedrückt.“ (Joseph Ditterich: „Logikwechsel und Theorie selbstreferentieller Systeme“, http://www.vordenker.de/jditterich/jd_logikwechsel-selbst-referenz.pdf, S. 18)
Trotz der Transformationen der Reflexionszentren bleibt die Struktur der Kenos erhalten, sodass man den klassischen Relationsbegriff um eine „Relativität der Reflexivität“ erweitern kann.
Die Anwendung der polykontextural concept auf die KI-Forschung
Die Dreyfus’sche pessimistische Zirkularität (des hermeneutischen Zirkels) als prinzipielle an Minsky’s Statement: „There is nor reason to suppose machines have any limitations not shred by men“ muss insofern neu gedacht werden, da die Eindeutigkeit und Linearität des Wissens durch das „polykontextural concept“ erweitern werden kann. Die vermeintliche „Unhintergehbarkeit der klassischen Logik als Organon“ der KI-Forschung in Form der Dichotomie „Formalisierbarkeit des Binarismus vs. Nichtformulisierbarkeit ganzheitlicher Komplexionen“ wird durch die Komplexität und irreduzible Mehrdeutigkeit der Polykontexturalität ersetzbar und dadurch für die Entwicklung von neuen, autopoietischen Algorithmen nutzbar gemacht:
„Die polykontexturale Logik bietet so den Sprachrahmen für das Wechselspiel von Programm und Datenstruktur als Operator und Operand. Wegen seiner Verortung in der Polykontexturalität fungiert ein Programm immer zugleich auch als Datenstruktur in einer anderen Lokalität, und eine Datenstruktur fungiert zugleich auch als Operator in einer anderen Kontextur. Geregelt wird dieses Spiel durch eine Auflösung des Identitätsprinzips in eine Dynamik von Selbigkeit und Gleichheit eines Objekts. Die Polykontexturalitätstheorie gibt den Sprachrahmen zur ´Darstellung´ komplexer linguistischer Strukturen und hat weitreichende Konsequenzen für die Konzeption der Operativität formaler Systeme.“ (Rudolf Kaehr:“SUFI’s DRAI: Wozu Diskontexturalitäten in der AI?“1989 auf http://www.vordenker.de/rk/rk_sufis-drai.pdf)
Und damit ist genau das erreicht, was man für die Programmierung der entsprechenden Algorithmen für autopoietische Systeme der starken KI benötigt. Denn genau diese strukturale Offenheit der Polykontexturalität ist eben auch der Grund dafür, dass sie sich so hervorragend als Gegenkonzept zur bisherigen KI-Entwicklung der KI-Forschung und der Bewusstseins-Aufklärung der kognitiven Neurowissenschaften eignet. Die Konstitution von Bewusstsein kann sich beim Menschen als lebendiges System im Sinne des Enaktivismus nur durch eine autonome, adaptive Interaktion mit seinem Körper und seiner Umwelt entwickeln. In Analogie hierzu kann folglich eine KI auch nicht mit fertigen Modulen an vorinstallierten Datenmengen und fixen, vorprogrammierten Algorithmen ausgestattet, so etwas wie Bewusstsein von alleine entwickeln, sondern erst durch die autonome, adaptive, enaktive Interaktion seines senso-motorischen Maschinen-Korpus und seiner dadurch perzeptiv-erfahrbaren Umwelt.
Die Überwindung der strukturalen Konstruktionsfehler der KI-Forschung durch neue concepts
Die strukturalen Konstruktionsfehler in der bisherigen KI-Forschung aber auch in den dazu korrespondierenden kognitiven Neurowissenschaften lag meines Erachtens immer in der Verwendung der falschen, nicht weiterführenden concepts, wie der Annahme eines „Gehirn-Welt„-/“Gehirn-Körper„-/“Bewusstsein-Gehirn„-Dualismus, der nur mit Hilfe eines Reduktionismus zu bewältigen wäre und dann zu automatisch zu „emergenten Phänomenen“ wie „1. Person-Perspektiven“ oder „Qualia“ bei der Maschine oder dem Menschen als Repräsentationalismus führen müsste. Es ging immer im Sinne der „Computer-Analogie“ des Funktionalismus um ein Füttern mit Daten, die mit Hilfe von festen, vorprogrammierten Algorithmen in den „Künstlichen Neuronalen Netzwerken“ der Maschine analog den biochemisch-elektrischen, physischen Prozessen in den „Natürlichen Neuronalen Netzwerken“ des Gehirns nachgebildet werden müssten, damit so etwas wie kognitive Prozesse ausgelöst werden könnten.
Dieses analoge „Computermodell des Geistes“ wird bereits durch den Enaktivismus (Varela et al. 1991) verworfen, da es sich bei der Kognition um Prozesse in lebendigen Systemen handelt, die aufgrund der „Kontinuitätsthese von Leben und Geist“ („continuity thesis of life and mind„) eine Gleichsetzung der Prozesse des Lebens mit den Prozessen der Kognition voraussetzen (Maturana und Varela 1980). Nur durch diesen dynamizistischen, antirepräsentationalistischen Aspekt der autonomen und adaptiven Interaktion (enactivism) als Korrelation zwischen „Gehirn-Körper“ (embodiment) oder „Gehirn-Welt“ (embededdness) kann sich eine situierte Kognition (extended mind) als Prozess der Sinnstiftung (nestedness) als eine Form von Bewusstsein konstituieren.
Die facts zu den neuen concepts
Dass es hierzu auch empirische Befunde gibt, die diese These stützen, wurde von dem Mediziner und Neurowissenschaftler Georg Northoff und seinem Forscherteam vom Brain and Mind Research Institute Ottawa in zahlreichen Studien zu der raum-zeitlichen Konstitution von Bewusstsein belegt und als „temporo-spatial theory of consciousness“ (TTC) formuliert. In diesen Kontext fällt auch die Zusammenarbeit mit dem britischen Neurowissenschafts-Kollegen Karl Friston von dem Institute of Neurology am University College London, der mit seiner Theorie zum „free energy principle“ als Konzept zur energetischen/entropischen „Homöostase„ die Grundlagen zur Formulierung von kognitiven Systemen auf autopoietischer Basis geschaffen hat.
Das hierbei entwickelte „ecological-enactive“ concept des „Bayesian predictive coding/processing“ wird häufig in Verbindung mit der möglichen Mathematisierung über die „Markov blankets“ (The Markov blankets of life: autonomy, active inference and the free energy principle https://royalsocietypublishing.org/doi/10.1098/rsif.2017.0792) gebracht.
Dieses „Skilled Intentionality Framework“ (SIF) (Bruineberg and Rietveld 2014; Ramstead u.a. (2016); Kirchhoff (2015); Gallagher und Bower (2014)) bildet aus meiner Sicht einen sehr vielversprechenden Kandidaten für den „missing link“ zur KI-Forschung. In dieser Hinsicht wird (leider) noch viel zu erwarten sein, da dieser Forschungsbereich noch in den „Kinderschuhen“ steckt, aber auch schon beachtliche „Fortschritte“ in Richtung einer starken KI gemacht hat. Dadurch stellt sich unweigerlich die drängende Frage, ob man eine solche derartige, möglicherweise bedrohliche Technologie, wie die starke KI, überhaupt möchte und falls ja, wie sie zu handhaben sei. Damit möchte ich mich im abschließenden Kapitel zur „Risikofolgenabschätzung“ noch eingehender beschäftigen.
5. Grundthese: Der Strukturwandel von linearen Problemlösestrategien in komplexe Problemlösestrategien
„Norbert Wiener ergänzte 1961 sein Kybernetik-Grundlagenbuch mit zwei weiteren Kapiteln: Über lernende und sich selbst reproduzierende Maschinen (Norbert Wiener: „Kybernetik. Regelung und Nachrichtenübertragung im Lebewesen und in der Maschine“ 1963, S. 241–256[…]) Er greift darin die Magie von Goethes Zauberlehrling auf, und er äußert sich sehr kritisch zu den Wohltaten der lernenden Maschine:
„Wenn wir eine Maschine programmieren, um einen Krieg zu gewinnen, müssen wir gut nachdenken, was wir mit Gewinnen meinen. […] Wir können darin nur zu unserem unmittelbaren, äußersten und unentrinnbaren Verderben irren. Wir können nicht erwarten, daß die Maschine uns in solchen Vorurteilen und gefühlsmäßigen Kompromissen folgt, die uns in die Lage setzen, Zerstörung mit dem Namen des Sieges zu benennen. Wenn wir nach dem Sieg fragen und nicht wissen, was wir mit ihm meinen, werden wir das Gespenst finden, das an unsere Tür klopft.“(https://de.wikipedia.org/wiki/Norbert_Wiener#cite_note-Kybernetik-6)
Die Entwicklung einer starken KI bedeutet eben auch in Konsequenz ein autopoietisches „lebendiges“ System in silico zu erschaffen, das aus oben genannten Gründen möglicherweise auch in der Lage ist oder sein wird, so etwas wie ein „Maschinen-Bewusstsein“ über sich selbst und seine Umwelt zu entwickeln. Aus der anthropozentrischen Sichtweise unseres momentanen neurozentristischen Weltbildes mag dies als reine „science fiction“ wirken. Doch warum soll so etwas wie Bewusstsein nur als Exklusivrecht der menschlichen Spezies vorbehalten sein, wenn doch die gleichen Rahmenbedingungen und Korrelationen gegeben sind?
Selbst wenn diese Frage momentan noch hypothetisch klingt, wäre ein Strukturwandel von linearen in komplexe Problemlösestrategien auch allgemein sehr sinnvoll, da man hierdurch zu besseren, präziseren Heuristiken als Risikofolgenabschätzung im Dörner’schen Sinne kommen könnte. Wir haben wahrscheinlich nur „einen Versuch frei„, daher sollte man sich im Vorfeld besser Gedanken machen als hinterher mit den Konsequenzen leben zu müssen.
Der „Homo Deus“ als Dystopie von Morgen
Der Historiker und Yuval Noah Harari zeichnet in seinem Bestsellerbuch „Homo Deus: Eine Geschichte von Morgen“ (2020) ein eher düsteres, dystopisches Szenario der KI, in der deren revolutionäres Potenzial nicht mehr durch die Politik kontrolliert wird, sondern die Gestaltung der neuen Gesellschaftsutopien, besser gesagt –dystopien den „Global Playern“ und „Technologie-Tycoonen“ aus dem amerikanischen Silicon Valley und dem chinesischen Shenzhen überlassen werden. Harari nennt es den «Vertrag der Moderne»:„Die Menschen stimmen zu, auf Sinn zu verzichten, und erhalten im Gegenzug Macht.“ (Yuval N. Harari: „Homo Deus: Eine Geschichte von Morgen“, S. 273)
So hat erst vor Kurzem der Tesla-Gründer Elon Musk ein Start-up-Unernehmen aufgekauft, „das an Hirnimplantaten forscht, mit denen es möglich sein soll, das Gehirn mit Computern zu vernetzen. Der Mensch, ist Musk überzeugt, müsse sich langfristig zum Cyborg aufrüsten, sonst werde er inmitten der künstlichen Umgebungsintelligenz überflüssig.“ (Adrian Lobe: „Ist die Menschheit bald am Ende …“ https://www.zeit.de/kultur/literatur/2017-04/homo-deus-yuval-noah-harari-buchkritik)
„Im 21. Jahrhundert werden wir wirkmächtigere Fiktionen und totalitärere Religionen als jemals zuvor schaffen. Mit Hilfe von Biotechnologie und Computeralgorithmen werden diese Religionen nicht nur jede Minute unseres Daseins kontrollieren, sondern auch in der Lage sein, unseren Körper, unser Gehirn und unseren Geist zu verändern und durch virtuelle Welten zu erschaffen.“(Yuval N. Harari: „Homo Deus: Eine Geschichte von Morgen“)
Harari blickt hierbei ganz unaufgeregt auf die Entwicklung von Computeralgorithmen einer starken KI als Manifestation eines Dataismus und sieht in der Erschaffung von biotechnologischen Mensch-Maschine-Schnittstellen von Cyborgs in Form eines Transhumanismus auch nichts anderes als den konsequenten, weiteren Schritt in der Evolution der Menschheit. In diesem Zusammenhang spricht er von der „großen Entkopplung„.
Die momentanen Möglichkeiten der aktuell-schwachen KI als „non-fiction“
Dass es sich hierbei eben keinesfalls um eine reine „science fiction„, sondern „non-fiction“ handelt, kann man schon jetzt an den gegebenen Möglichkeiten der aktuell-schwachen KI zum Beispiel in Form der bereits erwähnten „People Analytic Systems„/“Data Mining„(Google, Facebook & Co.)/“Microtargeting„(„Cambridge Analytica„)-Projekte in der Manipulation von demokratische Wahlen erkennen. Das Ergebnis des „Brexit-Votums“ vom „European Union Referendum Act 2015“ oder bei der amerikanischen Präsidentschafts-Wahl vom 8. November 2016 lassen eindeutige Rückschlüsse auf eine nachweisbare Manipulation durch die oben erwähnte KI zu.
Die Hacker-Angriffe durch „Bots„, „Cyberwar„-Szenarien oder „Drohnenkriege“ als neue Form der militärischen Auseinandersetzung sind ebenfalls nicht sonderlich dazu geeignet von „vertrauensbildenenden Maßnahmen“ hinsichtlich der Entwicklung einer starken KI zu sprechen.
Das Ganze wird zusätzlich noch durch den Aspekt verschärft, dass eine starke KI, als ein autonomes, autopoietisches System, wie ich es zuvor versucht habe zu skizzieren, aus meiner Sicht durchaus möglicherweise in der Lage sein könnte, so etwas wie eine „1. Person-Perspektive„, also ein „Maschinen-Bewusstsein“ zu entwickeln. Da sich aber schon allein das embodiment und das hiermit implizierte embededdness sich doch sehr radikal von der menschlichen Konstitution von Bewusstsein unterscheidet, kann man mit sehr großer Wahrscheinlichkeit auch nicht von einem „humanoiden Bewusstsein“ sprechen, sondern von einer hiervon sehr differierenden Form.
Um so wichtiger erscheint somit die Forderung nach expliziten, ethischen und humanistischen Grundsätzen für die Programmierung einer solchen autonomen, starken KI, da man nach der erfolgreichen Automatisierung wahrscheinlich keinerlei weitere Kontrollmöglichkeiten mehr besitzen wird hier noch verändernd einzugreifen. Es bedarf folglich eines vorgeplanten „Reset-Knopfes“ für eine starke KI. Dies zu gewährleisten bedarf es aber schon einer gewissen Risikofolgeabschätzung für die Implementierung einer so revolutionären, omnipotenten Technologie. Einen ersten Versuch in diese Richtung wurde von Isaac Asimov in seinen 1942 erschienenen „Robotergesetzen“ formuliert.
Darauf aufbauend möchte möchte ich im Folgenden noch einen Schritt weiter gehen und einmal exemplarisch am Beispiel der KI-Entwicklung mögliche Heuristiken im Sinne von komplexen Problemlösestrategien entwickeln, die eine Risikofolgenabschätzung greifbarer machen. Ich möchte dies auch ausdrücklich im verallgemeinerten Sinne für andere Wissenschaftsbereiche der „Neuen Wissenschaft“ mit einer eigens implementierten, einzuhaltenden Ethik verstanden wissen.
Das concept des „komplexen Problemlösens“ zur Risikofolgenabschätzung
Diesen komplexen Problemlösestrategien liegt das concept des „komplexen Problemlösen“ des Psychologen Dietrich Dörner zugrunde, dass er in seinem Standardwerk „Die Logik des Misslingens – Strategisches Denken in komplexen Situationen“ von 1989 formuliert hat.
«Komplexität erzeugt Unsicherheit. Unsicherheit erzeugt Angst. Vor dieser Angst wollen wir uns schützen. Darum blendet unser Gehirn all das Komplizierte, Undurchschaubare, Unberechenbare aus. Übrig bleibt ein Ausschnitt – das, was wir schon kennen. Weil dieser Ausschnitt aber mit dem Ganzen, das wir nicht sehen wollen, verknüpft ist, unterlaufen uns viele Fehler – der Misserfolg wird logisch programmiert.» (Rheinischer Merkur)
Diese fehlerhafte Heuristik besitzt eine lineare Problemlösestrategie, die ich zuvor anhand des Reduktionismus und dem damit einhergehenden Dualismus in der wissenschaftlichen Methodik versucht habe nachzuweisen. Als klassisches Beispiel einer fehlerhaften Risikofolgenabschätzung dient sehr häufig die Atomenergie und ihre bis zum heutigen Tage andauernden, negativen Nachwirkungen. Das Beispiel weist alle Eigenschaften einer linearen Problemlösestrategie auf, da man ausgehend von dem Problem A (fehlende Energie) auf linearem Wege nach einer Technik oder einer Strategie B (Atomenergie) gesucht hat, die zu einer Lösung C (unerschöpfliche Energieversorgung) führen sollte. Hierbei hat man aber nicht in Betracht gezogen, dass bei einer solch simplifizierten, linearen Lösung für das Problem A über die Strategie B wiederum neue Probleme A1 bis An („Polytelie„) generiert werden (wie z. B. die Wiederaufbereitung oder Lagerung des Atommülls, die Folgekosten, die Umweltverschmutzung, die Risiken, etc. pp).
Um aber diese Fehler bei der KI-Entwicklung nicht von Neuem zu begehen, wären hier komplexere Problemlösestrategien gefragt, die z B. Dörner als „Konstrukt der Operativen Intelligenz“ auf Seiten des Akteurs wie folgt beschreibt:
-
- Informationsgewinnung und -integration
- Zielausarbeitung und Balancierung
- Maßnahmenplanung und -entscheidung
- Selbstmanagement
Auf das Beispiel der KI-Entwicklung bezogen bedeutet dies, dass man bereits schon im Vorfeld durch die „Informationsgewinnung und -integration“ alle eventuell auftretenden Probleme A1 bis An zu antizipieren versucht. Daraufhin versucht man in der „Zielausarbeitung und Balancierung“ mögliche Techniken t1 bis tn gegeneinander abzuwägen, um sie dann in der „Maßnahmenplanung und -entscheidung“ als eventuelle Strategien s1 bis sn als Grob- oder Feinziel oder Nah- oder Fernziel zu formulieren. Die Umsetzung als zu erwartende Lösungen L1 bis Ln müssen in dem sich selbst-evaluierenden Prozess des „Selbstmanagement“ immer wieder auf ihre Effizienz aber auch Risiken überprüft werden. Durch diesen „feedback-loop“ können die komplexen Problemlösestrategie zu einer immer besseren Heuristik ausgearbeitet werden. Und erst, wenn man diesen theoretischen Prozess mehrfach simuliert und durchlaufen hat, kann man hergehen und eine praktische Umsetzung in Angriff nehmen. Als bildliche Analogie kann man dies mit einem System von ineinander greifenden, verschiedenen Zahnrädern vergleichen, bei denen das Drehen an einem Rädchen zum Drehen der anderen Rädchen führt (s. „Chaos-Theorie„). Die polykontexturale Logik stellt hierzu ein hervorragendes Instrument zur Veranschaulichung dar, um diese ineinandergreifenden, selbstrekursiven Interaktionen und Relationen als komplexes System abbilden zu können. Eine Möglichkeit derlei komplexe Systeme und deren Risikofolgenabschätzungen bildlich abzubilden und dann überprüfen zu können, könnte zum Beispiel die von Gerhard G. Thomas entwickelte „Theorie der Permutographen“ darstellen.
Diese Eigenschaften komplexer Systeme, die bei den zu entwickelnden, komplexen Problemlösestrategien miteinbezogen und berücksichtigt werden müssen, sind:
- Anzahl der Elemente (einfache vs. komplexe Probleme) – Komplexität
- Anzahl und Dichte der Verknüpfung zwischen den Elementen (gering vs. hoch vernetzte Probleme) – Vernetztheit
- Anzahl der Ziele (Probleme mit einem und Probleme mit mehreren evtl. konfligierenden Zielen) – Polytelie
- Bekanntheit der Verknüpfungen und der Wirkungsbeziehungen (transparente vs. intransparente Probleme) – Intransparenz
- Ausmaß der Eingriffsabhängigkeit des Systems (statische vs. dynamische Probleme) – Dynamik
Diese Faktoren komplexer Systeme – wie sie die starke KI nun einmal darstellt – müssen bei der Entwicklung komplexer Problemlösestrategien berücksichtigt werden, um bessere Heuristiken zur Risikofolgeabschätzungen zu gewinnen. Diese Forderung möchte ich ausdrücklich nicht nur in Hinblick auf die KI-Forschung, sondern auf die gesamte Wissenschaftsethik einer „Neuen Wissenschaft“ mit einer „Neuen Metaphysik“ verstanden wissen. Denn welche Auswirkungen der in einem Buch „Data-ism: The Revolution Transforming Decision Making“ (2015) von Steve Lohr untersuchte, besagte Dataismus jetzt schon auf die Gesellschaftsformen und die Medienwirklichkeit hat, beabsichtige ich in meinen nächsten Essay „Die Dialektik der Aufklärungen“ unter Einbeziehung von Neil Postmans „Die zweite Aufklärung. Vom 18. ins 21. Jahrhundert“ (1999) noch eingehender untersuchen.
Über 8000 Worte mag ich meinen Respekt zollen! Danke für die Fülle an Informationen und Gedanken, Dirk!
Du weißt, dass ich persönlich eine starke KI anzweifle, wie du es andeutest, ein bedrohliches Eigenleben entwickeln zu können. Daher konzentriere ich mich in guter, alter Manier des Kritischen Rationalismus auf Argumente, welche die Potenz hätten, falsifizierend zu wirken. Zentral ist in deiner Argumentation, dass es Programme gäbe, welche selbst lernend eine Eigendynamik im Sinne eines autopoietischen Systems realisieren, was der hinreichende Schritt zu einer starken KI wäre.
Im ersten Moment – auch mit Kenntnis der Informatik – würde ich hier gern Zweifel ansetzen: Was unterscheidet diesen „dynamischen“ Algorithmus von jedem anderen Algorithmus im Sinne einer schwachen KI, „Entscheidungen“ durch Gewichtungen in neuronalen Netzwerken herbeizuführen? Ab wann handelt es sich um ein autopoietisches System, welchem ich mehr Potenz zu einem künstlichen Bewusstsein als jedem anderen Algorithmus zutrauen sollte?
Lieber Christian,
ich danke Dir vielmals und muss Dir ebenfalls Respekt zollen, dass Du die Mühe auf Dich genommen hast und Dich durch die „8000 Worte“ meines „neuen Pamphletes“ durchgearbeitet hast.
Dies ist schon mal eine große Leistung für sich, aber Du stellst natürlich direkt auch die richtige „Gretchenfrage“ zum Thema in der „guten, alten Manier des Kritischen Rationalismus“, wie ich es mit dem Algorithmus „halte“. Dies ist in der Tat zusammen mit der Entwicklung der entsprechenden Sensomotorik für einen adäquaten Enaktivismus der situierten Kognition eines der Basiselemente als „hinreichender Schritt“ zur Konstitution einer autopoietischen, starken KI.
Ich habe diese Aspekte zur Entwicklung eines „dynamischen Algorithmus„, wie Du ihn nennst, in meinem Text als extra ausgespart, da ich potentielle LeserInnen nicht noch mehr mit diesen technischen Details verschrecken wollte. Da Du ja aber vom Fach bist, möchte ich gerne ein wenig präsziser auf Deine berechtigten Fragen eingehen. Ich beziehe mich hierbei explizit auf den zu diesem Thema sehr lesenswerten Artikel „Die Neuauflage von Das Bewußtsein der Maschinen“ (2002) von Eberhard von Goldammer und Joachim Paul der auf ebenfalls sehr spannenden Webseite „vordenker.de“ https://www.vordenker.de/ggphilosophy/dbdm_einfuehrung.pdf erschienen ist und sich auf das Buch Gotthardt Günther „Das Bewußtsein der Maschinen“ (1963) http://www.vordenker.de/ggphilosophy/gg_bewusstsein-der-maschinen.pdf bezieht. Wirklich super spannend und sehr lesenswert!
In dem besagten Artikel von Goldammer/Paul (2002) wird die „Theorie Polykontexturaler Systeme“ (S. 12) genauer erklärt. Die moderne KI-Forschung habe sich an den „Eigenschaften lebender Systeme“ als „strukturelle Voraussetzung einer Theorie lebender Systeme“ zur Entwicklung von „kognitiven Fähigkeiten“ bei der KI zu orientieren:
„Lebende Systeme sind kognitive Systeme, und Leben als Prozeß ist ein Prozeß der Kognition. Diese Aussage gilt für alle Organismen, ob diese ein Nervensystem besitzen oder nicht.[40] (2)
Diese Aussage wird noch ergänzt durch die Feststellung, daß lebende Systeme nicht nur autonom, sondern darüber hinaus auch noch organisatorisch geschlossen seien:
Closure Thesis:
Every autonomous system is organizationally closed…. organizational closure is to describe a system with no input and no output … [41] „
Dieses „autonomen Modelle“ der aktuellen KI-Foschung werden mit Hilfe von „autonomen Agenten“ versucht zu realisieren. Hierbei tritt dann allerdings (klassisch)logischerweise das „Problem der Geschlossenheit“ auf, da diese I/O-Systeme als „physikalisches System“ automatisch in Konflikt zu seinem eigenen „Prozeß der Kognition“ gerät, aufgrund der „kybernetischen Definition„:
„Ein kognitives System ist ein lebendes (oder technisches) System, welches in der Lage ist, zwischen sich und seiner Umgebung (aus eigener Leistung) eine Unterscheidung treffen zu können.“
Ein Roboter mit einer starken KI benötigt folglich eine „Selbstrückbezüglichkeit“ und „Selbstreferentialität„, um „sogenannte mentalen Prozesse, wie Erkennen (Kognition) und Wollen (Volition) oder wie Lernen,[…] entwickeln zu können. Dies führt unweigerlich zu „logischen Zirkularitäten“ oder „logischen Widersprüchen„, zu deren Lösung es nur 3 Möglichkeiten gibt: „a) Man ignoriert das Problem, wie es die heutige KI-Forschung tut, oder b) man leugnet das Problem – das gibt es auch! -, oder c) man versucht die Logik und Mathematik entsprechend zu erweitern.“ (S. 14)
Und jetzt komme ich zu Deiner Frage zu diesem „dynamischen Algorithmus“, da man hierzu die besagte polykontexturale, transklassiche Logik von Gotthardt Günther benötigt.
Bei dem „Problem der Selbstreferentialität“ in den „Modellen der künstlichen neuronalen Netzwerken“ geht die bisherige KI-Forschung immer von entsprechenden „Datenfiltern“ aus, bei der folgendes Procedere abläuft:
„Legt man nun das Muster_1 am Eingang des Netzes an, so werden die Verbindungen zwischen den gezeigten Knoten im Netz durch den Algorithmus_1 (bewirkt durch die Anweisungen des Computer-Programms, die wir mit O1 bezeichnen wollen) solange verändert, bis am Ausgang das Muster_1 erscheint. Nach diesem Adaptionsprozeß, der von den Neuroinformatikern auch als Lernprozeß[45]1 oder je nach Modell als Selbstorganisation bezeichnet wird, kann von dem Netz nun auch ein gestörtes Muster noch richtig erkannt werden.“ (S. 15)
Ein „Umkehrungslernen„: „Lernt das Netz etwas über die Umkehrung, also über den Wechsel von Muster_1 nach Muster_2, und zwar ohne daß dies vorprogrammiert wurde? D.h. erreicht das Netz die Adaption der einzelnen Muster in kürzerer Zeit?“ (S. 15) beherrschen diese schwachen KI-Systeme noch nicht. Hierzu bedarf es des „Prozeßes der Adaption des Netzes„:“Es müssen mindestens zwei Algorithmen3 simultan parallel miteinander agieren, um den Prozeß des Umkehrungslernens zu bewerkstelligen.“(S. 16).
Dies entspricht dem klassischen Modelle einer „TuringMachine (TM)“ als „universelles Maschinenmodell„, das auf der bisherigen Vorstellung eines klassischen Algorithmus als eine „endliche Folge von eindeutig bestimmten Elementarvorgängen, die den Lösungsweg eines Problems oder den Ablauf eines Prozesses exakt und vollständig beschreiben.“ Jeder algorithmische Prozess auf der klassischen TuringMaschine muss zwangsläufig „sequentiell“ mit Hilfe der „Konzeption der natürlichen Zahlen, der Peano-Zahlen“ ablaufen. Damit widersprechen die TuringMaschinen, wie sie die KI-Forschung derzeit entwickeln, automatisch dem zuvor genannten Konzepten der „Selbstrückbezüglichkeit“ und „Selbstreferentialität“ der zur Entwicklung einer starken KI aufgrund der „simultanen Parallelität von Prozessen und Algorithmen“ benötigt werden:
„Auf der Grundlage des Turingschen Paradigmas (7), welches besagt, daß der gesamte Prozeß (6) sequentiell auf eine TM abgebildet werden kann, ist die Forderung, daß der Algorithmus sich eigenständig verändern soll, unsinnig, d.h. es ist eine prinzipiell nicht erfüllbare Forderung. Wenn wir im Bilde des Turingschen Funktionsschemas bleiben, dann kann sich eine TM nicht aus sich heraus verändern, ohne – um es einmal etwas salopp auszudrücken – daß sich die TM in Folge eines Umbaus ihrer selbst vorübergehend abstellt, nach dem Motto, wegen Umbau vorübergehend geschlossen.“ (S.18)
Zur „Selbstorganisation von Algorithmen und Daten“ würde man folglich „simultan parallel inter-agierende TMs“ benötigen, die aber im Sinne des Holismus oder als „Anti-Reduktionismus“ auf der „Funktionalität der Gesamtheit“ basieren, also nicht dem mereologsichen Fehlschluss unterliegen, den Kurt Gödel 1931 („Unvollständigkeits-Theoreme„) für die Arithmetik aufgezeigt hat. Es bedarf einer „Polylogischen Maschine (PLM)“ im Güntherschen Sinne, die aufgrund ihrer Polykontexturalität diesen scheinbaren logischen Widerspruch zu lösen hilft.
Für die verschiedenen „Strukturbereiche„, die Kontexturen der Adaptions- und Kognitions-Prozesse der starken KI, benötigt man „inter-kontextural wirkende Operatoren„:
„Solche Operatoren sind durch die Transjunktion gegeben, aber auch die inter-kontexturalen Negationen von Kontexturen sind logische Operatoren, die nur inter-kontextural, also zwischen verschiedenen Kontexturen einen Sinn ergeben. Solche Operatoren kann es in einer mono-kontexturalen Logik nicht geben. Alle uns heute bekannten Logik-Konzeptionen – wie die Aussagenlogik, die Prädikatenlogik erster oder höherer Stufe, die Modal- oder die Zeitlogik, die probabilistischen Logiken, die nicht-monotonen oder die parakonsistenten Logiken usw. – gehören in die Klasse der mono-kontexturalen Logik-Konzeptionen. Die Polykontexturallogik kann man als einen vernetzten parallelen Kalkül auffassen, der notwendig, jedoch noch nicht hinreichend ist, um simultane Parallelität mit Hilfe von TMs im Sinne der oben benannten PLM zu realisieren.“ (S. 19)
Das Konzept der „linearen Sequenz der natürlichen Zahlen“ wird in eine „mehrdimensionale Leerstellenschriftstrukur“ in den entsprechend zu programmierenden Algorithmen umgewandelt, „in welcher die Kontexturen jeweils eingeschrieben und damit indiziert werden können“:
„Diese Leerschriftstellenstruktur fundiert sich in der Keno- und Morphogrammatik und spiegelt sich in dem polykontexturalen System der Kenoarithmetik sowie den qualitativen Zahlen wider.[50] Letztere sind flächige Zahlen, bei denen nicht der Wert, also die Quantität von Bedeutung ist, sondern bei denen die Struktur, das Muster jeweils charakteristisch ist. In der Theorie der Polykontexturalität sind es demzufolge nicht die Werte, wie in der klassischen Logik, die von Bedeutung sind, sondern die Leerstrukturen, die Kenogramme, die Muster, die mit ‚Werten‘ (Indizes) besetzt (indiziert) oder eben nicht besetzt (indiziert) werden können.“ (S. 19)
Rudolf Kaehr als Schüler von Gotthardt Günther hatte diese „Leerschriftstellenstruktur“ weiter formalisiert. Gotthardt Günther hatte mit seiner in den 70er Jahren entwickelten „Theorie der Polykontexturalität“ das theoretische Fundament für die von Kaehr weiter formalisierte „Keno- und Morphogrammatik“ eines „vernetzten Kalküls der Polykontexturallogik“ gegeben, auf dessen Basis man nun heute entsprechende polylogische Maschinen (PLM) entwickeln kann, die auch den Namen „starke KI“ verdienen könnten. Hierzu könnte Dich auch das Kapitel „Cognition and Volition – Erkennen und Wollen“ (S. 20-22) auch noch interessieren, da es hier um die von Dir erwähnten „Entscheidungen” durch Gewichtungen in neuronalen Netzwerken herbeizuführen“ geht.
Ich musste das Ganze aufgrund der gegebenen Kürze ein wenig eklektizistisch zusammenfassen, stehe Dir aber für weitere tiefergehende Nachfragen gerne zur Verfügung.
Vielen Dank für Dein Interesse und hoffentlich habe ich mit dem Ganzen nur Unrecht 😉
Liebe Grüße
Dirk
Dear R. B.,
thank you very much for your inquiry, but first of all I would be interested to know why you could not access my essay. Were there any technical problems or did you overlook the Google Translater? This is a shame, since I went into detail in the said essay on your question. But to answer your question briefly.
Yes, I am convinced that machines in the form of „strong AI“ will also be able to develop a „1st person perspective“ or something like „self-awareness“. I would like to give the following reasons for this:
„Consciousness in a 1st person perspective“ in my opinion nothing more than a structural „brain-body-environment“-relation (Northoff), which could develop in the course of evolution in the sense of an enactivism (Varela/Maturana).
An autopoeitic machine with corresponding sensorimotoric, self-referential feedback-processes can at some point recognize itself autonomously and self-learning on the basis of polycontextural algorithms.
Unfortunately, I cannot say exactly what such a „machine consciousness“ might look like. But one thing is for sure, due to the different „embodiment“ and „embededdness“ of humans, it will definitely not be comparable to human consciousness. For this reason, I also tried to point out the possible dangers of such a strong AI in the sense of a „risk impact assessment“.
I hope I was able to answer your question and thank you for your interest.
Many greetings
philosophies.de
Dear Mr. R. B.,
thanks for your interest.
As I said, I have a „Google Translator“ (also a weak form of AI, by the way) on my website that translates reasonably well into English (I think after the investment of 12 billion US dollars in Apple it should actually work somehow; ;-).
But to your question. Yes, from my point of view nothing speaks against the fact that „machines“ can also develop a „self“, which must definitely be differentiated from a „human self“.
In my opinion, this also causes the problem mentioned that „emotions such as empathy or sympathy and therefore behave ethically“ cannot necessarily be expected.
For this reason I continue to appeal very strictly for a risk assessment.
Many greetings
philosophies.de
Dear J. S.,
first of all, I am very sorry that I am only now getting in touch with you, but I have not had time yet.
I read your remarkable comment with great interest, as it speaks completely „from my soul“. I see it absolutely exactly as you do. The current design flaws in AI research lies, in my opinion, in:
to pursue the „Big Data“ concept too strongly in „Deep Learning“ instead of focusing on autopoeitic systems,
„transferring“ the supposed „subject-object dualism“ to the machine in the sense of a neurocentric view,
and 3. to use sequential „Turing machines“ with a classical „tertiary-non-datur“ logic to emulate cognitive processes, instead of relying on polylogical machines with a polycontextural logic (Günther Gotthardt), which can correspond to 2nd order cybernetics.
But maybe it is better this way, because I don’t know why one should have an interest in a strong AI
Thank you for your interest and
many greetings
philosophies.de
Dear W. S.,
thank you for your remarkable comment, which I read with great interest.
Yes, that is „unfortunately“ true that „a solid education in computer programming will prepare you to know next to nothing about how the brain or the mind work“. I also think that real „input“ to cognitive neuroscience to elucidate the constitution of consciousness is more likely to come from the field of AI research, since „the popular understanding of the function of the brain is absolutely wrong“.
However, I do not think that „The brain is the device within th psyche that enables the image of an object or subject to come to consciousness.“ It is rather a matter of developing an autopoietic, enactive system with senso-motoric feedback mechanisms corresponding to a real 2nd order cybernetics. Then it will probably work „unfortunately“ with „cognitive operational core of the psyche“ in the machine.
Thank you for your interest and
many greetings
Dear W.,
thank you very much for your very detailed comment, which I read with great interest and would also like to acknowledge accordingly, if it is permitted here.
Yes, that is absolutely correct. There is a „hype and promises of AI since the mid 1980s“ taking place as there is a lot of money to be made in this area. An excerpt from my essay „The system needs new structures – not just for/against Artificial Intelligence (AI) (https://philosophies.de/index.php/2021/08/14/das-system-braucht-neue-strukturen/):
„This area of strong AI in the context of „artificial neural networks“ (KNN) is also often referred to as „Deep Learning“. A technically usable application of „Deep Learning“ by artificial neural networks is found in the autonomous and self-learning algorithm „RankBrain“ developed by Google, which has led to an improvement of search queries. The relevant search results are automatically adapted to the user’s search behavior by a kind of „predictive coding“, which thus helps to optimize the „search range“ of the search query. The parameter for the „knight’s stroke“ to „artificial intelligence“ is always gladly mentioned in connection with the Turing test. […]
The currently most promising contender for the „Turing trophy“ seems to be the very innovative AI language model „GPT-3“ from „Open AI“. GPT-3 („Generative Pretrained Transformer 3“) is a huge artificial neural network trained with 570 gigabytes of text from the Common Crawl data corpus (2016-2019); that’s almost a trillion words. The neural network consists of 175 billion parameters, which was trained with text. Reportedly, the training of this model alone has already consumed 14 million US dollars. However, this immense sum will probably be amortized again very quickly, since Microsoft announced on September 22, 2020 that they have acquired an exclusive license to use GPT-3. [….]
The so-called „Blue Brain Project“ (BBP) represents an attempt to artificially reproduce the brain in its functionality with the help of the determined measurement data from the various measurement instruments mentioned above. At the Brain Mind Institute in Lausanne, one of the 100 fastest computers in the world, a Blue Gene supercomputer with 360 teraflops, has been acquired in order to combine the findings obtained in a gigantic computer model. The project is based on the concept of the „artificial neural network“ (KNN), which aims to simulate a neocortical column at the cellular level and thus ties in with the „Humain Brain Project“ (HBP). The artificial „in silico“ replication of the human brain with its 100 billion neurons (brain cells) and its 100 trillion synapses is the ambitious goal. […]
But all these attempts have one thing in common, the wrong goal. It is not about the complexity and elaborateness of the algorithms and the quantity of data. Rather, it is about complexity and quality. Therefore, the simulations and emulations of AI research are also doomed to fail from the start. If I may still go into detail here on your mentioned points.
To (1): Yes, „intelligence“ is „undefined“ in the sense of an information technological quantity. But from my point of view it is important that it must be an enactive, autopoietic system with senso-motoric feedback mechanisms to be able to speak of a „strong AI“.
To (2): No, I must unfortunately contradict this. „Individual human intelligence is“ HOWEVER „the key to successful modeling of human performance“. I see it rather the other way around, AI is a way to simulate and emulate in silico the constitution of consciousness – I explicitly separate from the term „intelligence“ here – since consciousness is actually nothing special.
To (3): Yes, that is unfortunately true. From the point of view of the history of science, psychology got caught between the „fronts“ of the humanities and the natural sciences, and it still has considerable problems to emancipate itself with its own position. I would rather plead for interdisciplinarity here anyway, since „going it alone“ has only ended in „dead ends“.
To (4): Yes, I absolutely agree with you. I have noticed that especially in the Anglo-American language area „behaviorism“ is apparently still not overcome and here especially reductionism, physicalism and functionalism have a lot of followers. In my opinion, a way out of the dilemma could be the input via neurophilosophy, since here new, interdisciplinary ways are taken, which would benefit both disciplines – cognitive neuroscience and philosophy.
Therefore I can wholeheartedly support your suggestion: „If the AI began a study of the full scope of human performance, it would open up major opportunities but the arrogant attitude of programmers demonstrated in these discussions will prevent the progress“. Or, to put it the other way round, I am rather glad that AI research has not yet considered this. In any case, I don’t need „strong AI“!
Thank you very much for your interest and
many greetings
Liebe(r) V. V.,
vielen Dank für Ihre Rückmeldung, die ich absolut teile und unterstütze.
Wenn mir nur eine kleine Vorbemerkung erlaubt sei. Ich halte „Bewusstsein“ für nichts Besonderes oder rein menschlich Exklusives. Allerdings in der Lesart, dass ich Bewusstsein als selbst-referentielle Rückkopplung eines autopoeitschen, enaktiven Organismus betrachte im Sinne Maturana/Varela und gar nicht so sehr auf die kognitiven Leistungen abheben möchte zu denen auch Emotionen, Gefühle, Qualia, etc. gehören.
Bei diesem kleinsten gemeinsamen Nenner kann man nämlich auch die Chemotaxis (Orientierung in einem freundlichen/feindlichen Mediums mit Dichtegradienten) eines Bakteriums duchaus schon als Bewusstsein sehen. Also es geht mir nicht darum einer starken KI menschliche Attribute zusprechen zu wollen. Im Gegenteil, das ist eher die Gefahr eine starke KI, die diesen Namen auch verdient, wird nichts Menschliches haben.
Wir spüren diese anstehenden Veränderungen schon jetzt bei einer schwachen KI, die immer mehr zur Entscheidungsfindung bei politischen, sozialen und medizinischen Prozessen genutzt wird. Zu diesem Thema hat zum Thomas Fuchs, der als Karl-Jaspers-Professor an der Klinik für Allgemeine Psychiatrie Zentrum für Psychosoziale Medizin einen Lehrstuhl in der Sektion Phänomenologische Psychopathologie und Psychotherapie in seinem neuen Buch „Verteidigung des Menschen – Grundfragen einer verkörperten Anthropologie -“ (2020) geäußert. Es war mir eine große Ehre und Freude ihn einmal zu diesem Thema interviewen zu dürfen. Das Interview wird in Kürze auf unserem Youtube-Kanal „Zoomposium“ erscheinen. Das genannte Buch ist als eine ausdrückliche Gegenposition zu Hararis „Homo Deus“ zu verstehen und zeigt auch Möglichkeiten auf, wie der dystopischen Beschreibung Hararis ein neuer konstruktiver, positiver Humanismus entgegengestellt werden kann. Daher ist aus meiner Sicht Ihr Nietzscher „Übermensch KI“ durchaus noch verhinderbar; allerdings auch leider nicht mehr lange.
Vielen Dank für Ihr Interesse und
viele Grüße
Dear i.,
thank you very much for your very kind feedback.
Yes, I already have concrete ideas of what the „New Structures for the System“ AI could look like, I have also described these in detail in my article. But to make it short here again (,because of the tl;dr ;-):
paradigm shift away from the focus of the „isolated brain“ and its simulation as artificial, neural networks to a paradigm of „embodiment“ and „emdeddness“ in the sense of an autopoeitic, self-referential, enactive machine with senso-motor input and proprioceptive output.
paradigm shift away from the classical, tertium-non-datur, dual logic of a von Neumann architecture to a polylogical, polycontextural architecture based on the multivalued logic of Gotthard Günther. Probably technically realizable only on a quantum computer. Whereby their present weakness of indeterminacy would be the strength here.
paradigm shift away from the idea that a strong AI only builds on „Big Data“ of a complicated, elaborated algorithm to develop intelligent problem solving strategies. Machines can already do that much better than we can, they Alpha Zero or AlphaGo Zero. Towards a new understanding of consciousness, as a basal, structural coupling of an autopoietic, enactive system with its body and its environment.
I think that’s enough 😉
Thank you for your interest and
many greetings
Dear d.,
first of all, thank you for reading „strange reading“ and your queries, which I would like to try to answer.
I am very glad to hear that we have „considerable overlap in areas of interest“ and your query about the intended audience is absolutely justified, as I am also absolutely aware that my proposed approaches may sound very alienating to academics from the field of AI. Therefore, I would like to briefly explain my intentions for better understanding, if it is allowed here.
You called my approach „meta“, which is not quite wrong, since it is rather a meta-theory, or as one used to say metaphysics for elucidating the „hard problem of consiousness“. At the same time, my approach is also supposed to be „para“, since it calls for a „paradigm shift“ for the previous „neurocentrist worldview“.
IMHO, both cognitive neuroscience and AI research are stuck in a dead end, as it is always about „Big Data“, „Deep Learning“ and about „artificial neural networks“. The previous paradigm starts from the simulation of the human brain to create „intelligent machines“. This goal seems to be achieved, even if you correctly point out that the Turing test is no longer a significant factor for this, since GoogleLamda is also nothing more than a „talking parrot“ in front of the „Chinese room“ ;-).
Also the intelligent problem solving strategies of Alpha Zero have nothing to do with a „strong AI“ that can act autonomously as far as possible. In my opinion, the key lies rather in the simulation of consciousness. The intelligent problem-solving strategies of Alpha Zero also have nothing to do with a „strong AI“ that can act autonomously to the greatest possible extent. At my point of view, the key lies more in the simulation of consciousness.
The realization possibility of the simulation of consciousness to examine once more exactly and also to point to the dangers connected with it, was the actual intention of my essay.
And to your question whether there is in „Germany for this a clearer target group“ I must admit to you that this is also not yet the case here. For this a „new“ thinking would be necessary, as the „mastermind“ Rudolf Kaehr once formulated it:
„Instead of changing the world or oneself, the necessity would be given here to change the thinking itself. A changed thinking, however, would change the thinker himself and his world in an unexpected way.“ (Rudolf Kaehr, „Discontextualities: Why New Forms of Thinking? On the Critique of the Logical Presuppositions of Second Order Cybernetics and Systems Theory.“ http://www.vordenker.de/rk/rk_wozu-neue-formen-des-denkens_1994.pdf, P.3)
But maybe it’s better that we don’t get „further“ in this area of AI research, since for my part I don’t need „strong AI“.
Thank you for your interest and
many greetings
Dear C.D.,
I had already apologized for my late feedback to you. But now I finally have the chance to respond to your very interesting and remarkable comment. I was very pleased about your competent questions and would like to answer them a little bit more detailed, if it is allowed. Of course we can do this in English instead of German, DeepL thank you 😉
That’s correct, the essay is essentially about „autopoetry, many-valued logic, self-referentiality“ and I’m intrigued that you seem to be -as you write- working on a similar project and trying to translate this into programming code. Since I approached the topic from a more conceptual-theoretical perspective, I would be very interested in the results of your factual-practical implementation. Do you already use symbolic code for this purpose, which would be necessary for a multivalued logic according to Gotthard Günther? I am also surprised that you already use my 5 theses in your work. Also for this I would have numerous questions to you. Therefore, I would like to accept your suggestion and would be happy to exchange ideas with you about the insights you gained when you implemented them in code.
The term „concept fact-iterativity“ actually comes from Professor Georg Northoff a very well-known cognitive neuroscientist and neurophilosopher (Northoff: „Transdisciplinary Methodology and Neuropsychodynamic Concept-Fact Iterativity“, 2011). I use the term in my essay to refer to the indispensable self-referentiality as an infinite recursive process for the formation of the forms of consciousness. The point is to rethink the thinking of thinking in terms of a Hegelian triad, if I may quote again here:
„the thinking of thinking“ itself represents an „infinite regress“ or also „progression without conclusion“. The concepts of neurophilosophy on the constitution of consciousness could, for example, be used as „input“ for AI research, since this would allow the simulation of the concepts to undergo empirical verification.“
So it is a matter of matching new concepts of neurophilosophy by the facts of AI research and through this again developing new concepts in a recursive step.
Regarding your question „Why do you think autopoetics, apart from its connection to self-referentiality, is necessary for strong AI?“: I think I would have to briefly explain my concept of „consciousness“ here. The concept of consciousness here is as a basal consciousness in the sense of an „embodiment“ and „embededdness“ of an enactive, living organism. So the term „autopoeisis“ here refers less to the aspect of reproduction, but rather to the aspects concerning entropy reduction in open non-equilibrium systems, i.e. life processes. So when talking about „strong AI“, this explicitly does not mean the cognitive abilities, but rather the structural coupling with itself and the environment. AI requires a „resting state“ for „self-reflection“ rather than an „activated stimuli state“. You describe this perfectly correctly when you assume that a „self-referential system runs the risk of being exponentially unstable or unpredictable in some way, as in physical control theories that exhibit asymptotic behavior, and that autopoetics is a kind of „damping function“ that keeps the system stable and productive.“, I couldn’t have put it better myself. There is a paradox to be avoided here, if I may quote from my essay again:
„the self-recursive, feedback closedness of the components of the autopoietic system with simultaneous material, energetic, and especially informal openness as a difference, but at the same time, interaction capability with respect to its environment. Only through this self-referential closure can the AI scan its environment for specific differences and thereby gain new insights. Only by this finally an increase of the complexity succeeds in the sense of a „relationalization of relations“, which can function as an „observation of the 2nd order“ and, contrary to the paradoxes inevitably arising here, can continue to operate recursively.“
In this sense, then, the polycontextuality of Gotthard Günther, who had also done his doctorate on Hegel, comes into play, who starts from a multivalent logic. This means de facto the end of the von Neumann architecture with its classical logic of the dual or the „tertium non datur“. At the moment, I still see this as technically far off. Possibly quantum computers with their incoherence of superposition from their current problems could bring a possible advantage in this direction. But I do not know. The programming language would have to correspond to a kenogrammar, i.e. use rather symbolic code. How far this comes at present only in the proximity of the realization, I may doubt. But I am honestly also glad about this, since you have already pointed to Dörner’s risk impact assessment. We have only „one shot free“ with the „strong AI“.
I would be very pleased if you could critically examine my thoughts once and give me feedback.
Thank you very much for your attention and
many greetings
Philo Sophies
PS: The only text I have found on Gotthard Günther’s concept of „polycontextuality“ is by Joseph Ditterich, Contexturality: System-Reframing for Self-Reference, 1991 from the very readable vordenker.de site by Joachim Paul:
https://www.vordenker.de/jditterich/jd_Contexturality.pdf
If you have any questions about this, please feel free to contact me.
Dear C.D. S.,
great. I am also very happy about our exchange of ideas via chat. However, because this always involves so much typing, I would still be happy to exchange via Zoom if you had the time and inclination.
I thank you very much for your interest and the time you took to read my essays. Therefore, I would also like to respond to your queries.
That is absolutely right. The main concern of my project „philosophies.de“ is to achieve a real „joint venture“ between natural sciences and humanities, characterized by a bidirectional interdisciplinarity. This I try to explain for example by the „constitution“ of consciousness in neurophilosophy, that to solve the „pseudo-body-mind-problem“ a cooperation is important.
I have absolutely nothing against scientific empiricism or even realism, on the contrary. I would much rather support the philosophical concepts with empiricism as „concept fact-iterativity“.
Correct, I consider the von Foerster approach of „2nd order cybernetics“ and the associated transclassical, multivalued Günther logic to be more purposeful than a von Neumann architecture with a classical, dual logic. However, I am also absolutely aware that a technical realization is still a long way off. Thank God ;-).
You have understood me absolutely correctly and I thank you expressly for your understanding and attention.
I would be very happy to hear or read from you.
Many greetings
Dear A.S.,
thank you very much for your very detailed comment, which I read with great interest.
I would therefore like to acknowledge it accordingly and respond to a few of your remarks, without of course being able to do so in full breadth and depth.
You write: „For consciousness deals with language and language is not limited to verbal form but also the symbolic meaning from sense objects and conceptual higher processes (such as done in mathematical and abstract thought). Also language, is dynamic and what we call logic is the relation between or the ideal standard of a thought with an order which the complex of reality must conform to be of that standard (logical).“
I agree. If you broaden the notion of language to include the formal logic of programming languages here, it could be understood that way. However, this approach, mind you, is not about the usual programming language, which is linked on the binary code and the classical, Aristotelian logic of the „tertium non datur“ linked with it. For something like „artificial consciousness“ and not „artificial intelligence“ one needs from my point of view rather something like a symbolic language, which builds on a polycontextuality and explicitly leaves open blanks.
These blanks would be given in the kenogrammatics according to Gotthard Günther and could be filled similar to the knowledge acquisition with small children only by information as contents. A machine in the sense of the „Big Data“ paradigm is smart, but not conscious. For this the structural coupling with the „machine-environment“ is missing. and the functional synchronization with the „machine-body“.
Therefore I can only fully support your statement: „Also I think, cognition (or consciousness dealing with ways problems can be solved; hence the term „intelligence“) is only a part of the human mental life and the rest such as experience, emotion, feeling and imagination which are part of the „function“ and „structure“ of the „mind“ would help us size back our contemplation of automata and Human Nature“. We may learn more about our human cognition from the results of AI research than the entire investigations of cognitive neuroscience have ever produced.
Re 1: „Automation, robotics, algorithm, programming and mechanization all have on feature in common ; „independence.“: This is also correct, if one wants to define something like „strong AI“, it is only about the extent to which the machine is able to make its own decisions autonomously and independently of the underlying programming code and in a recursive step can adapt its own programming code accordingly. The current „Deep Learning“ approaches („Reinforcement Learning“, „Unsupervised Learning“), which are based on artificial neuronal networks, are still far away from this, because they are based on the old paradigm of neurocentrism and hide the „embodiment“ and the „embededdness“ of the constitution of consciousness as a structural process.
Re 2: „We would as time goes when things move more beyond the direction of ChatGPT to escape from an abstraction which is a fallacy. That the „AI“ is a self developing entity with an ontological quality of personality or self willing and judging „being“. Again, I agree with you. „ChatGPT“ is in my opinion nothing else than a „talking parrot“, which can form syntactically and semantically meaningful sentences due to its fed large amount of data and its elaborated algorithm, without however ever „understanding“ its content itself. So actually an intelligent „sleight of hand“ for simulation, which however has nothing to do with the possibility of the reality of an „artificial consciousness“. Thank God, may this remain so for a long time!
Thank you for your interest and
many greetings