Das System braucht neue Strukturen - KI

Das System braucht neue Strukturen

Das System braucht neue Strukturen – nicht nur für/gegen die Künstliche Intelligenz (KI)

„Ich dachte, die ganze Idee der starken KI ist, dass wir nicht wissen müssen wie das Gehirn funktioniert, um zu wissen wie der Verstand funktioniert.“ (John Searle:”Minds, Brains, and Programs.” 2000, S. 146)

 

Die neuen Strukturen

Diese “neuen Strukturen für das System” möchte ich nun abschließend in meinem letzten Essay zur Trilogie der Wissenschaftstheorie ausgehend von 5 Grundthesen speziell zu neuen Ansätzen in der KI-Forschung, aber auch allgemein für eine “Neue Wissenschaft” mit einer “Neuen Metaphysik” postulieren.

Um hierzu vielleicht mal ein Beispiel für neue Strukturen aus der Geologie zu bemühen: Tektonische Verschiebungen und erdgeschichtliche Verwerfungen werden am besten immer an den Bruchzonen deutlich. In der Philosophie des Geistes und den hierzu korrespondierenden Neurowissenschaften ist es ebenso. Die spannendsten Bereiche der diskursiven Formationen, in denen wirklich etwas passiert, liegen im Bereich der “Bruchzonen” zwischen den Geistes- und Naturwissenschaften.

Die beschriebene “Neurophilosophie” schien mir ein geeignetes Beispiel für einen solchen angestrebten Umbruch in Form eines wissenschaftlichen “Paradigmenwechsels” zu sein.

Der erwartete, extreme Widerstand gegenüber der Konsolidierung einer “Neuen Wissenschaft” mit einer konstituierenden “Neuen Metaphysik” lässt sich natürlich einerseits mit dem Wirkungs- und Geltungsanspruch und somit auch der Machtanspruch der unterschiedlichen Disziplinen und Wissenschaftsbetrieben begründen; niemand verzichtet gerne auf seine “Pfründe”. Außerdem muss hierzu auch noch der Reduktionismus des “neurozentristischen Weltbild” in Form von “Ich = Gehirn” überwunden werden und damit die in die gleichsam in die “Grohirnrinde tätowierte”, dualistische Trennung von “Forschersubjekt vs. Erkenntnisobjekt“.

“Die möglichen Bruchpunkte des Diskurses bestimmen. Diese Punkte charakterisieren sich zunächst als Punkte der Inkompatibilität: Zwei Objekte oder zwei Äußerungstypen oder zwei Begriffe können in derselben diskursiven Formation erscheinen, ohne – es sei denn um den Preis des manifesten Widerspruches oder der Inkonsequenz – in ein und dieselbe Folge von Aussagen eintreten. Sie sind weiterhin als Äquivalenzpunkte charakterisiert:[…]” (Michel Foucault: “Archäologie des Wissens”, S. 96)

Diese scheinbare Widersprüchlichkeit – bis hin zu Paradoxie – der unterschiedlichen wissenschaftlichen Ansätze zu überwinden und eine gemeinsame Basis für den bidirektionalen Austausch als “Neue Wissenschaft” zu finden, war das Ziel der Trilogie zur Wissenschaftstheorie. Hier war ein kurzer Blick ins “Reich der Systemtheorie” sehr hilfreich.

In diesem letzten Schritt möchte ich nun versuchen anhand eines ausgewählten Beispiels aus der Forschung zur künstlichen Intelligenz (KI) diese 5 Grundthesen für den angestrebten Strukturwandel in den Neurowissenschaften – im Speziellen – und im übertragenen Sinne in den Wissenschaften – im Allgemeinen – zu verdeutlichen und damit die Forderung nach der Konsolidierung einer “Neuen Wissenschaft” mit einer konstituierenden “Neuen Metaphysik” zu begründen.

 

Die 5 Grundthesen als Basis für eine “Neuen Metaphysik” über einen “Strukturwandel” zu einer “Neuen Wissenschaft”

1. Grundthese: Der Strukturwandel von der Disziplinarität in eine Interdisziplinarität zum Beispiel im Sinne des Deutschen Wissenschaftsrates als bidirektionaler Austausch zur Erkenntnisgewinnung im kooperativen und nicht im kompetitiven Sinne.

2. Grundthese: Der Strukturwandel vom Reduktionismus in einen Holismus im Quine‘schen Sinne als ein skalierbares Kontinuum zwischen “apriori-analytisch-noumenalen” und “aposteriori-synthetisch-phänomenalen” Untersuchungsmethoden mit einer zirkulären “concept-fact iterativity” zur Theoriebildung.

3. Grundthese: Der Strukturwandel der vermeintlichen Objektivität in eine “Kybernetik 2. Ordnung im von Foerster‘schen Sinne, bei dem der Forschungsprozess (“Operation”) selber zum Gegenstand der eigenen Forschung gemacht werden soll und somit das Forschersubjekt (“Operator”) und Erkenntnisobjekt (“Operand”) miteinbezogen werden.

4. Grundthese: Der Strukturwandel vom Dualismus in eine Polykontexturalität im Günther‘schen Sinne als eine Möglichkeit Lösungsansätze für komplexe Fragestellungen und Algorithmen für holistische Problemlösestrategien entwickeln zu können.

5. Grundthese: Der Strukturwandel von linearen Problemlösestrategien in komplexe Problemlösestrategien im Dörner‘schen Sinne um genauere Heuristiken, aber auch um bessere Risikofolgenabschätzungen für die wissenschaftliche Forschung und ihre späteren Auswirkungen als eine neue Form der Wissenschaftsethik zu entwickeln.

Diese 5 Grundthesen zum Strukturwandel möchte ich im Folgenden anhand eines ausgewählten Beispiels der KI-Forschung zu den Möglichkeiten zur Konstitution von “künstlichem Bewusstsein” näher erläutern und damit einer begründeten Legitimation zuführen.

 

Die Anwendung der 5 Grundthesen des postulierten Strukturwandels auf ein konkretes Beispiel aus der KI-Forschung

Der momentane Stand der KI – “Big Data“, bitte melden!

Der Begriff “künstliche Intelligenz” (KI) oder “artificial intelligence” (AI) weist bereits in sich terminologische Schwachstellen auf, da hierzu zunächst einmal überhaupt geklärt werden müsste, was denn unter “Intelligenz” genau zu verstehen ist.

Allgemein lässt sich die KI als Forschungszweig der Informatik, Neuroinformatik, Kybernetik oder Bionik definieren, die sich mit der Programmierung von Algorithmen beschäftigt, die zu (teilweise) autonomen, maschinellen Lernen der Maschinen und damit zur (teilweise) automatisierten Simulation von “intelligenten Verhalten” führt. Wie man hieran vielleicht schon unschwer erkennen kann, liegt die momentane “Achillesferse” bei der Autonomie.

“Schwache vs. starke KI”

In diesem Zusammenhang kommt dann auch schnell die Unterscheidung zwischen “schwacher” und “starker KI” ins Spiel. Die schwache KI stellt lediglich die Möglichkeit dar, dass eine Maschine einigermaßen intelligent und adäquat auf konkrete Aufgaben in einem vorgefertigten “Framing” reagieren kann. Bei einer starken KI muss zusätzlich noch die Fähigkeit zum autonomen Lernen und die adaptive Anpassung an neue Situationen hinzukommen. Das bedeutet, dass dies schon eine Reihe von Kriterien voraussetzt, die schon langsam in Richtung “Bewusstsein” gehen können, wobei man diesen Begriff aber immer noch deutlich von dem der “Intelligenz” differenzieren muss.

Dieser Bereich der starken KI im Zusammenhang mit “künstlichen neuronalen Netzen” (KNN) wird auch gerne als “Deep Learning” bezeichnet. Eine technisch-nutzbare Anwendung findet das “Deep Learning” durch künstliche neuronalen Netze in dem von Google entwickelten, autonomen und selbstlernenden Algorithmus “RankBrain”, der zu zu einer Verbesserung der Suchanfragen geführt hat. Die relevanten Suchergebnisse werden durch eine Art “predictive coding” automatisch an das Suchverhalten des Benutzers angepasst, was somit den “search range” der Suchanfrage optimieren hilft.

Der Turing-Test

Um nun aber ein qualitatives Maß für das Vorliegen von starker KI oder einer dem Menschen vergleichbaren Intelligenz zu besitzen, wurde der “Turing-Test” von Alan Turing, dem Erfinder der gleichnamigen “Turing-Maschine” entwickelt. Bei dieser Versuchsanordnung stellt ein Mensch an einem Terminal beliebige Fragen entweder an einen anderen Menschen, der ebenfalls an einem Terminal sitzt oder an eine KI. Anhand der Qualität der Antworten muss der Fragensteller hinterher beurteilen, ob es sich um einen Menschen oder eine Maschine gehandelt hat. Sind beide aufgrund ihrer Antworten nicht unterscheiden, so kann die Maschine gemäß Turing als intelligent bezeichnet werden.

Inwieweit dieser Test eine Aussagekraft hat, kann allerdings bezweifelt werden, da er in seinem Testdesign doch stark an das Gedankenxperiment “Chinesisches Zimmer” des in der Einleitung zitierten Philosophen John Searle erinnert. Searle hat dieses Beispiel als Kritik an dem “Turing-Test” formuliert, da für ihn die Maschine aufgrund der vorprogrammierten oder des erworbenen sprachlichen Inputs, sprachliche Gesetzmäßigkeiten entwickelt und aus dem Datenmaterial aufgrund des Algorithmuses scheinbar sinnvolle Antworten bilden kann, die aber rein syntaktisch sind. Die Antworten, die die Maschine liefert, scheinen semantisch vollkommen korrekt sein und die Illusion eines menschlichen Gesprächspartners zu liefern. Allerdings “versteht” die Maschine selbst nicht den Inhalt oder die Bedeutung der sprachlichen Zeichen, sondern errechnet lediglich maximale “Sinnfelder” für die jeweiligen Antworten.

Erste “Spiel”-Erfolge im “Turing-Pokal”

Den Turing-Test hat allerdings bisher immer noch keine KI vollständig bestanden. Der zur Zeit vielversprechendste Anwärter auf den “Turing-Pokal” scheint das sehr innovative KI-Sprachmodell “GPT-3” von “Open AI” zu sein. GPT-3 („Generative Pretrained Transformer 3“) ist ein ein riesiges künstliches neuronales Netz, das mit 570 Gigabyte an Text aus dem Common-Crawl-Datenkorpus (2016-2019) trainiert wurde; das sind fast eine Billion Wörter. Das neuronale Netz besteht aus 175 Milliarden Parametern das mit Text trainiert wurde. Angeblich hat das Training dieses Modells schon alleine 14 Millionen US-Dollar verschlungen. Diese immense Summe wird aber wahrscheinlich wieder sehr schnell amortisiert sein, da Microsoft am 22. September 2020 angekündigt hat, dass sie eine Exclusiv-Lizenz zur Nutzung von GPT-3 erworben haben. Trotzdem hat GPT-3 bis zum heutigen Tage den besagten Turing-Test noch nicht bestanden, wobei Experten davon ausgehen, dass dies nicht mehr lange dauern wird.
Aber trotz dieser Skepsis zum momentanen Status Quo der starken KI hinsichtlich der Bildung von Bewusstsein lesen sich die Erfolge der KI besonders als Spielpartner in diversen Brett- und Videospielen wie eine reine Erfolgsgeschichte:

“Immerhin gelang es 1997 dem von IBM entwickelten System Deep Blue, den Schach-Weltmeister Garri Kasparov in sechs Partien zu schlagen. Im Jahr 2011 gewann das Computerprogramm Watson im Quiz Jeopardy! gegen die beiden bislang erfolgreichsten Spieler. Im März 2016 besiegte das System AlphaGo mit dem Südkoreaner Lee Sedol einen der weltbesten Go-Spieler. Das vom Unternehmen DeepMind entwickelte Programm hatte zuvor Millionen von archivierten Spielen mit Deep Learning ausgewertet und zudem mehrere Millionen Mal gegen sich selbst gespielt. 2019 gelang es der DeepMind-Weiterentwicklung Alpha Star, menschliche Top-Spieler beim populären und als sehr schwer geltenden Strategiespiel StarCraft II 10:1 zu besiegen. (https://de.wikipedia.org/wiki/Geschichte_der_k%C3%BCnstlichen_Intelligenz).

Okay, also im Spiel scheinen uns die Maschinen zugegebenermaßen haushoch überlegen zu sein, da sie mit einer Unmenge an Daten zu den jeweiligen Spielzügen und -strategien gefüttert werden und diese auch noch in Millisekunden zu einem kreativen, intelligenten Spielverhalten verrechnen können. Doch wie sieht es mit der tatsächlichen Nachbildung von Denkoperationen eines menschlichen Gehirns samt seiner Neuroplastizität aus?

Das Blue-Brain-Projekt (BBP)

Einen Versuch das Gehirn in seiner Funktionalität mit Hilfe der ermittelten Messdaten aus den oben erwähnten, verschiedenen Messinstrumenten künstlich nachzubilden, stellt das sogenannte Blue-Brain-Projekt (BBP) dar. Am Brain Mind Institut in Lausanne ist einer der 100 schnellsten Computer weltweit, ein Blue-Gene-Supercomputer mit 360 Teraflops, angeschafft worden, um die gewonnenen Erkenntnisse in einem gigantischen Computermodell zusammenzufassen. Das Projekt basiert auf dem Konzept des “künstlichen neuronalen Netzes” (KNN), das eine Simulation einer neokortikalen Säule auf zellulärer Ebene anstrebt und somit an das “Humain Brain Project” (HBP) anknüpft. Die künstliche “in silico” Nachbildung des menschlichen Gehirns mit seinen 100 Milliarden Neuronen (Gehirnzellen) und seinen 100 Billionen Synapsen ist das ehrgeizige Ziel.

Bisher begnügen sich die Forscher vom Blue-Brain-Projekt zunächst aber noch damit ein “komplexes Mehrebenensystem” zur “Neuron-zu-Neuron-Konnektivität” eines ganzen “Maus-Neocortex” zu simulieren. Basierend auf diesen Regeln für “neokortikale Mikroschaltungen” (Markram et al., 2015) hat das Team statistische Instanzen des “Mikrokonnektoms” von 10 Millionen Neuronen generiert, ein Modell, das sich über fünf Größenordnungen erstreckt und 88 Milliarden synaptische Verbindungen enthält. besitzt als Grundlage die weltweit größte Simulation der digitalen Rekonstruktion. Ziel des EPFL Blue Brain Project ist es, biologisch detaillierte digitale Rekonstruktionen und Simulationen des Mausgehirns zu erstellen.
Sorry, aber “der Berg kreißte und gebar eine Maus” (Horaz, Ars poetica). Hier hat der Funtionalismus und im besonderen der Computionalismus aus meiner Sicht seinen Höhepunkt gefunden, da man sich nicht mehr nur mit der Computer-Analogie zufrieden gibt, sondern einfach direkt das Gehirn in-silico nachbaut:

“Die Verbindungen zwischen den Neuronen bilden eine Hierarchie von Schaltkreisen, von lokalen Mikroschaltkreisen bis hin zur Ebene des gesamten Gehirns. Auf einer niedrigeren Ebene hingegen ist jedes Neuron und jede Synapse eine eigenständige komplexe molekulare Maschine. Es sind die Interaktionen zwischen diesen Ebenen, die menschliches Verhalten, menschliche Emotionen und menschliche Kognitionen hervorbringen.” (https://www.epfl.ch/research/domains/bluebrain/blue-brain/about/digital-reconstruction/)

Zumindest die folgende 1. Grundthese ” Der Strukturwandel von der Disziplinarität in eine Interdisziplinarität” als “multidisziplinäre Big Science im Bereich der Neurowissenschaften” wäre damit schon einmal eingelöst, da mindestens 82 Wissenschaftler aus den unterschiedlichsten Disziplinen an den Studien zum Blue-Brain-Project beteiligt waren.

 

1. Grundthese: Der Strukturwandel von der Disziplinarität in eine Interdisziplinarität

Die Ursprünge der KI-Forschung

In den vorhergehenden Essays hatte ich ja bereits schon mehrfach auf die “Sackgasse der kognitiven Neurowissenschaften” verweisen müssen und zu einer “Wende im neurozentristischen Weltbild” aufgefordert. Es mag daher eher als ein “Treppenwitz” der Wissenschaftsgeschichte wirken, dass nun ausgerechnet diese “Schützenhilfe” für den angestrebten Strukturwandel von der “Disziplinarität zu der Interdisziplinarität” für die kognitive Neurowissenschaften oder der Wissenschaftstheorie ausgerechnet aus der KI-Forschung (z. B. “Blue Brain Project”) kommt.

Die Geschichte des Biological Computer Laboratory (BCL)

Das gesamte Projekt der KI-Forschung könnte dabei aber auch glatt den Filmtitel “Zurück in die Zukunft IV” tragen, da die Ursprünge zur Lösung des Problems bereits aus den Jahren 50er bis 70er Jahren des letzten Jahrtausends stammen, also schon seit circa 70 bis 50 Jahre bekannt sind. Die Rede ist vom Biological Computer Laboratory (BCL) als Forschungsinstitut des Departments of Electrical Engineering an der University of Illinois.

Das BCL kann auch als “Keimzelle” oder “Prototyp” für eine sich damals an wissenschaftlichen Instituten der USA immer stärker ausbildende Interdisziplinarität gesehen werden. Dieses in Vergessenheit geratene und doch in vielen Bereichen so einflussreiche BCL wurde von der für seine großen Verdienste – ebenso – noch nicht entsprechend gewürdigten Forscher-Persönlichkeit Heinz von Foerster 1958 gegründet. Er war Direktor am BCL bis zu dessen Schließung 1975. Die Geschichte des BCL und seine Einflüsse auf die Wissenschaft und KI-Forschung wäre schon allein ein weiterer Essay wert. Ich beziehe mich hier aber auf einen bereits erschienen, sehr lesenswerten Artikel von Albert MüllerEine kurze Geschichte des BCL – Heinz von Foerster und das Biological Computer Laboratory aus dem Jahre 2000. In seinem Artikel weist Müller auf die vielfältigen, interdisziplinären Einflüsse des BCL zum Beispiel in den Bereichen der Kybernetik, der Systemtheorie, der Bionik, des parallelen Rechnens, der Neurophysiologie, der Bio-Logik, der künstlichen Intelligenz, des symbolischen Rechnens oder des Konstruktivismus hin.

Viele der damals entwickelten Erkenntnisse sind noch weiterhin unentdeckte “Perlen der Wissenschaft” und haben bis zum heutigen Tage eigentlich leider noch keine entsprechende Aufarbeitung oder Anwendung gefunden. Müller erklärt dies mit der “Vergesslichkeit der history of science“. Ich müsste leider noch einen Schritt weiter gehen und dies eher mit den oben erwähnten Abwehrmechanismen des wissenschaftlichen Betriebs gegenüber Paradigmenwechsel im Kuhnschen Sinne begründen.

Die “Multiperspektivität” der “Macy-Konferenzen

Im BCL wurde die methodische Grundbasis für spätere wissenschaftliche Forschungen in diversen Disziplinen gelegt, die aber teilweise immer noch im im “Dornröschenschlaf” liegen oder einfach schlichtweg den Impuls ignoriert haben. Die wissenschaftlichen Diskussionen am BCL und den hieran angeschlossenen Kybernetik-Tagungen, die “Macy-Konferenzen“, bezeichnete von Foerster als “kooperativ und nicht kompetitiv“. Es ging allen Forschern um Interdisziplinarität zwischen den einzelnen Disziplinen und um “Multiperspektivität” (eine “Polykontexturalität” nur im übertragenen Sinne) in verschiedenen Themenbereiche:

“Die Teilnehmer der Macy-Tagungen vertraten 1949 zum Beispiel die Fachrichtungen Psychiatrie, Elektrotechnik, Physiologie, Computerwissenschaft, Medizin, Zoologie, Psychologie, Soziologie, Ethnologie, Anatomie, Neurologie, Verhaltensforschung, Mathematik, Radiobiologie, Biophysik, Philosophie. Bis 1953 erweitert sich diese Liste noch um Ökonomie und andere Disziplinen.” (Albert Müller: “Eine kurze Geschichte des BCL – Heinz von Foerster und das Biological Computer Laboratory” 2000, S. 4)

Aus diesem “Spirit” entwickelte sich die damals noch sehr junge neue Disziplin der “Kybernetik“, die damals auch parallel zum Begriff der “Bionik” verwendet wurde. Die Impulse, welche im Speziellen die “Kybernetik 2. Ordnung” (Beobachtung der Beobachtung = Beobachtung 2. Ordnung) durch Heinz von Foerster gesetzt wurden, wirken bis heute in vielen Bereichen (Systemtheorie, KI-Forschung, Konstruktivismus) weiter fort, sind aber in ihren weitreichenden Konsequenzen im Allgemeinen für die Wissenschaftstheorie und hier im Besonderen für die kognitive Neurowissenschaften noch nicht in Gänze erfasst worden.

Dies möchte ich im Folgenden ändern und zugleich die weiterführenden Aspekte für die moderne KI-Forschung als Struktur im System anhand der nächsten Grundthese beleuchten.

 

2. Grundthese: Der Strukturwandel vom Reduktionismus in einen Holismus

Kompliziertheit vs. Komplexität

Trotz der zu anfangs erwähnten großen Erfolge der künstlichen neuronalen Netzwerke (KNN) und des “Deep Learning“(Yoshua Bengio, Geoffrey Hinton und Yann LeCun)-Projektes hinsichtlich der Lösung von Strategiespielen ist diese schwache KI aber immer noch meilenweit von einer starken KI, hinsichtlich der autonomen Ausführung von zielgerichteten, bewussten Problemlösestrategien entfernt. Geschweige denn, kann hier von so etwas wie “Maschinen-Bewusstsein” gesprochen werden. Selbst die sehr optimistischen “Big Data“(People Analytic Systems/Data Mining)-/”Microtargeting“(“Cambridge Analytica“)-Projekte der IT-Global Player (Google, Facebook, Amazon & Co.) gehen mittlerweile nicht mehr von der Möglichkeit aus, dass KI so etwas wie “Kreativität” oder “Empathie” entwickeln könnte. Diese etwas pessimistischere Einschätzung der Möglichkeiten der KI beschreibt Kai-Fu Lee, einer der führenden und erfolgreichsten Köpfe des “chinese internet sectors“, der lange Jahre als Direktor bei Microsoft Research Asia und als Präsident bei Google China beschäftigt war, in seinem 2018 erschienen Buch “AI Superpowers: China, Silicon Valley, and the New World Order“.

Kann also mit diesem eingestandenen Scheitern das große Projekt “starke KI” damit endgültig zu Grabe getragen werden oder liegt es nicht einfach nur an den “Konstruktionsfehlern” der bisherigen KI-Ingenieuren? Anzeichen für derlei Konstruktionsfehler könnte ich aus meiner Sicht tatsächlich in der methodischen Hegemonie des Reduktionismus gegenüber einem Holismus im gesamten wissenschaftlichen Bereich, somit auch in der momentanen KI-Forschung erkennen.

1. Konstruktionsfehler: Der Reduktionismus geht vor dem Holismus

Selbst in der nicht-reduktiven Form des Dualismus unter Einbeziehung eines empirisch-unbegründeten, “metaphysischen Kunst(be)griffes” der “Emergenz” gelingt es dem Reduktionismus immer noch nicht das “Rätsel des Bewusstseins” zu lösen. Kann er auch nicht, weil er aus meiner Sicht von einer falschen Prämisse zum “Denken des Denkens” in Form einer Verwechslung von “Kompliziertheit vs. Komplexität” ausgeht. Der Reduktionismus versucht die “Kompliziertheit” eines Systems nach dem Prinzip “pars pro toto” vollständig auf seine Einzelbestandteile zu reduzieren, um mit Hilfe dieser Simplifizierung das Ganze dann begreifbar und handhabbar zu machen. Hierbei begeht er aber unweigerlich einen mereologischen Fehlschluss, da die Summe der Teile nun einmal nicht das Ganze repräsentieren können. Aus diesem Grunde muss die oben erwähnte Emergenz auch als “Kaninchen-Hutzauber-Trick” eingestuft werden.

“Es ist unverfänglicher, einfach zu denken oder das Denken im kybernetischen Artefakt wenigstens partiell zu simulieren, als das Denken als Denken selbst in den Griff zu bekommen. Der so erlangte Begriff des Denkens wäre selbst wiederum nur Teil des Denkens und das Denken als Ganzes wäre nicht erfaßt. Das Gödelsche Theorem sorgt hier für die Autonomie des kreativen menschlichen Denkens der Erfassung des Denkens in Symbolsystemen und symbolischen Maschinen gegenüber.” (Rudolf Kaehr: “Diskontexturalitäten: Wozu neue Formen des Denkens? Zur Kritik der logischen Voraussetzungen der Second Order Cybernetics und der Systemtheorie.” http://www.vordenker.de/rk/rk_wozu-neue-formen-des-denkens_1994.pdf, S.2)

Der positivistische Ansatz der KI-Forschung geht aber in seinem Konzept von einem “Reduktionismus” aus, bei dem es folglich nur eine Frage der Kompliziertheit der Algorithmen und der damit verknüpften Datenmenge sei bis eine starke KI ganz von alleine entstünde. Dieses der momentanen KI-Forschung zugrundeliegende Konzept basiert auf der sehr einseitigen, reduktiven, “aposteriori-synthetisch-phänomenalen” Methodik der Naturwissenschaften und ist meines Erachtens zum Scheitern verurteilt. Der Grund hierfür liegt darin, dass es die nicht-reduktive, “apriori-analytisch-noumenale” Methodik der Geisteswissenschaften zur Lösung des Problems einfach außer Acht lässt oder schlichtweg ignoriert, wie ich schon in meinem vorhergehenden Essay zur “Neurophilosophie” versucht habe darzulegen.

2. Konstruktionsfehler: Das “Denken des Denkens” nicht zu überdenken

Die dort geschilderte Rekursivität und Selbstreferentialität einer “concept-fact iterativity” (Northoff:”Transdisciplinary Methodology and Neuropsychodynamic Concept–Fact Iterativity”, 2011) könnte auch der aktuellen KI-Forschung zu Gute kommen, da das “Denken des Denkens” selber einen “infiniten Regreß” oder auch “Progreß ohne Abschluss” darstellt. Die Konzepte der Neurophilosophie zu der Konstitution von Bewusstsein könnten zum Beispiel als “Input” für die KI-Forschung Verwendung finden, da hier durch die Simulation der Konzepte eine empirische Überprüfung stattfinden könnte. Andersherum dient der “Output” der Simulation, also die gewonnenen Fakten, wiederum als neuer Input für die Neurophilosophie, um die Konzepte neu zu justieren und entsprechend anzupassen; folglich eine “win-win”-Situation oder “joint-venture” als bi-direktionaler Austausch. Also ganz im Sinne eines Holismus im Quine’schen Sinne als ein skalierbares Kontinuum zwischen “apriori-analytisch-noumenalen” und “aposteriori-synthetisch-phänomenalen” Untersuchungsmethoden mit einer zirkulären “concept-fact iterativity” zur Theoriebildung. Doch hierzu bedürfte es eines “veränderten Denkens” im Sinne eines “Paradigmenwechsels” für die wissenschaftliche Methodik, um zum Beispiel das dualistische Paradigma “Forschersubjekt vs. Erkenntnisobjekt” aufzulösen.

“Statt die Welt oder sich selbst zu verändern, wäre hier die Notwendigkeit gegeben, das Denken selbst zu verändern. Ein verändertes Denken jedoch würde in ungeahnterweise den Denkenden selbst und seine Welt verändern.” (Rudolf Kaehr: “Diskontexturalitäten: Wozu neue Formen des Denkens? Zur Kritik der logischen Voraussetzungen der Second Order Cybernetics und der Systemtheorie.” http://www.vordenker.de/rk/rk_wozu-neue-formen-des-denkens_1994.pdf, S.3)

Im Folgenden möchte ich dieses “veränderte Denken” einmal mit Hilfe der erwähnten concept-fact iterativity an einem konkreten Beispiel zu der KI-Forschung illustrieren.

3. Konstruktionsfehler: Die falschen “concepts” der KI-Forschung

Dass die KI noch sehr weit von einer starken – also autonomen – KI entfernt ist, liegt aus meiner Sicht an den momentanen “Konstruktionsfehlern” der aktuell verwendeten concepts. Das aktuelle Paradigma der KI-Forschung geht gemäß der “Big Data“- und “Deep Learning”-concepts davon aus, dass nur eine hinreichend große Menge an Daten und ein entsprechend elaborierter Algorithmus zu dem gewünschten Ziel führen muss. Die schmalen facts, die diese concepts liefern, habe ich bereits oben erwähnt. Sie führen lediglich zu großartigen Schachcomputern, zu mehr aber auch nicht. Was dieser KI fehlt, sind neue concepts für ein “verändertes Denken“. Diese concepts sind in Wirklichkeit noch nicht einmal neu; sie sind nur nie wirklich zum Zuge gekommen.

Neue concepts für ein “verändertes Denken”

1. concept: “autopoietic system”

Das erste, grundlegende concept stellt das “autopoietic system” (Paul Bourgine/John Stewart: “Autopoiesis and Cognition” MIT, 2004) dar, welches auf den grundlegenden Begriff der “Autopoeisis” (griech. “Selbstherstellung”) des chilenischen Neurobiologen Humberto Maturana zurückgeht. 1960 wird er an das oben erwähnte BCL berufen und beeinflusst maßgeblich mit seinem concept des “autopoietic system” das von Heinz von Foerster entwickelte concept der “kybernetic second order“. Zusammen mit seinem Kollegen Francisco J. Varela entwickelt er dieses concept der autopoietic systems in ihren bahnbrechenden Büchern “Autopoiesis and Cognition: The Realization of the Living” (1980) und “Der Baum der Erkenntnis: Die biologischen Wurzeln des menschlichen Erkennens” (1987) als eine Teilmenge zu den biologischen concepts der “emergenten Selbstorganisation” von “lebenden Systemen” zur Konstitution von Kognition weiter fort. Insofern stellt es den Versuch dar, das Phänomen “Kognition” erklärbar zu machen, in dem es von dem alten, aristotelischen Spruch des Holismus “das Ganze ist immer mehr als die Summe seiner Teile” ausgeht und als einen selbstorganisierenden, rückgekoppelten Prozess der Evolution mit Hilfe der Mitteln der Systemtheorie zu beschreiben versucht.

Nach Maturana ist ein “autopoietisches System” ein:

dynamisches System, das als zusammengesetzte Einheit durch ein Netzwerk von Komponenten definiert wird, die a) durch ihre Interaktionen das Netzwerk der Produktion, das sie selbst hervorgebracht haben, rekursiv regenerieren, und b) dieses Netzwerk als eine Einheit realisieren, indem sie seine Grenzen in dem Raum, in dem sie existieren, festlegen und spezifizieren” (Maturana 1980, S. 52 f.).

Besonders zu betonen an diesem concept – im Hinblick auf die KI-Forschung – ist hierbei die selbstrekursive, rückgekoppelte Geschlossenheit der Komponenten des autopoietischen Systems bei gleichzeitiger materieller, energetischer und insbesondere informeller Offenheit als a Differenz, aber zugleich auch Interaktionsfähigkeit gegenüber seiner Umwelt. Erst durch diese selbstreferentielle Schließung kann die KI ihre Umwelt auf spezifische Differenzen hin abtasten und hierbei neue Erkenntnisse gewinnen. Nur hierdurch gelingt schließlich eine Steigerung der Komplexität im Sinne einer “Relationierung von Relationen“, die als eine “Beobachtung 2. Ordnung” fungieren und entgegen den hierbei zwangsläufig auftretenden Paradoxien, weiterhin rekursiv operieren kann:

»Eine autopoietische Maschine ist eine Maschine, die als ein Netzwerk von Prozessen der Produktion (Transformation und Destruktion) von Bestandteilen organisiert (als eine Einheit definiert) ist, das die Bestandteile erzeugt, welche 1. aufgrund ihrer Interaktionen und Transformationen kontinuierlich eben dieses Netzwerk an Prozessen (Relationen), das sie erzeugte, neu generieren und verwirklichen, und die 2. dieses Netzwerk (die Maschine) als eine konkrete Einheit in dem Raum, in dem diese Bestandteile existieren, konstituieren, indem sie den topologischen Bereich seiner Verwirklichung als Netzwerk bestimmen.« (Maturana:”Autopoietic Systems. A Characterization of the Living Organization” 1975, S. 184 f., Hervorhebung weggelassen)

2. concept: Der Enaktivismus als Philosophie der Verkörperung

Nur durch diese “gekoppelte Differenz” konstituiert sich das System als “body” im concept des “embodiment” im Sinne eines “Enaktivismus” selber. Der auf dem concept des embodiment basierende Enaktivismus geht auf das Buch “The Embodied Mind” (Varela et al. 1991) als “Philosophie der Verkörperung” in Form eines radikalen Konstruktivismus zurück. Leider fehlt an dieser Stelle der weitere Raum, um das concept des Enaktivismus in der vollen Gänze zu erläutern, daher sei hier auf die sehr lesenswerten, weiterführenden Artikel von Myriam Kyselo “Enaktivismus” (https://docplayer.org/71227750-9-enaktivismus-der-ausdruck-enaktivismus-enactivism-bezeichnet.html) oder von Joerg Fingerhut und Rebekka Hufendiek:”Philosophie des Geistes: Philosophie der Verkörperung. Die Embodied Cognition-Debatte” (https://www.researchgate.net/publication/320947458_Philosophie_der_Verkorperung_Joerg_Fingerhut_und_Rebekka_Hufendiek_uber_die_Embodied_Cognition-Debatte) verwiesen.

3. concept: Die “4 E’s”

Von weiterem Nutzen ist an dieser Stelle vielmehr die Zusammenfassung der zusätzlichen, implizierten concepts der “4 E’s” als “extended“, “embodied“, “embededded” und “enactive” mind zu einer “situierten Kognition“. Eine in diesem Sinne programmierte, autopoietische KI muss folglich auch mit einer entsprechenden Senso-Motorik ausgestattet sein, die eine Interaktion mit der Umwelt als “extended mind” (Andy Clark/David Chalmers:”The Extended Mind”,1998 http://consc.net/papers/extended.html) als einen aktiven Externalismus oder Konnektionismus zulässt.

4. concept: “feedback-loops”

Durch diese “Erfahrungsinputs” erhalten die autopoietischen Algorithmen als “feedback-loop” ein “propriozeptives Feedback“, was wiederum zu weiteren sensomotorischen Kontrollen und Adaptionen des selbstrekursiven und rückgekoppelten Algorithmencode führt. Auf diese Weise kann die KI autopoietisch ein autonomes concept für ihren “extended”, “embodied”, “embededded” und “enactive” “mind” entwickeln. Die hierbei entwickelten Autokorrelationen des “enactive mind” der KI können dann zu so etwas wie einer “embededdness” in Form einer “world-machine”-Relation über die Sensomotorik oder ein “embodiment” in Form einer “machine-algorithm”-Relation. Bezogen auf das “Laufenlernen” ist dieser Prozess schon sehr genau untersucht worden. Ob hierbei aber tatsächlich so etwas wie ein “Maschinen-Bewusstsein” entstehen kann, bleibt allerdings noch offen oder vielleicht auch eher zu befürchten und muss unter der 5. Grundthese “Der Strukturwandel von linearen Problemlösestrategien in komplexe Problemlösestrategien” als “Risikofolgenabschätzung” noch genauer unter die Lupe genommen werden.

5. concept: Simulation der concepts als concept-fact iterativity

Die vorgenannten concepts können auf jeden Fall aber schon jetzt einmal “in silico” auf einer entsprechend ausgestatteten KI simuliert werden und somit als facts in Form von empirischen Daten-Outputs wiederum zu einer iterativen Adaption der concepts an die neuen facts führen. So schließt sich auch hier der kontinuierliche feedback-loop der concept-fact iterativity und führt dadurch zu immer elaborierteren Algorithmen der KI und somit vielleicht auch zu einer stärkeren Form der KI.

Hierbei winkt zudem auch noch eine “win-win”-Situation, da als “Nebenprodukt” zugleich Einblicke in die Konstitution von menschlicher Kognition durch die Simulation auf der Maschine gewährt werden könnten; als Replik auf das Searle-Zitat in der Einleitung. Die hierzu benötigte spezifische Form der Algorithmen als “Herzstück” oder besser gesagt das “machine-brain” möchte ich unter der 4. Grundthese: “Der Strukturwandel vom Dualismus in eine Polykontexturalität” noch ein wenig genauer darstellen. Zunächst aber muss noch der Faktor “Forschersubjekt” genauer untersucht werden, um ihn bei dieser “Rechnung” mit einzubeziehen und nicht den alten Konstruktionsfehler des Dualismus wieder fortzusetzen.

 

3. Grundthese: Der Strukturwandel der vermeintlichen “Objektivität” in eine “Kybernetik 2. Ordnung”

In der Methodik der wissenschaftlichen Vorgehensweise (“Operation“) ging es vermeintlich immer nur darum zu “objektiven” Aussagen über die Beschaffenheit der Welt (“Theorie“) zu gelangen. Hierbei war es stets oberstes Ziel zwischen dem zu erkennenden Objekt (“Operand“) und dem forschendem Subjekt (“Operator“) einen sehr klaren Unterschied in Form einer Differenz zu bilden.

Das Dilemma von Forschersubjekt und Erkenntnisobjekt

Das Forschersubjekt hatte sich im Prozess der wissenschaftlichen Theoriebildung folglich immer selbst zu eliminieren, um sich nicht den Vorwurf der Subjektivität auszusetzen. Diese absurde – weil logisch nicht zu hintergehende – Vorgehensweise negiert schlicht und einfach den Parameter Operator aus der Operation, um hierdurch den “reinen” Operanden zu erhalten. Daher wirkt der Vergleich zur Münchhausen-Geschichte, bei der Ross und Reiter sich durch Ziehen am Schopfe aus dem Sumpf befreien können, nicht allzu weit hergeholt.

Der durch diese wissenschaftliche Methodik erzeugte “blinde Fleck” im “Auge des Beobachters” oder “tote Winkel” im “Rückspiegel der Wissenschaftsgeschichte” wurde von der “community of science” noch nie wirklich richtig beleuchtet, sondern im Gegenteil bis zum heutigen Tage eher ausgeblendet oder sogar tabuisiert. Die “Objektivität” der wissenschaftlichen Messergebnisse würde nach diesem methodischen Credo also operatorfrei von Geräten erzeugt, die gleichsam selbständig diese auch noch subjektfrei auswerten und zu Gesetzmäßigkeiten verarbeiten können.
Stimmt, das hört sich an dieser Stelle schon nach “künstlicher Intelligenz” der Maschinen an.

Die “Kybernetik 2. Ordnung”

Aber genau mit diesem Dilemma der “Subjektivität” in der wissenschaftlichen Forschung und ihre technologische Überführung als künstliche Intelligenz hat sich das anfangs erwähnte BCL eingehender beschäftigt. Hier wurde zum ersten und zunächst letzten Mal der Einfluss des Forschersubjekts genauer unter die Lupe genommen und ausdrücklich mit in den Forschungsprozess einbezogen. Diese wissenschaftliche Untersuchung der “Beobachtung der Beobachtung” oder auch der Begriff des “Beobachters” im Forschungsprozess wurde von von Foerster eingeführt und unter als “Kybernetik 2. Ordnung” bezeichnet:

“Die Kybernetik stellt den einzigen nennenswerten Versuch des 20. Jahrhunderts dar, eine methodische Metawissenschaft zu etablieren, in der die Trennung zwischen den Geisteswissenschaften und den sui generis subjektlosen Naturwissenschaften im Hegelschen Sinne aufgehoben ist. Oder in anderen Worten ausgedrückt: Die Kybernetik lehnt den dem klassischen Wissenschaftsgefüge impliziten Methodendualismus strikt ab. Ihr Forschungsfeld definiert Ashby folgendermaßen: «Kybernetik untersucht alle Phänomene in Unabhängigkeit ihres Materials, so sie regelgeleitet und reproduzierbar sind.»” (Eberhard von Goldammer/Joachim Paul:”Die Neuauflage von Das Bewußtsein der Maschinen” 2002, S. 7)

Der Subjektbegriff in der KI-Forschung

Der Faktor “Mensch/Forschersubjekt” ist dabei in der Entwicklung der KI eigentlich bisher nur “hinderlich” gewesen, da das “neurozentristisches Weltbild” und die “narzisstische Hybris” des Menschen die KI immer nur als “technologisches Surrogat des menschlichen Gehirns” gesehen hat und insofern einer echten Autopoiesis der KI immer eher “im Wege” stand. Der Computer oder das Internet stellen unter diesem Aspekt auch nichts anderes als die Versuche des Menschen dar als seine Vorstellung von der Funktionsweise des Gehirns oder die Konstitution von Bewusstsein auf technologischer Basis nach- oder abzubilden.

Aus diesem Grunde haben wir auch einfach unser bisher sehr bewährtes Konzept des Methodendualismus als Problemlösestrategie für die neue Herausforderungen genommen und nie wirklich hinterfragt. Daher muss ebenso der Subjektbegriff bei der Entwicklung einer starken KI auch einmal einer kritischen Analyse unterzogen werden. Die Dekonstruktion des Subjektbegriffes in der Kybernetik 2. Ordnung musste zwangsläufig eingeführt werden. Zur Lösung des komplexen Problems “das Subjekt als Objekt zu maskieren, um sich selbst zum Thema des Denkens zu machen” (G. Günther/C. Baldus und Kant) reichte die alte, klassische Logik der Dichotomie im Dualismus nicht mehr aus und musste durch eine vollkommen neue “transklassische Logik” in Form der Polykontexturalität ersetzt werden.

Die neuen Strukturen als transklassisches, mehrwertiges, ontologisches Ortswertlogik-System

Die in der 2. Grundthese entwickelten Autokorrelationen der concepts lassen sich mit Hilfe des Dualismus in ihrem Strukturenreichtum eben nicht mehr ausreichend abbilden. Daher bedurfte es des oben erwähnten “veränderten Denkens” eines philosophisch geschulten Logikers, der hierzu aber erst einmal die transklassischen, neuen Strukturen als mehrwertiges ontologisches Ortswertlogik-System für eine neue mehrwertige Stellenwertlogik entwickeln musste; diese Pionierarbeit wurde von Gotthardt Günther geleistet.

Gotthardt Günther hatte von 1961 – 1972 ebenfalls eine Forschungsprofessur an dem besagten BCL inne und brachte von Hause aus eben das entsprechende “Handwerkszeug” aus der Philosophie und Logik mit. 1933 erwarb er den Doktortitel bei Eduard Spranger mit seiner erweiterten Dissertation “Grundzüge einer neuen Theorie des Denkens in Hegels Logik“. Angeregt durch diese Auseinandersetzung mit Hegels “induzierter Verschiebung des Fokus von den ontischen Relationsgliedern Subjekt und Objekt hin zu den Relationen selbst wird von Günther konsequent fortgeführt.” (Eberhard von Goldammer/Joachim Paul:”Die Neuauflage von Das Bewußtsein der Maschinen” 2002, S. 9)

Die Analyse der klassischen, zweiwertigen Logik

Durch diese Analyse der klassische Logik gelangte er schließlich zu dem Ergebnis, dass die bisherige abendländische, aristotelische Ontologie zum Verhältnis von “Denken und Sein” oder “Subjekt und Objekt” einer Form des Reduktionismus unterliegt und zur Beschreibung des “Relationenreichtums der Wirklichkeit” eine zu starke Strukturarmut in Form dieser absoluten Disjunktion (Dualität) aufweist:

“Dass die klassische zweiwertige Logik zur Entwicklung der Theorie sich in ihrer Komplexität ständig steigernden Reflexionsformen unbrauchbar ist, daran dürfte heute nur wenig Zweifel bestehen. Durch ihre Zweiwertigkeit ist ihr äußerste Strukturarmut auferlegt.”(Gotthardt Günther: “Beiträge zur Grundlegung einer operationsfähigen Dialektik”, 1980, S. 137)

In der zweiwertigen, klassischen Logik dieser Welt gibt es nur einen “Ich-Beobachter“, der sich bei seiner Beobachtung quasi “außerhalb der Welt” stellt und durch die spätere Negation im Prozess der Reflexion zu einer “Form des Objekts” als “Pseudosubjekt” gelangt, als “Nicht-Ich“.

Jede Form von Subjektivität soll somit aus dem Denken und dem dazugehörigen Prozess der Reflexion durch den Satz der Identität und dem damit verbundenen Satz vom ausgeschlossenen Dritten strikt eliminiert werden:

Reflexion als Reflexion, also als Subjektivität, gehört dem Seienden nicht an und ist aus der identitätstheoretischen Thematik ausgeschlossen. Dies endgültig festzustellen ist die Aufgabe des Satzes vom ausgeschlossenen Dritten.” (Gotthard Günther:”Idee und Grundriss einer nicht-Aristotelischen Logik”, 1959, S. 141)

Die Monokontexturalität der klasssichen Logik als Strukturarmut

Diese Monokontexturalität der klassischen Logik ist – wie der Name schon sagt – extrem strukturarm, da sie zur Aufrechterhaltung der Identität, abgesehen vom Ausschlussprinzip unter systemtheoretischen Gesichtspunkt andere Systeme immer hierarchisch subsumieren muss. Das System in der klassischen Logik kann sich somit nur über seine Differenz zur Umwelt konstituieren. Insofern kann dies keine Basis für autopoietische Systeme, wie eine starke KI, darstellen, da definitiv die Selbstreferenz eines formal kybernetischen Subjekts fehlt:“Man versteht darunter ein System, das eine Umgebung besitzt, sich von ihr absetzen kann und Selbstreferenz besitzt.” (Gotthard Günther: “Das Problem einer trans-klassischen Logik”, 1965, S. 1294)

Folglich bedurfte es in diesem Sinne der Entwicklung einer transklassischen, polykontexturalen, mehrwertigen Ortswertlogik, um so etwas wie selbstreferentielle Systeme für die Konstitution einer starken KI zu entwickeln. Die Überwindung des klassischen Dualismus hin zu einer transklassischen Polykontexturalität stellt also erst die Basis für die Programmierung entsprechender Algorithmen dar, was ich im Folgenden etwas genauer darstellen möchte.

 

4. Grundthese: Der Strukturwandel vom Dualismus in eine Polykontexturalität

Das Dual-System der KI-Forschung als punktförmige Struktur des Dualismus

Als “Mutter/Vater” des ganzen Dilemmas darf wohl mit Fug und Recht der Dualismus und seine weitreichenden Folgen für die Wissenschaftsgeschichte bezeichnet werden, wie ich bereits des Häufigeren in den vorhergehenden Essays versucht habe zu belegen. Wenn man die ontologische Struktur des Dualismus beschreiben möchte, kann man ihn als eine punktförmige Dichotomie in der zuvor beschriebenen, klassischen aristotelischen Logik (positiv/negativ, Subjekt/Objekt, Ich/Welt,…) bezeichnen. Die hierdurch entstehenden dualistischen Geegensatzpaare bilden laut den Hegelschen Logiktexten mit-sich-selbst-identische, widerspruchsfreie, dichotome Punkte, die als Satz vom Grunde somit logische Antipoden darstellen und dadurch ein Drittes ausschließen (Tertium non datur“, TND):

“Die klassische Logik als geschlossene Kontextur ist ein strikt zweiwertiges System, das durch die Prinzipien der irreflexiven Identität, des verbotenen Widerspruchs und des ausgeschlossenen Dritten bestimmt ist. Was dieses System nun zur Kontextur in dem von uns intendierten Sinne macht, ist, dass sie durch keinen höheren Bestimmungsgesichtspunkt von [Dualität in Form von] Positivität und Negativität in der denkenden Reflexion [der platonischen Begriffspyramide] überboten werden kann.” (Gotthardt Günther:”Die Theorie der ‘mehrwertigen’ Logik”, in: Berlinger, R. (Hrsg.): Philos. Perspektiven 3,Würzburg 1971, S. 116f, [mit Ergänzungen])

Soweit so gut, schließlich hat dieses logische Konzept über Jahrhunderte hinweg bestand gehabt und zur Lösung von einfachen, linearen Problemen, die zur Erfassung mit Hilfe des Reduktionismus simplifiziert wurden, seine guten Dienste geleistet. Komplizierte Vorgänge in der Natur wurden durch diese Form des Physikalismus auf wenige zu untersuchende Parameter reduziert, um sie in einem weiteren Schritt zu abstrahieren/zu mathematisieren. Hieraus ließen sich schließlich Gesetzmäßigkeiten ableiten, die zu weiterer Forschung oder technologischer Nutzung führen konnten.

Zur Lösung des Problems der Konstitution von Bewusstsein oder der Implementierung einer starken KI ist das Konzept des Dualismus ob nun als Substanz-/Eigenschafts-/Methodendualismus oder auch nur als Stellenwertsystem allerdings eher kontraproduktiv, da es zu stark simplifiziert und dadurch die vermeintliche Kompliziertheit zwar erfolgreich reduziert, hierbei aber die Komplexität ebenfalls zerstört.

Die Polykontexturalität als transklassische, mehrwertige Ortswertlogik

Gotthard Günther hat mit seiner transklassischen, mehrwertigen Ortswertlogik in Form der Polykontexturalität die Basis für derlei autopoietische Systeme, wie der starken KI, gelegt. Dieses Thema wird von ihm selbst in seinem auch für die Kybernetik 2. Ordnung sehr einflussreichen Buch “Das Bewusstsein der Maschinen: Eine Metaphysik der Kybernetik” von 1963 behandelt. Das zugrundeliegende Konzept der Polykontexturalität kann ich an dieser Stelle aufgrund des Umfangs leider nur kurz skizzieren. Bei weiterführendem Interesse sei aber auf die zu diesem Thema sehr umfangreiche und instruktive Internetseite “vordenker.de” von Joachim Paul verwiesen, wo sich unter den Originaltexten von Gotthardt Günther auch hervorragende Erläuterungen zu diesem Thema von Rudolf Kaehr, der bei Gotthard Günther promovierte und Joseph Ditterich finden lassen.

Vereinfacht gesagt, geht es bei dem Konzept der Polykontexturalität, um die Restauration des Subjekt-Begriffes als Distribution für eine neue, logische Form der Identität, die Subjektivität und Selbstreflexivität wieder in den Prozess der Logik wieder einbringt. Die Günthersche Mehrwertigkeit seiner Stellenwertlogik basiert gerade nicht auf einer symmetrischen Modelltheorie mit einer linearen Syntaktik. Vielmehr können für die angestrebte Distribution die polykontexturalen, mehrwertigen Stellenwertsysteme verschiedene semantische Belegungen nicht nur eines “klassischen linearen, symmetrischen Kalküls” darstellen, sondern als “reculer pour mieux sauter” gewissermaßen “hinter die Syntaktik” springen. Die so gebildete “Kenogrammatik” als gemeinsame “Struktur” stellt mit ihren zu Morphogrammen zusammenfassbaren Kenogrammsequenzenlediglich Zeichen von leeren Stellen, die gegebenenfalls mit Werten besetzt werden können oder auch nicht” (Gotthardt Günther:“Das Problem einer Formalisierung der transzendental-dialektischen Logik”, 1962, S. 90) dar.

“Die Reflexivität der Form auf der Kenoebene und die Produktion von Struktur über ihre Operatoren macht es möglich, auf der Wertebene Systeme zu modellieren, die sich in der Reflexion auf die Umwelt konstituieren.[…] Eine Kenosequenz ist individuelle Struktur, die nicht über Zeichen fixiert ist (Zeichen für Struktur), sondern eine selbstdifferenzierende Leerstellenordnung und als solche Selbstdarstellung von Struktur. Relationen sind so ohne Rückgriff auf die Form der Identität, der Isolation in einer neuen Form (der Relation) ausgedrückt.” (Joseph Ditterich: “Logikwechsel und Theorie selbstreferentieller Systeme”, http://www.vordenker.de/jditterich/jd_logikwechsel-selbst-referenz.pdf, S. 18)

Trotz der Transformationen der Reflexionszentren bleibt die Struktur der Kenos erhalten, sodass man den klassischen Relationsbegriff um eine “Relativität der Reflexivität” erweitern kann.

Die Anwendung der polykontextural concept auf die KI-Forschung

Die Dreyfus‘sche pessimistische Zirkularität (des hermeneutischen Zirkels) als prinzipielle an Minsky‘s Statement: “There is nor reason to suppose machines have any limitations not shred by men” muss insofern neu gedacht werden, da die Eindeutigkeit und Linearität des Wissens durch das “polykontextural concept” erweitern werden kann. Die vermeintliche “Unhintergehbarkeit der klassischen Logik als Organon” der KI-Forschung in Form der DichotomieFormalisierbarkeit des Binarismus vs. Nichtformulisierbarkeit ganzheitlicher Komplexionen” wird durch die Komplexität und irreduzible Mehrdeutigkeit der Polykontexturalität ersetzbar und dadurch für die Entwicklung von neuen, autopoietischen Algorithmen nutzbar gemacht:

“Die polykontexturale Logik bietet so den Sprachrahmen für das Wechselspiel von Programm und Datenstruktur als Operator und Operand. Wegen seiner Verortung in der Polykontexturalität fungiert ein Programm immer zugleich auch als Datenstruktur in einer anderen Lokalität, und eine Datenstruktur fungiert zugleich auch als Operator in einer anderen Kontextur. Geregelt wird dieses Spiel durch eine Auflösung des Identitätsprinzips in eine Dynamik von Selbigkeit und Gleichheit eines Objekts. Die Polykontexturalitätstheorie gibt den Sprachrahmen zur ´Darstellung´ komplexer linguistischer Strukturen und hat weitreichende Konsequenzen für die Konzeption der Operativität formaler Systeme.” (Rudolf Kaehr:”SUFI’s DRAI: Wozu Diskontexturalitäten in der AI?”1989 auf http://www.vordenker.de/rk/rk_sufis-drai.pdf)

Und damit ist genau das erreicht, was man für die Programmierung der entsprechenden Algorithmen für autopoietische Systeme der starken KI benötigt. Denn genau diese strukturale Offenheit der Polykontexturalität ist eben auch der Grund dafür, dass sie sich so hervorragend als Gegenkonzept zur bisherigen KI-Entwicklung der KI-Forschung und der Bewusstseins-Aufklärung der kognitiven Neurowissenschaften eignet. Die Konstitution von Bewusstsein kann sich beim Menschen als lebendiges System im Sinne des Enaktivismus nur durch eine autonome, adaptive Interaktion mit seinem Körper und seiner Umwelt entwickeln. In Analogie hierzu kann folglich eine KI auch nicht mit fertigen Modulen an vorinstallierten Datenmengen und fixen, vorprogrammierten Algorithmen ausgestattet, so etwas wie Bewusstsein von alleine entwickeln, sondern erst durch die autonome, adaptive, enaktive Interaktion seines senso-motorischen Maschinen-Korpus und seiner dadurch perzeptiv-erfahrbaren Umwelt.

Die Überwindung der strukturalen Konstruktionsfehler der KI-Forschung durch neue concepts

Die strukturalen Konstruktionsfehler in der bisherigen KI-Forschung aber auch in den dazu korrespondierenden kognitiven Neurowissenschaften lag meines Erachtens immer in der Verwendung der falschen, nicht weiterführenden concepts, wie der Annahme eines “Gehirn-Welt“-/”Gehirn-Körper“-/”Bewusstsein-Gehirn“-Dualismus, der nur mit Hilfe eines Reduktionismus zu bewältigen wäre und dann zu automatisch zu “emergenten Phänomenen” wie “1. Person-Perspektiven” oder “Qualia” bei der Maschine oder dem Menschen als Repräsentationalismus führen müsste. Es ging immer im Sinne der “Computer-Analogie” des Funktionalismus um ein Füttern mit Daten, die mit Hilfe von festen, vorprogrammierten Algorithmen in den “Künstlichen Neuronalen Netzwerken” der Maschine analog den biochemisch-elektrischen, physischen Prozessen in den “Natürlichen Neuronalen Netzwerken” des Gehirns nachgebildet werden müssten, damit so etwas wie kognitive Prozesse ausgelöst werden könnten.

Dieses analoge “Computermodell des Geistes” wird bereits durch den Enaktivismus (Varela et al. 1991) verworfen, da es sich bei der Kognition um Prozesse in lebendigen Systemen handelt, die aufgrund der „Kontinuitätsthese von Leben und Geist“ (“continuity thesis of life and mind“) eine Gleichsetzung der Prozesse des Lebens mit den Prozessen der Kognition voraussetzen (Maturana und Varela 1980). Nur durch diesen dynamizistischen, antirepräsentationalistischen Aspekt der autonomen und adaptiven Interaktion (enactivism) als Korrelation zwischen “Gehirn-Körper” (embodiment) oder “Gehirn-Welt” (embededdness) kann sich eine situierte Kognition (extended mind) als Prozess der Sinnstiftung (nestedness) als eine Form von Bewusstsein konstituieren.

Die facts zu den neuen concepts

Dass es hierzu auch empirische Befunde gibt, die diese These stützen, wurde von dem Mediziner und Neurowissenschaftler Georg Northoff und seinem Forscherteam vom Brain and Mind Research Institute Ottawa in zahlreichen Studien zu der raum-zeitlichen Konstitution von Bewusstsein belegt und als “temporo-spatial theory of consciousness” (TTC) formuliert. In diesen Kontext fällt auch die Zusammenarbeit mit britischen Neurowissenschafts-Kollegen Karl Friston von dem Institute of Neurology am University College London, der mit seiner Theorie zum “free energy principle” als Konzept zur energetischen/entropischen “Homöostase die Grundlagen zur Formulierung von kognitiven Systemen auf autopoietischer Basis geschaffen hat.
Das hierbei entwickelte “ecological-enactive” concept des “Bayesian predictive coding/processing” wird häufig in Verbindung mit der möglichen Mathematisierung über die “Markov blankets” (The Markov blankets of life: autonomy, active inference and the free energy principle https://royalsocietypublishing.org/doi/10.1098/rsif.2017.0792) gebracht.

Dieses “Skilled Intentionality Framework” (SIF) (Bruineberg and Rietveld 2014; Ramstead u.a. (2016); Kirchhoff (2015); Gallagher und Bower (2014)) bildet aus meiner Sicht einen sehr vielversprechenden Kandidaten für den “missing link” zur KI-Forschung. In dieser Hinsicht wird (leider) noch viel zu erwarten sein, da dieser Forschungsbereich noch in den “Kinderschuhen” steckt, aber auch schon beachtliche “Fortschritte” in Richtung einer starken KI gemacht hat. Dadurch stellt sich unweigerlich die drängende Frage, ob man eine solche derartige, möglicherweise bedrohliche Technologie, wie die starke KI, überhaupt möchte und falls ja, wie sie zu handhaben sei. Damit möchte ich mich im abschließenden Kapitel zur “Risikofolgenabschätzung” noch eingehender beschäftigen.

 

5. Grundthese: Der Strukturwandel von linearen Problemlösestrategien in komplexe Problemlösestrategien

Norbert Wiener ergänzte 1961 sein Kybernetik-Grundlagenbuch mit zwei weiteren Kapiteln: Über lernende und sich selbst reproduzierende Maschinen (Norbert Wiener: “Kybernetik. Regelung und Nachrichtenübertragung im Lebewesen und in der Maschine” 1963, S. 241–256[…]) Er greift darin die Magie von Goethes Zauberlehrling auf, und er äußert sich sehr kritisch zu den Wohltaten der lernenden Maschine:
„Wenn wir eine Maschine programmieren, um einen Krieg zu gewinnen, müssen wir gut nachdenken, was wir mit Gewinnen meinen. […] Wir können darin nur zu unserem unmittelbaren, äußersten und unentrinnbaren Verderben irren. Wir können nicht erwarten, daß die Maschine uns in solchen Vorurteilen und gefühlsmäßigen Kompromissen folgt, die uns in die Lage setzen, Zerstörung mit dem Namen des Sieges zu benennen. Wenn wir nach dem Sieg fragen und nicht wissen, was wir mit ihm meinen, werden wir das Gespenst finden, das an unsere Tür klopft.“(https://de.wikipedia.org/wiki/Norbert_Wiener#cite_note-Kybernetik-6)

Die Entwicklung einer starken KI bedeutet eben auch in Konsequenz ein autopoietisches “lebendiges” System in silico zu erschaffen, das aus oben genannten Gründen möglicherweise auch in der Lage ist oder sein wird, so etwas wie ein “Maschinen-Bewusstsein” über sich selbst und seine Umwelt zu entwickeln. Aus der anthropozentrischen Sichtweise unseres momentanen neurozentristischen Weltbildes mag dies als reine “science fiction” wirken. Doch warum soll so etwas wie Bewusstsein nur als Exklusivrecht der menschlichen Spezies vorbehalten sein, wenn doch die gleichen Rahmenbedingungen und Korrelationen gegeben sind?

Selbst wenn diese Frage momentan noch hypothetisch klingt, wäre ein Strukturwandel von linearen in komplexe Problemlösestrategien auch allgemein sehr sinnvoll, da man hierdurch zu besseren, präziseren Heuristiken als Risikofolgenabschätzung im Dörner‘schen Sinne kommen könnte. Wir haben wahrscheinlich nur “einen Versuch frei“, daher sollte man sich im Vorfeld besser Gedanken machen als hinterher mit den Konsequenzen leben zu müssen.

Der “Homo Deus” als Dystopie von Morgen

Der Historiker und Yuval Noah Harari zeichnet in seinem Bestsellerbuch “Homo Deus: Eine Geschichte von Morgen” (2020) ein eher düsteres, dystopisches Szenario der KI, in der deren revolutionäres Potenzial nicht mehr durch die Politik kontrolliert wird, sondern die Gestaltung der neuen Gesellschaftsutopien, besser gesagt –dystopien den “Global Playern” und “Technologie-Tycoonen” aus dem amerikanischen Silicon Valley und dem chinesischen Shenzhen überlassen werden. Harari nennt es den «Vertrag der Moderne»:“Die Menschen stimmen zu, auf Sinn zu verzichten, und erhalten im Gegenzug Macht.” (Yuval N. Harari: “Homo Deus: Eine Geschichte von Morgen”, S. 273)

So hat erst vor Kurzem der Tesla-Gründer Elon Musk ein Start-up-Unernehmen aufgekauft, “das an Hirnimplantaten forscht, mit denen es möglich sein soll, das Gehirn mit Computern zu vernetzen. Der Mensch, ist Musk überzeugt, müsse sich langfristig zum Cyborg aufrüsten, sonst werde er inmitten der künstlichen Umgebungsintelligenz überflüssig.” (Adrian Lobe: “Ist die Menschheit bald am Ende …” https://www.zeit.de/kultur/literatur/2017-04/homo-deus-yuval-noah-harari-buchkritik)

“Im 21. Jahrhundert werden wir wirkmächtigere Fiktionen und totalitärere Religionen als jemals zuvor schaffen. Mit Hilfe von Biotechnologie und Computeralgorithmen werden diese Religionen nicht nur jede Minute unseres Daseins kontrollieren, sondern auch in der Lage sein, unseren Körper, unser Gehirn und unseren Geist zu verändern und durch virtuelle Welten zu erschaffen.”(Yuval N. Harari: “Homo Deus: Eine Geschichte von Morgen”)

Harari blickt hierbei ganz unaufgeregt auf die Entwicklung von Computeralgorithmen einer starken KI als Manifestation eines Dataismus und sieht in der Erschaffung von biotechnologischen Mensch-Maschine-Schnittstellen von Cyborgs in Form eines Transhumanismus auch nichts anderes als den konsequenten, weiteren Schritt in der Evolution der Menschheit. In diesem Zusammenhang spricht er von der “großen Entkopplung“.

Die momentanen Möglichkeiten der aktuell-schwachen KI als “non-fiction”

Dass es sich hierbei eben keinesfalls um eine reine “science fiction“, sondern “non-fiction” handelt, kann man schon jetzt an den gegebenen Möglichkeiten der aktuell-schwachen KI zum Beispiel in Form der bereits erwähnten “People Analytic Systems“/”Data Mining“(Google, Facebook & Co.)/”Microtargeting“(“Cambridge Analytica“)-Projekte beispielsweise in der Manipulation von demokratische Wahlen erkennen. Das Ergebnis des “Brexit-Votums” vom “European Union Referendum Act 2015” oder bei der amerikanischen Präsidentschafts-Wahl vom 8. November 2016 lassen eindeutige Rückschlüsse auf eine nachweisbare Manipulation durch die oben erwähnte KI zu.

Die Hacker-Angriffe durch “Bots“, “Cyberwar“-Szenarien oder “Drohnenkriege” als neue Form der militärischen Auseinandersetzung sind ebenfalls nicht sonderlich dazu geeignet von “vertrauensbildenenden Maßnahmen” hinsichtlich der Entwicklung einer starken KI zu sprechen.

Das Ganze wird zusätzlich noch durch den Aspekt verschärft, dass eine starke KI, als ein autonomes, autopoietisches System, wie ich es zuvor versucht habe zu skizzieren, aus meiner Sicht durchaus möglicherweise in der Lage sein könnte, so etwas wie eine “1. Person-Perspektive“, also ein “Maschinen-Bewusstsein” zu entwickeln. Da sich aber schon allein das embodiment und das hiermit implizierte embededdness sich doch sehr radikal von der menschlichen Konstitution von Bewusstsein unterscheidet, kann man mit sehr großer Wahrscheinlichkeit auch nicht von einem “humanoiden Bewusstsein” sprechen, sondern von einer hiervon sehr differierenden Form.

Um so wichtiger erscheint somit die Forderung nach expliziten, ethischen und humanistischen Grundsätzen für die Programmierung einer solchen autonomen, starken KI, da man nach der erfolgreichen Automatisierung wahrscheinlich keinerlei weitere Kontrollmöglichkeiten mehr besitzen wird hier noch verändernd einzugreifen. Es bedarf folglich eines vorgeplanten “Reset-Knopfes” für eine starke KI. Dies zu gewährleisten bedarf es aber schon einer gewissen Risikofolgeabschätzung für die Implementierung einer so revolutionären, omnipotenten Technologie.

Hierzu möchte ich im Folgenden einmal exemplarisch am Beispiel der KI-Entwicklung mögliche Heuristiken im Sinne von komplexen Problemlösestrategien entwickeln, die eine Risikofolgenabschätzung greifbarer machen. Ich möchte dies auch ausdrücklich im verallgemeinerten Sinne für andere Wissenschaftsbereiche der “Neuen Wissenschaft” mit einer eigens implementierten, einzuhaltenden Ethik verstanden wissen.

Das concept des “komplexen Problemlösens” zur Risikofolgenabschätzung

Diesen komplexen Problemlösestrategien liegt das concept des “komplexen Problemlösen” des Psychologen Dietrich Dörner zugrunde, dass er in seinem Standardwerk “Die Logik des Misslingens – Strategisches Denken in komplexen Situationen” von 1989 formuliert hat.

«Komplexität erzeugt Unsicherheit. Unsicherheit erzeugt Angst. Vor dieser Angst wollen wir uns schützen. Darum blendet unser Gehirn all das Komplizierte, Undurchschaubare, Unberechenbare aus. Übrig bleibt ein Ausschnitt – das, was wir schon kennen. Weil dieser Ausschnitt aber mit dem Ganzen, das wir nicht sehen wollen, verknüpft ist, unterlaufen uns viele Fehler – der Misserfolg wird logisch programmiert.» (Rheinischer Merkur)

Diese fehlerhafte Heuristik besitzt eine lineare Problemlösestrategie, die ich zuvor anhand des Reduktionismus und dem damit einhergehenden Dualismus in der wissenschaftlichen Methodik versucht habe nachzuweisen. Als klassisches Beispiel einer fehlerhaften Risikofolgenabschätzung dient sehr häufig die Atomenergie und ihre bis zum heutigen Tage andauernden, negativen Nachwirkungen. Das Beispiel weist alle Eigenschaften einer linearen Problemlösestrategie auf, da man ausgehend von dem Problem A (fehlende Energie) auf linearem Wege nach einer Technik oder einer Strategie B (Atomenergie) gesucht hat, die zu einer Lösung C (unerschöpfliche Energieversorgung) führen sollte. Hierbei hat man aber nicht in Betracht gezogen, dass bei einer solch simplifizierten, linearen Lösung für das Problem A über die Strategie B wiederum neue Probleme A1 bis An (“Polytelie“) generiert werden (wie z. B. die Wiederaufbereitung oder Lagerung des Atommülls, die Folgekosten, die Umweltverschmutzung, die Risiken, etc. pp).

Um aber diese Fehler bei der KI-Entwicklung nicht von Neuem zu begehen, wären hier komplexere Problemlösestrategien gefragt, die z B. Dörner als “Konstrukt der Operativen Intelligenz” auf Seiten des Akteurs wie folgt beschreibt:

    • Informationsgewinnung und -integration
    • Zielausarbeitung und Balancierung
    • Maßnahmenplanung und -entscheidung
    • Selbstmanagement

Auf das Beispiel der KI-Entwicklung bezogen bedeutet dies, dass man bereits schon im Vorfeld durch die “Informationsgewinnung und -integration” alle eventuell auftretenden Probleme A1 bis An zu antizipieren versucht. Daraufhin versucht man in der “Zielausarbeitung und Balancierung” mögliche Techniken t1 bis tn gegeneinander abzuwägen, um sie dann in der “Maßnahmenplanung und -entscheidung” als eventuelle Strategien s1 bis sn als Grob- oder Feinziel oder Nah- oder Fernziel zu formulieren. Die Umsetzung als zu erwartende Lösungen L1 bis Ln müssen in dem sich selbst-evaluierenden Prozess des “Selbstmanagement” immer wieder auf ihre Effizienz aber auch Risiken überprüft werden. Durch diesen “feedback-loop” können die komplexen Problemlösestrategie zu einer immer besseren Heuristik ausgearbeitet werden. Und erst, wenn man diesen theoretischen Prozess mehrfach simuliert und durchlaufen hat, kann man hergehen und eine praktische Umsetzung in Angriff nehmen. Als bildliche Analogie kann man dies mit einem System von ineinander greifenden, verschiedenen Zahnrädern vergleichen, bei denen das Drehen an einem Rädchen zum Drehen der anderen Rädchen führt (s. “Chaos-Theorie“).

Die Eigenschaften komplexer Systeme, die bei den zu entwickelnden, komplexen Problemlösestrategien miteinbezogen und berücksichtigt werden müssen, sind:

  • Anzahl der Elemente (einfache vs. komplexe Probleme) – Komplexität
  • Anzahl und Dichte der Verknüpfung zwischen den Elementen (gering vs. hoch vernetzte Probleme) – Vernetztheit
  • Anzahl der Ziele (Probleme mit einem und Probleme mit mehreren evtl. konfligierenden Zielen) – Polytelie
  • Bekanntheit der Verknüpfungen und der Wirkungsbeziehungen (transparente vs. intransparente Probleme) – Intransparenz
  • Ausmaß der Eingriffsabhängigkeit des Systems (statische vs. dynamische Probleme) – Dynamik

Diese Faktoren komplexer Systeme – wie sie die starke KI nun einmal darstellt – müssen bei der Entwicklung komplexer Problemlösestrategien berücksichtigt werden, um bessere Heuristiken zur Risikofolgeabschätzungen zu gewinnen. Diese Forderung möchte ich ausdrücklich nicht nur in Hinblick auf die KI-Forschung, sondern auf die gesamte Wissenschaftsethik einer “Neuen Wissenschaft” mit einer “Neuen Metaphysik” verstanden wissen. Denn welche Auswirkungen der in einem Buch “Data-ism: The Revolution Transforming Decision Making” (2015) von Steve Lohr untersuchte, besagte Dataismus jetzt schon auf die Gesellschaftsformen und die Medienwirklichkeit hat, beabsichtige ich in meinen nächsten, geplanten Essays zur “Medientheorie” unter Einbeziehung von Neil Postmans Die zweite Aufklärung. Vom 18. ins 21. Jahrhundert” (1999) noch eingehender untersuchen.

© philosophies.de

 

Author: philosophies

4 thoughts on “Das System braucht neue Strukturen

  1. Über 8000 Worte mag ich meinen Respekt zollen! Danke für die Fülle an Informationen und Gedanken, Dirk!

    Du weißt, dass ich persönlich eine starke KI anzweifle, wie du es andeutest, ein bedrohliches Eigenleben entwickeln zu können. Daher konzentriere ich mich in guter, alter Manier des Kritischen Rationalismus auf Argumente, welche die Potenz hätten, falsifizierend zu wirken. Zentral ist in deiner Argumentation, dass es Programme gäbe, welche selbst lernend eine Eigendynamik im Sinne eines autopoietischen Systems realisieren, was der hinreichende Schritt zu einer starken KI wäre.

    Im ersten Moment – auch mit Kenntnis der Informatik – würde ich hier gern Zweifel ansetzen: Was unterscheidet diesen “dynamischen” Algorithmus von jedem anderen Algorithmus im Sinne einer schwachen KI, “Entscheidungen” durch Gewichtungen in neuronalen Netzwerken herbeizuführen? Ab wann handelt es sich um ein autopoietisches System, welchem ich mehr Potenz zu einem künstlichen Bewusstsein als jedem anderen Algorithmus zutrauen sollte?

  2. Lieber Christian,

    ich danke Dir vielmals und muss Dir ebenfalls Respekt zollen, dass Du die Mühe auf Dich genommen hast und Dich durch die “8000 Worte” meines “neuen Pamphletes” durchgearbeitet hast.

    Dies ist schon mal eine große Leistung für sich, aber Du stellst natürlich direkt auch die richtige “Gretchenfrage” zum Thema in der “guten, alten Manier des Kritischen Rationalismus”, wie ich es mit dem Algorithmus “halte”. Dies ist in der Tat zusammen mit der Entwicklung der entsprechenden Sensomotorik für einen adäquaten Enaktivismus der situierten Kognition eines der Basiselemente als “hinreichender Schritt” zur Konstitution einer autopoietischen, starken KI.

    Ich habe diese Aspekte zur Entwicklung eines “dynamischen Algorithmus“, wie Du ihn nennst, in meinem Text als extra ausgespart, da ich potentielle LeserInnen nicht noch mehr mit diesen technischen Details verschrecken wollte. Da Du ja aber vom Fach bist, möchte ich gerne ein wenig präsziser auf Deine berechtigten Fragen eingehen. Ich beziehe mich hierbei explizit auf den zu diesem Thema sehr lesenswerten Artikel “Die Neuauflage von Das Bewußtsein der Maschinen” (2002) von Eberhard von Goldammer und Joachim Paul der auf ebenfalls sehr spannenden Webseite “vordenker.dehttps://www.vordenker.de/ggphilosophy/dbdm_einfuehrung.pdf erschienen ist und sich auf das Buch Gotthardt GüntherDas Bewußtsein der Maschinen” (1963) http://www.vordenker.de/ggphilosophy/gg_bewusstsein-der-maschinen.pdf bezieht. Wirklich super spannend und sehr lesenswert!

    In dem besagten Artikel von Goldammer/Paul (2002) wird die “Theorie Polykontexturaler Systeme” (S. 12) genauer erklärt. Die moderne KI-Forschung habe sich an den “Eigenschaften lebender Systeme” als “strukturelle Voraussetzung einer Theorie lebender Systeme” zur Entwicklung von “kognitiven Fähigkeiten” bei der KI zu orientieren:

    “Lebende Systeme sind kognitive Systeme, und Leben als Prozeß ist ein Prozeß der Kognition. Diese Aussage gilt für alle Organismen, ob diese ein Nervensystem besitzen oder nicht.[40] (2)
    Diese Aussage wird noch ergänzt durch die Feststellung, daß lebende Systeme nicht nur autonom, sondern darüber hinaus auch noch organisatorisch geschlossen seien:
    Closure Thesis:
    Every autonomous system is organizationally closed…. organizational closure is to describe a system with no input and no output … [41] “

    Dieses “autonomen Modelle” der aktuellen KI-Foschung werden mit Hilfe von “autonomen Agenten” versucht zu realisieren. Hierbei tritt dann allerdings (klassisch)logischerweise das “Problem der Geschlossenheit” auf, da diese I/O-Systeme als “physikalisches System” automatisch in Konflikt zu seinem eigenen “Prozeß der Kognition” gerät, aufgrund der “kybernetischen Definition“:

    “Ein kognitives System ist ein lebendes (oder technisches) System, welches in der Lage ist, zwischen sich und seiner Umgebung (aus eigener Leistung) eine Unterscheidung treffen zu können.”

    Ein Roboter mit einer starken KI benötigt folglich eine “Selbstrückbezüglichkeit” und “Selbstreferentialität“, um “sogenannte mentalen Prozesse, wie Erkennen (Kognition) und Wollen (Volition) oder wie Lernen,[…] entwickeln zu können. Dies führt unweigerlich zu “logischen Zirkularitäten” oder “logischen Widersprüchen“, zu deren Lösung es nur 3 Möglichkeiten gibt: “a) Man ignoriert das Problem, wie es die heutige KI-Forschung tut, oder b) man leugnet das Problem – das gibt es auch! -, oder c) man versucht die Logik und Mathematik entsprechend zu erweitern.” (S. 14)

    Und jetzt komme ich zu Deiner Frage zu diesem “dynamischen Algorithmus”, da man hierzu die besagte polykontexturale, transklassiche Logik von Gotthardt Günther benötigt.

    Bei dem “Problem der Selbstreferentialität” in den “Modellen der künstlichen neuronalen Netzwerken” geht die bisherige KI-Forschung immer von entsprechenden “Datenfiltern” aus, bei der folgendes Procedere abläuft:

    “Legt man nun das Muster_1 am Eingang des Netzes an, so werden die Verbindungen zwischen den gezeigten Knoten im Netz durch den Algorithmus_1 (bewirkt durch die Anweisungen des Computer-Programms, die wir mit O1 bezeichnen wollen) solange verändert, bis am Ausgang das Muster_1 erscheint. Nach diesem Adaptionsprozeß, der von den Neuroinformatikern auch als Lernprozeß[45]1 oder je nach Modell als Selbstorganisation bezeichnet wird, kann von dem Netz nun auch ein gestörtes Muster noch richtig erkannt werden.” (S. 15)

    Ein “Umkehrungslernen“: “Lernt das Netz etwas über die Umkehrung, also über den Wechsel von Muster_1 nach Muster_2, und zwar ohne daß dies vorprogrammiert wurde? D.h. erreicht das Netz die Adaption der einzelnen Muster in kürzerer Zeit?” (S. 15) beherrschen diese schwachen KI-Systeme noch nicht. Hierzu bedarf es des “Prozeßes der Adaption des Netzes“:”Es müssen mindestens zwei Algorithmen3 simultan parallel miteinander agieren, um den Prozeß des Umkehrungslernens zu bewerkstelligen.”(S. 16).

    Dies entspricht dem klassischen Modelle einer “TuringMachine (TM)” als “universelles Maschinenmodell“, das auf der bisherigen Vorstellung eines klassischen Algorithmus als eine “endliche Folge von eindeutig bestimmten Elementarvorgängen, die den Lösungsweg eines Problems oder den Ablauf eines Prozesses exakt und vollständig beschreiben.” Jeder algorithmische Prozess auf der klassischen TuringMaschine muss zwangsläufig “sequentiell” mit Hilfe der “Konzeption der natürlichen Zahlen, der Peano-Zahlen” ablaufen. Damit widersprechen die TuringMaschinen, wie sie die KI-Forschung derzeit entwickeln, automatisch dem zuvor genannten Konzepten der “Selbstrückbezüglichkeit” und “Selbstreferentialität” der zur Entwicklung einer starken KI aufgrund der “simultanen Parallelität von Prozessen und Algorithmen” benötigt werden:

    “Auf der Grundlage des Turingschen Paradigmas (7), welches besagt, daß der gesamte Prozeß (6) sequentiell auf eine TM abgebildet werden kann, ist die Forderung, daß der Algorithmus sich eigenständig verändern soll, unsinnig, d.h. es ist eine prinzipiell nicht erfüllbare Forderung. Wenn wir im Bilde des Turingschen Funktionsschemas bleiben, dann kann sich eine TM nicht aus sich heraus verändern, ohne – um es einmal etwas salopp auszudrücken – daß sich die TM in Folge eines Umbaus ihrer selbst vorübergehend abstellt, nach dem Motto, wegen Umbau vorübergehend geschlossen.” (S.18)

    Zur “Selbstorganisation von Algorithmen und Daten” würde man folglich “simultan parallel inter-agierende TMs” benötigen, die aber im Sinne des Holismus oder als “Anti-Reduktionismus” auf der “Funktionalität der Gesamtheit” basieren, also nicht dem mereologsichen Fehlschluss unterliegen, den Kurt Gödel 1931 (“Unvollständigkeits-Theoreme“) für die Arithmetik aufgezeigt hat. Es bedarf einer “Polylogischen Maschine (PLM)” im Güntherschen Sinne, die aufgrund ihrer Polykontexturalität diesen scheinbaren logischen Widerspruch zu lösen hilft.

    Für die verschiedenen “Strukturbereiche“, die Kontexturen der Adaptions- und Kognitions-Prozesse der starken KI, benötigt man “inter-kontextural wirkende Operatoren“:

    “Solche Operatoren sind durch die Transjunktion gegeben, aber auch die inter-kontexturalen Negationen von Kontexturen sind logische Operatoren, die nur inter-kontextural, also zwischen verschiedenen Kontexturen einen Sinn ergeben. Solche Operatoren kann es in einer mono-kontexturalen Logik nicht geben. Alle uns heute bekannten Logik-Konzeptionen – wie die Aussagenlogik, die Prädikatenlogik erster oder höherer Stufe, die Modal- oder die Zeitlogik, die probabilistischen Logiken, die nicht-monotonen oder die parakonsistenten Logiken usw. – gehören in die Klasse der mono-kontexturalen Logik-Konzeptionen. Die Polykontexturallogik kann man als einen vernetzten parallelen Kalkül auffassen, der notwendig, jedoch noch nicht hinreichend ist, um simultane Parallelität mit Hilfe von TMs im Sinne der oben benannten PLM zu realisieren.” (S. 19)

    Das Konzept der “linearen Sequenz der natürlichen Zahlen” wird in eine “mehrdimensionale Leerstellenschriftstrukur” in den entsprechend zu programmierenden Algorithmen umgewandelt, “in welcher die Kontexturen jeweils eingeschrieben und damit indiziert werden können”:

    “Diese Leerschriftstellenstruktur fundiert sich in der Keno- und Morphogrammatik und spiegelt sich in dem polykontexturalen System der Kenoarithmetik sowie den qualitativen Zahlen wider.[50] Letztere sind flächige Zahlen, bei denen nicht der Wert, also die Quantität von Bedeutung ist, sondern bei denen die Struktur, das Muster jeweils charakteristisch ist. In der Theorie der Polykontexturalität sind es demzufolge nicht die Werte, wie in der klassischen Logik, die von Bedeutung sind, sondern die Leerstrukturen, die Kenogramme, die Muster, die mit ‘Werten’ (Indizes) besetzt (indiziert) oder eben nicht besetzt (indiziert) werden können.” (S. 19)

    Rudolf Kaehr als Schüler von Gotthardt Günther hatte diese “Leerschriftstellenstruktur” weiter formalisiert. Gotthardt Günther hatte mit seiner in den 70er Jahren entwickelten “Theorie der Polykontexturalität” das theoretische Fundament für die von Kaehr weiter formalisierte “Keno- und Morphogrammatik” eines “vernetzten Kalküls der Polykontexturallogik” gegeben, auf dessen Basis man nun heute entsprechende polylogische Maschinen (PLM) entwickeln kann, die auch den Namen “starke KI” verdienen könnten. Hierzu könnte Dich auch das Kapitel “Cognition and Volition – Erkennen und Wollen” (S. 20-22) auch noch interessieren, da es hier um die von Dir erwähnten “Entscheidungen” durch Gewichtungen in neuronalen Netzwerken herbeizuführen” geht.

    Ich musste das Ganze aufgrund der gegebenen Kürze ein wenig eklektizistisch zusammenfassen, stehe Dir aber für weitere tiefergehende Nachfragen gerne zur Verfügung.

    Vielen Dank für Dein Interesse und hoffentlich habe ich mit dem Ganzen nur Unrecht 😉

    Liebe Grüße

    Dirk

  3. Dear R. B.,

    thank you very much for your inquiry, but first of all I would be interested to know why you could not access my essay. Were there any technical problems or did you overlook the Google Translater? This is a shame, since I went into detail in the said essay on your question. But to answer your question briefly.

    Yes, I am convinced that machines in the form of “strong AI” will also be able to develop a “1st person perspective” or something like “self-awareness”. I would like to give the following reasons for this:

    1. Only from our human, neurocentric point of view does “consciousness” represent something special or exclusive, which from my point of view it is not.
    2. “Consciousness in a 1st person perspective” in my opinion nothing more than a structural “brain-body-environment”-relation (Northoff), which could develop in the course of evolution in the sense of an enactivism (Varela/Maturana).

    3. An autopoeitic machine with corresponding sensorimotoric, self-referential feedback-processes can at some point recognize itself autonomously and self-learning on the basis of polycontextural algorithms.

    4. Unfortunately, I cannot say exactly what such a “machine consciousness” might look like. But one thing is for sure, due to the different “embodiment” and “embededdness” of humans, it will definitely not be comparable to human consciousness. For this reason, I also tried to point out the possible dangers of such a strong AI in the sense of a “risk impact assessment”.

    I hope I was able to answer your question and thank you for your interest.

    Many greetings
    philosophies.de

  4. Dear Mr. R. B.,

    thanks for your interest.

    As I said, I have a “Google Translator” (also a weak form of AI, by the way) on my website that translates reasonably well into English (I think after the investment of 12 billion US dollars in Apple it should actually work somehow; ;-).

    But to your question. Yes, from my point of view nothing speaks against the fact that “machines” can also develop a “self”, which must definitely be differentiated from a “human self”.

    In my opinion, this also causes the problem mentioned that “emotions such as empathy or sympathy and therefore behave ethically” cannot necessarily be expected.

    For this reason I continue to appeal very strictly for a risk assessment.

    Many greetings
    philosophies.de

Ich würde mich über einen Kommentar von Euch sehr freuen.