Evolutionstheorien in einer strukturenrealistischen Betrachtung

Evolutionstheorien in einer strukturenrealistischen Betrachtung

Leben als autopoietisches System – Versuch einer strukturenrealistischen Aufklärung –

Teil 2 „Evolutionstheorien in einer strukturenrealistischen Betrachtung“

 

Abstract

Der hier vorliegende Teil 2 Evolutionstheorien in einer strukturenrealistischen Betrachtung“ stellt den weiterführenden Essay zu dem gemeinsamen Projekt „Leben als autopoietisches System – Versuch einer strukturenrealistischen Aufklärung -„ dar, das ich zusammen mit Herrn Dr. Wolfgang Stegemann als Joint-Venture gestartet habe.

Im ersten Teil, den ich bereits als Gastbeitrag Selbstorganisation von innen betrachtet – oder: wie funktioniert Leben auf meiner Seite veröffentlicht habe, ging es hauptsächlich darum die Selbstorganisation des Lebens als autopoietisches System darzustellen. Herr Stegemann hatte in seinem Artikel schon einmal den Untersuchungsbereich abgesteckt. Es sollte um eine „Innenbetrachtung der Selbstorganisation von Leben“ gehen, die in die Arbeitsauftrag mündete: „Aber was ist Selbstorganisation, wie funktioniert sie oder einfach ausgedrückt, wie funktioniert Leben?

Diesen Auftrag möchte ich nun in diesem zweiten Teil gerne aufgreifen und einen Aufklärungsversuch der Selbstorganisation von Leben mit Hilfe eines strukturenrealistischen Ansatzes starten. Zu diesem Zwecke möchte ich zunächst einmal das Ausgangsproblem in der Darwinschen Evolutionstheorie beschreiben, die als Beispiel für die Unterdeterminiertheit empirischer Theorien durch die Evidenz (Bas van Fraassen) gelten kann.

Die Evidenzen zu der Evolutionstheorie nach Darwin weisen darauf hin, dass es eine Unterdeterminiertheit hinsichtlich ihrer empirischen Adäquatheit gibt, die auch mathematisch nachweisbar ist. Daran anschließend möchte ich neue mathematische Ansätze der Forschungsgruppe Stochastische Evolutionäre Dynamik aus dem Max-Planck-Institut für Evolutionsbiologie darstellen. Hieran soll dann die Überleitung zum Strukturenrealismus erfolgen, der sich explizit nicht auf die dualistische und reduktionistische Differenz von „innen vs. außen“ bezieht, sondern den selbstreferentiellen Prozess der strukturalen Kopplung des Lebens mit seiner Umwelt im Sinne einer mehrwertigen Logik nach Gotthard Günther zu beschreiben versucht. Methodisch möchte ich zunächst einmal 5 Axiome zum Leben aufstellen, woraus ich dann Postulate zur möglichen Entstehung von Leben ableite. Hierbei habe ich mich bei dem Formalismus und der Begrifflichkeit von der „Integrated Information Theory“ (IIT) nach Guilio Tononi inspirieren lassen.

 

Survival of the fittest“ – vom Überlebenskampf der Evolutionstheorien

Als der britische Naturforscher Charles Darwin (1809 – 1882) im Sommer 1858 endlich nach über 20-jähriger Arbeit seine Theorien über die Evolution als „Natural Selection“ und ein Jahr später 1859 sein bahnbrechendes Hauptwerk On the Origin of Species veröffentlichte, kam es in den darauf folgenden Jahren und Jahrzehntem zu einem der bereits beschriebenen Kuhnschen „wisenschaftlichen Revolutionen in der sich erst konstituierenden Biologie. Hierauf baute die sich später bildende Teildizplin der Evolutionsbiologie bis heute auf und es liegt auch keinesfalls in der Absicht des Autors die hierin enthaltenen 5 Grundprinzipien im Kern anzugreifen:

 

  1. die Evolution als solche, die Veränderlichkeit der Arten;
  2. die gemeinsame Abstammung aller Lebewesen;
  3. den Gradualismus, die Änderung durch kleinste Schritte;
  4. Vermehrung der Arten beziehungsweise Artbildung in Populationen
  5. und die natürliche Selektion als wichtigsten, wenn auch nicht einzigen Mechanismus der Evolution. (Charles Darwin: On the Origin of Species by Means of Natural Selection, or The Preservation of Favoured Races in the Struggle for Life , 1859)

Auch eine dazu konkurrierende, frühere Evolutionstheorie des französischen Biologen Jean-Baptiste de Lamarck (1744–1829) mit ihren 2 Grundthesen zum Zusammenspiel zweier Faktoren:

1. ungerichtete Adaptation an äußere Veränderungen

2. linearer Fortschritt auf einer linearen Leiter der Komplexität

stand zwar im „Überlebenskampf“ zu Darwins Evolutionstheorie. Sie hat sich aber in Form der modernen Epigenetik zum Teil vererben können, wobei aber die Gerichtetheit des „linearen Fortschritts“ zugunsten der Probabilistik der „natürlichen Selektion“ Darwins geopfert werden musste.

Die oben genannten Grundprinzipien der Evolutionstheorie sollen hier nicht in Frage gestellt werden, da sich der Autor ausdrücklich vom unwissenschaftlichen Kreationismus distanzieren möchte. Die Frage geht viel tiefer – im wahrsten Sinne des Wortes – in die Materie. Wie aus toter Materie so etwas wie Leben überhaupt entstehen konnte und wie die Materie es bis heute schafft sich zu organisieren. Denn an einem leider oft von den Kreationisten angeführtem Argument könnte aus mathematischer Sicht der Stochastik tatsächlich etwas dran sein:

„Um ein einziges mittelgroßes menschliches Protein zu erschaffen, musste die Evolution mehr als 300 Aminosäuren in der richtigen Reihenfolge zusammenfügen. Das könne kein Zufall gewesen sein. Denn da jedes Glied eines Moleküls aus einer von 20 möglichen Aminosäuren besteht, gibt es mehr als 20300 Möglichkeiten, so ein Protein aufzubauen. Neben einer solchen Zahl wirkt selbst die Anzahl der Atome im beobachtbaren Universum vernachlässigbar klein. Selbst wenn man Redundanzen, die einige Sequenzen aus biochemischer Sicht gleichwertig machen, nicht mitrechnet, wäre es tatsächlich höchst unwahrscheinlich, dass die Evolution die richtige Kombinationen rein durch zufällige Mutationen finden kann, selbst nach Jahrmilliarden.

Doch das Argument der Kreationisten hat einen entscheidenden Haken: Die Evolution testet genetische Sequenzen nicht allein nach dem Zufallsprinzip. Sie arbeitet mit natürlicher Auslese und hat darüber hinaus vermutlich Wege gefunden, den unermesslichen Raum genetischer Möglichkeiten auf kleinere, erforschbare Teilgebiete einzugrenzen.“ (Jordana Cepelewicz: Algorithmen üben Evolution, in: Spektrum.de – IT/Tech – Lässt sich Evolution mit Mathematik und Algorithmen modellieren?, 2019)

In dieser Hinsicht versagen also die alten Modelle der Evolutionstheorie und bedürfen einer stochastischen Erweiterung in informationstheoretischer Hinsicht. Das Argument „Zufall“ und „Auslese“ reicht hierfür alleine nicht mehr aus. Es muss eine auch eine besagte„Selbstorganisation des Lebens als autopoietisches System“ von innen geben; ohne hierbei allerdings in den alten Dualismus „innen vs. außen“ verfallen zu müssen. Einen Ausweg aus dem Dilemma könnte hierbei die Stochastische Evolutionäre Dynamik liefern, die mit Hilfe von Algorithmen hauptsächlich populationsgenetische und epidemiologische Simulations-Modelle entwickelt, die sich aber auf das große Ganze durchaus übertragen lassen.

 

Die „Evolutionary Graph Theory“ (EGT) – es lebe die Mathematik

Evolutionary dynamics on double stars. Consider a double-star graph G (Panel A) consisting of a left and a right star connected by the centers, and the resulting interaction hypergraph B (Panel B) constructed following the graph approach. In the graph approach, G is taken as the replacement graph (Panel C). In this case, and for a wide range of values of r , spreading occurs preferentially from the centers (or hubs) to their respective leaves. Long-term evolution will ultimately depend on inter-hub competition, which is favorable to C-hubs due to the positive and negative feedback mechanisms brought about by the spreading from centers to (own) leaves. In the bigraph approach, the replacement graph is given by the projection of the interaction bigraph (Panel D), so that the center of one start gets connected to the leaves of the other star and leaves of the same star get connected with each other. This not only allows successful centers to breed copies of themselves in the leaves of the other star, but also makes inter-leaf competition possible, which is favorable to Ds if r v 4 . As a result, the feedback mechanisms on which the evolution of cooperation on heterogeneous graphs is based are diminished and the evolutionary outcome is more favorable to Ds. This is illustrated in Panels E and F, which show typical scenarios for the time evolution of the fraction of Cs under the distributed NPD ( r ~ 1 : 3 ) on the leaves of double-star graphs (Panel E: X ~ 10 , Y ~ 20 ; Panel F: X ~ 20 , Y ~ 10 ), for replacement graphs given by the OG, UP, UWP and NWP methods. In all cases we placed Cs on all nodes of the double-star, except for the left center, where we placed a D (see configurations a and e of Panel G). If the replacement graph is given by the original graph (OG), the dynamics are such that, typically, the D-center invades the leaves of his star (configuration b ), then the C-center invades the D-center ( c ) and finally D-leaves on the left star are invaded by the C-center ( d ). When the replacement graph is given by the projection of the interaction graph, Ds can now easily spread from the initial center until they invade the whole population ( e , f , g ). Weights attached to the links of the projection play a key role in this case, with NWP still favoring Cs when the connectivity of the left star is small compared to that of the second star ( e , f , h , i ). See section 3 of Text S1 for the analytical derivation of the results shown in this figure. doi:10.1371/journal.pone.0044514.g004

(Evolutionary dynamics on double stars. (Quelle: https://www.researchgate.net/figure/Evolutionary-dynamics-on-double-stars-Consider-a-double-star-graph-G-Panel-A_fig4_230834619)

 

„Die evolutionäre Graphentheorie ist ein Forschungsgebiet, das an der Schnittstelle von Graphentheorie, Wahrscheinlichkeitstheorie und mathematischer Biologie liegt. Die evolutionäre Graphentheorie ist ein Ansatz zur Untersuchung der Auswirkungen der Topologie auf die Evolution einer Population. Dass die zugrundeliegende Topologie einen wesentlichen Einfluss auf die Ergebnisse des Evolutionsprozesses haben kann, wird am deutlichsten in einer Arbeit von Erez Lieberman, Christoph Hauert und Martin Nowak[1].

In der evolutionäre Graphentheorie besetzen die Individuen die Knoten eines gewichteten, gerichteten Graphen, und das Gewicht wi j einer Kante vom Knoten i zum Knoten j gibt die Wahrscheinlichkeit an, dass i an die Stelle von j tritt. Eine Eigenschaft, die bei Graphen mit zwei Arten von Individuen untersucht wird, ist die Fixierungswahrscheinlichkeit, die als die Wahrscheinlichkeit definiert ist, dass eine einzelne, zufällig platzierte Mutante des Typs A eine Population des Typs B ersetzt. Nach dem Isothermen-Theorem hat ein Graph nur dann die gleiche Fixierungswahrscheinlichkeit wie der entsprechende Moran-Prozess, wenn er isotherm ist, d. h. die Summe aller Gewichte, die zu einem Knoten führen, ist für alle Knoten gleich. So beschreibt z. B. ein vollständiger Graph mit gleichen Gewichten einen Moran-Prozess.“ (Quelle: https://en.wikipedia.org/wiki/Evolutionary_graph_theory übersetzt ins Deutsche mit DeepL Translate).

Au ha! Dieses anspruchsvolle mathematische Konstrukt lässt sich vielleicht am besten mit dem Konzept der Metastrukturen in Herrn Stegemanns Artikel aus Teil 1 unseres Projektes vergleichen und damit vielleicht verständlicher erklären:

„Nehmen wir ganz allgemein z.B. ein zweidimensionales abstraktes Netzwerk mit n Knoten. Erfährt dieses Netz eine Zustandsänderung, so verschieben sich die Knoten und bilden an einer bestimmten Stelle einen Bereich mit einer höherer (Informations-) Dichte. In biologischen Systemen wird diese Dichte genetisch gespeichert und bildet eine metastrukturelle Steuereinheit (aus).“

Soll heißen, dass Strukturen eine Selbstreferentialität besitzen, die aufgrund von stochastischen, linearen Verteilungen beschrieben werden können. In der evolutionären Graphentheorie (EGT) entstehen struktural-gekoppelte Graphen mit unterschiedlichen Gewichtungen in den Knotenpunkten. Wenn man so möchte eine informationstheoretische Selbstorganisation des autopoietischen Systems von innen um Informationen mit möglichst geringer Zeichenmenge mit einer möglichst großen Informationsdichte zu vererben.

Diese nach dem russischen Mathematiker Andrei Nikolajewitsch Kolmogorow benannte Kolmogorow-Komplexität „ist ein Maß für die Strukturiertheit einer Zeichenkette und ist durch die Länge des kürzesten Programms gegeben, das diese Zeichenkette erzeugt. Dieses kürzeste Programm gibt somit eine beste Komprimierung der Zeichenkette an, ohne dass Information verloren geht.“ (https://de.wikipedia.org/wiki/Kolmogorow-Komplexit%C3%A4t)

Die Kolmogorow-Komplexität hat allerdings den entscheidenden Haken, dass sie nicht berechenbar ist. Hier kommt dann die später noch zu erläuternden Bayes-Netze und Markow-Ketten ins Spiel. Aber zumindest hat man hiermit schon einmal einen neuen Ansatzpunkt gewonnen, um die Selbstorganisation von Leben nicht alleine dem reinen Zufall zu überlassen. Der Faktor „Zufall“ hat nämlich die unangenehme Eigenschaft eine viel zu große Menge an Freiheitsgraden zu besitzen, die zu einer viel zu großen Menge an Auswahlmöglichkeiten führen würde und damit viel zu viel Zeit und Energie kosten würde. Bei 20300 Möglichkeiten allein für ein Protein kann man sich vielleicht vorstellen, dass die probabilistischen Möglichkeiten für Bildung eines lebendigen Organismus in schwindelerregende Größenordnungen gehen. Also muss die Natur einen Weg gefunden haben sich von dem reinentrial and error zu lösen. Also das „Rad jedes mal neu zu erfinden“, sondern so etwas wie genetische Algorithmen zu entwickeln, die wie Heuristiken wirken können. Diese sogenannten „genetischen Algorithmen“ finden ebenfalls Verwendung in der Programmierung, um Redundanzen zu vermeiden, strukturierter zu coden und damit Zeit und Energie zu sparen.

Genetische Algorithmen starten immer mit einer Hand voll zufällig gewählter Lösungen. Die sind in der Regel noch nicht gut. Allerdings werden die Lösungen in genetischen Algorithmen als Organismen aufgefasst, deren Merkmale in einer Art genetischem Code beschrieben sind. Dieser Code wird dann, wie in der Evolution, einer Kombination von Manipulationen unterzogen. Das können zufällige Mutationen sein oder Eingriffe, die die genetischen Mischprozesse in der Natur nachahmen. So entsteht eine weitere Generation von Organismen, die wiederum auf ihre Fitness getestet werden, also die Fähigkeit, die Aufgabe zu lösen. Wiederholt man diese Schritte, kann das zu hochgradig angepassten Individuen führen: zu guten Lösungen für das vorliegende Problem.“ (Jordana Cepelewicz: Algorithmen üben Evolution, in: Spektrum.de – IT/Tech – Lässt sich Evolution mit Mathematik und Algorithmen modellieren?, 2019)

Die genetischen Algorithmen der Evolutionary Graph Theory werden wiederum in der Stochastischen Evolutionäre Dynamik verwendet, um dort populationsgenetische und epidemiologische Simulations-Modelle in silico durchzuspielen. Ziel hierbei ist es die Evolutionäre Dynamik zum Beispiel von Bakterienstämmen in vitro besser abzubilden und hieraus Rückschlüsse auf die Selbstorganisation von Leben zu erreichen.

 

Bayes-Netze und Markov-Ketten – oder wie zufällig ist der Zufall

Um die Selbstorganisation autopoietischer Systeme in der Evolutionary Graph Theory besser struktural beschreiben zu können, bedarf es einer mathematischen Formulierung der Stochastik in Form der Bayes-Netze und Markow-Ketten, damit die propagierten Metastrukturen berechenbar werden. Es gilt hierbei den dynamischen Prozess mit seinen stochastischen Elementen abzubilden und hierbei die speziellen bedingten Unabhängigkeiten zu berücksichtigen. Anders ausgedrückt, es wird untersucht, ob man die probabilistische Struktur der Evolution als Algorithmus in einem Simulationsmodell nachbilden kann.

Directed graph, cyclic
Ein gerichteter Graph mit Zyklus

 

Directed acyclic graph
Ein gerichteter Graph ohne Zyklus

 

CPT-Graphs-directed-weighted-ex1
Multigraph: Mehrfachkanten werden durch eine gewichtete Kante visualisiert

(Quelle: https://de.wikipedia.org/wiki/Graph_(Graphentheorie)

 

„Ein bayessches Netz oder Bayes’sches Netz (benannt nach Thomas Bayes) ist ein gerichteter azyklischer Graph (DAG), in dem die Knoten Zufallsvariablen und die Kanten bedingte Abhängigkeiten zwischen den Variablen beschreiben. Jedem Knoten des Netzes ist eine bedingte Wahrscheinlichkeitsverteilung der durch ihn repräsentierten Zufallsvariable, gegeben die Zufallsvariablen an den Elternknoten, zugeordnet. Sie werden durch Wahrscheinlichkeitstabellen beschrieben. Diese Verteilung kann beliebig sein, jedoch wird häufig mit diskreten oder Normalverteilungen gearbeitet. Eltern eines Knotens v sind diejenigen Knoten, von denen eine Kante zu v führt.

Ein bayessches Netz dient dazu, die gemeinsame Wahrscheinlichkeitsverteilung aller beteiligten Variablen unter Ausnutzung bekannter bedingter Unabhängigkeiten möglichst kompakt zu repräsentieren. Dabei wird die bedingte (Un)abhängigkeit von Untermengen der Variablen mit dem A-priori-Wissen kombiniert.

Sind X1, …, Xn einige der im Graphen vorkommenden Zufallsvariablen (die abgeschlossen sind unter Hinzufügen von Elternvariablen), so berechnet sich deren gemeinsame Verteilung als

Bayes-Netze

Dabei ist P ( X 1 , … , X n ) eine symbolische Schreibweise für die gemeinsame Wahrscheinlichkeitsverteilung der Zufallsvariablen X 1 , … , X n. Hat ein Knoten keine Eltern, so handelt es sich bei der assoziierten Wahrscheinlichkeitsverteilung um eine unbedingte Verteilung.

Wie im Beispiel unten, interessiert man sich häufig für eine Randwahrscheinlichkeit, die man durch Marginalisierung über alle möglichen Realisierungen x j im Zustandsraum E j der Zufallsvariable X j erhält:

Bayes-Netze-Randwahrscheinlichkeit

“ (https://de.wikipedia.org/wiki/Bayessches_Netz)

Und ohne auf die hier verwendete Mathematik eingehen zu wollen und müssen, taucht hier die vorab formulierte „Vererbungslehre der Informationen“ in der Evolutionary Graph Theory wieder auf. Die gemeinsame Wahrscheinlichkeitsverteilung P der Zufallsvariablen X 1 , … , X n ist nur noch abhängig von den bedingten Knoten der „Eltern“-Zufallsvariablen. Existieren keine „Eltern“-Zufallsvariablen für einen bestimmten Knoten ist dies auch nicht so schlimm, da man dann mit Hilfe der „assozierten Wahrscheinlichkeitsverteilung“ einfach die „Randwahrscheinlichkeiten“ bestimmen kann.

Das Ganze mathematische Verfahren hat also den großen Vorteil die „Zufallsvariablen“ als „bedingte Wahrscheinlichkeitsverteilung“ kalkulierbar zu machen. Hierdurch wird auch der Zufall ein wenig strukturierter und für die Entwicklung von Algorithmen handfester gemacht. Dieser Vorteil der Strukturierung des Zufalls wird nicht nur für das Lernen in der KI-Entwicklung genutzt, sondern kann auch zur Beschreibung von Mutationen in der Selbstorganisation von Leben produktiv genutzt werden.

Rastrigin function

Beispiel für einen evolutionären Algorithmus:

Die Rastrigin-Funktion ist eine multimodale Funktion, da sie viele lokale Extrema aufweist. Dies stellt einen Nachteil für den Rekombinationsoperator dar. (Quelle: https://de.wikipedia.org/wiki/Evolution%C3%A4rer_Algorithmus)

 

Wahrscheinlichkeit eines Mutationsmusters

Die Wahrscheinlichkeit (likelihood L) eines´Mutationsmusters x unter der Bedingung eines mutagenetischen Baumes T ist gegeben als das in der Formel angegebene Produkt zweier Produkte:

Mutationsmuster

Dabei läuft der Index e über alle Kanten des Mutationsbaums – jedes e entspricht einem Übergang zwischen zwei Mutanten. Das erste Produkt geht über alle Wahrscheinlichkeiten p(e) von Mutationen die zum Muster x führen, das zweite Produkt steuert einen Faktor von 1 – p(e) bei für jede Mutation, die nicht zu x führt.“ (Daniel Hoffmann: Evolution: Von der Biologie zur Mathematik und wieder zurück, 2008)

Das erinnert nicht nur an die mathematische Beschreibung der Bayes-Netze, sondern hat auch einen direkten Zusammenhang. Man kann nun den evolutionären Charakter von Mutationen mit Hilfe der Wahrscheinlichkeit von Mutationsmuster abbilden. Die „Vererbungslehre“ steckt hier wieder in der bedingten Abhängigkeit der Wahrscheinlichkeiten p(e) von Mutationen, die zum Muster x führen. Das zweite Produkt von 1 – p(e) schließt auch die unbedingten Wahrscheinlichkeiten für jede Mutation mit ein, die nicht zu x führen.

Jetzt muss man nur den dynamischen Prozess-Charakter in der Evolutionären Dynamik mathematisch in den Griff bekommen. Eine spezielle bedingte Unabhängigkeit von dem Faktor „Zeit“, bei der Gegenwart, Vergangenheit und Zukunft unabhängig von einander sein sollen, ist für den Faktor „Zufall“ eine notwendige Bedingung. Anders ausgedrückt, das Bayes-Netz ist ein probabilistisches grafisches Modell (PGM), das mit seinem Graphenformalismus zur kompakten Modellierung gemeinsamer Wahrscheinlichkeitsverteilungen und (Un-)Abhängigkeitsbeziehungen über eine Menge von Zufallsvariablen dient. Okay. Damit das Ganze aber eine spezielle bedingte Unabhängigkeit erhält, muss man die Gerichtetheit doch ein wenig öffnen. Und hier kommt das Markov Random Field ins Spiel:

„Ein Markov Random Field (kurz MRF) oder Markow-Netzwerk ist ein nach dem Mathematiker A. Markow benanntes statistisches Modell, welches ungerichtete Zusammenhänge (z.B. die Ausrichtung von Elementarmagneten) in einem Feld beschreibt. Das Feld besteht aus Zellen, die Zufallsvariablen enthalten und räumlich begrenzt (vgl. zeitliche Begrenzung in einer Markow-Kette) gegenseitig wechselwirken. […] Zu den formalen Eigenschaften eines MRF gehört unter anderem die Global Markov Property: Jeder Knoten (als Darsteller der Zufallsvariable) ist unabhängig von allen anderen Knoten, falls alle seine Nachbarn gegeben sind.“ (https://de.wikipedia.org/wiki/Markov_Random_Field)

 

Markow-Kette mit drei Zuständen und unvollständigen Verbindungen (Quelle: https://de.wikipedia.org/wikSimple markov chaini/Markow-Kette)

 

 

 

Diagram of a Markov blanket

Markow-Decke: In einem Bayes’schen Netz umfasst die Markov-Grenze des Knotens A seine Eltern, Kinder und die anderen Eltern aller seiner Kinder. (Quelle: https://en.wikipedia.org/wiki/Markov_blanket)

 

 

Mit Hilfe von Markow-Modellen, hier speziell Markow-Ketten oder Markow-Decken wird also durch eine räumliche oder zeitliche Eingrenzung der Faktor „Zufall“ in den Bayes-Netzen kalkulierbarer gemacht. Soll heißen, jeder Knoten in dem Bayes-Netz lässt sich mit einer gewissen Wahrscheinlichkeit berechnen, wenn man alle seine Relationen kennt. Dies erinnert in entfernter Anlehnung an den von Herrn Stegemann vorgeschlagenen Begriff der Valenzkopplung:

Valenzkopplung findet als Assoziierung kompatibler Strukturen statt und ist die Basis des Energie- (oder Informations-) austausches. Valenzen entstehen ausschließlich in Zusammenhang mit Strukturen (ähnlich der ’strukturellen Kopplung‘ bei Maturana).“

Jetzt braucht man die probabilistischen Algorithmen als Simulationsmodelleauf einem Computer nur noch Laufen lassen und überprüfen, in wie fern die Algorithmen in der Lage sind populationsgenetische und epidemiologische Evolutionäre Dynamiken abzubilden. Hier findet nun zum ersten Mal ein Abgleich des Modells mit der Umwelt statt. Dies ist wichtig, da auch die Algorithmen des Simulationsmodell ständig als selbstreferentieller, rekursiverFeedback-Loop an die tatsächlichen Evidenzen angepasst werden müssen. Man kann hier folglich in einer Analogie auch von einer Adaption und Evolution der genetischen Algorithmen sprechen. Herr Stegemann hatte dies in seinem Artikel folgendermaßen formuliert:

Adaption und Evolution geschieht in einem Phasenraumdurch Versuch und Irrtum. Durch den adaptiven Randomwalk entstehen neue Phänotypen durch Ausnutzung von Möglichkeitsräumen und ändern dadurch auf der anderen Seite durch Rückkopplung die interne Steuerung (ähnlich der ‚konvergenten Rekonstruktion mit Übersteigungen‘ bei Piaget).“

Insofern findet die Überprüfung von Evolutionstheorien nicht nur als genetische Algorithmen in einem Simulationsmodell statt, sondern z. B. die Evolutionary Graph Theory unterliegt selber einer Art Evolution. Um hier noch ein paar weitere Mutationsmöglichkeiten ins Spiel zu bringen sei zum Abschluss noch eine strukturenrealistische Betrachtung der Evolutionstheorien erlaubt.

 

Flips
Alle möglichen Ergebnisse des Random Walk nach 5 Würfen einer fairen Münze
Random walk 2500
Random Walk in 2 Dimensionen

Walk3d 0

3 Random Walks in 3 Dimensionen

Evolutionstheorien in einer strukturenrealistischen Betrachtung – Leben braucht Strukturen

Der Knotenpunkt zu einer strukturenrealistischen Betrachtung der Evolutionstheorie ist aus meiner Sicht durch die strukturale Beschreibung der Stochastischen Evolutionären Dynamik in der Evolutionary Graph Theory gegeben.

Unter der Prämisse, dass die zuvor genannten mathematischen Beschreibungsmodelle, wie z. B. aus der Evolutionary Graph Theory eine adäquate Simulation der Evolutionären Dynamik in der Natur abbilden können, würde dies einen ganz neuen Zugang zum Verständnis von Evolution eröffnen. Das bisherige Paradigma in der Evolutionsbiologie geht bislang von einem Dualismus eines „innen vs. außen“, „Organismus vs. Umwelt“, „Adaption vs. Speciation, u.s.w. aus, der immer im Sinne einer Abgrenzung zum „tertium non datur der klassischen Systemtheorie (George Spencer-Brown, Niklas Luhmann) als Differenz betrieben wird.

Der Fokus des neuen Paradigmas für die Evolutionsbiologie sollte aus meiner Sicht stärker auf dem Konzept der Polykontexturalität nach Gotthard Günther liegen, um den struktural-dynamischen Prozess zur Entstehung von Leben besser beschreiben zu können. Methodisch möchte ich mich im Folgenden an dem Formalismus und Begrifflichkeit der „Integrated Information Theory“ IIT (2004 – 2014) von Guilio Tononiorientieren, die zwar eigentlich eine mathematische Theorie zur Konstitution von Bewusstsein ist, sich aber aufgrund ihres informationstheoretischen Formalismus aus meiner Sicht auch zur Beschreibung der Konstitution von Leben eignet.

Die Möglichkeiten, die aufgrund einer strukturalen Beschreibung der Evolutionären Dynamik in der Evolutionary Graph Theory entstehen, eröffnen ganz neue strukturenrealistische Betrachtungen, wie z. B. Leben als autopoietisches System entstanden sein kann. Um dies ein wenig präziser zu fassen, möchte ich im Folgenden „5 Axiome zum Leben“ in Analogie zur IIT aufstellen, woraus ich dann die entsprechenden Postulate zur möglichen Entstehung von Leben“ ableite.

 

Die 5 Axiome des Lebens

1. intrinsische Existenz: ein lebendiger Organismus muss eine struktural-dynamische Differenz von „innen“ und „außen“ besitzen,

2. Komposition: ein lebendiger Organismus muss sich aus mehreren Teilen zusammensetzen, die mehr sind als deren Summe,

3. Information: ein lebendiger Organismus muss durch seine Struktur auch einen Inhalt haben, der übertragen werden kann,

4. Integration: ein lebendiger Organismus muss mit seiner Umwelt in Interaktion treten und anpassen können,

5. Exklusion: ein lebendiger Organismus muss ein Verhalten haben, das ihn von seiner Umwelt abgrenzt

 

Postulate zu den Axiomen

Zu 1.intrinsische Existenz: ein lebendiger Organismus benötigt zunächst einmal eine struktural-dynamische Differenz von „innen“ und „außen“. Soll heißen, ohne eine entprechende struktural-dynamische Abgrenzung nach außen, kann der lebendige Organismus gar nicht definiert werden, da er in diesem Falle gar keine eigene Identität/Entität bilden kann. Diese Differenz ist hier aber ausdrücklich nicht als Dualismus gedacht, da der lebendige Organismus unter einem prozessoralen Gesichtspunkt weiterhin Bestandteil der Umwelt bleibt und mit dieser interagiert (s. 4.).

In einem strukturenrealistischen Konzept beschrieben, wären die sich bildenden Relationenzwischen dem lebendigen Organismus und seiner Umwelt in einem Phasenraum von größerer Bedeutung als die Relata (Organismus, Umwelt) selber. Aus strukturenrealistischer Sicht auf die evolutionären Graphentheorie (EGT) beschrieben, bedeutet dies, dass die sich bildenden Bayes-Netze oder Markow-Ketten einen eigenen Informationsgehalt besitzen, der unabhängig von der Beschreibung des lebendigen Organismus als Ganzes, eine intrinsische Existenz als Selbstorganisation von innen besitzt.

Zu 2. Komposition: ein lebendiger Organismus besteht immer aus mehreren Teilen, ist aber aus mereologischer Sicht immer mehr als die Summe seiner Teile. Selbst die kleinsten lebendigen Organismen, wie z. B. Bakterien oder Viren (wobei bei Viren, die Grenzen zum Leben schon erreicht wird) bestehen aus mehreren einfachen Komponenten, wie z. B. Protein-Hülle oder RNA/DNA-Material. Die Komplexität der Komposition von lebendigen Organismen ist nach oben hin offen und kann durchaus mit Hilfe der Adaption und Evolution erklärt werden.

Der „adaptive Random-Walk“ der Evolution kann mit Hilfe des Markov Random Field (MRF) oder Markow-Logik-Netzen probabilistisch abgebildet werden. Die scheinbar ungerichteten Zusammenhänge der Darwinschen Evolutionstheorie, die schon einmal gerne „trial and error“-Methode genannt wird, können nun mit Hilfe der MRFs in einem Feld beschrieben werden. „Das Feld besteht aus Zellen, die Zufallsvariablen enthalten und räumlich begrenzt (vgl. zeitliche Begrenzung in einer Markow-Kette) gegenseitig wechselwirken.“ (https://de.wikipedia.org/wiki/Markov_Random_Field).

Aus strukturenrealistischer Sicht bedeutet dies, man braucht nicht mehr die Komposition des einzelnen, lebendigen Organismus im Hinblick auf die Entstehung von Arten mit neuen spezifischen, der Umwelt angepassten Eigenschaften betrachten. Sondern man kann die Adaption und Evolution auch z. B. als Markov-Netzwerk oder unter einem zeitlichen Aspekt auch als Markov-Kette beschreiben. Hierdurch erhält man eine klare Strukturierung des Faktors „Zufall“ und kann bessere Heuristikenentwickeln.

Zu 3. Information: ein lebendiger Organismus stellt ein selbstreferentielles, autopoietisches System dar, das aufgrund seiner Strukturiertheit einen Informationsgehaltbesitzt. Die Information kann in Form der DNA in den Genomen der Zellen gespeichert sein. Ebenso kann die spezifische Strukturierung von Zellverbänden zu Organen oder die spezifische Komposition des lebendigen Organismus aus seinen Komponenten als Informationsgehalt bezeichnet werden. Über selbstrekursive Prozesse ist eine Informationsübertragung innerhalb des lebendigen Organismus aber auch außerhalb über Vererbung möglich.

Den struktural-dynamischen Prozess der Informationsübertragung lässt sich gut mit Hilfe von Bayes-Netzwerken darstellen, da hier die „Vererbungslehre der Informationen“ in der Evolutionary Graph Theory abbildbar wird. Die gemeinsame Wahrscheinlichkeitsverteilung aller Zufallsvariablen eines lebendigen Systems können in Abhängigkeit von den bedingten Knoten der „Eltern“-Zufallsvariablen determiniert werden. Der Informationsgehalt des Gesamtsystems bleibt trotz Permutation der Strukturen einzelner Bereiche erhalten. Selbst, wenn keine „Eltern„-Zufallsvariablen für einen bestimmten Knoten existieren, wie z. B. bei Mutationen, können aufgrund der „assozierten Wahrscheinlichkeitsverteilung“ die „Randwahrscheinlichkeiten“ bestimmt werden.

Aus Sicht des Strukturenrealismusbedeutet dies, wenn die Relationen des Gesamtsystems (Knoten, Kanten) bekannt sind, können auch struktural-dynamische Transformationen einzelner Bereiche stattfinden, ohne den Informationsgehalt des Gesamtystems wesentlich zu ändern. Dies ermöglicht eine Adaption an die Umwelt und auf längere Sicht eine Evolution des lebendigen Organismus.

Zu 4. Integration: ein lebendiger Organismus muss in der Lage sein mit seiner Umwelt zu interagieren. Das heißt, er benötigt bei aller Geschlossenheit seiner intrinsischen Existenz einen materiellen, energetischen und informationellen Austausch mit seiner Umwelt. Zu diesem Zwecke benötigt der lebendige Organismus eine Integration in seine Umwelt. So stellt zum Beispiel der Stoffwechsel ein wichtiges Kriterium dar, um lebendige Organismen zu definieren. Eine isolierte Betrachtung des lebendigen Organismus ohne Berücksichtigung der Integration in seine Umwelt macht daher nicht so viel Sinn.

Möchte man nun die Konstitution von Leben mit Hilfe der Evolutionary Graph Theory beschreiben, muss man daher berücksichtigen, dass es sich bei der Simulation vonpopulationsgenetischeoder epidemiologische Evolution in Form der Bayes-Netzen oder Markow-Ketten nicht um geschlossene Systeme im Sinne der Systemtheoriehandelt. Die Integration von mehreren Systemen steht hierbei potentiell im Raum, wobei die mathematische und informationstechnische Realisierung allein für ein einzelnes Systems schon jetzt an ihre Grenzen stößt.

Hinsichtlich des strukturenrealistischen Konzeptes führt dies natürlich auch zu einer Steigerung der Komplexität in Form der „Relationierung der Relationen“, die auch als Kybernetik 2. Ordnung bezeichnet werden könnte.

Zu 5. Exklusion: hier sind nun endgültig die Möglichkeiten der Beschreibung im Rahmen der Evolutionary Graph Theory EGT und des Strukturenrealismus SR erreicht, da das Verhalten für einen lebendigen Organismus zwar ein wesentliches Kriterium für seine Lebendigkeit ist, aber die Darstellung im EGT und SR nicht mehr möglich ist. Hier sei dann eben die „flappsige Schlussbemerkung“ erlaubt: „Das Wichtigste am Leben ist nun mal, dass man lebt!“

© philosophies.de

Ich bin immer mit meiner „Diogenes-Lampe“ unterwegs, um Menschen zu finden, die sich auch nach ein wenig „Licht der Erkenntnis“ sehnen. Also wenn Ihr eigene Beiträge oder Posts für meinen Wissenschaft-/Philosophie-Blog habt, immer her damit. Sie werden mit Eurem Namen als Autor auf meiner Seite veröffentlicht, so lange sie den oben genannten Kriterien entsprechen. Denn nur geteiltes Wissen ist vermehrtes Wissen.
0 0 votes
Article Rating
Abonnieren
Benachrichtige mich bei
guest

 

37 Comments
Inline Feedbacks
View all comments
Ronny Stoyan
Ronny Stoyan
1 Jahr zuvor

Für intraspezifische Evolution dürfte die Erklärung einleuchtend sein. Wie stehts aber für die Entstehung jeweils höherer Taxa, dem Auftreten neuer Baupläne?

Ronny Stoyan
Ronny Stoyan
1 Jahr zuvor
Reply to  Philo Sophies

Vielen Dank für ihre Antwort. Leider habe ich sie erst jetzt mitbekommen, da irgendwie kein Signal aufgelaufen ist, dass es hier eine Antwort gibt. Wie dem auch sei. Der mathematische Ansatz gefällt mir sehr gut, auch das er einen anderen Weg verfolgt, als das Zufallsprinzip bei Mutationen. Es gab ja in der jüngeren Vergangenheit einige überraschende Erkenntnisse. Etwa das synonyme Mutationen genauso schädlich sind, wie nichtsynonyme. Bisher galten synonyme M als neutral in Bezug auf die Fittness. (Nature, 2022; doi: 10.1038/s41586-022-04823-w)
Oder, dass Pflanzen ihre wichtigsten Genregionen vor Mutationen schützen. „The areas that are the most biologically important are the ones being protected from mutation.“ (More information: Detlef Weigel, Mutation bias reflects natural selection in Arabidopsis thaliana, Nature (2022). DOI: 10.1038/s41586-021-04269-6. http://www.nature.com/articles/s41586-021-04269-6) Zitiert nach Phys.org. Das alles weist m.E. empirisch gegen das Zufallsparadigma. Meine Frage wäre jetzt, ob solche neuen Erkenntnisse in die beschrieben Strukturenrealistische Betrachtung mit einfließen. Auf jeden Fall denke ich das eine Informationstheory der Biologie von nöten ist. Im Grunde ist doch die DNA eine codierte Prozessdatenbank die ihre eigene Decodierungsroutine enthält(von der sie gleichzeitig auch abhängig ist) und mit den Genprodukten die Synorganisation des Organismus realisiert. Das System ist mit autopoietisch an und für sich gut charakterisiert, doch liefert mir das keine Antwort auf die Frage, wie aus nichtpoietischen systemen poietische werden. Natürlich gibt es auch nichtbiotische autopoietische Systeme, etwa physikalisch/chemische Zyklen, es ist aber bisher nicht gezeigt worden wie daraus ein lebendiger Organismus wird. Leben kann auch als Kampf der Form gegen die Materie interpretiert werden (Andreas Weber,2003) Daraus folgt für mich, dass Leben eben nicht auf das Verhalten von Materie zurückgeführt werden kann, obwohl dessen Strukturen aus ihr gebildet werden, Zu meiner ursprünglichen Frage, nochmal anders, wie entsteht dabei neue Information und nicht nur Rekombination des vorhandenen?

Wolfgang Stegemann
1 Jahr zuvor
Reply to  Ronny Stoyan

Zunächst: es gibt keine nichtbiotischen autopoietischen Systeme. Im Gegensatz zu nichtbiotischen Systemen sind biotische in der Lage zum Selbsterhalt bzw. zur Wiederherstellung ihrer Struktur. Zerren Sie an einer unbelebten Struktur und sie wird sich verformen. Zerren Sie an einer belebten Struktur, sie wird sich ebenso verformen, aber sofort versuchen, ihre ursprüngliche Form wieder herzustellen.

Leben entwickelt sich nach dem Prinzip Expansion/ Reduktion (z.B. Metabolismus), wobei die Reduktion ähnlich einer Fouriertransformation Strukturen zusammenfasst und komprimiert. Es ist das, was Piaget als Assimilation und Akkomodation beschrieben hat. Wenn Sie x-mal lange Zahlenketten addiert haben, kommen Sie irgendwann auf die Idee, diese Ketten in gleichgroße Gruppen zu unterteilen, die sich leichter zählen lassen, und damit ‚erfinden‘ Sie die Multiplikation als neue,m effektivere Rechenlogik. Genauso ‚erfindet‘ die belebte Natur neue Arbeitslogiken und kürzt damit Umwege ab (physikalisch beschreibbar), was wir als Ressourcenschonung betrachten und implizit meinen, das wäre ‚gewollt‘. In Wirklichkeit ist es eine Zwangsläufigkeit des Lebendigen, das sich damit immer weiter differenziert.
Es wäre ein doppelter Reduktionismus, zum einen die Erklärung von Leben auf seine Komponenten zu reduzieren und zum anderen zu meinen, Leben wäre mit physikalischen Modellen vollständig beschreibbar. Die Physik berücksichtigt aber gerade nicht die Eigenaktivität von Leben, sie behandelt Leben wie ein ‚totes‘ System. Dabei unterscheidet sich aber die Selbstorganisation von Leben und Nicht-Leben grundlegend. Die Beschreibung von Leben braucht also biologische Modelle.

Ronny Stoyan
Ronny Stoyan
1 Jahr zuvor

Zu den nichtbiotischen autopoietischen Systemen: Ich habe hier keine persönliche Überzeugung wiedergegeben, sondern auf eine Behauptung angespielt, die sich im entsprechenden Wikipediaartikel findet. „Nach Varela* gilt: „… reproduction and evolution are not (remark: exclusive) features of the living organization …“. Ein Beispiel dafür ist die Belousov-Zhabotinsky-Reaktion, ein emergentes chemisches System, das die o. g. Kriterien eines autopoietischen Systems erfüllt, aber nicht lebendig ist. Im Fall der Viren ist die Abgrenzung jedoch nicht so klar, sie stehen an der Grenze von noch-nicht-leben und leben: Innerhalb ihrer Wirtszelle sind sie lebendig, außerhalb sind es „nur“ Makromoleküle, allerdings mit der selbstorganisierten Fähigkeit, lebendig zu werden, sobald sie auf die passenden Wirtszellen treffen.“
Francisco J. Varela, Humberto R. Maturana, and R. Uribe: Autopoiesis: The organization of living systems, its characterization and a model. In: Biosystems. 5, 1974, S. 187–196
Ich teile diese Einschätzung nicht, weil gerade ein solcher chemischer Zyklus nicht alle Kriterien des Lebens enthält, u.a. Abgeschlossenheit gegen die Umwelt, Informationsgesteuerte Reproduktion zweckhaft organisierter Einzelstrukturen
, Reperaturmechanismen, Nutzen für das Gesamtsystem. Mir scheint dieses Postulat eher dem phiolosophischen Naturalismus zu entspringen, wo versucht wird die Exclusivität des Lebens aus weltanschaulichen Gründen auf seine materiellen Konstituenten zu reduzieren, oder mit anderen Worten, den Unterschied zwischen belebten und unbelebten Systemen zu eliminieren.
(* ich spreche lieber von zweckhaft [zu einem Gesamtsystem] organisierten Einzelstrukturen, denn lediglich geordnete Strukruren findet man auch in unbelebten Systemen)
Sie haben ja die Besonderheit des Lebendigen schön beschrieben. “ Zerren Sie an einer unbelebten Struktur und sie wird sich verformen. Zerren Sie an einer belebten Struktur, sie wird sich ebenso verformen, aber sofort versuchen, ihre ursprüngliche Form wieder herzustellen.“
Das zeigt sich auf der molekulargenetischen Ebene genauso, wie etwa bei solchen Systemen wie der Blutgerinnung und den weiteren Heilungsprozessen nach Verletzungen. Das ist etwas völlig anderes, als ein Gummiball der nach Verformung wieder seine ursprüngliche Form annimmt. Ihrer Kritik am Physikalismus bei der Beschreibung von Leben stimme ich vollumfänglich zu, ich vertrete aber keinen philosophischen Naturalismus, i.e. ich sehe durchaus transzendente Ursachen hinter der Welt und gerade die erfolgreiche mathematische Beschreibung der Natur, kann durchaus auch als rationale Glaubensbegründung in theistischen Weltbildern atraktiv sein. Zumindest dann, wenn man Mathematik als transzendente Universalie begreiftt und nicht lediglich als menschliches Konstrukt. Hier kommen wir aber auch schon auf das Bewusstseinsproblem. Diese Themen sind ja alle irgendwie miteinander verwoben.

wolfgangstegemann
wolfgangstegemann
1 Jahr zuvor
Reply to  Ronny Stoyan

Ich sehe das genau wie Sie, bis auf die Mathematik. Die sehe ich auch „menschengemacht“. Ich denke, das Universum ist nicht mathematisch, wir mathematisieren es nur. Hätten wir nur sieben Finger, sähe unsere Mathematik völlig anders aus. Aber vor allem: wir bezeichnen eine Strecke als einen Meter, ein Gewicht als ein Kilogramm, etc.pp. Dann bringen wir alle diese Maße in einen Zusammenhang, so dass wir auch komplizierte Beschreibungen vornehmen können. Und dann wundern wir uns, wie kompliziert die Welt ist. Es ist aber die Mathematik, die mit der Zeit so kompliziert geworden ist.
Der Mensch neigt gerne zur Kausalitätsumkehr in seinen Gedanken.

Philo Sophies
1 Jahr zuvor
Reply to  Ronny Stoyan

Lieber Ronny Stoyan,

ich danke Ihnen für Ihren sehr bemerkenswerten Kommentar und Ihre Rückmeldung. Ich war bislang davon ausgegangen, dass Kommentatoren immer automatisch informiert werden würden, wenn es einen neuen Kommentar gibt. Das war scheinbar nicht der Fall, daher habe ich nun ein neues Plugin installiert, damit die Kommentatoren zukünftig schneller über Rückmeldungen informiert werden.

Auf Ihre sehr interessanten Hinweisen wollte ich an dieser Stelle kurz eingehen.
Ihren Hinweisen zu „synonymen Mutationen“, „welche zwar die DNA-Sequenz verändern, nicht aber die codierte Aminosäure“ (https://laborjournal.de/rubric/stichwort/stichwort/w_21_05.php) und „Mutation bias reflects natural selection in Arabidopsis thaliana“ bin ich direkt einmal nachgegangen und habe in der Einleitung des Artikels direkt ein sehr bemerkenswertes Zitat gefunden, das ich auch nicht vorenthalten möchte:

„The random occurrence of mutations with respect to their consequences is an axiom upon which much of biology and evolutionary theory rests1. This simple proposition has had profound effects on models of evolution developed since the modern synthesis, shaping how biologists have thought about and studied genetic diversity over the past century. From this view, for example, the common observation that genetic variants are found less often in functionally constrained regions of the genome is believed to be due solely to selection after random mutation. This paradigm has been defended with both theoretical and practical arguments: that selection on gene-level mutation rates cannot overcome genetic drift; that previous evidence of non-random mutational patterns relied on analyses in natural populations that were confounded by the effects of natural selection; and that past proposals of adaptive mutation bias have not been framed in the context of potential mechanisms that could underpin such non-random mutations3,4,5,6. Yet, emerging discoveries in genome biology inspire a reconsideration of classical views. It is now known that nucleotide composition, epigenomic features and bias in DNA repair can influence the likelihood that mutations occur at different places across the genome7,8,9,10,11,12,13. At the same time, we have learned that specific gene regions and broad classes of genes, including constitutively expressed and essential housekeeping genes, can exist in distinct epigenomic states14. This could in turn provide opportunities for adaptive mutation biases to evolve by coupling DNA repair with features enriched in constrained loci2. Indeed, evidence that DNA repair is targeted to genic regions and active genes has been found15,16,17,18,19,20. Here we synthesize these ideas by investigating the causes, consequences and adaptive value of mutation bias in the plant Arabidopsis thaliana.“ (https://www.nature.com/articles/s41586-021-04269-6)

Daher kann ich Sie nur unterstützen, wenn Sie schreiben: „Das alles weist m.E. empirisch gegen das Zufallsparadigma.“ Das war auch genau der Grund, warum ich den Essay zu den Evolutionstheorien verfasst hatte, da es mir ebenfalls darum ging dieses Paradigma des „trial an errors“ in Darwins Evolutionstheorie zu widerlegen. Die Natur muss das Rad nicht jedenfalls neu erfinden, sondern kann auch auf bewährte „genetische Algorithmen“ zurückgreifen um Heuristiken zu entwickeln.

Daher gebe ich ebenfalls absolut Recht, dass eine „Informationstheory der Biologie von nöten ist“. Ich gehe ebenso davon aus, dass es einer algorithmische Informationstheorie von Gregory Chaitin bedarf, die durch eine strukturenrealistische Beschreibung erst praktikabel wird.

Daher kann ich auch Ihre Frage: „Das System ist mit autopoietisch an und für sich gut charakterisiert, doch liefert mir das keine Antwort auf die Frage, wie aus nichtpoietischen systemen poietische werden.“ sehr gut nachvollziehen, da mich diese Frage ebenfalls stark beschäftigt hat.

Allerdings kann ich die Schlussfolgerung, die Sie hieraus ziehen nicht unterstützen: „Leben kann auch als Kampf der Form gegen die Materie interpretiert werden (Andreas Weber,2003) Daraus folgt für mich, dass Leben eben nicht auf das Verhalten von Materie zurückgeführt werden kann, obwohl dessen Strukturen aus ihr gebildet werden,“

Da ich zu einem anderen Ergebnis gekommen bin, bei dem nicht wieder „die Struktur gegen die Materie“ ausgespielt wird. Meines Erachtens liegt der Schwerpunkt der Forschung immer noch zu stark auf der Materie. Das ist aber auch absolut nicht verwunderlich, da das Paradigma des „Materialismus“ immer noch seit über 2500 Jahre wirkt und scheinbar nicht beseitigt werden kann. Der Fokus sollte aber aus meiner bescheidenen Sicht eher auf den Strukturen und dem Prozess liegen, die sich dann auch materiell manifestieren müssen, da man ansonsten selbstverständlich schwerlich einen wissenschaftlichen Realismus betreiben kann.

Daher müsste Sie nach meiner Meinung Ihren Satz „Verhalten von Materie zurückgeführt werden kann, obwohl dessen Strukturen aus ihr gebildet werden“ umformen in „auf das Verhalten von Materie kann zurückgeführt werden, weil es aus Strukturen gebildet wird.

Aus diesem Grunde sehe ich Ihre Frage „wie entsteht dabei neue Information und nicht nur Rekombination des vorhandenen?“ beantwortet, da es nicht um die „Rekombination von Materie“ geht, sondern um die „Neustruktierung von Informationen“ geht, die sich materiell äußern können, wie Ihr oben erwähntes Beispiel zu den „synonymen Mutationen“ sehr schön zeigt und auch in der Differenzierung von Genotyp und Phänotyp seine Anwendung findet.

Aber wie geschrieben, die Informationstheorie der Biologie scheint noch auf sich zu warten.

Vielen Dank für Ihr Interesse und
viele Grüße

Dirk Boucsein

Ronny Stoyan
Ronny Stoyan
1 Jahr zuvor
Reply to  Philo Sophies

Vielen Dank Herr Boucsein, für ihre Antwort. Mit dem „Kampf der Form gegen die Materie“ wollte ich vor allem den Fakt beschreiben, dass sich ein lebender Organismus durch seine funktionale Organisation von Strukturen und der Fähigkeit im thermodynamischen Ungleichgewicht zu existieren einen „Kampf“ gegen den Rückfall auf das Niveau niedrigerer Organisationsgrade, dem Niveau unbelebter Materie vollführt. Kampf ist hier mehr metaphorisch. In diesem Sinn ist Leben kontingent und in gewisser Weise auch prekär, weil es auch scheitern kann. Es ist auch immer noch der Sonderfall im Universum. Ich stimme auch völlig zu, wenn sie schreiben: „…da es nicht um die „Rekombination von Materie“ geht, sondern um die „Neustruktierung von Informationen“. „Neustruktierung von Informationen“ führt mich dann aber zu der Frage, ob sie meinen, das Information aus der Materie kommt oder umgekehrt? Sie wenden sich ja gegen den Materialismus. Soll am Ende aber dennoch Materie wieder das letztew Wort haben? Wenn man das ontologisch betrachtet kann man an der Stelle auch die Frage aufwerfen, was ist eigentlich Materie? Wenn wir in die subatomaren Strukturen gehen, sehen wir fast nur noch Quantenfelder, die wiederum nur noch mathematisch beschreibbar sind. Ist Geist/Information fundamental oder Materie(was auch immer das ist)?

Wolfgang Stegemann
1 Jahr zuvor
Reply to  Ronny Stoyan

Wenn ich mich kurz einmischen darf:
Ich halte eine biologische Informationstheorie für schwierig. Nicht nur der Begriff Information ist stark vorbelastet, die Frage ist, was soll darunter verstanden werden. Da kommt schnell die Frage auf, soll Information zur Materie hinzukommen, also letztlich, ob zur Physis des Gehirns noch ein Geist hinzukommt, womit man bereits mit mindestens einem Fuß in der Esoterik steckt und mit beiden Füßen im Dualismus.
Ich verwende Information im Sinne von Struktur. Eine hohe Informationsdichte (Tononi) bedeutet eine hohe Strukturriertheit oder Strukturdichte. Mein Begriff des Informationsgradienten wird dann zum Strukturgradienten und man ist in der Lage, eine strukturelle Topologie zu beschreiben und landet dann bei den (funktionellen) Metastrukturen. Mit einer solchen ‚Geometrisierung‘ ließe sich z.B. Bewusstsein und Unterbewusstsein darstellen.
M.a.W. halte ich eine Strukturtheorie sinnvoller als eine Informationstheorie, die dann allerdings ausschließlich für alles Lebendige gilt.

Philo Sophies
1 Jahr zuvor

Lieber Wolfgang,

vielen Dank für Deinen Kommentar, den ich zu großen Teilen zustimme. Die Ergänzungen findest Du in meinem Kommentar an Herrn Stoyan.

Viele Grüße
Dirk

Philo Sophies
1 Jahr zuvor
Reply to  Ronny Stoyan

Lieber Ronny Stoyan,

vielen Dank für Ihren sehr interessanten Kommentar und Ihre Rückfragen, die mich ebenfalls schon eine Weile umtreiben und auf die ich Ihnen gerne kurz antworten möchte.

Um eins direkt vorweg zu schicken, ich weiß es auch nicht mit Sicherheit und suche auch nur nach möglichen Lösungen. Die Fragen zur Ontologie eines Dings oder Sachverhalt ist natürlich so alt, wie die Menschheit selber und zielt letztenendes immer auf eine Metaphysik, da man den Dingen oder den Sachverhalten auf den Grund gehen und dahinter blicken möchte. Damit ist man zwangsläufig in der spekulativen, empirisch schwierig absicherbaren Abteilung der Wissenschaft angelangt. Das ist zunächst einmal absolut nichts Verwerfliches oder Unwissenschaftliches, da aus diesem abduktiven Verfahren (Peirce) durch Nachliefern der empirischen Fakten durchaus wieder konsistente wissenschaftliche Theorien werden können. Und in diesem Bereich sehe ich den verwendeten strukturenrealistischen Ansatz um Leben als autopoietisches System besser beschreiben zu können und zu adäquateren Evolutionstheorien zu gelangen.

Aber um zu Ihrer Frage zu kommen, ob ich meine, „das Information aus der Materie kommt oder umgekehrt“ würde ich dies mit dem „Henne-Ei-Problem“ gleich setzen. Ich verfolge schon länger ein Projekt, das ich auch als „Donquichotterie“ bezeichnen kann, diesen Dualismus (Geist vs. Materie, Information vs. Materie, Struktur vs. Materie, etc. pp.) aufzulösen. Daher würde ich auch Ihre Frage „Ist Geist/Information fundamental oder Materie(was auch immer das ist)?“, so als nicht beantwortbar sehen, da man gar nicht das eine von dem anderen trennen kann. Wenn ich dies kurz erläutern und dabei auch auf Wolfgangs Einlassung eingehen darf.

Nach meiner bescheidenen Meinung würde ich zunächst einmal mit der Struktur starten, da sie aus meiner Sicht erst einmal so etwas wie ein Konzept, Bauplan, größte Wahrscheinlichkeitsmenge, oder was auch immer (Herrn Dr. Stein bin auch noch eine Antwort schuldig 😉 sein kann. Dann würde ich den Begriff des Prozesses (strukturale Kopplung) einführen wollen, der zu zeitlich messbaren Veränderungen führen kann. Im Laufe dieses Prozesses können, dann so etwas wie Dichtegradienten entstehen. Wenn man diese Dichtegradienten, wie es die Feldtheorie macht, mit dem Begriff der Materie gleichsetzt, habe ich auch nichts dagegen. Daher ist Ihr Hinweis auch vollkommen richtig: „Wenn wir in die subatomaren Strukturen gehen, sehen wir fast nur noch Quantenfelder, die wiederum nur noch mathematisch beschreibbar sind.“ Bei einer derartig „großen Auflöung“ kann man auch von der „Materie“ nichts mehr „sehen“, da sie ja schon aus meiner Sicht in den Quantenfeldern enthalten ist.
Falls es in diesem Prozess auch noch durch Umstrukturierung, Neukopplung, etc. eine Veränderung in der „Strukturdichte“ (Wolfgang) und damit in der „Informationsdichte“ (Tononi) entstehen würden, hätte man auch einen Grund über eine algorithmische Informationstheorie oder einer strukturenrealistischen Evolutionstheorie nachzudenken. Wichtig bei derlei spekulativem Vorgehen ist allerdings immer der Abgleich mit der Wirklichkeit. Soll heißen, wenn ich hier aus dem Essay zitieren darf:

„Die genetischen Algorithmen der Evolutionary Graph Theory werden wiederum in der Stochastischen Evolutionäre Dynamik verwendet, um dort populationsgenetische und epidemiologische Simulations-Modelle in silico durchzuspielen. Ziel hierbei ist es die Evolutionäre Dynamik zum Beispiel von Bakterienstämmen in vitro besser abzubilden und hieraus Rückschlüsse auf die Selbstorganisation von Leben zu erreichen.“

Ohne diese empirischen Daten bliebe es bei einem „jeu de syllogismes scolastique“, das mit Kants „leerer Metaphysik“ gleich zu setzen wäre.

Vielen Dank für Ihr Interesse und
viele Grüße

Dirk Boucsein

Ronny Stoyan
Ronny Stoyan
1 Jahr zuvor
Reply to  Philo Sophies

Eine Frage muss ich noch loswerden. Adressiert das Spektrumzitat nicht eher die Abiogenese als die Evolution von Organismen?

Philo Sophies
1 Jahr zuvor
Reply to  Ronny Stoyan

Ich habe mir das Konzept der „Abiogenese“ (chemische Evolution) mal auf Wiki durchgelesen (den Begriff kannte ich noch gar nicht, danke für den Tipp ;-). Ich würde sagen, nein. Das Konzept scheint von einem rein zufälligen Modell des alten „trial an errrors“ auszugehen. Bei einem „Glied eines Moleküls aus einer von 20 möglichen Aminosäuren besteht, gibt es mehr als 20^300 Möglichkeiten.“ Ohne die Annahme eines „genetischen Algorithmus“, welche die Kolmogorow-Komplexität in Form einer probabilistischen Heuristik berücksichtigt, wäre Evolution ein „kaum“ zu schaffendes „Projekt“.

Wolfgang Stegemann
1 Jahr zuvor
Reply to  Philo Sophies

Auf die Gefahr hin, dass ich bereits Gesagtes wiederhole: Evolution, und zwar nichtprobabilistische, beginnt erst mit der Vollendung der Autopoiese, also der Struktur, die wir Leben nennen und die sich aktiv und selbständig reproduziert und im Raum bewegt. Alles davor ist reine Chemie. Dass sich Moleküle zusammengefundenn haben und diesen chemischen Prozess in Gang gesetzt haben, ist reiner Zufall, der nur dadurch eingeschränkt wird, dass diese Moleküle auf der Erde eben vorhanden waren bzw. sich bilden konnten.
Könnten die Lottozahlen, die den letzten Jackpot geknackt haben, reden, würden sie sagen, ‚das kann doch kein Zufall sein‘.
Hier muss man Zufall unterscheiden von der Zwangsläufigkeit und Logik, die Leben ausmacht und die gar nicht von inneren Zufällen getrieben sein kann. Es wäre ein Widerspruch in sich.

Ronny Stoyan
Ronny Stoyan
1 Jahr zuvor
Reply to  Philo Sophies

Herr Dr. Stegemann und Herr Boucsein, ich möchte noch auf ihre letzten Kommentare antworten. Ich denke, hier kommt es auf eine wichtige Unterscheidung an. Zum Thema „Geist und Materie“ oder auch „Was ist fundamental? Geist oder Materie?“ würde ich mich später nochmal äußern oder ich schreibe selbst einen Beitrag. Da könnte ich ja Artikel von euch verlinken.
Ich möchte hier jetzt nochmal zur Vergegenwärtigung die Unterscheidung zwischen chemischer „Evolution“ (hab ich bewusst in Anführungszeichen gesetzt) und Evolution auf der Ebene der Spezies betonen.
Das Zitat am Anfang des Artikels beschreibt ja folgendes: „Um ein einziges mittelgroßes menschliches Protein zu erschaffen, musste die Evolution mehr als 300 Aminosäuren in der richtigen Reihenfolge zusammenfügen. Das könne kein Zufall gewesen sein. Denn da jedes Glied eines Moleküls aus einer von 20 möglichen Aminosäuren besteht, gibt es mehr als 20300 Möglichkeiten, so ein Protein aufzubauen. Neben einer solchen Zahl wirkt selbst die Anzahl der Atome im beobachtbaren Universum vernachlässigbar klein.“ Leider hat Jordana Cepelewicz keine Quelle für dieses Zitat verlinkt, doch scheint mir, wie gesagt, diese Wahrscheinlichkeitsrechnung die chemische Ev zu betreffen und nicht Evolution auf Zell – bzw Speziesebene. Warum? Die Bildung eines korrekt gefalteten Proteins durch Zufallsprozesse, stellt sich ja nur ausserhalb der Zelle, i.e. im abiotischen Umfeld. In der Zelle wird das ja durch die Genexpression geleistet und durch Chaperone unterstützt. Wenn es zu Sequenzverändernden Mutationen kommt, dann passieren die nicht probalistisch im Protein sondern in der Basensequenz des Gens. Die Problemstellungen bei der Abiogenese (vom Stein zum Sein) wurden übrigens nicht nur
von Kreationisten oder ID-Vertretern dargestellt sondern auch von Leuten wie Fred Hoyle (Das intelligente Universum, 1984, Seite 12, 17, 23) oder (mit Chandra Wickramasinghe, Evolution aus dem All, 1981, Seite 34, 35) oder Cyrus Levinthal (Levinthal-Paradox) “ Hintergrund des Problems ist die kombinatorische Vielzahl möglicher Faltungen eines Proteins, die mit der Länge der Aminosäurekette exponentiell zunimmt. Selbst wenn jeder Aminosäurerest nur 2 Zustände annehmen könnte, gäbe es bei einer Proteinlänge von n Aminosäuren 2 n 2^{n} mögliche Faltungsvarianten. Würde eine Änderung der Konformation etwa 10 − 13 {\displaystyle 10^{-13}} Sekunden benötigen, so bräuchte ein 150 Aminosäuren langes Protein 2 150 ⋅ 10 − 13 s = 1 , 4 ⋅ 10 32 s {\displaystyle 2^{150}\cdot 10^{-13}\,\mathrm {s} =1{,}4\cdot 10^{32}\,\mathrm {s} }, also über 10 24 10^{{24}} Jahre, um aus allen möglichen Konformationen die optimale zu finden (siehe Zeitkomplexität).
Tatsächlich aber wird die physiologisch gefaltete native Form meist schnell eingenommen, in Sekundenbruchteilen bis Minuten, und Proteine haben oft nur eine Halbwertszeit von wenigen Stunden bis Tagen. Die Faltung kann also nicht durch ein zufälliges Ausprobieren aller Möglichkeiten erklärt werden. Vielmehr gibt es natürliche Mechanismen, welche die Ausbildung der optimalen Faltung begünstigen.“ Wikipedia
Unter den natürlichen Mechanismen können hier nur die Prozesse in der Zelle gelten, die ihrerseits aber einer Erklärung bedürfen. Insofern ist das Phänomen ontologisch nicht aufgeklärt. Auf dem Weg zum Leben gibt es einige ernste Ei-Henne Probleme, davon ist das DNA-Protein-Problem nur eins.

Herr Stegemann schrieb: „Auf die Gefahr hin, dass ich bereits Gesagtes wiederhole: Evolution, und zwar nichtprobabilistische, beginnt erst mit der Vollendung der Autopoiese, also der Struktur, die wir Leben nennen und die sich aktiv und selbständig reproduziert und im Raum bewegt. Alles davor ist reine Chemie. Dass sich Moleküle zusammengefundenn haben und diesen chemischen Prozess in Gang gesetzt haben, ist reiner Zufall, der nur dadurch eingeschränkt wird, dass diese Moleküle auf der Erde eben vorhanden waren bzw. sich bilden konnten.“
Im Wesentlichen ist das das, was ich gerade ausgeführt habe. Nur muss ich der letzten Schlussfolgerung widersprechen, da für eine Abiogenese wegen der unglaublichen Unwahrscheinlichkeiten und der Paradoxien und Probleme,die sich hier ergeben, eine naturalistische Entstehung von Leben höchst unwahrscheinlich erscheint. Deshalb haben manche eine Lösung in der Panspermia-Theorie gesucht, andere wollen das Problem mit dem Multiversum lösen.

Wolfgang Stegemann
1 Jahr zuvor
Reply to  Ronny Stoyan

Sie schreiben, dass „eine naturalistische Entstehung von Leben höchst unwahrscheinlich erscheint.“
Genau deshalb habe ich das Beispiel mit den Lottozahlen gebracht, deren Eindruck wäre (vorausgesetzt sie könnten denken), dass ihre Existenz kein Zufall sein könne.
Mit Ihrer Argumentation können Sie alles, was existiert, infrage stellen und behaupten, das könne kein Zufall sein. Für uns ist Leben überwältigend und daher möchten wir es nicht dem Zufall zuschreiben. Für irgendeine andere Existenzform ist (unser) Leben nichts besonderes und durchaus Produkt des Zufalls. Nehmen Sie 10 hoch 300 Würfel und betrachten das Ergebnis. Es ist so komplex, dass Sie sagen werden, das kann kein Zufall sein und Sie berechnen die Wahrscheinlichkeit auf 1: 19 hoch 300 und nehmen das dann als Beweis für eine nicht naturalistische Ursache.

Wolfgang Stegemann
1 Jahr zuvor

sorry, Korrektur 1:10 hoch 300

Ronny Stoyan
Ronny Stoyan
1 Jahr zuvor

Sehr geehrter Herr Stegemann, sie schrieben: „Mit Ihrer Argumentation können Sie alles, was existiert, infrage stellen und behaupten, das könne kein Zufall sein.“ Mit einer hypotetischen Anzahl von Versuchen/Würfen ohne Abgleich zu den realen Bedingungen, kann man aber auch alles zum möglichen oder sogar gewissen Zufall erklären. Ohne Realbezug haben wir in beiden Fällen eine metaphysische Vermutung.Schauen wir uns aber die tatsächlichen Berechnungen an, kommen wir auf eine Anzahl von Versuchen/Würfen, die das Alter des Universums weit übersteigen, geschweige denn in den geologischen Zeitramen passen würden. Zudem sprach ich ja von Paradoxien, die gar nicht probalistisch zu lösen sind.

Ronny Stoyan
Ronny Stoyan
1 Jahr zuvor

Mit ihrem Beispiel der fiktiv denkenden Lottozahlen beziehen sie sich offensichtlich auf das anthropische Prinzip. Sicher spielt die Beobachterposition eine gewisse Rolle. Ich weiß aber nicht, was sie damit meinen: „Für irgendeine andere Existenzform ist (unser) Leben nichts Besonderes und durchaus Produkt des Zufalls.“? Ich gehe davon aus, dass eine Spezies, die über vergleichbare kognitive Fähigkeiten verfügt und das Konzept des Zufalls versteht, sich nicht leichtfertig mit dieser Antwort zufriedengibt. Ohne Bezug zu den realen Bedingungen ist die Annahme von Zufall zunächst eine metaphysische Vermutung. Wenn man überall Zufall voraussetzt, wo keine andere Erklärung verfügbar ist, könnte ich auch ad hoc Gott einsetzen. Hier können sie sich dem Problem dann abduktiv nähern.
Das war aber nicht meine Argumentation. Wir hatten gesehen, dass die Menge der Kombinationsmöglichkeiten und die nötige Zeit für eine heuristische Lösung das Alter des Universums übersteigt. Das war aber nicht meine Argumentation. Wir hatten gesehen, dass die Menge der Kombinationsmöglichkeiten und die nötige Zeit für eine heuristische Lösung das Alter des Universums übersteigt (Zeitkomplexität). Geschweige denn das wir das im entsprechenden geologischen Zeitraum unterbringen. Deshalb nehmen ja viele zu Pansperma oder Multiversum Zuflucht. Beides hat kaum empirische Evidenz, ist aber als Spekulation akzeptabel, auch wenn es mich nicht überzeugt.
Zudem habe ich einige Paradoxien, intrinsische Widersprüche angeführt, die gar nicht probabilistisch erklärbar sind, jeweils bisher nicht. Das Selektionsproblem bei der chemischen Evolution ist zudem ein ganz anderes als bei biologischer Evolution, weil sie hier keine Abgeschlossenheit gegenüber der Umwelt haben (Racemat).

Wolfgang Stegemann
1 Jahr zuvor
Reply to  Ronny Stoyan

Hallo Herr Stoyan,
wenn Sie sagen, dass eine bestimmte Komplexität in einer bestimmten Zeit nicht möglich sei, beinhaltet dies eine teleologische Annahme von Entwicklung. In einer offenen Entwicklung gibt es solche Beschränkungen nicht.
Teleologische Entwicklungen deuten immer auf eine Ursache hin, die außerhalb des Entwicklungsrahmens steht. In diesem Fall wäre das intelligentes Design. Für dieses gibt es keinerlei Beweis, für eine offene Entwicklung dagegen unzählige.
Gegen intelligentes Design zu argumentieren, macht erfahrungsgemäß keinen Sinn, so dass wir an dieser Stelle den Diskurs beenden sollten.

Wolfgang Stegemann
1 Jahr zuvor

Dirk Boucsein hat sehr schön gezeigt, dass und wie mathematische Modelle kombiniert werden müssen, um Leben beschreiben zu können. Damit überwindet er die Eindimensionalität physikalistischer und damit reduktionistischer Ansätze.
Und er hat gezeigt, dass probabilistische Vorstellungen des Mutationsgeschehens absurd sind. Leider sind diese in der Molekularbiologie immer noch state of the art. Ich halte sie für die unsinnigsten in der modernen Naturwissenschaft. Man hat hier zufällig erscheinende Phänomene für ihre Erklärung gehalten. Auch ein Zeichen dafür, dass man in der Biologie lediglich physikalische Methoden anwendet, statt die eigenen zu entwickeln. Die dürften sich nämlich nicht auf die Analayse der Bausteine beschränken, sondern müssten – anders als in der Physik – auch die Strukturen analysieren, denn diese sind systembildend für Leben. Denn Leben ist nunmal nichts anderes als Struktur. Erst durch die Struktur werden tote Bausteine lebendig. Ignoriert man das, wird man komplexe Probleme wie etwa Krebs nie verstehen.

Wolfgang Stegemann
1 Jahr zuvor

Eine Bestätigung für nicht-probabilistische Mutationen findet man in diesem Artikel: Mutation bias reflects natural selection in Arabidopsis thaliana (https://www.nature.com/articles/s41586-021-04269-6).

Sir Lancelot
Sir Lancelot
1 Jahr zuvor

Im Artikel wurde über die Integrated Information Theory (IIT) von Tononi und Kollegen im Bezug auf das Leben folgendes geschrieben:

“Methodisch möchte ich mich im Folgenden an dem Formalismus und Begrifflichkeit der „Integrated Information Theory“ IIT (2004 – 2014) von Guilio Tononi„orientieren, die zwar eigentlich eine mathematische Theorie zur Konstitution von Bewusstsein ist, sich aber aufgrund ihres informationstheoretischen Formalismus aus meiner Sicht auch zur Beschreibung der Konstitution von Leben eignet.”

Dazu habe ich zwei Fragen, die wohl nicht einfach zu beantworten sind, dennoch würden mich Antworten interessieren.

Tononi beschreibt stets dass der mit seinem Informationsbegriff (Phi) nicht Shannon’s measure of information bzw. Shannon’s Informationsbegriff meint. Frage: was meint Tononi mit Information? Ich werde aus seinen Artikeln nicht schlau.
Wie steht dieser Informationsbegriff (was auch immer er in der IIT ausdrücken soll) in Verbindung zum Leben? Wie können Shannon’s Informationsbegriff (inklusive der Entropie) weder für das Leben definieren, geschweige denn überhaupt messen.

Philipp

Wolfgang Stegemann
1 Jahr zuvor
Reply to  Sir Lancelot

Man findet hier eine gute Erklärung für den Unterschied: „Vor einen Bildschirm, welcher abwechselnd hell aufleuchtet und dunkel wird, können sowohl ein Mensch als auch eine Photodiode, etwa in einer Kamera, die beiden Zustände erkennen. Der Unterschied liegt darin, wie viel Information erzeugt wird: Die Photodiode erkennt ‚hell‘ oder ‚dunkel‘ und erzeugt so 1 bit Information.[Shannon,W.S.] Ein Mensch unterscheidet ‚hell‘ nicht nur von ‚dunkel‘, sondern von einer ungeheuren Vielzahl von anderen Möglichkeiten, z. B. einem roten Bildschirm, einem grünen Bildschirm, einem Filmeinzelbild, einem Geräusch, einem Gedanken usw. Während die zahllosen Photodioden einer Kamera voneinander unabhängig arbeiten, fällt das menschliche Gehirn seine Unterscheidungen als integriertes System. Wie sehr man es auch versucht, man kann die bewusste Wahrnehmung beispielsweise eines roten Apfels nicht auf separate Empfindungen seiner Farbe und seiner Form reduzieren.(Wikipedia).
Mit Leben hat der Begriff insofern zu tun, als Leben sich immer weiter differenziert und somit die integrierte Information immer weiter ansteigt.

Sir Lancelot / Philipp
Sir Lancelot / Philipp
1 Jahr zuvor

Danke für die Antwort.

Shannons Informationsbegriff bezieht sich nicht auf den Inhalt der Information; der Begriff Information entspricht also nicht dem Verständnis von „Information“ das in der Alltagssprache vorkommt.

Zwei Punkte zu dem genannten Beispiel: “Photodiode, etwa in einer Kamera, die beiden Zustände erkennen. Der Unterschied liegt darin, wie viel Information erzeugt wird: Die Photodiode erkennt ‚hell‘ oder ‚dunkel‘ und erzeugt so 1 bit Information.[Shannon,W.S.] ”

Die Information im Sinne Shannons ist Teil des Systems, des Objekts, oder des Prozesses und unabhängig vom Beobachter und durch die zugrundeliegende Wahrscheinlichkeitsverteilung bestimmt.
Wenn wir zwei Zustände haben, also beispielsweise „hell“ und „dunkel“ und die Wahrscheinlichkeit 50-50 beträgt, dann muss ich eine binäre Frage stellen um herauszufinden ob der Zustand gerade „hell“ oder „dunkel“ ist. So kann ich fragen „ist der Zustand hell?“. Die Antwort lautet „ja“ oder „nein“ und dann ist das „Rätsel“ gelöst. In diesem Fall entspricht dies H = 1 im Sinne Shannons (oder eben ein Bit).

Tononi (und auch Koch) betonen gerne dass ihr Phi oder IIT Informationsbegriff aber nicht der Shannon Entropie entspricht, so wie bereits oben geschrieben. Das genannte Beispiel mit der Farbe die nicht von ihrem Objekt trennbar ist bezieht sich auf den erlebten Inhalt, hat also tatsächlich nichts mit dem Informationsbegriff von Shannon zutun.

Mir stellt sich nach wie vor die Frage: was meint Tononi spezifisch mit Information; in welchem seiner Artikel ist dies verständlich erklärt; wäre ein Artkel zu empfehlen?

Theoretisch mag die Anwendung auf das Leben annehmbar sein, um es neutral auszudrücken. Ich sehe nur keine Möglichkeit wie dies für das „Leben“ oder den Organismus als Gesamtsystem zu messen wäre. Es bleibt also theoretisch auf sehr abstraktem Niveau. Auch Tononis Phi wird je nach Messmethode ja abweichen – das EEG oder MEG bringt andere Phi Ergebnisse für den gleichen Prozess zutage als beispielsweise fMRI. Die gemessene „Information“ (was auch immer Tononi damit letztendlich meint) ist so objektiv nicht bestimmbar, da sie allein schon von dem Messinstrument maßgeblich beeinflusst wird.

Wolfgang Stegemann
1 Jahr zuvor

Tononis Informationsbegriff unterscheidet sich von dem Shannons in genau der oben beschriebenen Weise. Der Entropiebegriff wird bei Tononi eher im Sinne der Interpretation des zweiten Hauptsatzes der Thermodynamik durch Prigogine verstanden, bei dessen nichtlinearer Thermodynamik offener Systeme Entropie exportiert wird, wodurch diese abnimmt, anstatt wie bei Boltzmann (in einem geschlossenen System) stetig anzusteigen.

Heinz Luediger
1 Jahr zuvor

Ihr evolutionärer Strukturenrealismus erinnert mich fatal an das Ptolemäische Weltbild mit seinen Epizyklen und Deferenten, mit dem Unterschied, daß Ihrem Modell der Anschauungsgegenstand abgeht. Ptolemäus war aber nicht der Erfinder des nach ihm benannten Weltbildes, sondern dessen Verfeinerer. Er versuchte eine im Ansatz falsche Theorie von Appolonius von Perge (das heliozentrische Weltbild) durch Verkomplexisierung zur ‚Wahrheit‘ zu verhelfen.

Ja, ich halte Darwins Theorie für falsch – wie ALLE wissenschaftlichen Modelle, die Vorgänge in geschichtlich-grammatikalischer Zeit beschreiben. Der Übergang vom Modell zur Theorie gelang Newton, denn seine Gesetze der Bewegung sind keine Beschreibung eines Geschehens in der Zeit sondern die Prinzipien einer jeden Bewegung, denn die klassische Mechanik und Wellentheorie sind invariant gegenüber Verschiebungen in historischer Zeit. Einsteins Gleichungen beschreiben zwar die Bewegung der Planeten eine Klitzekleinigkeit genauer als die klassische Mechanik, aber um den Preis des Rückfalls zum Modellgedanken. Die Entwicklung des Weltalls vom Urknall bis heute ist wieder die Beschreibung eines Geschehens in historischer Zeit. Und das ist, genau wie es das heliozentrische Weltbild war, eine Frage des Glaubens (und im Moment entbehrt es wegen substantiell Fehler Masse im Universum sogar jeder Grundlage). Der Vorteil der Newtonschen Theorie war und ist, daß sie jedermann auf alle nur möglichen Probleme der Bewegung im Bereich der Erfahrung! (Kant) anwenden kann.

Wenn ich das Darwinsche Modell (es ist keine Theorie) ablehne, dann aus genau DIESEN und nicht aus anderen Gründen. Wissenschaft kann keine Vorhersagen in historischer Zeit machen, weil die Zukunft unbedingt und unwandelbar offen ist. Das einzige, was die Zukunft uns zu bieten hat, ist die Abweichung von der Erwartung, d.h. die Abweichung vom klassischen Wissen des DASS. Dies hat zur Folge, daß es keine Zeitgestalten gibt, wie es Raumgestalten gibt. Das sind Ideen der Romantiker. Es geht in der Wissenschaft nicht darum Fragen zu beantworten oder Erklärungen zu geben, sondern Antworten auf Fragen zu geben, die nie jemand gestellt hat. Wissenschaft besteht meiner Meinung nach darin, über alles Wissen ABSOLUT hinauszugehen um so die Abweichung von der Erwartung zu eliminieren ohne dabei das schon Gewußte zu beschädigen. Den Begriff Revolution halte ich in der Wissenschaft für unbrauchbar und zerstörerisch. Der Leibnizsche Begriff der Entfaltung hingegen könnte einen „ignoranten Strukturenrealismus“ beinhalten, bei dem Ontologie und Epistemologie zusammenfallen in „Was sich ABSOLUT nicht widerspricht existiert! Den Anspruch auf ABSOLUTE Widerspruchsfreiheit kann die Logik nicht leisten – aber vielleicht die Orthogonalität.

Mit freundlichen Grüßen,

Heinz Luediger

Heinz Luediger
1 Jahr zuvor
Reply to  Philo Sophies

Vielen Dank für Ihre Antwort auf einen provokativ geschriebenen und gemeinten Kommentar! Unsere Überzeugungen, die ich als szientistisch ihrerseits und fundamentalkritisch meinerseits beschreiben würde, liegen viel zu weit auseinander, als daß ein produktiver Austausch über Detailfragen möglich wäre.

Statt dessen habe ich ein paar Fragen:

Soweit ich sie gelesen habe, haben die bei Ihnen veröffentlichten Beiträge keinen Bezug zur philosophischen Denkern von den Parmenides über Platon und Aristotles bis zu Cusanus, Decartes, Kant, Hegel, Derrida, Deleuze oder Meillassoux, ob in Übereinstimmung, Widerlegung oder wenigstens Diskussion.

I) Warum heißt diese Website ‚philosophies.de‘ und warum der Plural?

Ein Großteil der obigen Denker hat sich intensiv mit dem Problem des ABSOLUT Neuen auseinandergesetzt, zuletzt Quentin Meillassoux, der versucht, es aus Cantors transinfinite Mengen herzuleiten. Man muss diesen Ideen nicht zustimmen, was aber das Problem als solches aber nicht aus der Welt schafft, denn Descartes gelang mit der orthogonalen Erweiterung der planeren (2D) griechischen Geometrie der Ausbruch in die ABSOLUT neue dritte Dimension. Diese ließ die planare Geometrie unverändert – und änderte doch ALLES. Ich könnte mit Newton, Mendelejew, Mendel und Maxwell weitere Beispiele der Einführung ABSOLUTER Neuigkeiten anführen, deren ABSOLUTE Neuigkeit nicht in Inhalten, sondern in Strukturen bestand.

II) Haben die oben aufgeführten Denker nur Geistesmüll produziert, so daß ihre Überlegungen mit dem Kampfbegriff ‚Metaphysik‘ einfach vom Tisch gewischt werden können?

Die Beiträge zum Strukturenrealismus auf Ihrer webpage sind logisch affirmativ. Der Kritikpunkt Hegels an der konventionellen Logik war, daß die Inhalte des Wissens von sich selbst aus existieren, an das die Logik als an-sich inhaltsleeres Denken erst herangetragen wird. Mit anderen Worten, das Wissen geht der Logik voran. Logik ist demnach second-hand-business, Welterschaffung’ in zweiter Instanz.

III) Welches Problem löst der evolutionäre Strukturenrealismus? In welchem Sinn ist er mehr als ‚yet another opinion, another castle in the air?

Mit freundlichen Grüßen,

Heinz Luediger

Philipp
Philipp
1 Jahr zuvor
Reply to  Heinz Luediger

Hallo Herr Luediger,

Sie schreiben u.a. dass es “… in der Wissenschaft nicht darum [geht] Fragen zu beantworten oder Erklärungen zu geben, sondern Antworten auf Fragen zu geben, die nie jemand gestellt hat.”

Ich finde diese Ansicht zu extrem und möchte kurz erklären warum ich das so sehe.

Die allermeisten Wissenschaftler (und auch Philosophen), hier meine ich weit über 99,99%, werden diesem hohen Ideal niemals gerecht werden. Die Allermeisten werden niemals eine Publikation mit dieser Tragweite anfertigen können. Tragen reguläre wissenschaftliche Arbeiten, also Arbeiten die sich mit bereits gestellten Fragen beschäftigen, nicht möglicherweise auch ihren Teil dazu bei dass neuartige Fragen entstehen auf die revolutionäre Ideen folgen, geschweige denn für die Vermehrung von Wissen das durch andere Wissenschaftler nutzbar wird?

Daneben existiert ein Unterschied zwischen mitunter sehr hohen Abstraktionen des wissenschaftlichen Geschehens (sowie der Geschichte der Wissenschaft) aus der Perspektive der Wissenschaftsphilosophie und der realen Praxis in Wissenschaften.

Um nur ein Beispiel aus der Bandreihe zu nennen: heute nutzen Editors in angesehenen Journalen mitunter machine-learning Systeme für die Analyse eingereichter wissenschaftlicher Arbeiten hinsichtlich deren möglichen „Klickzahlen und Umsatzgenerierung“. Bevorzugt wird angenommen und publiziert was sich an aktuelle Trends richtet und die Sprache dieser Trends nachahmt.

Fragen zu stellen die der Masse noch nicht in den Sinn kamen, ja sogar Antworten auf diese mitzuliefern, und diese richtungsweisend noch zu publizieren, kann zu einer Lebensaufgabe werden. Denn die Masse muss die Fragen und zusätzlich die Antworten auch noch verstehen.
Die allerwenigsten Wissenschaftler besitzen weder die passende Persönlichkeitstruktur, das Durchhaltevermögen, noch die Kraft gegen ein solches System anzukämpfen um die vermeintliche Heilsbotschaft durchzubringen.

Mein Kritikpunkt ist dass deskriptive Erörterungen was Wissenschaft sei und normative Ansprüche wie sie vorzugehen hat aus einem Elfenbeinturm stammen können dessen Ansprüche in der realen Praxis zerschellen.

Die Anlegung bestimmter Wissenschaftsphilosophischer Positionen kann weniger anspruchsvoll sein als die praktische Durchführung in der realen Wissenschaft.

Philipp

Philipp
Philipp
1 Jahr zuvor

Wolfgang und Dirk,

danke für eure Antworten. Ich habe mich nochmals mit einem Kollegen unterhalten der sich intensiver mit Tononis IIT auseinandergesetzt und auch einen Freund hat der in Tononis Gruppe arbeitet. Tononi nutzt wohl insbesondere die Lempel-Ziv complexity (LZC) um die Komplexität bzw. Unsicherheit in time-series/Zeitreihen Aufzeichnungen von neuroimaging Daten zu berechnen.

Beispielsweise wurde TMS genutzt und die Auswirkung des TMS auf das Gehirn (und somit auf die LZC) zu berechnen. Dies wurde dann „pertubational complexity index“ genannt. Man berechnet also wie die LZC sich von A nach B verändert.

Die LZC ist, soweit ich das sehe, entfernt mit Berechnungen wie approximate Entropy (ApeEn) oder Sample Entropy (SampEn) etc. vergleichbar. Man sollte sich nur von den Begriffen nicht in die Irre leiten lassen, da all diese Berechnungen rein gar nichts mit Entropie zutun haben. Denn der Begriff der Entropie bzw. das Konzept dieser, den ja leider bereits Shannon dank von Neumann wählte, hat nichts damit zutun was diese Variablen messen und man hätte sie besser anders nennen sollen, so wie damals Shannon besser schon bei „Information“ anstelle von „Entropie“ geblieben wäre.

Allgemein besteht auch für die LZC das „Problem“ dass die berechneten Messwerte maßgeblich zwischen den verschiedenen imaging Modalitäten auseinandergehen. Und für das Gehirn oder Nervensystem als Gesamtsystem sind time-series Aufzeichnungen nicht möglich und daher auch LZC und co nicht berechenbar. Ist das ein Problem? Ich weiß es nicht, da ich Tononis Argumentation dagegen (die es sicher geben würde) nicht kenne.

Philo Sophies
1 Jahr zuvor

Dear S.-A.,

thank you very much for your inquiry.

First of all, the structural realist model for describing evolutionary theories merely provides a new level of description for the phenomenon of evolution. It does not yet claim to have ontological status. The „empirical advantage“ lies in the fact that with the help of structural realism the described evolution theories can be translated into genetic algorithms by a mathematical formalism in the form of Bayes networks and Markov blankets.

The genetic algorithms can then be used in turn in Stochastic Evolutionary Dynamics with the help of Evolutionary Graph Theory to run population genetic and epidemiological simulation models in silico. The goal is to better reproduce the evolutionary dynamics of, for example, bacterial strains in vitro and to draw conclusions about the self-organization of life and to develop evolutionary theories that have a greater empirical adequacy and equivalence than Darwinian theory.

If you are interested in this topic, I would like to refer you to the website of the research group „Stochastic Evolutionary Dynamics“ of the Max Planck Institute in Munich: https://www.evolbio.mpg.de/3255700/groupstochdyn.

Thank you very much for your interest and
best regards

Philo Sophies
1 Jahr zuvor

P. R.,

Again, thanks for the link. Just a very quick comment if I could. The 5 basic principles of Evolutionary biology
1. evolution as such, the mutability of species ;
2the common descent of all living beings;
gradualism , change through tiny steps;
Propagation of species or speciation in populations
and natural selection as the main, though not the only, mechanism of evolution

-> Yep, d’accord !

Can we add two principles?
6. As negentropy systems, life acts the most efficient way of reducing the free-energy present in the environment (macro and micro). That is, organic complexes lock energy up in bond formation. Normally the reductionist approach would assume that the free-energy, thermal and/or chemical gradients, would be disbursed by diffusion-like processes. But if the local environment is large enough, the diffusion may be slow enough to permit the development of organic complexes.

-> Okay, but only under the condition that entropy must be seen not only from an energetic-thermodynamic aspect, but also from a structural-process aspect, because entropic state changes can also occur without energy minimization.

As systems that process the the environment, life is most likely when it modifies the environment in a positive manner that fosters life. Which is rather circular but the idea of life modifying its environment seems valid.

-> Absolutely okay too, since it’s not circular reasoning, it’s one and the same. Life and environment are a structurally coupled and cannot be considered separately.

To 6.: entropic state changes can also occur without energy minimization.“ are you thinking of protein folding?

That might be an example. But I meant this much more general, because the term entropy from thermodynamics is logically always connected with energy. Therefore life is always gladly represented as a biological principle as an evolutionary adaptation of the body to its environment under energetic aspect.

The advantage coming to bear here would always aim at a minimization of the amount of free energy as „homeostasis“, which would result from the discrepancy of the self-preservation of the system against the supposed chaos of the environment. This general principle of minimizing the amount of free energy can be generally considered as an essential characteristic for all living organisms. Life here means counteracting the increase in entropy that arises from the 2nd law of thermodynamics:

„For living organisms, meanwhile, the second law of thermodynamics does not seem to apply. In them, processes take place which are accompanied by a reduction of entropy. Seen in this way, all living organisms would be islands of order in a sea of disorder. For they possess the unique ability to structure themselves and to pass on the inner order generated in the process to the next generation. If one even takes the standpoint of biological evolution, then new order arises from existing order, less complex organisms develop into more and more complex ones“ (Martin Koch: „What is life? https://www.neues-deutschland.de/…/1101908.erwin…)

But I would like to see entropy from a structural-processual point of view, where an open system can achieve advantages from the increase of structuring even without a negative energy balance, because redundancies occur.

As an example the „Kolmogorov complexity“ is mentioned, which is also used for the development of „genetic algorithms“. Should mean shortened, why should nature „reinvent the wheel every time“ and not fall back on „tried and tested“? This is then not necessarily a gain of energy but a gain of time.

Many greetings

Philo Sophies
1 Jahr zuvor

Hello Philo, dear namesake 😉

first of all I must apologize for responding so late to your very kind and interesting comment, but I don’t always get all the comments. However, I would like to respond a few sentences to your comments.

You define “ Evolution as „A change in an Entity as it Adapts to Pressure“. This can be done and is absolutely in accordance with the classical conception in the theories of evolution. However, in my opinion, one quickly comes into a dead end, because, as you correctly write, with an entity-based metaphysics to the theories of evolution, one always comes into the explanatory predicament of explaining the entity „life“, the old „hen egg problem“ ;-).

In my opinion, a process-based metaphysics of evolutionary theories, for example according to Whitehead or Prigogine, would be much more purposeful, since one can describe them with the help of a structural realism and check their validity with the help of probabilistic models. I have tried to examine this in „Evolution Theories in a Structural Realistic View“.

Your reference to the analogy of the concept of evolution to the standard model of particle physics I can quite understand under the aspect of the processuality in the description of the interactions. However, the standard model has of course again the „hook“ that it is of course strongly matter and entity oriented.

I would also like to continue the correspondence with you, because your concepts to the topic sound very interesting. And right, the approach must not be complicated, but only complex enough ;-). So I would be very happy to hear or read something more from you.

Thanks for your interest and
many greetings

Philo

Philo Sophies
1 Jahr zuvor

Dear P_SSBM,

thank you very much for your comment and your questions. I am glad that you enjoy dealing with this topic as much as I do. Therefore I try to answer your questions once, if I should succeed.

To your questions: „What are your thoughts about internal organization as a utility for the alleviation of psychological disorder?“ „What methodologies have you found to be effective either personally or within research?“

Current psychology, especially since the mentioned „neuroscientific turn“, has shifted the main focus to the „central organ of the psyche“ – the brain. Everything stands and falls with the health of the brain. Therefore, all psychological therapy approaches so far have been aimed either at somatic treatment of the neurochemical transmitters in brain metabolism or at conditional treatment of the behavioral patterns of the neuronal structures in the brain.

Yes, I think there are very promising therapeutic approaches here, mainly coming from the field of neurophilosophy and neuropsychology. If I could give a few examples here:

Neuropsychology: Thomas Fuchs at the clinic in Heidelberg Clinic for General Psychiatry Center for Psychosocial Medicine in his section Phenomenological Psychopathology and Psychotherapy operates, if I may quote here from his site: „The interdisciplinary research section „Phenomenological Psychiatry and Psychotherapy“ under the direction of Prof. Dr. med. Dr. phil. Thomas Fuchs explores the basic structures of subjective experience and their variations in mental illness with theoretical and empirical methodology. Here, experts from the fields of psychiatry, philosophy and psychology work on common questions such as the change of self-experience, corporeality or intersubjectivity due to mental illness.“ (https://www.klinikum.uni-heidelberg.de/zentrum-fuer-psychosoziale-medizin-zpm/klinik-fuer-allgemeine-psychiatrie/ueber-uns/sektionen/phaenomenologie)
Neurophilosophy: Georg Northoff of The Royal’s Institute of Mental Health Research University of Ottawa on his site http://www.georgnorthoff.com/neuropsychiatry or in his book „Neuropsychodynamic Psychiatry“ (2016). Or, if you like it shorter, his article „NEUROPHILOSOPHY AS THERAPY?“ (https://www.hss.de/download/publications/AMZ_87_Homo_Neurobiologicus_04.pdf), which I would also like to refer to here for the interested reader.

The neuropsychatric approach casts a completely new light on mental illnesses, such as depression and schizophrenia, and accordingly on their treatment methods.The tendency of the neurophilosophical approach goes away from the reductionism of a physicalistic-materialistic view of the classical psychotherapy with the help of psychotropic drugs, to a structural-holistic view, which propagates a structural coupling of the psyche with its body and the environment.

Regarding your question, „Can we develop structures which transcend sentience?“

Definitely yes, since structures are mathematical rather than intuitive in nature. We also already have an interview on this topic „Conscious structures or structures for consciousness?“ with Prof. Dr. Holger Lyre, the renowned German philosopher of science and professor of theoretical philosophy at the University of Magdeburg, where he is also a member of the Center for Behavioral Brain Sciences (CBBS) since 2010.
The interview with Prof. Dr. Lyre deals primarily with the question of the „constitution of consciousness“ from the point of view of structural realism, as he is considered a very well-known representative of this position in philosophy of science. The video can be seen on our Youtube channel „Zoomposium“ at the following link: https://youtu.be/Q8KummjugNw.

Regarding your question, „Can the systems involved in the physicality of the universe and those more abstract psychological systems within the mind be compared effectively with a single set of structures?“

I’m afraid rather „no.“ Physical and psychological systems have nothing in common per se, they are two different levels of description. Bayes networks or Markov blankets are very useful in both fields for describing phenomenology, but these are epistemic and not ontic system descriptions. Unfortunately, one has to separate these very neatly. The „world formula“ of structures will not be able to exist, in my opinion ;-).

Thank you for your interest and
many greetings

Philo Sophies