Evolutionstheorien in einer strukturenrealistischen Betrachtung

Evolutionstheorien in einer strukturenrealistischen Betrachtung

Leben als autopoietisches System – Versuch einer strukturenrealistischen Aufklärung –

Teil 2 „Evolutionstheorien in einer strukturenrealistischen Betrachtung“

 

Abstract

Der hier vorliegende Teil 2 Evolutionstheorien in einer strukturenrealistischen Betrachtung“ stellt den weiterführenden Essay zu dem gemeinsamen Projekt „Leben als autopoietisches System – Versuch einer strukturenrealistischen Aufklärung -„ dar, das ich zusammen mit Herrn Dr. Wolfgang Stegemann als Joint-Venture gestartet habe.

Im ersten Teil, den ich bereits als Gastbeitrag Selbstorganisation von innen betrachtet – oder: wie funktioniert Leben auf meiner Seite veröffentlicht habe, ging es hauptsächlich darum die Selbstorganisation des Lebens als autopoietisches System darzustellen. Herr Stegemann hatte in seinem Artikel schon einmal den Untersuchungsbereich abgesteckt. Es sollte um eine „Innenbetrachtung der Selbstorganisation von Leben“ gehen, die in die Arbeitsauftrag mündete: „Aber was ist Selbstorganisation, wie funktioniert sie oder einfach ausgedrückt, wie funktioniert Leben?

Diesen Auftrag möchte ich nun in diesem zweiten Teil gerne aufgreifen und einen Aufklärungsversuch der Selbstorganisation von Leben mit Hilfe eines strukturenrealistischen Ansatzes starten. Zu diesem Zwecke möchte ich zunächst einmal das Ausgangsproblem in der Darwinschen Evolutionstheorie beschreiben, die als Beispiel für die Unterdeterminiertheit empirischer Theorien durch die Evidenz (Bas van Fraassen) gelten kann.

Die Evidenzen zu der Evolutionstheorie nach Darwin weisen darauf hin, dass es eine Unterdeterminiertheit hinsichtlich ihrer empirischen Adäquatheit gibt, die auch mathematisch nachweisbar ist. Daran anschließend möchte ich neue mathematische Ansätze der Forschungsgruppe Stochastische Evolutionäre Dynamik aus dem Max-Planck-Institut für Evolutionsbiologie darstellen. Hieran soll dann die Überleitung zum Strukturenrealismus erfolgen, der sich explizit nicht auf die dualistische und reduktionistische Differenz von „innen vs. außen“ bezieht, sondern den selbstreferentiellen Prozess der strukturalen Kopplung des Lebens mit seiner Umwelt im Sinne einer mehrwertigen Logik nach Gotthard Günther zu beschreiben versucht. Methodisch möchte ich zunächst einmal 5 Axiome zum Leben aufstellen, woraus ich dann Postulate zur möglichen Entstehung von Leben ableite. Hierbei habe ich mich bei dem Formalismus und der Begrifflichkeit von der „Integrated Information Theory“ (IIT) nach Guilio Tononi inspirieren lassen.

 

Survival of the fittest“ – vom Überlebenskampf der Evolutionstheorien

Als der britische Naturforscher Charles Darwin (1809 – 1882) im Sommer 1858 endlich nach über 20-jähriger Arbeit seine Theorien über die Evolution als „Natural Selection“ und ein Jahr später 1859 sein bahnbrechendes Hauptwerk On the Origin of Species veröffentlichte, kam es in den darauf folgenden Jahren und Jahrzehntem zu einem der bereits beschriebenen Kuhnschen „wisenschaftlichen Revolutionen in der sich erst konstituierenden Biologie. Hierauf baute die sich später bildende Teildizplin der Evolutionsbiologie bis heute auf und es liegt auch keinesfalls in der Absicht des Autors die hierin enthaltenen 5 Grundprinzipien im Kern anzugreifen:

 

  1. die Evolution als solche, die Veränderlichkeit der Arten;
  2. die gemeinsame Abstammung aller Lebewesen;
  3. den Gradualismus, die Änderung durch kleinste Schritte;
  4. Vermehrung der Arten beziehungsweise Artbildung in Populationen
  5. und die natürliche Selektion als wichtigsten, wenn auch nicht einzigen Mechanismus der Evolution. (Charles Darwin: On the Origin of Species by Means of Natural Selection, or The Preservation of Favoured Races in the Struggle for Life , 1859)

Auch eine dazu konkurrierende, frühere Evolutionstheorie des französischen Biologen Jean-Baptiste de Lamarck (1744–1829) mit ihren 2 Grundthesen zum Zusammenspiel zweier Faktoren:

1. ungerichtete Adaptation an äußere Veränderungen

2. linearer Fortschritt auf einer linearen Leiter der Komplexität

stand zwar im „Überlebenskampf“ zu Darwins Evolutionstheorie. Sie hat sich aber in Form der modernen Epigenetik zum Teil vererben können, wobei aber die Gerichtetheit des „linearen Fortschritts“ zugunsten der Probabilistik der „natürlichen Selektion“ Darwins geopfert werden musste.

Die oben genannten Grundprinzipien der Evolutionstheorie sollen hier nicht in Frage gestellt werden, da sich der Autor ausdrücklich vom unwissenschaftlichen Kreationismus distanzieren möchte. Die Frage geht viel tiefer – im wahrsten Sinne des Wortes – in die Materie. Wie aus toter Materie so etwas wie Leben überhaupt entstehen konnte und wie die Materie es bis heute schafft sich zu organisieren. Denn an einem leider oft von den Kreationisten angeführtem Argument könnte aus mathematischer Sicht der Stochastik tatsächlich etwas dran sein:

„Um ein einziges mittelgroßes menschliches Protein zu erschaffen, musste die Evolution mehr als 300 Aminosäuren in der richtigen Reihenfolge zusammenfügen. Das könne kein Zufall gewesen sein. Denn da jedes Glied eines Moleküls aus einer von 20 möglichen Aminosäuren besteht, gibt es mehr als 20300 Möglichkeiten, so ein Protein aufzubauen. Neben einer solchen Zahl wirkt selbst die Anzahl der Atome im beobachtbaren Universum vernachlässigbar klein. Selbst wenn man Redundanzen, die einige Sequenzen aus biochemischer Sicht gleichwertig machen, nicht mitrechnet, wäre es tatsächlich höchst unwahrscheinlich, dass die Evolution die richtige Kombinationen rein durch zufällige Mutationen finden kann, selbst nach Jahrmilliarden.

Doch das Argument der Kreationisten hat einen entscheidenden Haken: Die Evolution testet genetische Sequenzen nicht allein nach dem Zufallsprinzip. Sie arbeitet mit natürlicher Auslese und hat darüber hinaus vermutlich Wege gefunden, den unermesslichen Raum genetischer Möglichkeiten auf kleinere, erforschbare Teilgebiete einzugrenzen.“ (Jordana Cepelewicz: Algorithmen üben Evolution, in: Spektrum.de – IT/Tech – Lässt sich Evolution mit Mathematik und Algorithmen modellieren?, 2019)

In dieser Hinsicht versagen also die alten Modelle der Evolutionstheorie und bedürfen einer stochastischen Erweiterung in informationstheoretischer Hinsicht. Das Argument „Zufall“ und „Auslese“ reicht hierfür alleine nicht mehr aus. Es muss eine auch eine besagte„Selbstorganisation des Lebens als autopoietisches System“ von innen geben; ohne hierbei allerdings in den alten Dualismus „innen vs. außen“ verfallen zu müssen. Einen Ausweg aus dem Dilemma könnte hierbei die Stochastische Evolutionäre Dynamik liefern, die mit Hilfe von Algorithmen hauptsächlich populationsgenetische und epidemiologische Simulations-Modelle entwickelt, die sich aber auf das große Ganze durchaus übertragen lassen.

 

Die „Evolutionary Graph Theory“ (EGT) – es lebe die Mathematik

Evolutionary dynamics on double stars. Consider a double-star graph G (Panel A) consisting of a left and a right star connected by the centers, and the resulting interaction hypergraph B (Panel B) constructed following the graph approach. In the graph approach, G is taken as the replacement graph (Panel C). In this case, and for a wide range of values of r , spreading occurs preferentially from the centers (or hubs) to their respective leaves. Long-term evolution will ultimately depend on inter-hub competition, which is favorable to C-hubs due to the positive and negative feedback mechanisms brought about by the spreading from centers to (own) leaves. In the bigraph approach, the replacement graph is given by the projection of the interaction bigraph (Panel D), so that the center of one start gets connected to the leaves of the other star and leaves of the same star get connected with each other. This not only allows successful centers to breed copies of themselves in the leaves of the other star, but also makes inter-leaf competition possible, which is favorable to Ds if r v 4 . As a result, the feedback mechanisms on which the evolution of cooperation on heterogeneous graphs is based are diminished and the evolutionary outcome is more favorable to Ds. This is illustrated in Panels E and F, which show typical scenarios for the time evolution of the fraction of Cs under the distributed NPD ( r ~ 1 : 3 ) on the leaves of double-star graphs (Panel E: X ~ 10 , Y ~ 20 ; Panel F: X ~ 20 , Y ~ 10 ), for replacement graphs given by the OG, UP, UWP and NWP methods. In all cases we placed Cs on all nodes of the double-star, except for the left center, where we placed a D (see configurations a and e of Panel G). If the replacement graph is given by the original graph (OG), the dynamics are such that, typically, the D-center invades the leaves of his star (configuration b ), then the C-center invades the D-center ( c ) and finally D-leaves on the left star are invaded by the C-center ( d ). When the replacement graph is given by the projection of the interaction graph, Ds can now easily spread from the initial center until they invade the whole population ( e , f , g ). Weights attached to the links of the projection play a key role in this case, with NWP still favoring Cs when the connectivity of the left star is small compared to that of the second star ( e , f , h , i ). See section 3 of Text S1 for the analytical derivation of the results shown in this figure. doi:10.1371/journal.pone.0044514.g004

(Evolutionary dynamics on double stars. (Quelle: https://www.researchgate.net/figure/Evolutionary-dynamics-on-double-stars-Consider-a-double-star-graph-G-Panel-A_fig4_230834619)

 

„Die evolutionäre Graphentheorie ist ein Forschungsgebiet, das an der Schnittstelle von Graphentheorie, Wahrscheinlichkeitstheorie und mathematischer Biologie liegt. Die evolutionäre Graphentheorie ist ein Ansatz zur Untersuchung der Auswirkungen der Topologie auf die Evolution einer Population. Dass die zugrundeliegende Topologie einen wesentlichen Einfluss auf die Ergebnisse des Evolutionsprozesses haben kann, wird am deutlichsten in einer Arbeit von Erez Lieberman, Christoph Hauert und Martin Nowak[1].

In der evolutionäre Graphentheorie besetzen die Individuen die Knoten eines gewichteten, gerichteten Graphen, und das Gewicht wi j einer Kante vom Knoten i zum Knoten j gibt die Wahrscheinlichkeit an, dass i an die Stelle von j tritt. Eine Eigenschaft, die bei Graphen mit zwei Arten von Individuen untersucht wird, ist die Fixierungswahrscheinlichkeit, die als die Wahrscheinlichkeit definiert ist, dass eine einzelne, zufällig platzierte Mutante des Typs A eine Population des Typs B ersetzt. Nach dem Isothermen-Theorem hat ein Graph nur dann die gleiche Fixierungswahrscheinlichkeit wie der entsprechende Moran-Prozess, wenn er isotherm ist, d. h. die Summe aller Gewichte, die zu einem Knoten führen, ist für alle Knoten gleich. So beschreibt z. B. ein vollständiger Graph mit gleichen Gewichten einen Moran-Prozess.“ (Quelle: https://en.wikipedia.org/wiki/Evolutionary_graph_theory übersetzt ins Deutsche mit DeepL Translate).

Au ha! Dieses anspruchsvolle mathematische Konstrukt lässt sich vielleicht am besten mit dem Konzept der Metastrukturen in Herrn Stegemanns Artikel aus Teil 1 unseres Projektes vergleichen und damit vielleicht verständlicher erklären:

„Nehmen wir ganz allgemein z.B. ein zweidimensionales abstraktes Netzwerk mit n Knoten. Erfährt dieses Netz eine Zustandsänderung, so verschieben sich die Knoten und bilden an einer bestimmten Stelle einen Bereich mit einer höherer (Informations-) Dichte. In biologischen Systemen wird diese Dichte genetisch gespeichert und bildet eine metastrukturelle Steuereinheit (aus).“

Soll heißen, dass Strukturen eine Selbstreferentialität besitzen, die aufgrund von stochastischen, linearen Verteilungen beschrieben werden können. In der evolutionären Graphentheorie (EGT) entstehen struktural-gekoppelte Graphen mit unterschiedlichen Gewichtungen in den Knotenpunkten. Wenn man so möchte eine informationstheoretische Selbstorganisation des autopoietischen Systems von innen um Informationen mit möglichst geringer Zeichenmenge mit einer möglichst großen Informationsdichte zu vererben.

Diese nach dem russischen Mathematiker Andrei Nikolajewitsch Kolmogorow benannte Kolmogorow-Komplexität „ist ein Maß für die Strukturiertheit einer Zeichenkette und ist durch die Länge des kürzesten Programms gegeben, das diese Zeichenkette erzeugt. Dieses kürzeste Programm gibt somit eine beste Komprimierung der Zeichenkette an, ohne dass Information verloren geht.“ (https://de.wikipedia.org/wiki/Kolmogorow-Komplexit%C3%A4t)

Die Kolmogorow-Komplexität hat allerdings den entscheidenden Haken, dass sie nicht berechenbar ist. Hier kommt dann die später noch zu erläuternden Bayes-Netze und Markow-Ketten ins Spiel. Aber zumindest hat man hiermit schon einmal einen neuen Ansatzpunkt gewonnen, um die Selbstorganisation von Leben nicht alleine dem reinen Zufall zu überlassen. Der Faktor „Zufall“ hat nämlich die unangenehme Eigenschaft eine viel zu große Menge an Freiheitsgraden zu besitzen, die zu einer viel zu großen Menge an Auswahlmöglichkeiten führen würde und damit viel zu viel Zeit und Energie kosten würde. Bei 20300 Möglichkeiten allein für ein Protein kann man sich vielleicht vorstellen, dass die probabilistischen Möglichkeiten für Bildung eines lebendigen Organismus in schwindelerregende Größenordnungen gehen. Also muss die Natur einen Weg gefunden haben sich von dem reinentrial and error zu lösen. Also das „Rad jedes mal neu zu erfinden“, sondern so etwas wie genetische Algorithmen zu entwickeln, die wie Heuristiken wirken können. Diese sogenannten „genetischen Algorithmen“ finden ebenfalls Verwendung in der Programmierung, um Redundanzen zu vermeiden, strukturierter zu coden und damit Zeit und Energie zu sparen.

Genetische Algorithmen starten immer mit einer Hand voll zufällig gewählter Lösungen. Die sind in der Regel noch nicht gut. Allerdings werden die Lösungen in genetischen Algorithmen als Organismen aufgefasst, deren Merkmale in einer Art genetischem Code beschrieben sind. Dieser Code wird dann, wie in der Evolution, einer Kombination von Manipulationen unterzogen. Das können zufällige Mutationen sein oder Eingriffe, die die genetischen Mischprozesse in der Natur nachahmen. So entsteht eine weitere Generation von Organismen, die wiederum auf ihre Fitness getestet werden, also die Fähigkeit, die Aufgabe zu lösen. Wiederholt man diese Schritte, kann das zu hochgradig angepassten Individuen führen: zu guten Lösungen für das vorliegende Problem.“ (Jordana Cepelewicz: Algorithmen üben Evolution, in: Spektrum.de – IT/Tech – Lässt sich Evolution mit Mathematik und Algorithmen modellieren?, 2019)

Die genetischen Algorithmen der Evolutionary Graph Theory werden wiederum in der Stochastischen Evolutionäre Dynamik verwendet, um dort populationsgenetische und epidemiologische Simulations-Modelle in silico durchzuspielen. Ziel hierbei ist es die Evolutionäre Dynamik zum Beispiel von Bakterienstämmen in vitro besser abzubilden und hieraus Rückschlüsse auf die Selbstorganisation von Leben zu erreichen.

 

Bayes-Netze und Markov-Ketten – oder wie zufällig ist der Zufall

Um die Selbstorganisation autopoietischer Systeme in der Evolutionary Graph Theory besser struktural beschreiben zu können, bedarf es einer mathematischen Formulierung der Stochastik in Form der Bayes-Netze und Markow-Ketten, damit die propagierten Metastrukturen berechenbar werden. Es gilt hierbei den dynamischen Prozess mit seinen stochastischen Elementen abzubilden und hierbei die speziellen bedingten Unabhängigkeiten zu berücksichtigen. Anders ausgedrückt, es wird untersucht, ob man die probabilistische Struktur der Evolution als Algorithmus in einem Simulationsmodell nachbilden kann.

Directed graph, cyclic
Ein gerichteter Graph mit Zyklus

 

Directed acyclic graph
Ein gerichteter Graph ohne Zyklus

 

CPT-Graphs-directed-weighted-ex1
Multigraph: Mehrfachkanten werden durch eine gewichtete Kante visualisiert

(Quelle: https://de.wikipedia.org/wiki/Graph_(Graphentheorie)

 

„Ein bayessches Netz oder Bayes’sches Netz (benannt nach Thomas Bayes) ist ein gerichteter azyklischer Graph (DAG), in dem die Knoten Zufallsvariablen und die Kanten bedingte Abhängigkeiten zwischen den Variablen beschreiben. Jedem Knoten des Netzes ist eine bedingte Wahrscheinlichkeitsverteilung der durch ihn repräsentierten Zufallsvariable, gegeben die Zufallsvariablen an den Elternknoten, zugeordnet. Sie werden durch Wahrscheinlichkeitstabellen beschrieben. Diese Verteilung kann beliebig sein, jedoch wird häufig mit diskreten oder Normalverteilungen gearbeitet. Eltern eines Knotens v sind diejenigen Knoten, von denen eine Kante zu v führt.

Ein bayessches Netz dient dazu, die gemeinsame Wahrscheinlichkeitsverteilung aller beteiligten Variablen unter Ausnutzung bekannter bedingter Unabhängigkeiten möglichst kompakt zu repräsentieren. Dabei wird die bedingte (Un)abhängigkeit von Untermengen der Variablen mit dem A-priori-Wissen kombiniert.

Sind X1, …, Xn einige der im Graphen vorkommenden Zufallsvariablen (die abgeschlossen sind unter Hinzufügen von Elternvariablen), so berechnet sich deren gemeinsame Verteilung als

Bayes-Netze

Dabei ist P ( X 1 , … , X n ) eine symbolische Schreibweise für die gemeinsame Wahrscheinlichkeitsverteilung der Zufallsvariablen X 1 , … , X n. Hat ein Knoten keine Eltern, so handelt es sich bei der assoziierten Wahrscheinlichkeitsverteilung um eine unbedingte Verteilung.

Wie im Beispiel unten, interessiert man sich häufig für eine Randwahrscheinlichkeit, die man durch Marginalisierung über alle möglichen Realisierungen x j im Zustandsraum E j der Zufallsvariable X j erhält:

Bayes-Netze-Randwahrscheinlichkeit

“ (https://de.wikipedia.org/wiki/Bayessches_Netz)

Und ohne auf die hier verwendete Mathematik eingehen zu wollen und müssen, taucht hier die vorab formulierte „Vererbungslehre der Informationen“ in der Evolutionary Graph Theory wieder auf. Die gemeinsame Wahrscheinlichkeitsverteilung P der Zufallsvariablen X 1 , … , X n ist nur noch abhängig von den bedingten Knoten der „Eltern“-Zufallsvariablen. Existieren keine „Eltern“-Zufallsvariablen für einen bestimmten Knoten ist dies auch nicht so schlimm, da man dann mit Hilfe der „assozierten Wahrscheinlichkeitsverteilung“ einfach die „Randwahrscheinlichkeiten“ bestimmen kann.

Das Ganze mathematische Verfahren hat also den großen Vorteil die „Zufallsvariablen“ als „bedingte Wahrscheinlichkeitsverteilung“ kalkulierbar zu machen. Hierdurch wird auch der Zufall ein wenig strukturierter und für die Entwicklung von Algorithmen handfester gemacht. Dieser Vorteil der Strukturierung des Zufalls wird nicht nur für das Lernen in der KI-Entwicklung genutzt, sondern kann auch zur Beschreibung von Mutationen in der Selbstorganisation von Leben produktiv genutzt werden.

Rastrigin function

Beispiel für einen evolutionären Algorithmus:

Die Rastrigin-Funktion ist eine multimodale Funktion, da sie viele lokale Extrema aufweist. Dies stellt einen Nachteil für den Rekombinationsoperator dar. (Quelle: https://de.wikipedia.org/wiki/Evolution%C3%A4rer_Algorithmus)

 

Wahrscheinlichkeit eines Mutationsmusters

Die Wahrscheinlichkeit (likelihood L) eines´Mutationsmusters x unter der Bedingung eines mutagenetischen Baumes T ist gegeben als das in der Formel angegebene Produkt zweier Produkte:

Mutationsmuster

Dabei läuft der Index e über alle Kanten des Mutationsbaums – jedes e entspricht einem Übergang zwischen zwei Mutanten. Das erste Produkt geht über alle Wahrscheinlichkeiten p(e) von Mutationen die zum Muster x führen, das zweite Produkt steuert einen Faktor von 1 – p(e) bei für jede Mutation, die nicht zu x führt.“ (Daniel Hoffmann: Evolution: Von der Biologie zur Mathematik und wieder zurück, 2008)

Das erinnert nicht nur an die mathematische Beschreibung der Bayes-Netze, sondern hat auch einen direkten Zusammenhang. Man kann nun den evolutionären Charakter von Mutationen mit Hilfe der Wahrscheinlichkeit von Mutationsmuster abbilden. Die „Vererbungslehre“ steckt hier wieder in der bedingten Abhängigkeit der Wahrscheinlichkeiten p(e) von Mutationen, die zum Muster x führen. Das zweite Produkt von 1 – p(e) schließt auch die unbedingten Wahrscheinlichkeiten für jede Mutation mit ein, die nicht zu x führen.

Jetzt muss man nur den dynamischen Prozess-Charakter in der Evolutionären Dynamik mathematisch in den Griff bekommen. Eine spezielle bedingte Unabhängigkeit von dem Faktor „Zeit“, bei der Gegenwart, Vergangenheit und Zukunft unabhängig von einander sein sollen, ist für den Faktor „Zufall“ eine notwendige Bedingung. Anders ausgedrückt, das Bayes-Netz ist ein probabilistisches grafisches Modell (PGM), das mit seinem Graphenformalismus zur kompakten Modellierung gemeinsamer Wahrscheinlichkeitsverteilungen und (Un-)Abhängigkeitsbeziehungen über eine Menge von Zufallsvariablen dient. Okay. Damit das Ganze aber eine spezielle bedingte Unabhängigkeit erhält, muss man die Gerichtetheit doch ein wenig öffnen. Und hier kommt das Markov Random Field ins Spiel:

„Ein Markov Random Field (kurz MRF) oder Markow-Netzwerk ist ein nach dem Mathematiker A. Markow benanntes statistisches Modell, welches ungerichtete Zusammenhänge (z.B. die Ausrichtung von Elementarmagneten) in einem Feld beschreibt. Das Feld besteht aus Zellen, die Zufallsvariablen enthalten und räumlich begrenzt (vgl. zeitliche Begrenzung in einer Markow-Kette) gegenseitig wechselwirken. […] Zu den formalen Eigenschaften eines MRF gehört unter anderem die Global Markov Property: Jeder Knoten (als Darsteller der Zufallsvariable) ist unabhängig von allen anderen Knoten, falls alle seine Nachbarn gegeben sind.“ (https://de.wikipedia.org/wiki/Markov_Random_Field)

 

Markow-Kette mit drei Zuständen und unvollständigen Verbindungen (Quelle: https://de.wikipedia.org/wikSimple markov chaini/Markow-Kette)

 

 

 

Diagram of a Markov blanket

Markow-Decke: In einem Bayes’schen Netz umfasst die Markov-Grenze des Knotens A seine Eltern, Kinder und die anderen Eltern aller seiner Kinder. (Quelle: https://en.wikipedia.org/wiki/Markov_blanket)

 

 

Mit Hilfe von Markow-Modellen, hier speziell Markow-Ketten oder Markow-Decken wird also durch eine räumliche oder zeitliche Eingrenzung der Faktor „Zufall“ in den Bayes-Netzen kalkulierbarer gemacht. Soll heißen, jeder Knoten in dem Bayes-Netz lässt sich mit einer gewissen Wahrscheinlichkeit berechnen, wenn man alle seine Relationen kennt. Dies erinnert in entfernter Anlehnung an den von Herrn Stegemann vorgeschlagenen Begriff der Valenzkopplung:

Valenzkopplung findet als Assoziierung kompatibler Strukturen statt und ist die Basis des Energie- (oder Informations-) austausches. Valenzen entstehen ausschließlich in Zusammenhang mit Strukturen (ähnlich der ’strukturellen Kopplung‘ bei Maturana).“

Jetzt braucht man die probabilistischen Algorithmen als Simulationsmodelleauf einem Computer nur noch Laufen lassen und überprüfen, in wie fern die Algorithmen in der Lage sind populationsgenetische und epidemiologische Evolutionäre Dynamiken abzubilden. Hier findet nun zum ersten Mal ein Abgleich des Modells mit der Umwelt statt. Dies ist wichtig, da auch die Algorithmen des Simulationsmodell ständig als selbstreferentieller, rekursiverFeedback-Loop an die tatsächlichen Evidenzen angepasst werden müssen. Man kann hier folglich in einer Analogie auch von einer Adaption und Evolution der genetischen Algorithmen sprechen. Herr Stegemann hatte dies in seinem Artikel folgendermaßen formuliert:

Adaption und Evolution geschieht in einem Phasenraumdurch Versuch und Irrtum. Durch den adaptiven Randomwalk entstehen neue Phänotypen durch Ausnutzung von Möglichkeitsräumen und ändern dadurch auf der anderen Seite durch Rückkopplung die interne Steuerung (ähnlich der ‚konvergenten Rekonstruktion mit Übersteigungen‘ bei Piaget).“

Insofern findet die Überprüfung von Evolutionstheorien nicht nur als genetische Algorithmen in einem Simulationsmodell statt, sondern z. B. die Evolutionary Graph Theory unterliegt selber einer Art Evolution. Um hier noch ein paar weitere Mutationsmöglichkeiten ins Spiel zu bringen sei zum Abschluss noch eine strukturenrealistische Betrachtung der Evolutionstheorien erlaubt.

 

Flips
Alle möglichen Ergebnisse des Random Walk nach 5 Würfen einer fairen Münze
Random walk 2500
Random Walk in 2 Dimensionen

Walk3d 0

3 Random Walks in 3 Dimensionen

Evolutionstheorien in einer strukturenrealistischen Betrachtung – Leben braucht Strukturen

Der Knotenpunkt zu einer strukturenrealistischen Betrachtung der Evolutionstheorie ist aus meiner Sicht durch die strukturale Beschreibung der Stochastischen Evolutionären Dynamik in der Evolutionary Graph Theory gegeben.

Unter der Prämisse, dass die zuvor genannten mathematischen Beschreibungsmodelle, wie z. B. aus der Evolutionary Graph Theory eine adäquate Simulation der Evolutionären Dynamik in der Natur abbilden können, würde dies einen ganz neuen Zugang zum Verständnis von Evolution eröffnen. Das bisherige Paradigma in der Evolutionsbiologie geht bislang von einem Dualismus eines „innen vs. außen“, „Organismus vs. Umwelt“, „Adaption vs. Speciation, u.s.w. aus, der immer im Sinne einer Abgrenzung zum „tertium non datur der klassischen Systemtheorie (George Spencer-Brown, Niklas Luhmann) als Differenz betrieben wird.

Der Fokus des neuen Paradigmas für die Evolutionsbiologie sollte aus meiner Sicht stärker auf dem Konzept der Polykontexturalität nach Gotthard Günther liegen, um den struktural-dynamischen Prozess zur Entstehung von Leben besser beschreiben zu können. Methodisch möchte ich mich im Folgenden an dem Formalismus und Begrifflichkeit der „Integrated Information Theory“ IIT (2004 – 2014) von Guilio Tononiorientieren, die zwar eigentlich eine mathematische Theorie zur Konstitution von Bewusstsein ist, sich aber aufgrund ihres informationstheoretischen Formalismus aus meiner Sicht auch zur Beschreibung der Konstitution von Leben eignet.

Die Möglichkeiten, die aufgrund einer strukturalen Beschreibung der Evolutionären Dynamik in der Evolutionary Graph Theory entstehen, eröffnen ganz neue strukturenrealistische Betrachtungen, wie z. B. Leben als autopoietisches System entstanden sein kann. Um dies ein wenig präziser zu fassen, möchte ich im Folgenden „5 Axiome zum Leben“ in Analogie zur IIT aufstellen, woraus ich dann die entsprechenden Postulate zur möglichen Entstehung von Leben“ ableite.

 

Die 5 Axiome des Lebens

1. intrinsische Existenz: ein lebendiger Organismus muss eine struktural-dynamische Differenz von „innen“ und „außen“ besitzen,

2. Komposition: ein lebendiger Organismus muss sich aus mehreren Teilen zusammensetzen, die mehr sind als deren Summe,

3. Information: ein lebendiger Organismus muss durch seine Struktur auch einen Inhalt haben, der übertragen werden kann,

4. Integration: ein lebendiger Organismus muss mit seiner Umwelt in Interaktion treten und anpassen können,

5. Exklusion: ein lebendiger Organismus muss ein Verhalten haben, das ihn von seiner Umwelt abgrenzt

 

Postulate zu den Axiomen

Zu 1.intrinsische Existenz: ein lebendiger Organismus benötigt zunächst einmal eine struktural-dynamische Differenz von „innen“ und „außen“. Soll heißen, ohne eine entprechende struktural-dynamische Abgrenzung nach außen, kann der lebendige Organismus gar nicht definiert werden, da er in diesem Falle gar keine eigene Identität/Entität bilden kann. Diese Differenz ist hier aber ausdrücklich nicht als Dualismus gedacht, da der lebendige Organismus unter einem prozessoralen Gesichtspunkt weiterhin Bestandteil der Umwelt bleibt und mit dieser interagiert (s. 4.).

In einem strukturenrealistischen Konzept beschrieben, wären die sich bildenden Relationenzwischen dem lebendigen Organismus und seiner Umwelt in einem Phasenraum von größerer Bedeutung als die Relata (Organismus, Umwelt) selber. Aus strukturenrealistischer Sicht auf die evolutionären Graphentheorie (EGT) beschrieben, bedeutet dies, dass die sich bildenden Bayes-Netze oder Markow-Ketten einen eigenen Informationsgehalt besitzen, der unabhängig von der Beschreibung des lebendigen Organismus als Ganzes, eine intrinsische Existenz als Selbstorganisation von innen besitzt.

Zu 2. Komposition: ein lebendiger Organismus besteht immer aus mehreren Teilen, ist aber aus mereologischer Sicht immer mehr als die Summe seiner Teile. Selbst die kleinsten lebendigen Organismen, wie z. B. Bakterien oder Viren (wobei bei Viren, die Grenzen zum Leben schon erreicht wird) bestehen aus mehreren einfachen Komponenten, wie z. B. Protein-Hülle oder RNA/DNA-Material. Die Komplexität der Komposition von lebendigen Organismen ist nach oben hin offen und kann durchaus mit Hilfe der Adaption und Evolution erklärt werden.

Der „adaptive Random-Walk“ der Evolution kann mit Hilfe des Markov Random Field (MRF) oder Markow-Logik-Netzen probabilistisch abgebildet werden. Die scheinbar ungerichteten Zusammenhänge der Darwinschen Evolutionstheorie, die schon einmal gerne „trial and error“-Methode genannt wird, können nun mit Hilfe der MRFs in einem Feld beschrieben werden. „Das Feld besteht aus Zellen, die Zufallsvariablen enthalten und räumlich begrenzt (vgl. zeitliche Begrenzung in einer Markow-Kette) gegenseitig wechselwirken.“ (https://de.wikipedia.org/wiki/Markov_Random_Field).

Aus strukturenrealistischer Sicht bedeutet dies, man braucht nicht mehr die Komposition des einzelnen, lebendigen Organismus im Hinblick auf die Entstehung von Arten mit neuen spezifischen, der Umwelt angepassten Eigenschaften betrachten. Sondern man kann die Adaption und Evolution auch z. B. als Markov-Netzwerk oder unter einem zeitlichen Aspekt auch als Markov-Kette beschreiben. Hierdurch erhält man eine klare Strukturierung des Faktors „Zufall“ und kann bessere Heuristikenentwickeln.

Zu 3. Information: ein lebendiger Organismus stellt ein selbstreferentielles, autopoietisches System dar, das aufgrund seiner Strukturiertheit einen Informationsgehaltbesitzt. Die Information kann in Form der DNA in den Genomen der Zellen gespeichert sein. Ebenso kann die spezifische Strukturierung von Zellverbänden zu Organen oder die spezifische Komposition des lebendigen Organismus aus seinen Komponenten als Informationsgehalt bezeichnet werden. Über selbstrekursive Prozesse ist eine Informationsübertragung innerhalb des lebendigen Organismus aber auch außerhalb über Vererbung möglich.

Den struktural-dynamischen Prozess der Informationsübertragung lässt sich gut mit Hilfe von Bayes-Netzwerken darstellen, da hier die „Vererbungslehre der Informationen“ in der Evolutionary Graph Theory abbildbar wird. Die gemeinsame Wahrscheinlichkeitsverteilung aller Zufallsvariablen eines lebendigen Systems können in Abhängigkeit von den bedingten Knoten der „Eltern“-Zufallsvariablen determiniert werden. Der Informationsgehalt des Gesamtsystems bleibt trotz Permutation der Strukturen einzelner Bereiche erhalten. Selbst, wenn keine „Eltern„-Zufallsvariablen für einen bestimmten Knoten existieren, wie z. B. bei Mutationen, können aufgrund der „assozierten Wahrscheinlichkeitsverteilung“ die „Randwahrscheinlichkeiten“ bestimmt werden.

Aus Sicht des Strukturenrealismusbedeutet dies, wenn die Relationen des Gesamtsystems (Knoten, Kanten) bekannt sind, können auch struktural-dynamische Transformationen einzelner Bereiche stattfinden, ohne den Informationsgehalt des Gesamtystems wesentlich zu ändern. Dies ermöglicht eine Adaption an die Umwelt und auf längere Sicht eine Evolution des lebendigen Organismus.

Zu 4. Integration: ein lebendiger Organismus muss in der Lage sein mit seiner Umwelt zu interagieren. Das heißt, er benötigt bei aller Geschlossenheit seiner intrinsischen Existenz einen materiellen, energetischen und informationellen Austausch mit seiner Umwelt. Zu diesem Zwecke benötigt der lebendige Organismus eine Integration in seine Umwelt. So stellt zum Beispiel der Stoffwechsel ein wichtiges Kriterium dar, um lebendige Organismen zu definieren. Eine isolierte Betrachtung des lebendigen Organismus ohne Berücksichtigung der Integration in seine Umwelt macht daher nicht so viel Sinn.

Möchte man nun die Konstitution von Leben mit Hilfe der Evolutionary Graph Theory beschreiben, muss man daher berücksichtigen, dass es sich bei der Simulation vonpopulationsgenetischeoder epidemiologische Evolution in Form der Bayes-Netzen oder Markow-Ketten nicht um geschlossene Systeme im Sinne der Systemtheoriehandelt. Die Integration von mehreren Systemen steht hierbei potentiell im Raum, wobei die mathematische und informationstechnische Realisierung allein für ein einzelnes Systems schon jetzt an ihre Grenzen stößt.

Hinsichtlich des strukturenrealistischen Konzeptes führt dies natürlich auch zu einer Steigerung der Komplexität in Form der „Relationierung der Relationen“, die auch als Kybernetik 2. Ordnung bezeichnet werden könnte.

Zu 5. Exklusion: hier sind nun endgültig die Möglichkeiten der Beschreibung im Rahmen der Evolutionary Graph Theory EGT und des Strukturenrealismus SR erreicht, da das Verhalten für einen lebendigen Organismus zwar ein wesentliches Kriterium für seine Lebendigkeit ist, aber die Darstellung im EGT und SR nicht mehr möglich ist. Hier sei dann eben die „flappsige Schlussbemerkung“ erlaubt: „Das Wichtigste am Leben ist nun mal, dass man lebt!“

© philosophies.de

Ich bin immer mit meiner „Diogenes-Lampe“ unterwegs, um Menschen zu finden, die sich auch nach ein wenig „Licht der Erkenntnis“ sehnen. Also wenn Ihr eigene Beiträge oder Posts für meinen Wissenschaft-/Philosophie-Blog habt, immer her damit. Sie werden mit Eurem Namen als Autor auf meiner Seite veröffentlicht, so lange sie den oben genannten Kriterien entsprechen. Denn nur geteiltes Wissen ist vermehrtes Wissen.

17 thoughts on “Evolutionstheorien in einer strukturenrealistischen Betrachtung

  1. Für intraspezifische Evolution dürfte die Erklärung einleuchtend sein. Wie stehts aber für die Entstehung jeweils höherer Taxa, dem Auftreten neuer Baupläne?

    1. Lieber Ronny Stoyan,

      vielen Dank für Ihren freundlichen Kommentar und Ihre Rückfrage.

      Wenn Ich Ihre Frage richtig verstanden habe, geht es Ihnen mit Ihrer „Entstehung jeweils höherer Taxa“, darum wie mehr Komplexität in den bestehenden oder auch neue Strukturen gebildet werden können.
      Ich sehe hier aus meiner bescheidenen Sicht zunächst einmal kein Problem, da die Strukturen kein geschlossenes System darstellen. In den Axiomen habe ich dies ausdrücklich als struktural-dynamischen Prozess zugelassen, der insofern auch eine Evolution zulässt.

      Vielen Dank für Ihr Interesse und
      viele Grüße

  2. Dirk Boucsein hat sehr schön gezeigt, dass und wie mathematische Modelle kombiniert werden müssen, um Leben beschreiben zu können. Damit überwindet er die Eindimensionalität physikalistischer und damit reduktionistischer Ansätze.
    Und er hat gezeigt, dass probabilistische Vorstellungen des Mutationsgeschehens absurd sind. Leider sind diese in der Molekularbiologie immer noch state of the art. Ich halte sie für die unsinnigsten in der modernen Naturwissenschaft. Man hat hier zufällig erscheinende Phänomene für ihre Erklärung gehalten. Auch ein Zeichen dafür, dass man in der Biologie lediglich physikalische Methoden anwendet, statt die eigenen zu entwickeln. Die dürften sich nämlich nicht auf die Analayse der Bausteine beschränken, sondern müssten – anders als in der Physik – auch die Strukturen analysieren, denn diese sind systembildend für Leben. Denn Leben ist nunmal nichts anderes als Struktur. Erst durch die Struktur werden tote Bausteine lebendig. Ignoriert man das, wird man komplexe Probleme wie etwa Krebs nie verstehen.

  3. Im Artikel wurde über die Integrated Information Theory (IIT) von Tononi und Kollegen im Bezug auf das Leben folgendes geschrieben:

    “Methodisch möchte ich mich im Folgenden an dem Formalismus und Begrifflichkeit der „Integrated Information Theory“ IIT (2004 – 2014) von Guilio Tononi„orientieren, die zwar eigentlich eine mathematische Theorie zur Konstitution von Bewusstsein ist, sich aber aufgrund ihres informationstheoretischen Formalismus aus meiner Sicht auch zur Beschreibung der Konstitution von Leben eignet.”

    Dazu habe ich zwei Fragen, die wohl nicht einfach zu beantworten sind, dennoch würden mich Antworten interessieren.

    Tononi beschreibt stets dass der mit seinem Informationsbegriff (Phi) nicht Shannon’s measure of information bzw. Shannon’s Informationsbegriff meint. Frage: was meint Tononi mit Information? Ich werde aus seinen Artikeln nicht schlau.
    Wie steht dieser Informationsbegriff (was auch immer er in der IIT ausdrücken soll) in Verbindung zum Leben? Wie können Shannon’s Informationsbegriff (inklusive der Entropie) weder für das Leben definieren, geschweige denn überhaupt messen.

    Philipp

    1. Man findet hier eine gute Erklärung für den Unterschied: „Vor einen Bildschirm, welcher abwechselnd hell aufleuchtet und dunkel wird, können sowohl ein Mensch als auch eine Photodiode, etwa in einer Kamera, die beiden Zustände erkennen. Der Unterschied liegt darin, wie viel Information erzeugt wird: Die Photodiode erkennt ‚hell‘ oder ‚dunkel‘ und erzeugt so 1 bit Information.[Shannon,W.S.] Ein Mensch unterscheidet ‚hell‘ nicht nur von ‚dunkel‘, sondern von einer ungeheuren Vielzahl von anderen Möglichkeiten, z. B. einem roten Bildschirm, einem grünen Bildschirm, einem Filmeinzelbild, einem Geräusch, einem Gedanken usw. Während die zahllosen Photodioden einer Kamera voneinander unabhängig arbeiten, fällt das menschliche Gehirn seine Unterscheidungen als integriertes System. Wie sehr man es auch versucht, man kann die bewusste Wahrnehmung beispielsweise eines roten Apfels nicht auf separate Empfindungen seiner Farbe und seiner Form reduzieren.(Wikipedia).
      Mit Leben hat der Begriff insofern zu tun, als Leben sich immer weiter differenziert und somit die integrierte Information immer weiter ansteigt.

      1. Danke für die Antwort.

        Shannons Informationsbegriff bezieht sich nicht auf den Inhalt der Information; der Begriff Information entspricht also nicht dem Verständnis von „Information“ das in der Alltagssprache vorkommt.

        Zwei Punkte zu dem genannten Beispiel: “Photodiode, etwa in einer Kamera, die beiden Zustände erkennen. Der Unterschied liegt darin, wie viel Information erzeugt wird: Die Photodiode erkennt ‚hell‘ oder ‚dunkel‘ und erzeugt so 1 bit Information.[Shannon,W.S.] ”

        Die Information im Sinne Shannons ist Teil des Systems, des Objekts, oder des Prozesses und unabhängig vom Beobachter und durch die zugrundeliegende Wahrscheinlichkeitsverteilung bestimmt.
        Wenn wir zwei Zustände haben, also beispielsweise „hell“ und „dunkel“ und die Wahrscheinlichkeit 50-50 beträgt, dann muss ich eine binäre Frage stellen um herauszufinden ob der Zustand gerade „hell“ oder „dunkel“ ist. So kann ich fragen „ist der Zustand hell?“. Die Antwort lautet „ja“ oder „nein“ und dann ist das „Rätsel“ gelöst. In diesem Fall entspricht dies H = 1 im Sinne Shannons (oder eben ein Bit).

        Tononi (und auch Koch) betonen gerne dass ihr Phi oder IIT Informationsbegriff aber nicht der Shannon Entropie entspricht, so wie bereits oben geschrieben. Das genannte Beispiel mit der Farbe die nicht von ihrem Objekt trennbar ist bezieht sich auf den erlebten Inhalt, hat also tatsächlich nichts mit dem Informationsbegriff von Shannon zutun.

        Mir stellt sich nach wie vor die Frage: was meint Tononi spezifisch mit Information; in welchem seiner Artikel ist dies verständlich erklärt; wäre ein Artkel zu empfehlen?

        Theoretisch mag die Anwendung auf das Leben annehmbar sein, um es neutral auszudrücken. Ich sehe nur keine Möglichkeit wie dies für das „Leben“ oder den Organismus als Gesamtsystem zu messen wäre. Es bleibt also theoretisch auf sehr abstraktem Niveau. Auch Tononis Phi wird je nach Messmethode ja abweichen – das EEG oder MEG bringt andere Phi Ergebnisse für den gleichen Prozess zutage als beispielsweise fMRI. Die gemessene „Information“ (was auch immer Tononi damit letztendlich meint) ist so objektiv nicht bestimmbar, da sie allein schon von dem Messinstrument maßgeblich beeinflusst wird.

        1. Tononis Informationsbegriff unterscheidet sich von dem Shannons in genau der oben beschriebenen Weise. Der Entropiebegriff wird bei Tononi eher im Sinne der Interpretation des zweiten Hauptsatzes der Thermodynamik durch Prigogine verstanden, bei dessen nichtlinearer Thermodynamik offener Systeme Entropie exportiert wird, wodurch diese abnimmt, anstatt wie bei Boltzmann (in einem geschlossenen System) stetig anzusteigen.

        2. Hochverehrter Sir Lancelot, lieber Philipp,

          vielen Dank für Deinen sehr interessanten Kommentar und Deine konstruktive Kritik und Fragen, auf die ich gerne ein paar Zeilen (es werden bestimmt wieder mehr ;-)) antworten möchte.

          Zunächst einmal ein paar einleitende, erklärende Worte zu unserem wohlgeschätzten „Tononi und Kollegen“ mit seiner wohlfeilen „Integrated Information Theory (IIT)“, auf die wir schon des Häufigeren in unserer Tafelrunde eingegangen sind. Leider hattest Du aber bei dem Zitat aus meinem Artikel den erläuternden Anfang weggelassen, daher möchte ich dies hier noch einmal nachholen:
          „Der Fokus des neuen Paradigmas für die Evolutionsbiologie sollte aus meiner Sicht stärker auf dem Konzept der Polykontexturalität nach Gotthard Günther liegen, um den struktural-dynamischen Prozess zur Entstehung von Leben besser beschreiben zu können.“

          Soll heißen, ich habe die IIT von Tononi nur rein im Sinne eines real-praktizierten Strukturenrealismus benutzt, da der Formalismus und die Begrifflichkeit seiner Theorie für die strukturale Beschreibung der Stochastischen Evolutionären Dynamik in der Evolutionary Graph Theory mir ganz hilfreich erschien. Es ging mir um die Struktur der IIT mit ihren Axiomen und Postualten, aber ausdrücklich nicht um deren Inhalt. Darauf habe ich aber auch bereits zu anfangs hingewiesen:

          „Unter der Prämisse, dass die zuvor genannten mathematischen Beschreibungsmodelle, wie z. B. aus der Evolutionary Graph Theory eine adäquate Simulation der Evolutionären Dynamik in der Natur abbilden können, würde dies einen ganz neuen Zugang zum Verständnis von Evolution eröffnen. Das bisherige Paradigma in der Evolutionsbiologie geht bislang von einem Dualismus eines „innen vs. außen“, „Organismus vs. Umwelt“, „Adaption vs. Speciation„, u.s.w. aus, der immer im Sinne einer Abgrenzung zum „tertium non datur„ der klassischen Systemtheorie (George Spencer-Brown, Niklas Luhmann) als „Differenz„ betrieben wird.“

          Dieses alte Paradigma des Dualismus als Differenz von „innen vs. außen“ verwendet nämlich Tononi in seiner IIT im Sinne der klassischen Systemtheorie (George Spencer-Brown, Niklas Luhmann), wenn er von einer „integrierten Information“ ausgeht, „welche als Unaufspaltbarkeit von Information interpretiert werden kann“ (http://people.het.physik.tu-dortmund.de/~hpaes/IITText.pdf , S.5).
          Hier ist ein tertium (quadrium, pentium, …) datur definitiv nicht zugelassen, da dies auch der Beschreibung in Form der Informationstheorie widersprechen würde. Ich würde nach wie vor sagen, hier liegt ein klassischer Fall von Reduktionismus und anschließendem Formalismus vor, der die Komplexität als mereologischen Fehlschluss reduziert mit dem Ergebnis der Unterdeterminiertheit empirischer Theorien durch die Evidenz, Hierauf weist Du in Bezug auf das Bewusstsein ja auch hin:

          „Auch Tononis Phi wird je nach Messmethode ja abweichen – das EEG oder MEG bringt andere Phi Ergebnisse für den gleichen Prozess zutage als beispielsweise fMRI. Die gemessene „Information“ (was auch immer Tononi damit letztendlich meint) ist so objektiv nicht bestimmbar, da sie allein schon von dem Messinstrument maßgeblich beeinflusst wird.“

          Zusammengefasst: Mir ging es vielmehr darum eine Beschreibungssprache zu finden, die zur strukturalen Beschreibung der Stochastischen Evolutionären Dynamik in der Evolutionary Graph Theory geeignet schien. Es ging mir nicht um eine „IIT des Lebens“, wenn schon eher um eine „PIT (polykontexturale Informationstheorie) des Lebens“ als Strukturenrealismus. Aber diesen „Spagat“ konnte ich scheinbar nicht genügend ausformulieren. Der Text müsste daher vielleicht nochmal nachgeschliffen werden.

          Zu Deiner Frage, was Tononi mit „Information“ meint, kann ich mich Dir nur anschließen. Aus seinem Artikel zur IIT mit dem dazugehörigen mathematischen Formalismus werde ich auch nicht schlauer. In seiner Erläuterung zur IIT steht jedenfalls Folgendes, was Du aber wahrscheinlich auch schon gelesen hattest:

          „Information
          The system must specify a cause-effect structure that is the particular way it is: a specific set of specific cause-effect repertoires—thereby differing from other possible ones (differentiation). A cause-effect repertoire characterizes in full the cause-effect power of a mechanism within a system by making explicit all its cause-effect properties. It can be determined by perturbing the system in all possible ways to assess how a mechanism in its present state makes a difference to the probability of the past and future states of the system. Together, the cause-effect repertoires specified by each composition of elements within a system specify a cause-effect structure. Consider for example, within the system ABC in Figure 3, the mechanism implemented by element C, an XOR gate with two inputs (A and B) and two outputs (the OR gate A and the AND gate B). If C is OFF, its cause repertoire specifies that, at the previous time step, A and B must have been either in the state OFF,OFF or in the state ON,ON, rather than in the other two possible states (OFF,ON; ON,OFF); and its effect repertoire specifies that at the next time step B will have to be OFF, rather than ON. Its cause-effect repertoire is specific: it would be different if the state of C were different (ON), or if C were a different mechanism (say, an AND gate). Similar considerations apply to every other mechanism of the system, implemented by different compositions of elements. Thus, the cause-effect repertoire specifies the full cause-effect power of a mechanism in a particular state, and the cause-effect structure specifies the full cause-effect power of all the mechanisms composed by a system of elements.[8] 8^ While the notion of information in IIT is faithful to the etymology of the term (giving “form”), it differs substantially from that in communication theory or in common language (Oizumi, Albantakis et al. 2014, supplementary material S3). Also, in IIT information and causation go together: there cannot be observer-independent information without mechanisms having cause-effect power, and there cannot be causation without a repertoire of alternatives.“ (http://www.scholarpedia.org/article/Integrated_information_theory)

          Hierbei ist die Fußnote viel interessanter als der ganze informationstheoretische Text. Es geht ihm bei dem Begriff der „Information“ also nicht um die Kommunikationstheorie, wie sie später im Shannon-Weaver-Modell verwendet wurde, darauf hast Du ja auch schon hingewiesen. Es geht ihm m. E. vielmehr um einen Begriff der Informtion im Sinne einer algorithmische Informationstheorie von Gregory Chaitin. Und hier kommt auch wieder der schon diskutierte Kolmogorow mit seinem Reduktionismus als Kolmogorow-Komplexität ins Spiel.

          Zu Deiner Frage: „was meint Tononi spezifisch mit Information; in welchem seiner Artikel ist dies verständlich erklärt; wäre ein Artkel zu empfehlen?“ Da habe ich von dem Großmeister ehrlich gesagt auch nichts Konkretes als Artikel gefunden. Eine Sekundärliteratur „Integrated Information Theory“ von der Physikalischen Abteilung der Uni Dortmund http://people.het.physik.tu-dortmund.de/~hpaes/IITText.pdf ist hier schon etwas aufschlussreicher:

          „Die entscheidende Größe in Tononis Arbeit zur Quantizierung von Bewusstsein ist die integrierte Information, welche als Unaufspaltbarkeit von Information interpretiert werden kann. Dazu muss zunächst der Informationsbegri deniert werden. Dazu betrachtet Tononi Mechanismen, die in diskreten Zeitschritten die zeitliche Entwicklung eines Zustandes bestimmen. (S. 5) […] Größe seiner Arbeit die integrierte Information: Information is integrated if it cannot be partitioned into independent components. Wird ein Mechanismus in zwei Teilmechanismen unterteilt, kann das zur Folge haben, dass sich die induzierten Wahrscheinlichkeitsverteilung für Zukunft und Vergangenheit verändern.

          Genau diese Differenz wird als integrierte Information deniert. Da es jedoch viele mögliche Aufteilungen für einen Mechanismus gibt wird zur Bestimmung der integrierten Information diejenige Aufteilung gewählt, die die integrierte Information minimiert. (S. 6) ( http://people.het.physik.tu-dortmund.de/~hpaes/IITText.pdf)
          Ich würde mal sagen, von der Duhem-Quine-These ist in der IIT nicht viel zu finden ;-).

          Aber noch viel aussagekräftiger sind die Worte Tononis in einem Interview auf Yotube https://www.youtube.com/watch?v=sYtr8h6Mz5I, wo er sich mal konkret zu „What is information“ äußert.
          Hier nur ein paar Schnipsel als O-Ton aus dem Interview: „intrinsic information from the persepctive of the systems itself – without an observer -> the difference that makes the systems to itself -> the difference that makes the difference -> the difference that makes the difference for a system is mathematical descibed in IIT -> internal phenomenolgy -> Galileo: we need mathematics to describe the world, to describe the system inside against the outside -> the language of mathematics -> description of the physical world and the description of the consciousness is only possible in mathematical structures“ (https://www.youtube.com/watch?v=sYtr8h6Mz5I)

          Hier wird doch schon recht schnell deutlich, wo der Zug hingegehen soll. Aus meiner bescheidenen Sicht steht auf dem Schild der Endhaltestelle „Panpyschismus“, vielleicht sogar eher „Solipsismus“, aber auf alle Fälle „Reduktionismus“ und „Neurozentrismus“ ;-).

          Ich denke insofern hat sich Deine Frage „Wie steht dieser Informationsbegriff (was auch immer er in der IIT ausdrücken soll) in Verbindung zum Leben? Wie können Shannon’s Informationsbegriff (inklusive der Entropie) weder für das Leben definieren, geschweige denn überhaupt messen.“ schon erledigt, da es, wie gesagt, nicht um die IIT als Modell für Evolutionstheorien ging, geschweige denn um eine Informationstheorie mit „Shannon’s Informationsbegriff (inklusive der Entropie)“. Es ging, wie geschrieben, um eine Betrachtung der Evolutionstheorien aus strukturenrealistischer Sicht. Wenn ich hier nochmal aus meinem Essay „Das neurozentristische Weltbild“ zitieren darf:

          „Leben bedeutet hier ein Entgegenwirken der Entropiezunahme, die aus dem 2. Thermodynamischen Hauptsatz entsteht:

          „Für lebende Organismen scheint der zweite Hauptsatz der Thermodynamik indes nicht zu gelten. In ihnen laufen Prozesse ab, die mit einer Verringerung der Entropie einhergehen. So gesehen wären alle Lebewesen Inseln der Ordnung in einem Meer von Unordnung. Denn sie besitzen die einzigartige Fähigkeit, sich selbst zu strukturieren und die dabei erzeugte innere Ordnung an die nächste Generation weiterzugeben. Stellt man sich gar auf den Standpunkt der biologischen Evolution, dann entsteht aus vorhandener Ordnung neue Ordnung, entwickeln sich aus weniger komplexen immer komplexere Organismen.“(Martin Koch: „Was ist Leben? https://www.neues-deutschland.de/artikel/1101908.erwin-schroedinger-was-ist-leben.html)

          Und um diese „innere Ordnung“ zu beschreiben, halte ich den Strukturenrealismus durchaus geeignet; vielleicht auch mit dem probabilistischen Instrumentenkasten der Evolutionary Graph Theory. Ist aber eigentlich nur als Gedankenanstoß gemeint, da wir dies bestimmt in unserer Tafelrunde noch genauer diskutieren werden.

          Liebe Grüße
          Dirk

  4. Ihr evolutionärer Strukturenrealismus erinnert mich fatal an das Ptolemäische Weltbild mit seinen Epizyklen und Deferenten, mit dem Unterschied, daß Ihrem Modell der Anschauungsgegenstand abgeht. Ptolemäus war aber nicht der Erfinder des nach ihm benannten Weltbildes, sondern dessen Verfeinerer. Er versuchte eine im Ansatz falsche Theorie von Appolonius von Perge (das heliozentrische Weltbild) durch Verkomplexisierung zur ‚Wahrheit‘ zu verhelfen.

    Ja, ich halte Darwins Theorie für falsch – wie ALLE wissenschaftlichen Modelle, die Vorgänge in geschichtlich-grammatikalischer Zeit beschreiben. Der Übergang vom Modell zur Theorie gelang Newton, denn seine Gesetze der Bewegung sind keine Beschreibung eines Geschehens in der Zeit sondern die Prinzipien einer jeden Bewegung, denn die klassische Mechanik und Wellentheorie sind invariant gegenüber Verschiebungen in historischer Zeit. Einsteins Gleichungen beschreiben zwar die Bewegung der Planeten eine Klitzekleinigkeit genauer als die klassische Mechanik, aber um den Preis des Rückfalls zum Modellgedanken. Die Entwicklung des Weltalls vom Urknall bis heute ist wieder die Beschreibung eines Geschehens in historischer Zeit. Und das ist, genau wie es das heliozentrische Weltbild war, eine Frage des Glaubens (und im Moment entbehrt es wegen substantiell Fehler Masse im Universum sogar jeder Grundlage). Der Vorteil der Newtonschen Theorie war und ist, daß sie jedermann auf alle nur möglichen Probleme der Bewegung im Bereich der Erfahrung! (Kant) anwenden kann.

    Wenn ich das Darwinsche Modell (es ist keine Theorie) ablehne, dann aus genau DIESEN und nicht aus anderen Gründen. Wissenschaft kann keine Vorhersagen in historischer Zeit machen, weil die Zukunft unbedingt und unwandelbar offen ist. Das einzige, was die Zukunft uns zu bieten hat, ist die Abweichung von der Erwartung, d.h. die Abweichung vom klassischen Wissen des DASS. Dies hat zur Folge, daß es keine Zeitgestalten gibt, wie es Raumgestalten gibt. Das sind Ideen der Romantiker. Es geht in der Wissenschaft nicht darum Fragen zu beantworten oder Erklärungen zu geben, sondern Antworten auf Fragen zu geben, die nie jemand gestellt hat. Wissenschaft besteht meiner Meinung nach darin, über alles Wissen ABSOLUT hinauszugehen um so die Abweichung von der Erwartung zu eliminieren ohne dabei das schon Gewußte zu beschädigen. Den Begriff Revolution halte ich in der Wissenschaft für unbrauchbar und zerstörerisch. Der Leibnizsche Begriff der Entfaltung hingegen könnte einen „ignoranten Strukturenrealismus“ beinhalten, bei dem Ontologie und Epistemologie zusammenfallen in „Was sich ABSOLUT nicht widerspricht existiert! Den Anspruch auf ABSOLUTE Widerspruchsfreiheit kann die Logik nicht leisten – aber vielleicht die Orthogonalität.

    Mit freundlichen Grüßen,

    Heinz Luediger

    1. Lieber Herr Luediger,

      vielen Dank für Ihr Interesse an meinem Artikel und Ihren Kommentar, auf den ich hier kurz eingehen möchte.

      Das ist schade, dass mein „evolutionärer Strukturenrealismus“ Sie an das „Ptolemäische Weltbild“ erinnert, denn eigentlich sollte der Artikel eher von „Evolutionstheorien aus strukturenrealistischer Sicht“ handeln und aus Sicht eines „Neurozentristischen Weltbild“ (https://philosophies.de/index.php/2021/04/25/neurozentristische-weltbild/) gesehen werden. Das Neurozentristischen Weltbild gehört übrigens ebenso, wie das ptolemäische, gewendet, aber bitte nicht mit „Epizyklen und Deferenten“; einmal wenden reicht vollkommen aus ;-).

      Das ist schon mal sehr schön, dass Sie „Darwins Theorie für falsch“ halten, auch wenn ich dies für ein wenig zu extrem halte, da sich einige Punkte der Theorie doch bis heute haben retten können.
      Der Hinweis „wie ALLE wissenschaftlichen Modelle, die Vorgänge in geschichtlich-grammatikalischer Zeit beschreiben“ stellt insofern aber nichts Neues dar, da dies bereits von Perry Laudan als Pessimistische Metainduktion (PMI) in seinem Aufsatz „A Confutation of Convergent Realism“ als Argument gegen den wissenschaftlichen Realismus angeführt worden ist. In „Laudans-Liste“ steht zwar noch nicht „Darwins Evolutionstheorie“, aber würde auch nichts ändern, da es hier ja um „Evolutionstheorien aus strukturenrealistischer Sicht“ ging und nicht nur um Darwins.

      Ihren Hinweis „Wissenschaft besteht meiner Meinung nach darin, über alles Wissen ABSOLUT hinauszugehen um so die Abweichung von der Erwartung zu eliminieren ohne dabei das schon Gewußte zu beschädigen.“ Könnte ich so unterschreiben, wenn da nicht ihr Absolutismus in Majuskeln wäre. Alles, was „ABSOLUT“ ist, klingt für mich dogmatisch und führt m. E. nur in ein „Münchhausen-Trilemma“ und mehr absolut nicht.

      Ihren Einwand: „„Was sich ABSOLUT nicht widerspricht existiert! Den Anspruch auf ABSOLUTE Widerspruchsfreiheit kann die Logik nicht leisten – aber vielleicht die Orthogonalität.“ halte ich ebenfalls für sehr problematisch, da er von der Physik recht schnell in die Metaphysik wechselt; ohne doppelten Boden der Logik. Sich bei diesem „Hochseilakt“ nur auf die Mathematik zu verlassen, wirkt auf mich ein wenig schwindelerregend. Zumindest hätten Sie aber mit der Orthogonalität schon mal den sicheren Boden des Strukturenrealismus betreten ;-).

      In diesem Sinne
      viele Grüße

      Dirk Boucsein

      1. Vielen Dank für Ihre Antwort auf einen provokativ geschriebenen und gemeinten Kommentar! Unsere Überzeugungen, die ich als szientistisch ihrerseits und fundamentalkritisch meinerseits beschreiben würde, liegen viel zu weit auseinander, als daß ein produktiver Austausch über Detailfragen möglich wäre.

        Statt dessen habe ich ein paar Fragen:

        Soweit ich sie gelesen habe, haben die bei Ihnen veröffentlichten Beiträge keinen Bezug zur philosophischen Denkern von den Parmenides über Platon und Aristotles bis zu Cusanus, Decartes, Kant, Hegel, Derrida, Deleuze oder Meillassoux, ob in Übereinstimmung, Widerlegung oder wenigstens Diskussion.

        I) Warum heißt diese Website ‚philosophies.de‘ und warum der Plural?

        Ein Großteil der obigen Denker hat sich intensiv mit dem Problem des ABSOLUT Neuen auseinandergesetzt, zuletzt Quentin Meillassoux, der versucht, es aus Cantors transinfinite Mengen herzuleiten. Man muss diesen Ideen nicht zustimmen, was aber das Problem als solches aber nicht aus der Welt schafft, denn Descartes gelang mit der orthogonalen Erweiterung der planeren (2D) griechischen Geometrie der Ausbruch in die ABSOLUT neue dritte Dimension. Diese ließ die planare Geometrie unverändert – und änderte doch ALLES. Ich könnte mit Newton, Mendelejew, Mendel und Maxwell weitere Beispiele der Einführung ABSOLUTER Neuigkeiten anführen, deren ABSOLUTE Neuigkeit nicht in Inhalten, sondern in Strukturen bestand.

        II) Haben die oben aufgeführten Denker nur Geistesmüll produziert, so daß ihre Überlegungen mit dem Kampfbegriff ‚Metaphysik‘ einfach vom Tisch gewischt werden können?

        Die Beiträge zum Strukturenrealismus auf Ihrer webpage sind logisch affirmativ. Der Kritikpunkt Hegels an der konventionellen Logik war, daß die Inhalte des Wissens von sich selbst aus existieren, an das die Logik als an-sich inhaltsleeres Denken erst herangetragen wird. Mit anderen Worten, das Wissen geht der Logik voran. Logik ist demnach second-hand-business, Welterschaffung’ in zweiter Instanz.

        III) Welches Problem löst der evolutionäre Strukturenrealismus? In welchem Sinn ist er mehr als ‚yet another opinion, another castle in the air?

        Mit freundlichen Grüßen,

        Heinz Luediger

        1. Lieber Herr Luediger,

          vielen Dank für Ihren Kommentar und Ihre Rückfragen.

          Ich weiß zwar nicht, ob wir beide in die „szientistischen“ und „fundamentalkritischen“ Schubladen passen, aber ist auch nicht so wichtig, da es ja mehr um die Sache und nicht um die Personen gehen sollte. Gerne möchte ich aber Ihre Fragen beantworten.

          Zu I): Meine Seite heißt „philosophies“, da ich auch häufiger Leser aus dem englischen oder französischen Sprachraum habe. Der Plural kommt von dem Untertitel meiner Seite „Freunde der Philosophien“, da ich der Überzeugung bin, dass es nicht nur eine Philosophie gibt, sondern deren viele.

          Zu II): Nein, ich denke „die oben aufgeführten Denker“ haben nicht „nur Geistesmüll produziert“, sondern unterliegen ebenfalls wie die Naturwissenschaft einer erkenntnistheoretischen Evolution und müssen daher auch aus ihrem historischen Kontext betrachtet werden.
          Ich hatte Sie ja bereits auf die Pessimistische Metainduktion für die Naturwissenschften von Laudan hingewiesen. Die gleiche evolutionäre Entwicklung meine ich auch in den geisteswissenschaftlichen Disziplinen erkennen zu können.

          Zu III): Der „evolutionäre Strukturenrealismus“ löst gar kein Problem, weil es ihn einfach nicht gibt. Ich hatte Sie ja bereits in meiner letzten Antwort darauf hingewiesen, dass der Artikel sich mit der „Evolutionstheorie in einer strukturenrealistischen Betrachtung“ beschäftigt. Daher wäre m. E. der Begriff einer „strukturenrealistischen Evolutionstheorie“ angebrachter.
          Das Problem, das sie lösen könnte, wären die Probleme, welche die Darwinsche oder die Lamarcksche Evolutionstheorie bis heute nicht schlüssig lösen konnten. Ich hatte die Probleme auch bereits in meinem Artikel benannt.

          Vielen Dank für Ihr Interesse und
          viele Grüße

    2. Hallo Herr Luediger,

      Sie schreiben u.a. dass es “… in der Wissenschaft nicht darum [geht] Fragen zu beantworten oder Erklärungen zu geben, sondern Antworten auf Fragen zu geben, die nie jemand gestellt hat.”

      Ich finde diese Ansicht zu extrem und möchte kurz erklären warum ich das so sehe.

      Die allermeisten Wissenschaftler (und auch Philosophen), hier meine ich weit über 99,99%, werden diesem hohen Ideal niemals gerecht werden. Die Allermeisten werden niemals eine Publikation mit dieser Tragweite anfertigen können. Tragen reguläre wissenschaftliche Arbeiten, also Arbeiten die sich mit bereits gestellten Fragen beschäftigen, nicht möglicherweise auch ihren Teil dazu bei dass neuartige Fragen entstehen auf die revolutionäre Ideen folgen, geschweige denn für die Vermehrung von Wissen das durch andere Wissenschaftler nutzbar wird?

      Daneben existiert ein Unterschied zwischen mitunter sehr hohen Abstraktionen des wissenschaftlichen Geschehens (sowie der Geschichte der Wissenschaft) aus der Perspektive der Wissenschaftsphilosophie und der realen Praxis in Wissenschaften.

      Um nur ein Beispiel aus der Bandreihe zu nennen: heute nutzen Editors in angesehenen Journalen mitunter machine-learning Systeme für die Analyse eingereichter wissenschaftlicher Arbeiten hinsichtlich deren möglichen „Klickzahlen und Umsatzgenerierung“. Bevorzugt wird angenommen und publiziert was sich an aktuelle Trends richtet und die Sprache dieser Trends nachahmt.

      Fragen zu stellen die der Masse noch nicht in den Sinn kamen, ja sogar Antworten auf diese mitzuliefern, und diese richtungsweisend noch zu publizieren, kann zu einer Lebensaufgabe werden. Denn die Masse muss die Fragen und zusätzlich die Antworten auch noch verstehen.
      Die allerwenigsten Wissenschaftler besitzen weder die passende Persönlichkeitstruktur, das Durchhaltevermögen, noch die Kraft gegen ein solches System anzukämpfen um die vermeintliche Heilsbotschaft durchzubringen.

      Mein Kritikpunkt ist dass deskriptive Erörterungen was Wissenschaft sei und normative Ansprüche wie sie vorzugehen hat aus einem Elfenbeinturm stammen können dessen Ansprüche in der realen Praxis zerschellen.

      Die Anlegung bestimmter Wissenschaftsphilosophischer Positionen kann weniger anspruchsvoll sein als die praktische Durchführung in der realen Wissenschaft.

      Philipp

  5. Wolfgang und Dirk,

    danke für eure Antworten. Ich habe mich nochmals mit einem Kollegen unterhalten der sich intensiver mit Tononis IIT auseinandergesetzt und auch einen Freund hat der in Tononis Gruppe arbeitet. Tononi nutzt wohl insbesondere die Lempel-Ziv complexity (LZC) um die Komplexität bzw. Unsicherheit in time-series/Zeitreihen Aufzeichnungen von neuroimaging Daten zu berechnen.

    Beispielsweise wurde TMS genutzt und die Auswirkung des TMS auf das Gehirn (und somit auf die LZC) zu berechnen. Dies wurde dann „pertubational complexity index“ genannt. Man berechnet also wie die LZC sich von A nach B verändert.

    Die LZC ist, soweit ich das sehe, entfernt mit Berechnungen wie approximate Entropy (ApeEn) oder Sample Entropy (SampEn) etc. vergleichbar. Man sollte sich nur von den Begriffen nicht in die Irre leiten lassen, da all diese Berechnungen rein gar nichts mit Entropie zutun haben. Denn der Begriff der Entropie bzw. das Konzept dieser, den ja leider bereits Shannon dank von Neumann wählte, hat nichts damit zutun was diese Variablen messen und man hätte sie besser anders nennen sollen, so wie damals Shannon besser schon bei „Information“ anstelle von „Entropie“ geblieben wäre.

    Allgemein besteht auch für die LZC das „Problem“ dass die berechneten Messwerte maßgeblich zwischen den verschiedenen imaging Modalitäten auseinandergehen. Und für das Gehirn oder Nervensystem als Gesamtsystem sind time-series Aufzeichnungen nicht möglich und daher auch LZC und co nicht berechenbar. Ist das ein Problem? Ich weiß es nicht, da ich Tononis Argumentation dagegen (die es sicher geben würde) nicht kenne.

  6. Dear S.-A.,

    thank you very much for your inquiry.

    First of all, the structural realist model for describing evolutionary theories merely provides a new level of description for the phenomenon of evolution. It does not yet claim to have ontological status. The „empirical advantage“ lies in the fact that with the help of structural realism the described evolution theories can be translated into genetic algorithms by a mathematical formalism in the form of Bayes networks and Markov blankets.

    The genetic algorithms can then be used in turn in Stochastic Evolutionary Dynamics with the help of Evolutionary Graph Theory to run population genetic and epidemiological simulation models in silico. The goal is to better reproduce the evolutionary dynamics of, for example, bacterial strains in vitro and to draw conclusions about the self-organization of life and to develop evolutionary theories that have a greater empirical adequacy and equivalence than Darwinian theory.

    If you are interested in this topic, I would like to refer you to the website of the research group „Stochastic Evolutionary Dynamics“ of the Max Planck Institute in Munich: https://www.evolbio.mpg.de/3255700/groupstochdyn.

    Thank you very much for your interest and
    best regards

  7. P. R.,

    Again, thanks for the link. Just a very quick comment if I could. The 5 basic principles of Evolutionary biology
    1. evolution as such, the mutability of species ;
    2the common descent of all living beings;
    gradualism , change through tiny steps;
    Propagation of species or speciation in populations
    and natural selection as the main, though not the only, mechanism of evolution

    -> Yep, d’accord !

    Can we add two principles?
    6. As negentropy systems, life acts the most efficient way of reducing the free-energy present in the environment (macro and micro). That is, organic complexes lock energy up in bond formation. Normally the reductionist approach would assume that the free-energy, thermal and/or chemical gradients, would be disbursed by diffusion-like processes. But if the local environment is large enough, the diffusion may be slow enough to permit the development of organic complexes.

    -> Okay, but only under the condition that entropy must be seen not only from an energetic-thermodynamic aspect, but also from a structural-process aspect, because entropic state changes can also occur without energy minimization.

    As systems that process the the environment, life is most likely when it modifies the environment in a positive manner that fosters life. Which is rather circular but the idea of life modifying its environment seems valid.

    -> Absolutely okay too, since it’s not circular reasoning, it’s one and the same. Life and environment are a structurally coupled and cannot be considered separately.

    To 6.: entropic state changes can also occur without energy minimization.“ are you thinking of protein folding?

    That might be an example. But I meant this much more general, because the term entropy from thermodynamics is logically always connected with energy. Therefore life is always gladly represented as a biological principle as an evolutionary adaptation of the body to its environment under energetic aspect.

    The advantage coming to bear here would always aim at a minimization of the amount of free energy as „homeostasis“, which would result from the discrepancy of the self-preservation of the system against the supposed chaos of the environment. This general principle of minimizing the amount of free energy can be generally considered as an essential characteristic for all living organisms. Life here means counteracting the increase in entropy that arises from the 2nd law of thermodynamics:

    „For living organisms, meanwhile, the second law of thermodynamics does not seem to apply. In them, processes take place which are accompanied by a reduction of entropy. Seen in this way, all living organisms would be islands of order in a sea of disorder. For they possess the unique ability to structure themselves and to pass on the inner order generated in the process to the next generation. If one even takes the standpoint of biological evolution, then new order arises from existing order, less complex organisms develop into more and more complex ones“ (Martin Koch: „What is life? https://www.neues-deutschland.de/…/1101908.erwin…)

    But I would like to see entropy from a structural-processual point of view, where an open system can achieve advantages from the increase of structuring even without a negative energy balance, because redundancies occur.

    As an example the „Kolmogorov complexity“ is mentioned, which is also used for the development of „genetic algorithms“. Should mean shortened, why should nature „reinvent the wheel every time“ and not fall back on „tried and tested“? This is then not necessarily a gain of energy but a gain of time.

    Many greetings

Ich würde mich über einen Kommentar von Euch sehr freuen.