Evolutionstheorien in einer strukturenrealistischen Betrachtung

Evolutionstheorien in einer strukturenrealistischen Betrachtung

Leben als autopoietisches System – Versuch einer strukturenrealistischen Aufklärung –

Teil 2 „Evolutionstheorien in einer strukturenrealistischen Betrachtung“

 

Abstract

Der hier vorliegende Teil 2 Evolutionstheorien in einer strukturenrealistischen Betrachtung“ stellt den weiterführenden Essay zu dem gemeinsamen Projekt „Leben als autopoietisches System – Versuch einer strukturenrealistischen Aufklärung -„ dar, das ich zusammen mit Herrn Dr. Wolfgang Stegemann als Joint-Venture gestartet habe.

Im ersten Teil, den ich bereits als Gastbeitrag Selbstorganisation von innen betrachtet – oder: wie funktioniert Leben auf meiner Seite veröffentlicht habe, ging es hauptsächlich darum die Selbstorganisation des Lebens als autopoietisches System darzustellen. Herr Stegemann hatte in seinem Artikel schon einmal den Untersuchungsbereich abgesteckt. Es sollte um eine „Innenbetrachtung der Selbstorganisation von Leben“ gehen, die in die Arbeitsauftrag mündete: „Aber was ist Selbstorganisation, wie funktioniert sie oder einfach ausgedrückt, wie funktioniert Leben?

Diesen Auftrag möchte ich nun in diesem zweiten Teil gerne aufgreifen und einen Aufklärungsversuch der Selbstorganisation von Leben mit Hilfe eines strukturenrealistischen Ansatzes starten. Zu diesem Zwecke möchte ich zunächst einmal das Ausgangsproblem in der Darwinschen Evolutionstheorie beschreiben, die als Beispiel für die Unterdeterminiertheit empirischer Theorien durch die Evidenz (Bas van Fraassen) gelten kann.

Die Evidenzen zu der Evolutionstheorie nach Darwin weisen darauf hin, dass es eine Unterdeterminiertheit hinsichtlich ihrer empirischen Adäquatheit gibt, die auch mathematisch nachweisbar ist. Daran anschließend möchte ich neue mathematische Ansätze der Forschungsgruppe Stochastische Evolutionäre Dynamik aus dem Max-Planck-Institut für Evolutionsbiologie darstellen. Hieran soll dann die Überleitung zum Strukturenrealismus erfolgen, der sich explizit nicht auf die dualistische und reduktionistische Differenz von „innen vs. außen“ bezieht, sondern den selbstreferentiellen Prozess der strukturalen Kopplung des Lebens mit seiner Umwelt im Sinne einer mehrwertigen Logik nach Gotthard Günther zu beschreiben versucht. Methodisch möchte ich zunächst einmal 5 Axiome zum Leben aufstellen, woraus ich dann Postulate zur möglichen Entstehung von Leben ableite. Hierbei habe ich mich bei dem Formalismus und der Begrifflichkeit von der „Integrated Information Theory“ (IIT) nach Guilio Tononi inspirieren lassen.

 

Survival of the fittest“ – vom Überlebenskampf der Evolutionstheorien

Als der britische Naturforscher Charles Darwin (1809 – 1882) im Sommer 1858 endlich nach über 20-jähriger Arbeit seine Theorien über die Evolution als „Natural Selection“ und ein Jahr später 1859 sein bahnbrechendes Hauptwerk On the Origin of Species veröffentlichte, kam es in den darauf folgenden Jahren und Jahrzehntem zu einem der bereits beschriebenen Kuhnschen „wisenschaftlichen Revolutionen in der sich erst konstituierenden Biologie. Hierauf baute die sich später bildende Teildizplin der Evolutionsbiologie bis heute auf und es liegt auch keinesfalls in der Absicht des Autors die hierin enthaltenen 5 Grundprinzipien im Kern anzugreifen:

 

  1. die Evolution als solche, die Veränderlichkeit der Arten;
  2. die gemeinsame Abstammung aller Lebewesen;
  3. den Gradualismus, die Änderung durch kleinste Schritte;
  4. Vermehrung der Arten beziehungsweise Artbildung in Populationen
  5. und die natürliche Selektion als wichtigsten, wenn auch nicht einzigen Mechanismus der Evolution. (Charles Darwin: On the Origin of Species by Means of Natural Selection, or The Preservation of Favoured Races in the Struggle for Life , 1859)

Auch eine dazu konkurrierende, frühere Evolutionstheorie des französischen Biologen Jean-Baptiste de Lamarck (1744–1829) mit ihren 2 Grundthesen zum Zusammenspiel zweier Faktoren:

1. ungerichtete Adaptation an äußere Veränderungen

2. linearer Fortschritt auf einer linearen Leiter der Komplexität

stand zwar im „Überlebenskampf“ zu Darwins Evolutionstheorie. Sie hat sich aber in Form der modernen Epigenetik zum Teil vererben können, wobei aber die Gerichtetheit des „linearen Fortschritts“ zugunsten der Probabilistik der „natürlichen Selektion“ Darwins geopfert werden musste.

Die oben genannten Grundprinzipien der Evolutionstheorie sollen hier nicht in Frage gestellt werden, da sich der Autor ausdrücklich vom unwissenschaftlichen Kreationismus distanzieren möchte. Die Frage geht viel tiefer – im wahrsten Sinne des Wortes – in die Materie. Wie aus toter Materie so etwas wie Leben überhaupt entstehen konnte und wie die Materie es bis heute schafft sich zu organisieren. Denn an einem leider oft von den Kreationisten angeführtem Argument könnte aus mathematischer Sicht der Stochastik tatsächlich etwas dran sein:

„Um ein einziges mittelgroßes menschliches Protein zu erschaffen, musste die Evolution mehr als 300 Aminosäuren in der richtigen Reihenfolge zusammenfügen. Das könne kein Zufall gewesen sein. Denn da jedes Glied eines Moleküls aus einer von 20 möglichen Aminosäuren besteht, gibt es mehr als 20300 Möglichkeiten, so ein Protein aufzubauen. Neben einer solchen Zahl wirkt selbst die Anzahl der Atome im beobachtbaren Universum vernachlässigbar klein. Selbst wenn man Redundanzen, die einige Sequenzen aus biochemischer Sicht gleichwertig machen, nicht mitrechnet, wäre es tatsächlich höchst unwahrscheinlich, dass die Evolution die richtige Kombinationen rein durch zufällige Mutationen finden kann, selbst nach Jahrmilliarden.

Doch das Argument der Kreationisten hat einen entscheidenden Haken: Die Evolution testet genetische Sequenzen nicht allein nach dem Zufallsprinzip. Sie arbeitet mit natürlicher Auslese und hat darüber hinaus vermutlich Wege gefunden, den unermesslichen Raum genetischer Möglichkeiten auf kleinere, erforschbare Teilgebiete einzugrenzen.“ (Jordana Cepelewicz: Algorithmen üben Evolution, in: Spektrum.de – IT/Tech – Lässt sich Evolution mit Mathematik und Algorithmen modellieren?, 2019)

In dieser Hinsicht versagen also die alten Modelle der Evolutionstheorie und bedürfen einer stochastischen Erweiterung in informationstheoretischer Hinsicht. Das Argument „Zufall“ und „Auslese“ reicht hierfür alleine nicht mehr aus. Es muss eine auch eine besagte„Selbstorganisation des Lebens als autopoietisches System“ von innen geben; ohne hierbei allerdings in den alten Dualismus „innen vs. außen“ verfallen zu müssen. Einen Ausweg aus dem Dilemma könnte hierbei die Stochastische Evolutionäre Dynamik liefern, die mit Hilfe von Algorithmen hauptsächlich populationsgenetische und epidemiologische Simulations-Modelle entwickelt, die sich aber auf das große Ganze durchaus übertragen lassen.

 

Die „Evolutionary Graph Theory“ (EGT) – es lebe die Mathematik

Evolutionary dynamics on double stars. Consider a double-star graph G (Panel A) consisting of a left and a right star connected by the centers, and the resulting interaction hypergraph B (Panel B) constructed following the graph approach. In the graph approach, G is taken as the replacement graph (Panel C). In this case, and for a wide range of values of r , spreading occurs preferentially from the centers (or hubs) to their respective leaves. Long-term evolution will ultimately depend on inter-hub competition, which is favorable to C-hubs due to the positive and negative feedback mechanisms brought about by the spreading from centers to (own) leaves. In the bigraph approach, the replacement graph is given by the projection of the interaction bigraph (Panel D), so that the center of one start gets connected to the leaves of the other star and leaves of the same star get connected with each other. This not only allows successful centers to breed copies of themselves in the leaves of the other star, but also makes inter-leaf competition possible, which is favorable to Ds if r v 4 . As a result, the feedback mechanisms on which the evolution of cooperation on heterogeneous graphs is based are diminished and the evolutionary outcome is more favorable to Ds. This is illustrated in Panels E and F, which show typical scenarios for the time evolution of the fraction of Cs under the distributed NPD ( r ~ 1 : 3 ) on the leaves of double-star graphs (Panel E: X ~ 10 , Y ~ 20 ; Panel F: X ~ 20 , Y ~ 10 ), for replacement graphs given by the OG, UP, UWP and NWP methods. In all cases we placed Cs on all nodes of the double-star, except for the left center, where we placed a D (see configurations a and e of Panel G). If the replacement graph is given by the original graph (OG), the dynamics are such that, typically, the D-center invades the leaves of his star (configuration b ), then the C-center invades the D-center ( c ) and finally D-leaves on the left star are invaded by the C-center ( d ). When the replacement graph is given by the projection of the interaction graph, Ds can now easily spread from the initial center until they invade the whole population ( e , f , g ). Weights attached to the links of the projection play a key role in this case, with NWP still favoring Cs when the connectivity of the left star is small compared to that of the second star ( e , f , h , i ). See section 3 of Text S1 for the analytical derivation of the results shown in this figure. doi:10.1371/journal.pone.0044514.g004

(Evolutionary dynamics on double stars. (Quelle: https://www.researchgate.net/figure/Evolutionary-dynamics-on-double-stars-Consider-a-double-star-graph-G-Panel-A_fig4_230834619)

 

„Die evolutionäre Graphentheorie ist ein Forschungsgebiet, das an der Schnittstelle von Graphentheorie, Wahrscheinlichkeitstheorie und mathematischer Biologie liegt. Die evolutionäre Graphentheorie ist ein Ansatz zur Untersuchung der Auswirkungen der Topologie auf die Evolution einer Population. Dass die zugrundeliegende Topologie einen wesentlichen Einfluss auf die Ergebnisse des Evolutionsprozesses haben kann, wird am deutlichsten in einer Arbeit von Erez Lieberman, Christoph Hauert und Martin Nowak[1].

In der evolutionäre Graphentheorie besetzen die Individuen die Knoten eines gewichteten, gerichteten Graphen, und das Gewicht wi j einer Kante vom Knoten i zum Knoten j gibt die Wahrscheinlichkeit an, dass i an die Stelle von j tritt. Eine Eigenschaft, die bei Graphen mit zwei Arten von Individuen untersucht wird, ist die Fixierungswahrscheinlichkeit, die als die Wahrscheinlichkeit definiert ist, dass eine einzelne, zufällig platzierte Mutante des Typs A eine Population des Typs B ersetzt. Nach dem Isothermen-Theorem hat ein Graph nur dann die gleiche Fixierungswahrscheinlichkeit wie der entsprechende Moran-Prozess, wenn er isotherm ist, d. h. die Summe aller Gewichte, die zu einem Knoten führen, ist für alle Knoten gleich. So beschreibt z. B. ein vollständiger Graph mit gleichen Gewichten einen Moran-Prozess.“ (Quelle: https://en.wikipedia.org/wiki/Evolutionary_graph_theory übersetzt ins Deutsche mit DeepL Translate).

Au ha! Dieses anspruchsvolle mathematische Konstrukt lässt sich vielleicht am besten mit dem Konzept der Metastrukturen in Herrn Stegemanns Artikel aus Teil 1 unseres Projektes vergleichen und damit vielleicht verständlicher erklären:

„Nehmen wir ganz allgemein z.B. ein zweidimensionales abstraktes Netzwerk mit n Knoten. Erfährt dieses Netz eine Zustandsänderung, so verschieben sich die Knoten und bilden an einer bestimmten Stelle einen Bereich mit einer höherer (Informations-) Dichte. In biologischen Systemen wird diese Dichte genetisch gespeichert und bildet eine metastrukturelle Steuereinheit (aus).“

Soll heißen, dass Strukturen eine Selbstreferentialität besitzen, die aufgrund von stochastischen, linearen Verteilungen beschrieben werden können. In der evolutionären Graphentheorie (EGT) entstehen struktural-gekoppelte Graphen mit unterschiedlichen Gewichtungen in den Knotenpunkten. Wenn man so möchte eine informationstheoretische Selbstorganisation des autopoietischen Systems von innen um Informationen mit möglichst geringer Zeichenmenge mit einer möglichst großen Informationsdichte zu vererben.

Diese nach dem russischen Mathematiker Andrei Nikolajewitsch Kolmogorow benannte Kolmogorow-Komplexität „ist ein Maß für die Strukturiertheit einer Zeichenkette und ist durch die Länge des kürzesten Programms gegeben, das diese Zeichenkette erzeugt. Dieses kürzeste Programm gibt somit eine beste Komprimierung der Zeichenkette an, ohne dass Information verloren geht.“ (https://de.wikipedia.org/wiki/Kolmogorow-Komplexit%C3%A4t)

Die Kolmogorow-Komplexität hat allerdings den entscheidenden Haken, dass sie nicht berechenbar ist. Hier kommt dann die später noch zu erläuternden Bayes-Netze und Markow-Ketten ins Spiel. Aber zumindest hat man hiermit schon einmal einen neuen Ansatzpunkt gewonnen, um die Selbstorganisation von Leben nicht alleine dem reinen Zufall zu überlassen. Der Faktor „Zufall“ hat nämlich die unangenehme Eigenschaft eine viel zu große Menge an Freiheitsgraden zu besitzen, die zu einer viel zu großen Menge an Auswahlmöglichkeiten führen würde und damit viel zu viel Zeit und Energie kosten würde. Bei 20300 Möglichkeiten allein für ein Protein kann man sich vielleicht vorstellen, dass die probabilistischen Möglichkeiten für Bildung eines lebendigen Organismus in schwindelerregende Größenordnungen gehen. Also muss die Natur einen Weg gefunden haben sich von dem reinentrial and error zu lösen. Also das „Rad jedes mal neu zu erfinden“, sondern so etwas wie genetische Algorithmen zu entwickeln, die wie Heuristiken wirken können. Diese sogenannten „genetischen Algorithmen“ finden ebenfalls Verwendung in der Programmierung, um Redundanzen zu vermeiden, strukturierter zu coden und damit Zeit und Energie zu sparen.

Genetische Algorithmen starten immer mit einer Hand voll zufällig gewählter Lösungen. Die sind in der Regel noch nicht gut. Allerdings werden die Lösungen in genetischen Algorithmen als Organismen aufgefasst, deren Merkmale in einer Art genetischem Code beschrieben sind. Dieser Code wird dann, wie in der Evolution, einer Kombination von Manipulationen unterzogen. Das können zufällige Mutationen sein oder Eingriffe, die die genetischen Mischprozesse in der Natur nachahmen. So entsteht eine weitere Generation von Organismen, die wiederum auf ihre Fitness getestet werden, also die Fähigkeit, die Aufgabe zu lösen. Wiederholt man diese Schritte, kann das zu hochgradig angepassten Individuen führen: zu guten Lösungen für das vorliegende Problem.“ (Jordana Cepelewicz: Algorithmen üben Evolution, in: Spektrum.de – IT/Tech – Lässt sich Evolution mit Mathematik und Algorithmen modellieren?, 2019)

Die genetischen Algorithmen der Evolutionary Graph Theory werden wiederum in der Stochastischen Evolutionäre Dynamik verwendet, um dort populationsgenetische und epidemiologische Simulations-Modelle in silico durchzuspielen. Ziel hierbei ist es die Evolutionäre Dynamik zum Beispiel von Bakterienstämmen in vitro besser abzubilden und hieraus Rückschlüsse auf die Selbstorganisation von Leben zu erreichen.

 

Bayes-Netze und Markov-Ketten – oder wie zufällig ist der Zufall

Um die Selbstorganisation autopoietischer Systeme in der Evolutionary Graph Theory besser struktural beschreiben zu können, bedarf es einer mathematischen Formulierung der Stochastik in Form der Bayes-Netze und Markow-Ketten, damit die propagierten Metastrukturen berechenbar werden. Es gilt hierbei den dynamischen Prozess mit seinen stochastischen Elementen abzubilden und hierbei die speziellen bedingten Unabhängigkeiten zu berücksichtigen. Anders ausgedrückt, es wird untersucht, ob man die probabilistische Struktur der Evolution als Algorithmus in einem Simulationsmodell nachbilden kann.

Directed graph, cyclic
Ein gerichteter Graph mit Zyklus

 

Directed acyclic graph
Ein gerichteter Graph ohne Zyklus

 

CPT-Graphs-directed-weighted-ex1
Multigraph: Mehrfachkanten werden durch eine gewichtete Kante visualisiert

(Quelle: https://de.wikipedia.org/wiki/Graph_(Graphentheorie)

 

„Ein bayessches Netz oder Bayes’sches Netz (benannt nach Thomas Bayes) ist ein gerichteter azyklischer Graph (DAG), in dem die Knoten Zufallsvariablen und die Kanten bedingte Abhängigkeiten zwischen den Variablen beschreiben. Jedem Knoten des Netzes ist eine bedingte Wahrscheinlichkeitsverteilung der durch ihn repräsentierten Zufallsvariable, gegeben die Zufallsvariablen an den Elternknoten, zugeordnet. Sie werden durch Wahrscheinlichkeitstabellen beschrieben. Diese Verteilung kann beliebig sein, jedoch wird häufig mit diskreten oder Normalverteilungen gearbeitet. Eltern eines Knotens v sind diejenigen Knoten, von denen eine Kante zu v führt.

Ein bayessches Netz dient dazu, die gemeinsame Wahrscheinlichkeitsverteilung aller beteiligten Variablen unter Ausnutzung bekannter bedingter Unabhängigkeiten möglichst kompakt zu repräsentieren. Dabei wird die bedingte (Un)abhängigkeit von Untermengen der Variablen mit dem A-priori-Wissen kombiniert.

Sind X1, …, Xn einige der im Graphen vorkommenden Zufallsvariablen (die abgeschlossen sind unter Hinzufügen von Elternvariablen), so berechnet sich deren gemeinsame Verteilung als

Bayes-Netze

Dabei ist P ( X 1 , … , X n ) eine symbolische Schreibweise für die gemeinsame Wahrscheinlichkeitsverteilung der Zufallsvariablen X 1 , … , X n. Hat ein Knoten keine Eltern, so handelt es sich bei der assoziierten Wahrscheinlichkeitsverteilung um eine unbedingte Verteilung.

Wie im Beispiel unten, interessiert man sich häufig für eine Randwahrscheinlichkeit, die man durch Marginalisierung über alle möglichen Realisierungen x j im Zustandsraum E j der Zufallsvariable X j erhält:

Bayes-Netze-Randwahrscheinlichkeit

“ (https://de.wikipedia.org/wiki/Bayessches_Netz)

Und ohne auf die hier verwendete Mathematik eingehen zu wollen und müssen, taucht hier die vorab formulierte „Vererbungslehre der Informationen“ in der Evolutionary Graph Theory wieder auf. Die gemeinsame Wahrscheinlichkeitsverteilung P der Zufallsvariablen X 1 , … , X n ist nur noch abhängig von den bedingten Knoten der „Eltern“-Zufallsvariablen. Existieren keine „Eltern“-Zufallsvariablen für einen bestimmten Knoten ist dies auch nicht so schlimm, da man dann mit Hilfe der „assozierten Wahrscheinlichkeitsverteilung“ einfach die „Randwahrscheinlichkeiten“ bestimmen kann.

Das Ganze mathematische Verfahren hat also den großen Vorteil die „Zufallsvariablen“ als „bedingte Wahrscheinlichkeitsverteilung“ kalkulierbar zu machen. Hierdurch wird auch der Zufall ein wenig strukturierter und für die Entwicklung von Algorithmen handfester gemacht. Dieser Vorteil der Strukturierung des Zufalls wird nicht nur für das Lernen in der KI-Entwicklung genutzt, sondern kann auch zur Beschreibung von Mutationen in der Selbstorganisation von Leben produktiv genutzt werden.

Rastrigin function

Beispiel für einen evolutionären Algorithmus:

Die Rastrigin-Funktion ist eine multimodale Funktion, da sie viele lokale Extrema aufweist. Dies stellt einen Nachteil für den Rekombinationsoperator dar. (Quelle: https://de.wikipedia.org/wiki/Evolution%C3%A4rer_Algorithmus)

 

Wahrscheinlichkeit eines Mutationsmusters

Die Wahrscheinlichkeit (likelihood L) eines´Mutationsmusters x unter der Bedingung eines mutagenetischen Baumes T ist gegeben als das in der Formel angegebene Produkt zweier Produkte:

Mutationsmuster

Dabei läuft der Index e über alle Kanten des Mutationsbaums – jedes e entspricht einem Übergang zwischen zwei Mutanten. Das erste Produkt geht über alle Wahrscheinlichkeiten p(e) von Mutationen die zum Muster x führen, das zweite Produkt steuert einen Faktor von 1 – p(e) bei für jede Mutation, die nicht zu x führt.“ (Daniel Hoffmann: Evolution: Von der Biologie zur Mathematik und wieder zurück, 2008)

Das erinnert nicht nur an die mathematische Beschreibung der Bayes-Netze, sondern hat auch einen direkten Zusammenhang. Man kann nun den evolutionären Charakter von Mutationen mit Hilfe der Wahrscheinlichkeit von Mutationsmuster abbilden. Die „Vererbungslehre“ steckt hier wieder in der bedingten Abhängigkeit der Wahrscheinlichkeiten p(e) von Mutationen, die zum Muster x führen. Das zweite Produkt von 1 – p(e) schließt auch die unbedingten Wahrscheinlichkeiten für jede Mutation mit ein, die nicht zu x führen.

Jetzt muss man nur den dynamischen Prozess-Charakter in der Evolutionären Dynamik mathematisch in den Griff bekommen. Eine spezielle bedingte Unabhängigkeit von dem Faktor „Zeit“, bei der Gegenwart, Vergangenheit und Zukunft unabhängig von einander sein sollen, ist für den Faktor „Zufall“ eine notwendige Bedingung. Anders ausgedrückt, das Bayes-Netz ist ein probabilistisches grafisches Modell (PGM), das mit seinem Graphenformalismus zur kompakten Modellierung gemeinsamer Wahrscheinlichkeitsverteilungen und (Un-)Abhängigkeitsbeziehungen über eine Menge von Zufallsvariablen dient. Okay. Damit das Ganze aber eine spezielle bedingte Unabhängigkeit erhält, muss man die Gerichtetheit doch ein wenig öffnen. Und hier kommt das Markov Random Field ins Spiel:

„Ein Markov Random Field (kurz MRF) oder Markow-Netzwerk ist ein nach dem Mathematiker A. Markow benanntes statistisches Modell, welches ungerichtete Zusammenhänge (z.B. die Ausrichtung von Elementarmagneten) in einem Feld beschreibt. Das Feld besteht aus Zellen, die Zufallsvariablen enthalten und räumlich begrenzt (vgl. zeitliche Begrenzung in einer Markow-Kette) gegenseitig wechselwirken. […] Zu den formalen Eigenschaften eines MRF gehört unter anderem die Global Markov Property: Jeder Knoten (als Darsteller der Zufallsvariable) ist unabhängig von allen anderen Knoten, falls alle seine Nachbarn gegeben sind.“ (https://de.wikipedia.org/wiki/Markov_Random_Field)

 

Markow-Kette mit drei Zuständen und unvollständigen Verbindungen (Quelle: https://de.wikipedia.org/wikSimple markov chaini/Markow-Kette)

 

 

 

Diagram of a Markov blanket

Markow-Decke: In einem Bayes’schen Netz umfasst die Markov-Grenze des Knotens A seine Eltern, Kinder und die anderen Eltern aller seiner Kinder. (Quelle: https://en.wikipedia.org/wiki/Markov_blanket)

 

 

Mit Hilfe von Markow-Modellen, hier speziell Markow-Ketten oder Markow-Decken wird also durch eine räumliche oder zeitliche Eingrenzung der Faktor „Zufall“ in den Bayes-Netzen kalkulierbarer gemacht. Soll heißen, jeder Knoten in dem Bayes-Netz lässt sich mit einer gewissen Wahrscheinlichkeit berechnen, wenn man alle seine Relationen kennt. Dies erinnert in entfernter Anlehnung an den von Herrn Stegemann vorgeschlagenen Begriff der Valenzkopplung:

Valenzkopplung findet als Assoziierung kompatibler Strukturen statt und ist die Basis des Energie- (oder Informations-) austausches. Valenzen entstehen ausschließlich in Zusammenhang mit Strukturen (ähnlich der ’strukturellen Kopplung‘ bei Maturana).“

Jetzt braucht man die probabilistischen Algorithmen als Simulationsmodelleauf einem Computer nur noch Laufen lassen und überprüfen, in wie fern die Algorithmen in der Lage sind populationsgenetische und epidemiologische Evolutionäre Dynamiken abzubilden. Hier findet nun zum ersten Mal ein Abgleich des Modells mit der Umwelt statt. Dies ist wichtig, da auch die Algorithmen des Simulationsmodell ständig als selbstreferentieller, rekursiverFeedback-Loop an die tatsächlichen Evidenzen angepasst werden müssen. Man kann hier folglich in einer Analogie auch von einer Adaption und Evolution der genetischen Algorithmen sprechen. Herr Stegemann hatte dies in seinem Artikel folgendermaßen formuliert:

Adaption und Evolution geschieht in einem Phasenraumdurch Versuch und Irrtum. Durch den adaptiven Randomwalk entstehen neue Phänotypen durch Ausnutzung von Möglichkeitsräumen und ändern dadurch auf der anderen Seite durch Rückkopplung die interne Steuerung (ähnlich der ‚konvergenten Rekonstruktion mit Übersteigungen‘ bei Piaget).“

Insofern findet die Überprüfung von Evolutionstheorien nicht nur als genetische Algorithmen in einem Simulationsmodell statt, sondern z. B. die Evolutionary Graph Theory unterliegt selber einer Art Evolution. Um hier noch ein paar weitere Mutationsmöglichkeiten ins Spiel zu bringen sei zum Abschluss noch eine strukturenrealistische Betrachtung der Evolutionstheorien erlaubt.

 

Flips
Alle möglichen Ergebnisse des Random Walk nach 5 Würfen einer fairen Münze
Random walk 2500
Random Walk in 2 Dimensionen

Walk3d 0

3 Random Walks in 3 Dimensionen

Evolutionstheorien in einer strukturenrealistischen Betrachtung – Leben braucht Strukturen

Der Knotenpunkt zu einer strukturenrealistischen Betrachtung der Evolutionstheorie ist aus meiner Sicht durch die strukturale Beschreibung der Stochastischen Evolutionären Dynamik in der Evolutionary Graph Theory gegeben.

Unter der Prämisse, dass die zuvor genannten mathematischen Beschreibungsmodelle, wie z. B. aus der Evolutionary Graph Theory eine adäquate Simulation der Evolutionären Dynamik in der Natur abbilden können, würde dies einen ganz neuen Zugang zum Verständnis von Evolution eröffnen. Das bisherige Paradigma in der Evolutionsbiologie geht bislang von einem Dualismus eines „innen vs. außen“, „Organismus vs. Umwelt“, „Adaption vs. Speciation, u.s.w. aus, der immer im Sinne einer Abgrenzung zum „tertium non datur der klassischen Systemtheorie (George Spencer-Brown, Niklas Luhmann) als Differenz betrieben wird.

Der Fokus des neuen Paradigmas für die Evolutionsbiologie sollte aus meiner Sicht stärker auf dem Konzept der Polykontexturalität nach Gotthard Günther liegen, um den struktural-dynamischen Prozess zur Entstehung von Leben besser beschreiben zu können. Methodisch möchte ich mich im Folgenden an dem Formalismus und Begrifflichkeit der „Integrated Information Theory“ IIT (2004 – 2014) von Guilio Tononiorientieren, die zwar eigentlich eine mathematische Theorie zur Konstitution von Bewusstsein ist, sich aber aufgrund ihres informationstheoretischen Formalismus aus meiner Sicht auch zur Beschreibung der Konstitution von Leben eignet.

Die Möglichkeiten, die aufgrund einer strukturalen Beschreibung der Evolutionären Dynamik in der Evolutionary Graph Theory entstehen, eröffnen ganz neue strukturenrealistische Betrachtungen, wie z. B. Leben als autopoietisches System entstanden sein kann. Um dies ein wenig präziser zu fassen, möchte ich im Folgenden „5 Axiome zum Leben“ in Analogie zur IIT aufstellen, woraus ich dann die entsprechenden Postulate zur möglichen Entstehung von Leben“ ableite.

 

Die 5 Axiome des Lebens

1. intrinsische Existenz: ein lebendiger Organismus muss eine struktural-dynamische Differenz von „innen“ und „außen“ besitzen,

2. Komposition: ein lebendiger Organismus muss sich aus mehreren Teilen zusammensetzen, die mehr sind als deren Summe,

3. Information: ein lebendiger Organismus muss durch seine Struktur auch einen Inhalt haben, der übertragen werden kann,

4. Integration: ein lebendiger Organismus muss mit seiner Umwelt in Interaktion treten und anpassen können,

5. Exklusion: ein lebendiger Organismus muss ein Verhalten haben, das ihn von seiner Umwelt abgrenzt

 

Postulate zu den Axiomen

Zu 1.intrinsische Existenz: ein lebendiger Organismus benötigt zunächst einmal eine struktural-dynamische Differenz von „innen“ und „außen“. Soll heißen, ohne eine entprechende struktural-dynamische Abgrenzung nach außen, kann der lebendige Organismus gar nicht definiert werden, da er in diesem Falle gar keine eigene Identität/Entität bilden kann. Diese Differenz ist hier aber ausdrücklich nicht als Dualismus gedacht, da der lebendige Organismus unter einem prozessoralen Gesichtspunkt weiterhin Bestandteil der Umwelt bleibt und mit dieser interagiert (s. 4.).

In einem strukturenrealistischen Konzept beschrieben, wären die sich bildenden Relationenzwischen dem lebendigen Organismus und seiner Umwelt in einem Phasenraum von größerer Bedeutung als die Relata (Organismus, Umwelt) selber. Aus strukturenrealistischer Sicht auf die evolutionären Graphentheorie (EGT) beschrieben, bedeutet dies, dass die sich bildenden Bayes-Netze oder Markow-Ketten einen eigenen Informationsgehalt besitzen, der unabhängig von der Beschreibung des lebendigen Organismus als Ganzes, eine intrinsische Existenz als Selbstorganisation von innen besitzt.

Zu 2. Komposition: ein lebendiger Organismus besteht immer aus mehreren Teilen, ist aber aus mereologischer Sicht immer mehr als die Summe seiner Teile. Selbst die kleinsten lebendigen Organismen, wie z. B. Bakterien oder Viren (wobei bei Viren, die Grenzen zum Leben schon erreicht wird) bestehen aus mehreren einfachen Komponenten, wie z. B. Protein-Hülle oder RNA/DNA-Material. Die Komplexität der Komposition von lebendigen Organismen ist nach oben hin offen und kann durchaus mit Hilfe der Adaption und Evolution erklärt werden.

Der „adaptive Random-Walk“ der Evolution kann mit Hilfe des Markov Random Field (MRF) oder Markow-Logik-Netzen probabilistisch abgebildet werden. Die scheinbar ungerichteten Zusammenhänge der Darwinschen Evolutionstheorie, die schon einmal gerne „trial and error“-Methode genannt wird, können nun mit Hilfe der MRFs in einem Feld beschrieben werden. „Das Feld besteht aus Zellen, die Zufallsvariablen enthalten und räumlich begrenzt (vgl. zeitliche Begrenzung in einer Markow-Kette) gegenseitig wechselwirken.“ (https://de.wikipedia.org/wiki/Markov_Random_Field).

Aus strukturenrealistischer Sicht bedeutet dies, man braucht nicht mehr die Komposition des einzelnen, lebendigen Organismus im Hinblick auf die Entstehung von Arten mit neuen spezifischen, der Umwelt angepassten Eigenschaften betrachten. Sondern man kann die Adaption und Evolution auch z. B. als Markov-Netzwerk oder unter einem zeitlichen Aspekt auch als Markov-Kette beschreiben. Hierdurch erhält man eine klare Strukturierung des Faktors „Zufall“ und kann bessere Heuristikenentwickeln.

Zu 3. Information: ein lebendiger Organismus stellt ein selbstreferentielles, autopoietisches System dar, das aufgrund seiner Strukturiertheit einen Informationsgehaltbesitzt. Die Information kann in Form der DNA in den Genomen der Zellen gespeichert sein. Ebenso kann die spezifische Strukturierung von Zellverbänden zu Organen oder die spezifische Komposition des lebendigen Organismus aus seinen Komponenten als Informationsgehalt bezeichnet werden. Über selbstrekursive Prozesse ist eine Informationsübertragung innerhalb des lebendigen Organismus aber auch außerhalb über Vererbung möglich.

Den struktural-dynamischen Prozess der Informationsübertragung lässt sich gut mit Hilfe von Bayes-Netzwerken darstellen, da hier die „Vererbungslehre der Informationen“ in der Evolutionary Graph Theory abbildbar wird. Die gemeinsame Wahrscheinlichkeitsverteilung aller Zufallsvariablen eines lebendigen Systems können in Abhängigkeit von den bedingten Knoten der „Eltern“-Zufallsvariablen determiniert werden. Der Informationsgehalt des Gesamtsystems bleibt trotz Permutation der Strukturen einzelner Bereiche erhalten. Selbst, wenn keine „Eltern„-Zufallsvariablen für einen bestimmten Knoten existieren, wie z. B. bei Mutationen, können aufgrund der „assozierten Wahrscheinlichkeitsverteilung“ die „Randwahrscheinlichkeiten“ bestimmt werden.

Aus Sicht des Strukturenrealismusbedeutet dies, wenn die Relationen des Gesamtsystems (Knoten, Kanten) bekannt sind, können auch struktural-dynamische Transformationen einzelner Bereiche stattfinden, ohne den Informationsgehalt des Gesamtystems wesentlich zu ändern. Dies ermöglicht eine Adaption an die Umwelt und auf längere Sicht eine Evolution des lebendigen Organismus.

Zu 4. Integration: ein lebendiger Organismus muss in der Lage sein mit seiner Umwelt zu interagieren. Das heißt, er benötigt bei aller Geschlossenheit seiner intrinsischen Existenz einen materiellen, energetischen und informationellen Austausch mit seiner Umwelt. Zu diesem Zwecke benötigt der lebendige Organismus eine Integration in seine Umwelt. So stellt zum Beispiel der Stoffwechsel ein wichtiges Kriterium dar, um lebendige Organismen zu definieren. Eine isolierte Betrachtung des lebendigen Organismus ohne Berücksichtigung der Integration in seine Umwelt macht daher nicht so viel Sinn.

Möchte man nun die Konstitution von Leben mit Hilfe der Evolutionary Graph Theory beschreiben, muss man daher berücksichtigen, dass es sich bei der Simulation vonpopulationsgenetischeoder epidemiologische Evolution in Form der Bayes-Netzen oder Markow-Ketten nicht um geschlossene Systeme im Sinne der Systemtheoriehandelt. Die Integration von mehreren Systemen steht hierbei potentiell im Raum, wobei die mathematische und informationstechnische Realisierung allein für ein einzelnes Systems schon jetzt an ihre Grenzen stößt.

Hinsichtlich des strukturenrealistischen Konzeptes führt dies natürlich auch zu einer Steigerung der Komplexität in Form der „Relationierung der Relationen“, die auch als Kybernetik 2. Ordnung bezeichnet werden könnte.

Zu 5. Exklusion: hier sind nun endgültig die Möglichkeiten der Beschreibung im Rahmen der Evolutionary Graph Theory EGT und des Strukturenrealismus SR erreicht, da das Verhalten für einen lebendigen Organismus zwar ein wesentliches Kriterium für seine Lebendigkeit ist, aber die Darstellung im EGT und SR nicht mehr möglich ist. Hier sei dann eben die „flappsige Schlussbemerkung“ erlaubt: „Das Wichtigste am Leben ist nun mal, dass man lebt!“

© philosophies.de

Ich bin immer mit meiner „Diogenes-Lampe“ unterwegs, um Menschen zu finden, die sich auch nach ein wenig „Licht der Erkenntnis“ sehnen. Also wenn Ihr eigene Beiträge oder Posts für meinen Wissenschaft-/Philosophie-Blog habt, immer her damit. Sie werden mit Eurem Namen als Autor auf meiner Seite veröffentlicht, so lange sie den oben genannten Kriterien entsprechen. Denn nur geteiltes Wissen ist vermehrtes Wissen.

35 thoughts on “Evolutionstheorien in einer strukturenrealistischen Betrachtung

  1. Für intraspezifische Evolution dürfte die Erklärung einleuchtend sein. Wie stehts aber für die Entstehung jeweils höherer Taxa, dem Auftreten neuer Baupläne?

    1. Lieber Ronny Stoyan,

      vielen Dank für Ihren freundlichen Kommentar und Ihre Rückfrage.

      Wenn Ich Ihre Frage richtig verstanden habe, geht es Ihnen mit Ihrer „Entstehung jeweils höherer Taxa“, darum wie mehr Komplexität in den bestehenden oder auch neue Strukturen gebildet werden können.
      Ich sehe hier aus meiner bescheidenen Sicht zunächst einmal kein Problem, da die Strukturen kein geschlossenes System darstellen. In den Axiomen habe ich dies ausdrücklich als struktural-dynamischen Prozess zugelassen, der insofern auch eine Evolution zulässt.

      Vielen Dank für Ihr Interesse und
      viele Grüße

      1. Vielen Dank für ihre Antwort. Leider habe ich sie erst jetzt mitbekommen, da irgendwie kein Signal aufgelaufen ist, dass es hier eine Antwort gibt. Wie dem auch sei. Der mathematische Ansatz gefällt mir sehr gut, auch das er einen anderen Weg verfolgt, als das Zufallsprinzip bei Mutationen. Es gab ja in der jüngeren Vergangenheit einige überraschende Erkenntnisse. Etwa das synonyme Mutationen genauso schädlich sind, wie nichtsynonyme. Bisher galten synonyme M als neutral in Bezug auf die Fittness. (Nature, 2022; doi: 10.1038/s41586-022-04823-w)
        Oder, dass Pflanzen ihre wichtigsten Genregionen vor Mutationen schützen. „The areas that are the most biologically important are the ones being protected from mutation.“ (More information: Detlef Weigel, Mutation bias reflects natural selection in Arabidopsis thaliana, Nature (2022). DOI: 10.1038/s41586-021-04269-6. http://www.nature.com/articles/s41586-021-04269-6) Zitiert nach Phys.org. Das alles weist m.E. empirisch gegen das Zufallsparadigma. Meine Frage wäre jetzt, ob solche neuen Erkenntnisse in die beschrieben Strukturenrealistische Betrachtung mit einfließen. Auf jeden Fall denke ich das eine Informationstheory der Biologie von nöten ist. Im Grunde ist doch die DNA eine codierte Prozessdatenbank die ihre eigene Decodierungsroutine enthält(von der sie gleichzeitig auch abhängig ist) und mit den Genprodukten die Synorganisation des Organismus realisiert. Das System ist mit autopoietisch an und für sich gut charakterisiert, doch liefert mir das keine Antwort auf die Frage, wie aus nichtpoietischen systemen poietische werden. Natürlich gibt es auch nichtbiotische autopoietische Systeme, etwa physikalisch/chemische Zyklen, es ist aber bisher nicht gezeigt worden wie daraus ein lebendiger Organismus wird. Leben kann auch als Kampf der Form gegen die Materie interpretiert werden (Andreas Weber,2003) Daraus folgt für mich, dass Leben eben nicht auf das Verhalten von Materie zurückgeführt werden kann, obwohl dessen Strukturen aus ihr gebildet werden, Zu meiner ursprünglichen Frage, nochmal anders, wie entsteht dabei neue Information und nicht nur Rekombination des vorhandenen?

        1. Zunächst: es gibt keine nichtbiotischen autopoietischen Systeme. Im Gegensatz zu nichtbiotischen Systemen sind biotische in der Lage zum Selbsterhalt bzw. zur Wiederherstellung ihrer Struktur. Zerren Sie an einer unbelebten Struktur und sie wird sich verformen. Zerren Sie an einer belebten Struktur, sie wird sich ebenso verformen, aber sofort versuchen, ihre ursprüngliche Form wieder herzustellen.

          Leben entwickelt sich nach dem Prinzip Expansion/ Reduktion (z.B. Metabolismus), wobei die Reduktion ähnlich einer Fouriertransformation Strukturen zusammenfasst und komprimiert. Es ist das, was Piaget als Assimilation und Akkomodation beschrieben hat. Wenn Sie x-mal lange Zahlenketten addiert haben, kommen Sie irgendwann auf die Idee, diese Ketten in gleichgroße Gruppen zu unterteilen, die sich leichter zählen lassen, und damit ‚erfinden‘ Sie die Multiplikation als neue,m effektivere Rechenlogik. Genauso ‚erfindet‘ die belebte Natur neue Arbeitslogiken und kürzt damit Umwege ab (physikalisch beschreibbar), was wir als Ressourcenschonung betrachten und implizit meinen, das wäre ‚gewollt‘. In Wirklichkeit ist es eine Zwangsläufigkeit des Lebendigen, das sich damit immer weiter differenziert.
          Es wäre ein doppelter Reduktionismus, zum einen die Erklärung von Leben auf seine Komponenten zu reduzieren und zum anderen zu meinen, Leben wäre mit physikalischen Modellen vollständig beschreibbar. Die Physik berücksichtigt aber gerade nicht die Eigenaktivität von Leben, sie behandelt Leben wie ein ‚totes‘ System. Dabei unterscheidet sich aber die Selbstorganisation von Leben und Nicht-Leben grundlegend. Die Beschreibung von Leben braucht also biologische Modelle.

          1. Zu den nichtbiotischen autopoietischen Systemen: Ich habe hier keine persönliche Überzeugung wiedergegeben, sondern auf eine Behauptung angespielt, die sich im entsprechenden Wikipediaartikel findet. „Nach Varela* gilt: „… reproduction and evolution are not (remark: exclusive) features of the living organization …“. Ein Beispiel dafür ist die Belousov-Zhabotinsky-Reaktion, ein emergentes chemisches System, das die o. g. Kriterien eines autopoietischen Systems erfüllt, aber nicht lebendig ist. Im Fall der Viren ist die Abgrenzung jedoch nicht so klar, sie stehen an der Grenze von noch-nicht-leben und leben: Innerhalb ihrer Wirtszelle sind sie lebendig, außerhalb sind es „nur“ Makromoleküle, allerdings mit der selbstorganisierten Fähigkeit, lebendig zu werden, sobald sie auf die passenden Wirtszellen treffen.“
            Francisco J. Varela, Humberto R. Maturana, and R. Uribe: Autopoiesis: The organization of living systems, its characterization and a model. In: Biosystems. 5, 1974, S. 187–196
            Ich teile diese Einschätzung nicht, weil gerade ein solcher chemischer Zyklus nicht alle Kriterien des Lebens enthält, u.a. Abgeschlossenheit gegen die Umwelt, Informationsgesteuerte Reproduktion zweckhaft organisierter Einzelstrukturen
            , Reperaturmechanismen, Nutzen für das Gesamtsystem. Mir scheint dieses Postulat eher dem phiolosophischen Naturalismus zu entspringen, wo versucht wird die Exclusivität des Lebens aus weltanschaulichen Gründen auf seine materiellen Konstituenten zu reduzieren, oder mit anderen Worten, den Unterschied zwischen belebten und unbelebten Systemen zu eliminieren.
            (* ich spreche lieber von zweckhaft [zu einem Gesamtsystem] organisierten Einzelstrukturen, denn lediglich geordnete Strukruren findet man auch in unbelebten Systemen)
            Sie haben ja die Besonderheit des Lebendigen schön beschrieben. “ Zerren Sie an einer unbelebten Struktur und sie wird sich verformen. Zerren Sie an einer belebten Struktur, sie wird sich ebenso verformen, aber sofort versuchen, ihre ursprüngliche Form wieder herzustellen.“
            Das zeigt sich auf der molekulargenetischen Ebene genauso, wie etwa bei solchen Systemen wie der Blutgerinnung und den weiteren Heilungsprozessen nach Verletzungen. Das ist etwas völlig anderes, als ein Gummiball der nach Verformung wieder seine ursprüngliche Form annimmt. Ihrer Kritik am Physikalismus bei der Beschreibung von Leben stimme ich vollumfänglich zu, ich vertrete aber keinen philosophischen Naturalismus, i.e. ich sehe durchaus transzendente Ursachen hinter der Welt und gerade die erfolgreiche mathematische Beschreibung der Natur, kann durchaus auch als rationale Glaubensbegründung in theistischen Weltbildern atraktiv sein. Zumindest dann, wenn man Mathematik als transzendente Universalie begreiftt und nicht lediglich als menschliches Konstrukt. Hier kommen wir aber auch schon auf das Bewusstseinsproblem. Diese Themen sind ja alle irgendwie miteinander verwoben.

            1. Ich sehe das genau wie Sie, bis auf die Mathematik. Die sehe ich auch „menschengemacht“. Ich denke, das Universum ist nicht mathematisch, wir mathematisieren es nur. Hätten wir nur sieben Finger, sähe unsere Mathematik völlig anders aus. Aber vor allem: wir bezeichnen eine Strecke als einen Meter, ein Gewicht als ein Kilogramm, etc.pp. Dann bringen wir alle diese Maße in einen Zusammenhang, so dass wir auch komplizierte Beschreibungen vornehmen können. Und dann wundern wir uns, wie kompliziert die Welt ist. Es ist aber die Mathematik, die mit der Zeit so kompliziert geworden ist.
              Der Mensch neigt gerne zur Kausalitätsumkehr in seinen Gedanken.

        2. Lieber Ronny Stoyan,

          ich danke Ihnen für Ihren sehr bemerkenswerten Kommentar und Ihre Rückmeldung. Ich war bislang davon ausgegangen, dass Kommentatoren immer automatisch informiert werden würden, wenn es einen neuen Kommentar gibt. Das war scheinbar nicht der Fall, daher habe ich nun ein neues Plugin installiert, damit die Kommentatoren zukünftig schneller über Rückmeldungen informiert werden.

          Auf Ihre sehr interessanten Hinweisen wollte ich an dieser Stelle kurz eingehen.
          Ihren Hinweisen zu „synonymen Mutationen“, „welche zwar die DNA-Sequenz verändern, nicht aber die codierte Aminosäure“ (https://laborjournal.de/rubric/stichwort/stichwort/w_21_05.php) und „Mutation bias reflects natural selection in Arabidopsis thaliana“ bin ich direkt einmal nachgegangen und habe in der Einleitung des Artikels direkt ein sehr bemerkenswertes Zitat gefunden, das ich auch nicht vorenthalten möchte:

          „The random occurrence of mutations with respect to their consequences is an axiom upon which much of biology and evolutionary theory rests1. This simple proposition has had profound effects on models of evolution developed since the modern synthesis, shaping how biologists have thought about and studied genetic diversity over the past century. From this view, for example, the common observation that genetic variants are found less often in functionally constrained regions of the genome is believed to be due solely to selection after random mutation. This paradigm has been defended with both theoretical and practical arguments: that selection on gene-level mutation rates cannot overcome genetic drift; that previous evidence of non-random mutational patterns relied on analyses in natural populations that were confounded by the effects of natural selection; and that past proposals of adaptive mutation bias have not been framed in the context of potential mechanisms that could underpin such non-random mutations3,4,5,6. Yet, emerging discoveries in genome biology inspire a reconsideration of classical views. It is now known that nucleotide composition, epigenomic features and bias in DNA repair can influence the likelihood that mutations occur at different places across the genome7,8,9,10,11,12,13. At the same time, we have learned that specific gene regions and broad classes of genes, including constitutively expressed and essential housekeeping genes, can exist in distinct epigenomic states14. This could in turn provide opportunities for adaptive mutation biases to evolve by coupling DNA repair with features enriched in constrained loci2. Indeed, evidence that DNA repair is targeted to genic regions and active genes has been found15,16,17,18,19,20. Here we synthesize these ideas by investigating the causes, consequences and adaptive value of mutation bias in the plant Arabidopsis thaliana.“ (https://www.nature.com/articles/s41586-021-04269-6)

          Daher kann ich Sie nur unterstützen, wenn Sie schreiben: „Das alles weist m.E. empirisch gegen das Zufallsparadigma.“ Das war auch genau der Grund, warum ich den Essay zu den Evolutionstheorien verfasst hatte, da es mir ebenfalls darum ging dieses Paradigma des „trial an errors“ in Darwins Evolutionstheorie zu widerlegen. Die Natur muss das Rad nicht jedenfalls neu erfinden, sondern kann auch auf bewährte „genetische Algorithmen“ zurückgreifen um Heuristiken zu entwickeln.

          Daher gebe ich ebenfalls absolut Recht, dass eine „Informationstheory der Biologie von nöten ist“. Ich gehe ebenso davon aus, dass es einer algorithmische Informationstheorie von Gregory Chaitin bedarf, die durch eine strukturenrealistische Beschreibung erst praktikabel wird.

          Daher kann ich auch Ihre Frage: „Das System ist mit autopoietisch an und für sich gut charakterisiert, doch liefert mir das keine Antwort auf die Frage, wie aus nichtpoietischen systemen poietische werden.“ sehr gut nachvollziehen, da mich diese Frage ebenfalls stark beschäftigt hat.

          Allerdings kann ich die Schlussfolgerung, die Sie hieraus ziehen nicht unterstützen: „Leben kann auch als Kampf der Form gegen die Materie interpretiert werden (Andreas Weber,2003) Daraus folgt für mich, dass Leben eben nicht auf das Verhalten von Materie zurückgeführt werden kann, obwohl dessen Strukturen aus ihr gebildet werden,“

          Da ich zu einem anderen Ergebnis gekommen bin, bei dem nicht wieder „die Struktur gegen die Materie“ ausgespielt wird. Meines Erachtens liegt der Schwerpunkt der Forschung immer noch zu stark auf der Materie. Das ist aber auch absolut nicht verwunderlich, da das Paradigma des „Materialismus“ immer noch seit über 2500 Jahre wirkt und scheinbar nicht beseitigt werden kann. Der Fokus sollte aber aus meiner bescheidenen Sicht eher auf den Strukturen und dem Prozess liegen, die sich dann auch materiell manifestieren müssen, da man ansonsten selbstverständlich schwerlich einen wissenschaftlichen Realismus betreiben kann.

          Daher müsste Sie nach meiner Meinung Ihren Satz „Verhalten von Materie zurückgeführt werden kann, obwohl dessen Strukturen aus ihr gebildet werden“ umformen in „auf das Verhalten von Materie kann zurückgeführt werden, weil es aus Strukturen gebildet wird.

          Aus diesem Grunde sehe ich Ihre Frage „wie entsteht dabei neue Information und nicht nur Rekombination des vorhandenen?“ beantwortet, da es nicht um die „Rekombination von Materie“ geht, sondern um die „Neustruktierung von Informationen“ geht, die sich materiell äußern können, wie Ihr oben erwähntes Beispiel zu den „synonymen Mutationen“ sehr schön zeigt und auch in der Differenzierung von Genotyp und Phänotyp seine Anwendung findet.

          Aber wie geschrieben, die Informationstheorie der Biologie scheint noch auf sich zu warten.

          Vielen Dank für Ihr Interesse und
          viele Grüße

          Dirk Boucsein

          1. Vielen Dank Herr Boucsein, für ihre Antwort. Mit dem „Kampf der Form gegen die Materie“ wollte ich vor allem den Fakt beschreiben, dass sich ein lebender Organismus durch seine funktionale Organisation von Strukturen und der Fähigkeit im thermodynamischen Ungleichgewicht zu existieren einen „Kampf“ gegen den Rückfall auf das Niveau niedrigerer Organisationsgrade, dem Niveau unbelebter Materie vollführt. Kampf ist hier mehr metaphorisch. In diesem Sinn ist Leben kontingent und in gewisser Weise auch prekär, weil es auch scheitern kann. Es ist auch immer noch der Sonderfall im Universum. Ich stimme auch völlig zu, wenn sie schreiben: „…da es nicht um die „Rekombination von Materie“ geht, sondern um die „Neustruktierung von Informationen“. „Neustruktierung von Informationen“ führt mich dann aber zu der Frage, ob sie meinen, das Information aus der Materie kommt oder umgekehrt? Sie wenden sich ja gegen den Materialismus. Soll am Ende aber dennoch Materie wieder das letztew Wort haben? Wenn man das ontologisch betrachtet kann man an der Stelle auch die Frage aufwerfen, was ist eigentlich Materie? Wenn wir in die subatomaren Strukturen gehen, sehen wir fast nur noch Quantenfelder, die wiederum nur noch mathematisch beschreibbar sind. Ist Geist/Information fundamental oder Materie(was auch immer das ist)?

            1. Wenn ich mich kurz einmischen darf:
              Ich halte eine biologische Informationstheorie für schwierig. Nicht nur der Begriff Information ist stark vorbelastet, die Frage ist, was soll darunter verstanden werden. Da kommt schnell die Frage auf, soll Information zur Materie hinzukommen, also letztlich, ob zur Physis des Gehirns noch ein Geist hinzukommt, womit man bereits mit mindestens einem Fuß in der Esoterik steckt und mit beiden Füßen im Dualismus.
              Ich verwende Information im Sinne von Struktur. Eine hohe Informationsdichte (Tononi) bedeutet eine hohe Strukturriertheit oder Strukturdichte. Mein Begriff des Informationsgradienten wird dann zum Strukturgradienten und man ist in der Lage, eine strukturelle Topologie zu beschreiben und landet dann bei den (funktionellen) Metastrukturen. Mit einer solchen ‚Geometrisierung‘ ließe sich z.B. Bewusstsein und Unterbewusstsein darstellen.
              M.a.W. halte ich eine Strukturtheorie sinnvoller als eine Informationstheorie, die dann allerdings ausschließlich für alles Lebendige gilt.

            2. Lieber Ronny Stoyan,

              vielen Dank für Ihren sehr interessanten Kommentar und Ihre Rückfragen, die mich ebenfalls schon eine Weile umtreiben und auf die ich Ihnen gerne kurz antworten möchte.

              Um eins direkt vorweg zu schicken, ich weiß es auch nicht mit Sicherheit und suche auch nur nach möglichen Lösungen. Die Fragen zur Ontologie eines Dings oder Sachverhalt ist natürlich so alt, wie die Menschheit selber und zielt letztenendes immer auf eine Metaphysik, da man den Dingen oder den Sachverhalten auf den Grund gehen und dahinter blicken möchte. Damit ist man zwangsläufig in der spekulativen, empirisch schwierig absicherbaren Abteilung der Wissenschaft angelangt. Das ist zunächst einmal absolut nichts Verwerfliches oder Unwissenschaftliches, da aus diesem abduktiven Verfahren (Peirce) durch Nachliefern der empirischen Fakten durchaus wieder konsistente wissenschaftliche Theorien werden können. Und in diesem Bereich sehe ich den verwendeten strukturenrealistischen Ansatz um Leben als autopoietisches System besser beschreiben zu können und zu adäquateren Evolutionstheorien zu gelangen.

              Aber um zu Ihrer Frage zu kommen, ob ich meine, „das Information aus der Materie kommt oder umgekehrt“ würde ich dies mit dem „Henne-Ei-Problem“ gleich setzen. Ich verfolge schon länger ein Projekt, das ich auch als „Donquichotterie“ bezeichnen kann, diesen Dualismus (Geist vs. Materie, Information vs. Materie, Struktur vs. Materie, etc. pp.) aufzulösen. Daher würde ich auch Ihre Frage „Ist Geist/Information fundamental oder Materie(was auch immer das ist)?“, so als nicht beantwortbar sehen, da man gar nicht das eine von dem anderen trennen kann. Wenn ich dies kurz erläutern und dabei auch auf Wolfgangs Einlassung eingehen darf.

              Nach meiner bescheidenen Meinung würde ich zunächst einmal mit der Struktur starten, da sie aus meiner Sicht erst einmal so etwas wie ein Konzept, Bauplan, größte Wahrscheinlichkeitsmenge, oder was auch immer (Herrn Dr. Stein bin auch noch eine Antwort schuldig 😉 sein kann. Dann würde ich den Begriff des Prozesses (strukturale Kopplung) einführen wollen, der zu zeitlich messbaren Veränderungen führen kann. Im Laufe dieses Prozesses können, dann so etwas wie Dichtegradienten entstehen. Wenn man diese Dichtegradienten, wie es die Feldtheorie macht, mit dem Begriff der Materie gleichsetzt, habe ich auch nichts dagegen. Daher ist Ihr Hinweis auch vollkommen richtig: „Wenn wir in die subatomaren Strukturen gehen, sehen wir fast nur noch Quantenfelder, die wiederum nur noch mathematisch beschreibbar sind.“ Bei einer derartig „großen Auflöung“ kann man auch von der „Materie“ nichts mehr „sehen“, da sie ja schon aus meiner Sicht in den Quantenfeldern enthalten ist.
              Falls es in diesem Prozess auch noch durch Umstrukturierung, Neukopplung, etc. eine Veränderung in der „Strukturdichte“ (Wolfgang) und damit in der „Informationsdichte“ (Tononi) entstehen würden, hätte man auch einen Grund über eine algorithmische Informationstheorie oder einer strukturenrealistischen Evolutionstheorie nachzudenken. Wichtig bei derlei spekulativem Vorgehen ist allerdings immer der Abgleich mit der Wirklichkeit. Soll heißen, wenn ich hier aus dem Essay zitieren darf:

              „Die genetischen Algorithmen der Evolutionary Graph Theory werden wiederum in der Stochastischen Evolutionäre Dynamik verwendet, um dort populationsgenetische und epidemiologische Simulations-Modelle in silico durchzuspielen. Ziel hierbei ist es die Evolutionäre Dynamik zum Beispiel von Bakterienstämmen in vitro besser abzubilden und hieraus Rückschlüsse auf die Selbstorganisation von Leben zu erreichen.“

              Ohne diese empirischen Daten bliebe es bei einem „jeu de syllogismes scolastique“, das mit Kants „leerer Metaphysik“ gleich zu setzen wäre.

              Vielen Dank für Ihr Interesse und
              viele Grüße

              Dirk Boucsein

            1. Ich habe mir das Konzept der „Abiogenese“ (chemische Evolution) mal auf Wiki durchgelesen (den Begriff kannte ich noch gar nicht, danke für den Tipp ;-). Ich würde sagen, nein. Das Konzept scheint von einem rein zufälligen Modell des alten „trial an errrors“ auszugehen. Bei einem „Glied eines Moleküls aus einer von 20 möglichen Aminosäuren besteht, gibt es mehr als 20^300 Möglichkeiten.“ Ohne die Annahme eines „genetischen Algorithmus“, welche die Kolmogorow-Komplexität in Form einer probabilistischen Heuristik berücksichtigt, wäre Evolution ein „kaum“ zu schaffendes „Projekt“.

              1. Auf die Gefahr hin, dass ich bereits Gesagtes wiederhole: Evolution, und zwar nichtprobabilistische, beginnt erst mit der Vollendung der Autopoiese, also der Struktur, die wir Leben nennen und die sich aktiv und selbständig reproduziert und im Raum bewegt. Alles davor ist reine Chemie. Dass sich Moleküle zusammengefundenn haben und diesen chemischen Prozess in Gang gesetzt haben, ist reiner Zufall, der nur dadurch eingeschränkt wird, dass diese Moleküle auf der Erde eben vorhanden waren bzw. sich bilden konnten.
                Könnten die Lottozahlen, die den letzten Jackpot geknackt haben, reden, würden sie sagen, ‚das kann doch kein Zufall sein‘.
                Hier muss man Zufall unterscheiden von der Zwangsläufigkeit und Logik, die Leben ausmacht und die gar nicht von inneren Zufällen getrieben sein kann. Es wäre ein Widerspruch in sich.

              2. Herr Dr. Stegemann und Herr Boucsein, ich möchte noch auf ihre letzten Kommentare antworten. Ich denke, hier kommt es auf eine wichtige Unterscheidung an. Zum Thema „Geist und Materie“ oder auch „Was ist fundamental? Geist oder Materie?“ würde ich mich später nochmal äußern oder ich schreibe selbst einen Beitrag. Da könnte ich ja Artikel von euch verlinken.
                Ich möchte hier jetzt nochmal zur Vergegenwärtigung die Unterscheidung zwischen chemischer „Evolution“ (hab ich bewusst in Anführungszeichen gesetzt) und Evolution auf der Ebene der Spezies betonen.
                Das Zitat am Anfang des Artikels beschreibt ja folgendes: „Um ein einziges mittelgroßes menschliches Protein zu erschaffen, musste die Evolution mehr als 300 Aminosäuren in der richtigen Reihenfolge zusammenfügen. Das könne kein Zufall gewesen sein. Denn da jedes Glied eines Moleküls aus einer von 20 möglichen Aminosäuren besteht, gibt es mehr als 20300 Möglichkeiten, so ein Protein aufzubauen. Neben einer solchen Zahl wirkt selbst die Anzahl der Atome im beobachtbaren Universum vernachlässigbar klein.“ Leider hat Jordana Cepelewicz keine Quelle für dieses Zitat verlinkt, doch scheint mir, wie gesagt, diese Wahrscheinlichkeitsrechnung die chemische Ev zu betreffen und nicht Evolution auf Zell – bzw Speziesebene. Warum? Die Bildung eines korrekt gefalteten Proteins durch Zufallsprozesse, stellt sich ja nur ausserhalb der Zelle, i.e. im abiotischen Umfeld. In der Zelle wird das ja durch die Genexpression geleistet und durch Chaperone unterstützt. Wenn es zu Sequenzverändernden Mutationen kommt, dann passieren die nicht probalistisch im Protein sondern in der Basensequenz des Gens. Die Problemstellungen bei der Abiogenese (vom Stein zum Sein) wurden übrigens nicht nur
                von Kreationisten oder ID-Vertretern dargestellt sondern auch von Leuten wie Fred Hoyle (Das intelligente Universum, 1984, Seite 12, 17, 23) oder (mit Chandra Wickramasinghe, Evolution aus dem All, 1981, Seite 34, 35) oder Cyrus Levinthal (Levinthal-Paradox) “ Hintergrund des Problems ist die kombinatorische Vielzahl möglicher Faltungen eines Proteins, die mit der Länge der Aminosäurekette exponentiell zunimmt. Selbst wenn jeder Aminosäurerest nur 2 Zustände annehmen könnte, gäbe es bei einer Proteinlänge von n Aminosäuren 2 n 2^{n} mögliche Faltungsvarianten. Würde eine Änderung der Konformation etwa 10 − 13 {\displaystyle 10^{-13}} Sekunden benötigen, so bräuchte ein 150 Aminosäuren langes Protein 2 150 ⋅ 10 − 13 s = 1 , 4 ⋅ 10 32 s {\displaystyle 2^{150}\cdot 10^{-13}\,\mathrm {s} =1{,}4\cdot 10^{32}\,\mathrm {s} }, also über 10 24 10^{{24}} Jahre, um aus allen möglichen Konformationen die optimale zu finden (siehe Zeitkomplexität).
                Tatsächlich aber wird die physiologisch gefaltete native Form meist schnell eingenommen, in Sekundenbruchteilen bis Minuten, und Proteine haben oft nur eine Halbwertszeit von wenigen Stunden bis Tagen. Die Faltung kann also nicht durch ein zufälliges Ausprobieren aller Möglichkeiten erklärt werden. Vielmehr gibt es natürliche Mechanismen, welche die Ausbildung der optimalen Faltung begünstigen.“ Wikipedia
                Unter den natürlichen Mechanismen können hier nur die Prozesse in der Zelle gelten, die ihrerseits aber einer Erklärung bedürfen. Insofern ist das Phänomen ontologisch nicht aufgeklärt. Auf dem Weg zum Leben gibt es einige ernste Ei-Henne Probleme, davon ist das DNA-Protein-Problem nur eins.

                Herr Stegemann schrieb: „Auf die Gefahr hin, dass ich bereits Gesagtes wiederhole: Evolution, und zwar nichtprobabilistische, beginnt erst mit der Vollendung der Autopoiese, also der Struktur, die wir Leben nennen und die sich aktiv und selbständig reproduziert und im Raum bewegt. Alles davor ist reine Chemie. Dass sich Moleküle zusammengefundenn haben und diesen chemischen Prozess in Gang gesetzt haben, ist reiner Zufall, der nur dadurch eingeschränkt wird, dass diese Moleküle auf der Erde eben vorhanden waren bzw. sich bilden konnten.“
                Im Wesentlichen ist das das, was ich gerade ausgeführt habe. Nur muss ich der letzten Schlussfolgerung widersprechen, da für eine Abiogenese wegen der unglaublichen Unwahrscheinlichkeiten und der Paradoxien und Probleme,die sich hier ergeben, eine naturalistische Entstehung von Leben höchst unwahrscheinlich erscheint. Deshalb haben manche eine Lösung in der Panspermia-Theorie gesucht, andere wollen das Problem mit dem Multiversum lösen.

                1. Sie schreiben, dass „eine naturalistische Entstehung von Leben höchst unwahrscheinlich erscheint.“
                  Genau deshalb habe ich das Beispiel mit den Lottozahlen gebracht, deren Eindruck wäre (vorausgesetzt sie könnten denken), dass ihre Existenz kein Zufall sein könne.
                  Mit Ihrer Argumentation können Sie alles, was existiert, infrage stellen und behaupten, das könne kein Zufall sein. Für uns ist Leben überwältigend und daher möchten wir es nicht dem Zufall zuschreiben. Für irgendeine andere Existenzform ist (unser) Leben nichts besonderes und durchaus Produkt des Zufalls. Nehmen Sie 10 hoch 300 Würfel und betrachten das Ergebnis. Es ist so komplex, dass Sie sagen werden, das kann kein Zufall sein und Sie berechnen die Wahrscheinlichkeit auf 1: 19 hoch 300 und nehmen das dann als Beweis für eine nicht naturalistische Ursache.

                  1. Sehr geehrter Herr Stegemann, sie schrieben: „Mit Ihrer Argumentation können Sie alles, was existiert, infrage stellen und behaupten, das könne kein Zufall sein.“ Mit einer hypotetischen Anzahl von Versuchen/Würfen ohne Abgleich zu den realen Bedingungen, kann man aber auch alles zum möglichen oder sogar gewissen Zufall erklären. Ohne Realbezug haben wir in beiden Fällen eine metaphysische Vermutung.Schauen wir uns aber die tatsächlichen Berechnungen an, kommen wir auf eine Anzahl von Versuchen/Würfen, die das Alter des Universums weit übersteigen, geschweige denn in den geologischen Zeitramen passen würden. Zudem sprach ich ja von Paradoxien, die gar nicht probalistisch zu lösen sind.

                  2. Mit ihrem Beispiel der fiktiv denkenden Lottozahlen beziehen sie sich offensichtlich auf das anthropische Prinzip. Sicher spielt die Beobachterposition eine gewisse Rolle. Ich weiß aber nicht, was sie damit meinen: „Für irgendeine andere Existenzform ist (unser) Leben nichts Besonderes und durchaus Produkt des Zufalls.“? Ich gehe davon aus, dass eine Spezies, die über vergleichbare kognitive Fähigkeiten verfügt und das Konzept des Zufalls versteht, sich nicht leichtfertig mit dieser Antwort zufriedengibt. Ohne Bezug zu den realen Bedingungen ist die Annahme von Zufall zunächst eine metaphysische Vermutung. Wenn man überall Zufall voraussetzt, wo keine andere Erklärung verfügbar ist, könnte ich auch ad hoc Gott einsetzen. Hier können sie sich dem Problem dann abduktiv nähern.
                    Das war aber nicht meine Argumentation. Wir hatten gesehen, dass die Menge der Kombinationsmöglichkeiten und die nötige Zeit für eine heuristische Lösung das Alter des Universums übersteigt. Das war aber nicht meine Argumentation. Wir hatten gesehen, dass die Menge der Kombinationsmöglichkeiten und die nötige Zeit für eine heuristische Lösung das Alter des Universums übersteigt (Zeitkomplexität). Geschweige denn das wir das im entsprechenden geologischen Zeitraum unterbringen. Deshalb nehmen ja viele zu Pansperma oder Multiversum Zuflucht. Beides hat kaum empirische Evidenz, ist aber als Spekulation akzeptabel, auch wenn es mich nicht überzeugt.
                    Zudem habe ich einige Paradoxien, intrinsische Widersprüche angeführt, die gar nicht probabilistisch erklärbar sind, jeweils bisher nicht. Das Selektionsproblem bei der chemischen Evolution ist zudem ein ganz anderes als bei biologischer Evolution, weil sie hier keine Abgeschlossenheit gegenüber der Umwelt haben (Racemat).

                    1. Hallo Herr Stoyan,
                      wenn Sie sagen, dass eine bestimmte Komplexität in einer bestimmten Zeit nicht möglich sei, beinhaltet dies eine teleologische Annahme von Entwicklung. In einer offenen Entwicklung gibt es solche Beschränkungen nicht.
                      Teleologische Entwicklungen deuten immer auf eine Ursache hin, die außerhalb des Entwicklungsrahmens steht. In diesem Fall wäre das intelligentes Design. Für dieses gibt es keinerlei Beweis, für eine offene Entwicklung dagegen unzählige.
                      Gegen intelligentes Design zu argumentieren, macht erfahrungsgemäß keinen Sinn, so dass wir an dieser Stelle den Diskurs beenden sollten.

  2. Dirk Boucsein hat sehr schön gezeigt, dass und wie mathematische Modelle kombiniert werden müssen, um Leben beschreiben zu können. Damit überwindet er die Eindimensionalität physikalistischer und damit reduktionistischer Ansätze.
    Und er hat gezeigt, dass probabilistische Vorstellungen des Mutationsgeschehens absurd sind. Leider sind diese in der Molekularbiologie immer noch state of the art. Ich halte sie für die unsinnigsten in der modernen Naturwissenschaft. Man hat hier zufällig erscheinende Phänomene für ihre Erklärung gehalten. Auch ein Zeichen dafür, dass man in der Biologie lediglich physikalische Methoden anwendet, statt die eigenen zu entwickeln. Die dürften sich nämlich nicht auf die Analayse der Bausteine beschränken, sondern müssten – anders als in der Physik – auch die Strukturen analysieren, denn diese sind systembildend für Leben. Denn Leben ist nunmal nichts anderes als Struktur. Erst durch die Struktur werden tote Bausteine lebendig. Ignoriert man das, wird man komplexe Probleme wie etwa Krebs nie verstehen.

  3. Im Artikel wurde über die Integrated Information Theory (IIT) von Tononi und Kollegen im Bezug auf das Leben folgendes geschrieben:

    “Methodisch möchte ich mich im Folgenden an dem Formalismus und Begrifflichkeit der „Integrated Information Theory“ IIT (2004 – 2014) von Guilio Tononi„orientieren, die zwar eigentlich eine mathematische Theorie zur Konstitution von Bewusstsein ist, sich aber aufgrund ihres informationstheoretischen Formalismus aus meiner Sicht auch zur Beschreibung der Konstitution von Leben eignet.”

    Dazu habe ich zwei Fragen, die wohl nicht einfach zu beantworten sind, dennoch würden mich Antworten interessieren.

    Tononi beschreibt stets dass der mit seinem Informationsbegriff (Phi) nicht Shannon’s measure of information bzw. Shannon’s Informationsbegriff meint. Frage: was meint Tononi mit Information? Ich werde aus seinen Artikeln nicht schlau.
    Wie steht dieser Informationsbegriff (was auch immer er in der IIT ausdrücken soll) in Verbindung zum Leben? Wie können Shannon’s Informationsbegriff (inklusive der Entropie) weder für das Leben definieren, geschweige denn überhaupt messen.

    Philipp

    1. Man findet hier eine gute Erklärung für den Unterschied: „Vor einen Bildschirm, welcher abwechselnd hell aufleuchtet und dunkel wird, können sowohl ein Mensch als auch eine Photodiode, etwa in einer Kamera, die beiden Zustände erkennen. Der Unterschied liegt darin, wie viel Information erzeugt wird: Die Photodiode erkennt ‚hell‘ oder ‚dunkel‘ und erzeugt so 1 bit Information.[Shannon,W.S.] Ein Mensch unterscheidet ‚hell‘ nicht nur von ‚dunkel‘, sondern von einer ungeheuren Vielzahl von anderen Möglichkeiten, z. B. einem roten Bildschirm, einem grünen Bildschirm, einem Filmeinzelbild, einem Geräusch, einem Gedanken usw. Während die zahllosen Photodioden einer Kamera voneinander unabhängig arbeiten, fällt das menschliche Gehirn seine Unterscheidungen als integriertes System. Wie sehr man es auch versucht, man kann die bewusste Wahrnehmung beispielsweise eines roten Apfels nicht auf separate Empfindungen seiner Farbe und seiner Form reduzieren.(Wikipedia).
      Mit Leben hat der Begriff insofern zu tun, als Leben sich immer weiter differenziert und somit die integrierte Information immer weiter ansteigt.

      1. Danke für die Antwort.

        Shannons Informationsbegriff bezieht sich nicht auf den Inhalt der Information; der Begriff Information entspricht also nicht dem Verständnis von „Information“ das in der Alltagssprache vorkommt.

        Zwei Punkte zu dem genannten Beispiel: “Photodiode, etwa in einer Kamera, die beiden Zustände erkennen. Der Unterschied liegt darin, wie viel Information erzeugt wird: Die Photodiode erkennt ‚hell‘ oder ‚dunkel‘ und erzeugt so 1 bit Information.[Shannon,W.S.] ”

        Die Information im Sinne Shannons ist Teil des Systems, des Objekts, oder des Prozesses und unabhängig vom Beobachter und durch die zugrundeliegende Wahrscheinlichkeitsverteilung bestimmt.
        Wenn wir zwei Zustände haben, also beispielsweise „hell“ und „dunkel“ und die Wahrscheinlichkeit 50-50 beträgt, dann muss ich eine binäre Frage stellen um herauszufinden ob der Zustand gerade „hell“ oder „dunkel“ ist. So kann ich fragen „ist der Zustand hell?“. Die Antwort lautet „ja“ oder „nein“ und dann ist das „Rätsel“ gelöst. In diesem Fall entspricht dies H = 1 im Sinne Shannons (oder eben ein Bit).

        Tononi (und auch Koch) betonen gerne dass ihr Phi oder IIT Informationsbegriff aber nicht der Shannon Entropie entspricht, so wie bereits oben geschrieben. Das genannte Beispiel mit der Farbe die nicht von ihrem Objekt trennbar ist bezieht sich auf den erlebten Inhalt, hat also tatsächlich nichts mit dem Informationsbegriff von Shannon zutun.

        Mir stellt sich nach wie vor die Frage: was meint Tononi spezifisch mit Information; in welchem seiner Artikel ist dies verständlich erklärt; wäre ein Artkel zu empfehlen?

        Theoretisch mag die Anwendung auf das Leben annehmbar sein, um es neutral auszudrücken. Ich sehe nur keine Möglichkeit wie dies für das „Leben“ oder den Organismus als Gesamtsystem zu messen wäre. Es bleibt also theoretisch auf sehr abstraktem Niveau. Auch Tononis Phi wird je nach Messmethode ja abweichen – das EEG oder MEG bringt andere Phi Ergebnisse für den gleichen Prozess zutage als beispielsweise fMRI. Die gemessene „Information“ (was auch immer Tononi damit letztendlich meint) ist so objektiv nicht bestimmbar, da sie allein schon von dem Messinstrument maßgeblich beeinflusst wird.

        1. Tononis Informationsbegriff unterscheidet sich von dem Shannons in genau der oben beschriebenen Weise. Der Entropiebegriff wird bei Tononi eher im Sinne der Interpretation des zweiten Hauptsatzes der Thermodynamik durch Prigogine verstanden, bei dessen nichtlinearer Thermodynamik offener Systeme Entropie exportiert wird, wodurch diese abnimmt, anstatt wie bei Boltzmann (in einem geschlossenen System) stetig anzusteigen.

        2. Hochverehrter Sir Lancelot, lieber Philipp,

          vielen Dank für Deinen sehr interessanten Kommentar und Deine konstruktive Kritik und Fragen, auf die ich gerne ein paar Zeilen (es werden bestimmt wieder mehr ;-)) antworten möchte.

          Zunächst einmal ein paar einleitende, erklärende Worte zu unserem wohlgeschätzten „Tononi und Kollegen“ mit seiner wohlfeilen „Integrated Information Theory (IIT)“, auf die wir schon des Häufigeren in unserer Tafelrunde eingegangen sind. Leider hattest Du aber bei dem Zitat aus meinem Artikel den erläuternden Anfang weggelassen, daher möchte ich dies hier noch einmal nachholen:
          „Der Fokus des neuen Paradigmas für die Evolutionsbiologie sollte aus meiner Sicht stärker auf dem Konzept der Polykontexturalität nach Gotthard Günther liegen, um den struktural-dynamischen Prozess zur Entstehung von Leben besser beschreiben zu können.“

          Soll heißen, ich habe die IIT von Tononi nur rein im Sinne eines real-praktizierten Strukturenrealismus benutzt, da der Formalismus und die Begrifflichkeit seiner Theorie für die strukturale Beschreibung der Stochastischen Evolutionären Dynamik in der Evolutionary Graph Theory mir ganz hilfreich erschien. Es ging mir um die Struktur der IIT mit ihren Axiomen und Postualten, aber ausdrücklich nicht um deren Inhalt. Darauf habe ich aber auch bereits zu anfangs hingewiesen:

          „Unter der Prämisse, dass die zuvor genannten mathematischen Beschreibungsmodelle, wie z. B. aus der Evolutionary Graph Theory eine adäquate Simulation der Evolutionären Dynamik in der Natur abbilden können, würde dies einen ganz neuen Zugang zum Verständnis von Evolution eröffnen. Das bisherige Paradigma in der Evolutionsbiologie geht bislang von einem Dualismus eines „innen vs. außen“, „Organismus vs. Umwelt“, „Adaption vs. Speciation„, u.s.w. aus, der immer im Sinne einer Abgrenzung zum „tertium non datur„ der klassischen Systemtheorie (George Spencer-Brown, Niklas Luhmann) als „Differenz„ betrieben wird.“

          Dieses alte Paradigma des Dualismus als Differenz von „innen vs. außen“ verwendet nämlich Tononi in seiner IIT im Sinne der klassischen Systemtheorie (George Spencer-Brown, Niklas Luhmann), wenn er von einer „integrierten Information“ ausgeht, „welche als Unaufspaltbarkeit von Information interpretiert werden kann“ (http://people.het.physik.tu-dortmund.de/~hpaes/IITText.pdf , S.5).
          Hier ist ein tertium (quadrium, pentium, …) datur definitiv nicht zugelassen, da dies auch der Beschreibung in Form der Informationstheorie widersprechen würde. Ich würde nach wie vor sagen, hier liegt ein klassischer Fall von Reduktionismus und anschließendem Formalismus vor, der die Komplexität als mereologischen Fehlschluss reduziert mit dem Ergebnis der Unterdeterminiertheit empirischer Theorien durch die Evidenz, Hierauf weist Du in Bezug auf das Bewusstsein ja auch hin:

          „Auch Tononis Phi wird je nach Messmethode ja abweichen – das EEG oder MEG bringt andere Phi Ergebnisse für den gleichen Prozess zutage als beispielsweise fMRI. Die gemessene „Information“ (was auch immer Tononi damit letztendlich meint) ist so objektiv nicht bestimmbar, da sie allein schon von dem Messinstrument maßgeblich beeinflusst wird.“

          Zusammengefasst: Mir ging es vielmehr darum eine Beschreibungssprache zu finden, die zur strukturalen Beschreibung der Stochastischen Evolutionären Dynamik in der Evolutionary Graph Theory geeignet schien. Es ging mir nicht um eine „IIT des Lebens“, wenn schon eher um eine „PIT (polykontexturale Informationstheorie) des Lebens“ als Strukturenrealismus. Aber diesen „Spagat“ konnte ich scheinbar nicht genügend ausformulieren. Der Text müsste daher vielleicht nochmal nachgeschliffen werden.

          Zu Deiner Frage, was Tononi mit „Information“ meint, kann ich mich Dir nur anschließen. Aus seinem Artikel zur IIT mit dem dazugehörigen mathematischen Formalismus werde ich auch nicht schlauer. In seiner Erläuterung zur IIT steht jedenfalls Folgendes, was Du aber wahrscheinlich auch schon gelesen hattest:

          „Information
          The system must specify a cause-effect structure that is the particular way it is: a specific set of specific cause-effect repertoires—thereby differing from other possible ones (differentiation). A cause-effect repertoire characterizes in full the cause-effect power of a mechanism within a system by making explicit all its cause-effect properties. It can be determined by perturbing the system in all possible ways to assess how a mechanism in its present state makes a difference to the probability of the past and future states of the system. Together, the cause-effect repertoires specified by each composition of elements within a system specify a cause-effect structure. Consider for example, within the system ABC in Figure 3, the mechanism implemented by element C, an XOR gate with two inputs (A and B) and two outputs (the OR gate A and the AND gate B). If C is OFF, its cause repertoire specifies that, at the previous time step, A and B must have been either in the state OFF,OFF or in the state ON,ON, rather than in the other two possible states (OFF,ON; ON,OFF); and its effect repertoire specifies that at the next time step B will have to be OFF, rather than ON. Its cause-effect repertoire is specific: it would be different if the state of C were different (ON), or if C were a different mechanism (say, an AND gate). Similar considerations apply to every other mechanism of the system, implemented by different compositions of elements. Thus, the cause-effect repertoire specifies the full cause-effect power of a mechanism in a particular state, and the cause-effect structure specifies the full cause-effect power of all the mechanisms composed by a system of elements.[8] 8^ While the notion of information in IIT is faithful to the etymology of the term (giving “form”), it differs substantially from that in communication theory or in common language (Oizumi, Albantakis et al. 2014, supplementary material S3). Also, in IIT information and causation go together: there cannot be observer-independent information without mechanisms having cause-effect power, and there cannot be causation without a repertoire of alternatives.“ (http://www.scholarpedia.org/article/Integrated_information_theory)

          Hierbei ist die Fußnote viel interessanter als der ganze informationstheoretische Text. Es geht ihm bei dem Begriff der „Information“ also nicht um die Kommunikationstheorie, wie sie später im Shannon-Weaver-Modell verwendet wurde, darauf hast Du ja auch schon hingewiesen. Es geht ihm m. E. vielmehr um einen Begriff der Informtion im Sinne einer algorithmische Informationstheorie von Gregory Chaitin. Und hier kommt auch wieder der schon diskutierte Kolmogorow mit seinem Reduktionismus als Kolmogorow-Komplexität ins Spiel.

          Zu Deiner Frage: „was meint Tononi spezifisch mit Information; in welchem seiner Artikel ist dies verständlich erklärt; wäre ein Artkel zu empfehlen?“ Da habe ich von dem Großmeister ehrlich gesagt auch nichts Konkretes als Artikel gefunden. Eine Sekundärliteratur „Integrated Information Theory“ von der Physikalischen Abteilung der Uni Dortmund http://people.het.physik.tu-dortmund.de/~hpaes/IITText.pdf ist hier schon etwas aufschlussreicher:

          „Die entscheidende Größe in Tononis Arbeit zur Quantizierung von Bewusstsein ist die integrierte Information, welche als Unaufspaltbarkeit von Information interpretiert werden kann. Dazu muss zunächst der Informationsbegri deniert werden. Dazu betrachtet Tononi Mechanismen, die in diskreten Zeitschritten die zeitliche Entwicklung eines Zustandes bestimmen. (S. 5) […] Größe seiner Arbeit die integrierte Information: Information is integrated if it cannot be partitioned into independent components. Wird ein Mechanismus in zwei Teilmechanismen unterteilt, kann das zur Folge haben, dass sich die induzierten Wahrscheinlichkeitsverteilung für Zukunft und Vergangenheit verändern.

          Genau diese Differenz wird als integrierte Information deniert. Da es jedoch viele mögliche Aufteilungen für einen Mechanismus gibt wird zur Bestimmung der integrierten Information diejenige Aufteilung gewählt, die die integrierte Information minimiert. (S. 6) ( http://people.het.physik.tu-dortmund.de/~hpaes/IITText.pdf)
          Ich würde mal sagen, von der Duhem-Quine-These ist in der IIT nicht viel zu finden ;-).

          Aber noch viel aussagekräftiger sind die Worte Tononis in einem Interview auf Yotube https://www.youtube.com/watch?v=sYtr8h6Mz5I, wo er sich mal konkret zu „What is information“ äußert.
          Hier nur ein paar Schnipsel als O-Ton aus dem Interview: „intrinsic information from the persepctive of the systems itself – without an observer -> the difference that makes the systems to itself -> the difference that makes the difference -> the difference that makes the difference for a system is mathematical descibed in IIT -> internal phenomenolgy -> Galileo: we need mathematics to describe the world, to describe the system inside against the outside -> the language of mathematics -> description of the physical world and the description of the consciousness is only possible in mathematical structures“ (https://www.youtube.com/watch?v=sYtr8h6Mz5I)

          Hier wird doch schon recht schnell deutlich, wo der Zug hingegehen soll. Aus meiner bescheidenen Sicht steht auf dem Schild der Endhaltestelle „Panpyschismus“, vielleicht sogar eher „Solipsismus“, aber auf alle Fälle „Reduktionismus“ und „Neurozentrismus“ ;-).

          Ich denke insofern hat sich Deine Frage „Wie steht dieser Informationsbegriff (was auch immer er in der IIT ausdrücken soll) in Verbindung zum Leben? Wie können Shannon’s Informationsbegriff (inklusive der Entropie) weder für das Leben definieren, geschweige denn überhaupt messen.“ schon erledigt, da es, wie gesagt, nicht um die IIT als Modell für Evolutionstheorien ging, geschweige denn um eine Informationstheorie mit „Shannon’s Informationsbegriff (inklusive der Entropie)“. Es ging, wie geschrieben, um eine Betrachtung der Evolutionstheorien aus strukturenrealistischer Sicht. Wenn ich hier nochmal aus meinem Essay „Das neurozentristische Weltbild“ zitieren darf:

          „Leben bedeutet hier ein Entgegenwirken der Entropiezunahme, die aus dem 2. Thermodynamischen Hauptsatz entsteht:

          „Für lebende Organismen scheint der zweite Hauptsatz der Thermodynamik indes nicht zu gelten. In ihnen laufen Prozesse ab, die mit einer Verringerung der Entropie einhergehen. So gesehen wären alle Lebewesen Inseln der Ordnung in einem Meer von Unordnung. Denn sie besitzen die einzigartige Fähigkeit, sich selbst zu strukturieren und die dabei erzeugte innere Ordnung an die nächste Generation weiterzugeben. Stellt man sich gar auf den Standpunkt der biologischen Evolution, dann entsteht aus vorhandener Ordnung neue Ordnung, entwickeln sich aus weniger komplexen immer komplexere Organismen.“(Martin Koch: „Was ist Leben? https://www.neues-deutschland.de/artikel/1101908.erwin-schroedinger-was-ist-leben.html)

          Und um diese „innere Ordnung“ zu beschreiben, halte ich den Strukturenrealismus durchaus geeignet; vielleicht auch mit dem probabilistischen Instrumentenkasten der Evolutionary Graph Theory. Ist aber eigentlich nur als Gedankenanstoß gemeint, da wir dies bestimmt in unserer Tafelrunde noch genauer diskutieren werden.

          Liebe Grüße
          Dirk

  4. Ihr evolutionärer Strukturenrealismus erinnert mich fatal an das Ptolemäische Weltbild mit seinen Epizyklen und Deferenten, mit dem Unterschied, daß Ihrem Modell der Anschauungsgegenstand abgeht. Ptolemäus war aber nicht der Erfinder des nach ihm benannten Weltbildes, sondern dessen Verfeinerer. Er versuchte eine im Ansatz falsche Theorie von Appolonius von Perge (das heliozentrische Weltbild) durch Verkomplexisierung zur ‚Wahrheit‘ zu verhelfen.

    Ja, ich halte Darwins Theorie für falsch – wie ALLE wissenschaftlichen Modelle, die Vorgänge in geschichtlich-grammatikalischer Zeit beschreiben. Der Übergang vom Modell zur Theorie gelang Newton, denn seine Gesetze der Bewegung sind keine Beschreibung eines Geschehens in der Zeit sondern die Prinzipien einer jeden Bewegung, denn die klassische Mechanik und Wellentheorie sind invariant gegenüber Verschiebungen in historischer Zeit. Einsteins Gleichungen beschreiben zwar die Bewegung der Planeten eine Klitzekleinigkeit genauer als die klassische Mechanik, aber um den Preis des Rückfalls zum Modellgedanken. Die Entwicklung des Weltalls vom Urknall bis heute ist wieder die Beschreibung eines Geschehens in historischer Zeit. Und das ist, genau wie es das heliozentrische Weltbild war, eine Frage des Glaubens (und im Moment entbehrt es wegen substantiell Fehler Masse im Universum sogar jeder Grundlage). Der Vorteil der Newtonschen Theorie war und ist, daß sie jedermann auf alle nur möglichen Probleme der Bewegung im Bereich der Erfahrung! (Kant) anwenden kann.

    Wenn ich das Darwinsche Modell (es ist keine Theorie) ablehne, dann aus genau DIESEN und nicht aus anderen Gründen. Wissenschaft kann keine Vorhersagen in historischer Zeit machen, weil die Zukunft unbedingt und unwandelbar offen ist. Das einzige, was die Zukunft uns zu bieten hat, ist die Abweichung von der Erwartung, d.h. die Abweichung vom klassischen Wissen des DASS. Dies hat zur Folge, daß es keine Zeitgestalten gibt, wie es Raumgestalten gibt. Das sind Ideen der Romantiker. Es geht in der Wissenschaft nicht darum Fragen zu beantworten oder Erklärungen zu geben, sondern Antworten auf Fragen zu geben, die nie jemand gestellt hat. Wissenschaft besteht meiner Meinung nach darin, über alles Wissen ABSOLUT hinauszugehen um so die Abweichung von der Erwartung zu eliminieren ohne dabei das schon Gewußte zu beschädigen. Den Begriff Revolution halte ich in der Wissenschaft für unbrauchbar und zerstörerisch. Der Leibnizsche Begriff der Entfaltung hingegen könnte einen „ignoranten Strukturenrealismus“ beinhalten, bei dem Ontologie und Epistemologie zusammenfallen in „Was sich ABSOLUT nicht widerspricht existiert! Den Anspruch auf ABSOLUTE Widerspruchsfreiheit kann die Logik nicht leisten – aber vielleicht die Orthogonalität.

    Mit freundlichen Grüßen,

    Heinz Luediger

    1. Lieber Herr Luediger,

      vielen Dank für Ihr Interesse an meinem Artikel und Ihren Kommentar, auf den ich hier kurz eingehen möchte.

      Das ist schade, dass mein „evolutionärer Strukturenrealismus“ Sie an das „Ptolemäische Weltbild“ erinnert, denn eigentlich sollte der Artikel eher von „Evolutionstheorien aus strukturenrealistischer Sicht“ handeln und aus Sicht eines „Neurozentristischen Weltbild“ (https://philosophies.de/index.php/2021/04/25/neurozentristische-weltbild/) gesehen werden. Das Neurozentristischen Weltbild gehört übrigens ebenso, wie das ptolemäische, gewendet, aber bitte nicht mit „Epizyklen und Deferenten“; einmal wenden reicht vollkommen aus ;-).

      Das ist schon mal sehr schön, dass Sie „Darwins Theorie für falsch“ halten, auch wenn ich dies für ein wenig zu extrem halte, da sich einige Punkte der Theorie doch bis heute haben retten können.
      Der Hinweis „wie ALLE wissenschaftlichen Modelle, die Vorgänge in geschichtlich-grammatikalischer Zeit beschreiben“ stellt insofern aber nichts Neues dar, da dies bereits von Perry Laudan als Pessimistische Metainduktion (PMI) in seinem Aufsatz „A Confutation of Convergent Realism“ als Argument gegen den wissenschaftlichen Realismus angeführt worden ist. In „Laudans-Liste“ steht zwar noch nicht „Darwins Evolutionstheorie“, aber würde auch nichts ändern, da es hier ja um „Evolutionstheorien aus strukturenrealistischer Sicht“ ging und nicht nur um Darwins.

      Ihren Hinweis „Wissenschaft besteht meiner Meinung nach darin, über alles Wissen ABSOLUT hinauszugehen um so die Abweichung von der Erwartung zu eliminieren ohne dabei das schon Gewußte zu beschädigen.“ Könnte ich so unterschreiben, wenn da nicht ihr Absolutismus in Majuskeln wäre. Alles, was „ABSOLUT“ ist, klingt für mich dogmatisch und führt m. E. nur in ein „Münchhausen-Trilemma“ und mehr absolut nicht.

      Ihren Einwand: „„Was sich ABSOLUT nicht widerspricht existiert! Den Anspruch auf ABSOLUTE Widerspruchsfreiheit kann die Logik nicht leisten – aber vielleicht die Orthogonalität.“ halte ich ebenfalls für sehr problematisch, da er von der Physik recht schnell in die Metaphysik wechselt; ohne doppelten Boden der Logik. Sich bei diesem „Hochseilakt“ nur auf die Mathematik zu verlassen, wirkt auf mich ein wenig schwindelerregend. Zumindest hätten Sie aber mit der Orthogonalität schon mal den sicheren Boden des Strukturenrealismus betreten ;-).

      In diesem Sinne
      viele Grüße

      Dirk Boucsein

      1. Vielen Dank für Ihre Antwort auf einen provokativ geschriebenen und gemeinten Kommentar! Unsere Überzeugungen, die ich als szientistisch ihrerseits und fundamentalkritisch meinerseits beschreiben würde, liegen viel zu weit auseinander, als daß ein produktiver Austausch über Detailfragen möglich wäre.

        Statt dessen habe ich ein paar Fragen:

        Soweit ich sie gelesen habe, haben die bei Ihnen veröffentlichten Beiträge keinen Bezug zur philosophischen Denkern von den Parmenides über Platon und Aristotles bis zu Cusanus, Decartes, Kant, Hegel, Derrida, Deleuze oder Meillassoux, ob in Übereinstimmung, Widerlegung oder wenigstens Diskussion.

        I) Warum heißt diese Website ‚philosophies.de‘ und warum der Plural?

        Ein Großteil der obigen Denker hat sich intensiv mit dem Problem des ABSOLUT Neuen auseinandergesetzt, zuletzt Quentin Meillassoux, der versucht, es aus Cantors transinfinite Mengen herzuleiten. Man muss diesen Ideen nicht zustimmen, was aber das Problem als solches aber nicht aus der Welt schafft, denn Descartes gelang mit der orthogonalen Erweiterung der planeren (2D) griechischen Geometrie der Ausbruch in die ABSOLUT neue dritte Dimension. Diese ließ die planare Geometrie unverändert – und änderte doch ALLES. Ich könnte mit Newton, Mendelejew, Mendel und Maxwell weitere Beispiele der Einführung ABSOLUTER Neuigkeiten anführen, deren ABSOLUTE Neuigkeit nicht in Inhalten, sondern in Strukturen bestand.

        II) Haben die oben aufgeführten Denker nur Geistesmüll produziert, so daß ihre Überlegungen mit dem Kampfbegriff ‚Metaphysik‘ einfach vom Tisch gewischt werden können?

        Die Beiträge zum Strukturenrealismus auf Ihrer webpage sind logisch affirmativ. Der Kritikpunkt Hegels an der konventionellen Logik war, daß die Inhalte des Wissens von sich selbst aus existieren, an das die Logik als an-sich inhaltsleeres Denken erst herangetragen wird. Mit anderen Worten, das Wissen geht der Logik voran. Logik ist demnach second-hand-business, Welterschaffung’ in zweiter Instanz.

        III) Welches Problem löst der evolutionäre Strukturenrealismus? In welchem Sinn ist er mehr als ‚yet another opinion, another castle in the air?

        Mit freundlichen Grüßen,

        Heinz Luediger

        1. Lieber Herr Luediger,

          vielen Dank für Ihren Kommentar und Ihre Rückfragen.

          Ich weiß zwar nicht, ob wir beide in die „szientistischen“ und „fundamentalkritischen“ Schubladen passen, aber ist auch nicht so wichtig, da es ja mehr um die Sache und nicht um die Personen gehen sollte. Gerne möchte ich aber Ihre Fragen beantworten.

          Zu I): Meine Seite heißt „philosophies“, da ich auch häufiger Leser aus dem englischen oder französischen Sprachraum habe. Der Plural kommt von dem Untertitel meiner Seite „Freunde der Philosophien“, da ich der Überzeugung bin, dass es nicht nur eine Philosophie gibt, sondern deren viele.

          Zu II): Nein, ich denke „die oben aufgeführten Denker“ haben nicht „nur Geistesmüll produziert“, sondern unterliegen ebenfalls wie die Naturwissenschaft einer erkenntnistheoretischen Evolution und müssen daher auch aus ihrem historischen Kontext betrachtet werden.
          Ich hatte Sie ja bereits auf die Pessimistische Metainduktion für die Naturwissenschften von Laudan hingewiesen. Die gleiche evolutionäre Entwicklung meine ich auch in den geisteswissenschaftlichen Disziplinen erkennen zu können.

          Zu III): Der „evolutionäre Strukturenrealismus“ löst gar kein Problem, weil es ihn einfach nicht gibt. Ich hatte Sie ja bereits in meiner letzten Antwort darauf hingewiesen, dass der Artikel sich mit der „Evolutionstheorie in einer strukturenrealistischen Betrachtung“ beschäftigt. Daher wäre m. E. der Begriff einer „strukturenrealistischen Evolutionstheorie“ angebrachter.
          Das Problem, das sie lösen könnte, wären die Probleme, welche die Darwinsche oder die Lamarcksche Evolutionstheorie bis heute nicht schlüssig lösen konnten. Ich hatte die Probleme auch bereits in meinem Artikel benannt.

          Vielen Dank für Ihr Interesse und
          viele Grüße

    2. Hallo Herr Luediger,

      Sie schreiben u.a. dass es “… in der Wissenschaft nicht darum [geht] Fragen zu beantworten oder Erklärungen zu geben, sondern Antworten auf Fragen zu geben, die nie jemand gestellt hat.”

      Ich finde diese Ansicht zu extrem und möchte kurz erklären warum ich das so sehe.

      Die allermeisten Wissenschaftler (und auch Philosophen), hier meine ich weit über 99,99%, werden diesem hohen Ideal niemals gerecht werden. Die Allermeisten werden niemals eine Publikation mit dieser Tragweite anfertigen können. Tragen reguläre wissenschaftliche Arbeiten, also Arbeiten die sich mit bereits gestellten Fragen beschäftigen, nicht möglicherweise auch ihren Teil dazu bei dass neuartige Fragen entstehen auf die revolutionäre Ideen folgen, geschweige denn für die Vermehrung von Wissen das durch andere Wissenschaftler nutzbar wird?

      Daneben existiert ein Unterschied zwischen mitunter sehr hohen Abstraktionen des wissenschaftlichen Geschehens (sowie der Geschichte der Wissenschaft) aus der Perspektive der Wissenschaftsphilosophie und der realen Praxis in Wissenschaften.

      Um nur ein Beispiel aus der Bandreihe zu nennen: heute nutzen Editors in angesehenen Journalen mitunter machine-learning Systeme für die Analyse eingereichter wissenschaftlicher Arbeiten hinsichtlich deren möglichen „Klickzahlen und Umsatzgenerierung“. Bevorzugt wird angenommen und publiziert was sich an aktuelle Trends richtet und die Sprache dieser Trends nachahmt.

      Fragen zu stellen die der Masse noch nicht in den Sinn kamen, ja sogar Antworten auf diese mitzuliefern, und diese richtungsweisend noch zu publizieren, kann zu einer Lebensaufgabe werden. Denn die Masse muss die Fragen und zusätzlich die Antworten auch noch verstehen.
      Die allerwenigsten Wissenschaftler besitzen weder die passende Persönlichkeitstruktur, das Durchhaltevermögen, noch die Kraft gegen ein solches System anzukämpfen um die vermeintliche Heilsbotschaft durchzubringen.

      Mein Kritikpunkt ist dass deskriptive Erörterungen was Wissenschaft sei und normative Ansprüche wie sie vorzugehen hat aus einem Elfenbeinturm stammen können dessen Ansprüche in der realen Praxis zerschellen.

      Die Anlegung bestimmter Wissenschaftsphilosophischer Positionen kann weniger anspruchsvoll sein als die praktische Durchführung in der realen Wissenschaft.

      Philipp

  5. Wolfgang und Dirk,

    danke für eure Antworten. Ich habe mich nochmals mit einem Kollegen unterhalten der sich intensiver mit Tononis IIT auseinandergesetzt und auch einen Freund hat der in Tononis Gruppe arbeitet. Tononi nutzt wohl insbesondere die Lempel-Ziv complexity (LZC) um die Komplexität bzw. Unsicherheit in time-series/Zeitreihen Aufzeichnungen von neuroimaging Daten zu berechnen.

    Beispielsweise wurde TMS genutzt und die Auswirkung des TMS auf das Gehirn (und somit auf die LZC) zu berechnen. Dies wurde dann „pertubational complexity index“ genannt. Man berechnet also wie die LZC sich von A nach B verändert.

    Die LZC ist, soweit ich das sehe, entfernt mit Berechnungen wie approximate Entropy (ApeEn) oder Sample Entropy (SampEn) etc. vergleichbar. Man sollte sich nur von den Begriffen nicht in die Irre leiten lassen, da all diese Berechnungen rein gar nichts mit Entropie zutun haben. Denn der Begriff der Entropie bzw. das Konzept dieser, den ja leider bereits Shannon dank von Neumann wählte, hat nichts damit zutun was diese Variablen messen und man hätte sie besser anders nennen sollen, so wie damals Shannon besser schon bei „Information“ anstelle von „Entropie“ geblieben wäre.

    Allgemein besteht auch für die LZC das „Problem“ dass die berechneten Messwerte maßgeblich zwischen den verschiedenen imaging Modalitäten auseinandergehen. Und für das Gehirn oder Nervensystem als Gesamtsystem sind time-series Aufzeichnungen nicht möglich und daher auch LZC und co nicht berechenbar. Ist das ein Problem? Ich weiß es nicht, da ich Tononis Argumentation dagegen (die es sicher geben würde) nicht kenne.

  6. Dear S.-A.,

    thank you very much for your inquiry.

    First of all, the structural realist model for describing evolutionary theories merely provides a new level of description for the phenomenon of evolution. It does not yet claim to have ontological status. The „empirical advantage“ lies in the fact that with the help of structural realism the described evolution theories can be translated into genetic algorithms by a mathematical formalism in the form of Bayes networks and Markov blankets.

    The genetic algorithms can then be used in turn in Stochastic Evolutionary Dynamics with the help of Evolutionary Graph Theory to run population genetic and epidemiological simulation models in silico. The goal is to better reproduce the evolutionary dynamics of, for example, bacterial strains in vitro and to draw conclusions about the self-organization of life and to develop evolutionary theories that have a greater empirical adequacy and equivalence than Darwinian theory.

    If you are interested in this topic, I would like to refer you to the website of the research group „Stochastic Evolutionary Dynamics“ of the Max Planck Institute in Munich: https://www.evolbio.mpg.de/3255700/groupstochdyn.

    Thank you very much for your interest and
    best regards

  7. P. R.,

    Again, thanks for the link. Just a very quick comment if I could. The 5 basic principles of Evolutionary biology
    1. evolution as such, the mutability of species ;
    2the common descent of all living beings;
    gradualism , change through tiny steps;
    Propagation of species or speciation in populations
    and natural selection as the main, though not the only, mechanism of evolution

    -> Yep, d’accord !

    Can we add two principles?
    6. As negentropy systems, life acts the most efficient way of reducing the free-energy present in the environment (macro and micro). That is, organic complexes lock energy up in bond formation. Normally the reductionist approach would assume that the free-energy, thermal and/or chemical gradients, would be disbursed by diffusion-like processes. But if the local environment is large enough, the diffusion may be slow enough to permit the development of organic complexes.

    -> Okay, but only under the condition that entropy must be seen not only from an energetic-thermodynamic aspect, but also from a structural-process aspect, because entropic state changes can also occur without energy minimization.

    As systems that process the the environment, life is most likely when it modifies the environment in a positive manner that fosters life. Which is rather circular but the idea of life modifying its environment seems valid.

    -> Absolutely okay too, since it’s not circular reasoning, it’s one and the same. Life and environment are a structurally coupled and cannot be considered separately.

    To 6.: entropic state changes can also occur without energy minimization.“ are you thinking of protein folding?

    That might be an example. But I meant this much more general, because the term entropy from thermodynamics is logically always connected with energy. Therefore life is always gladly represented as a biological principle as an evolutionary adaptation of the body to its environment under energetic aspect.

    The advantage coming to bear here would always aim at a minimization of the amount of free energy as „homeostasis“, which would result from the discrepancy of the self-preservation of the system against the supposed chaos of the environment. This general principle of minimizing the amount of free energy can be generally considered as an essential characteristic for all living organisms. Life here means counteracting the increase in entropy that arises from the 2nd law of thermodynamics:

    „For living organisms, meanwhile, the second law of thermodynamics does not seem to apply. In them, processes take place which are accompanied by a reduction of entropy. Seen in this way, all living organisms would be islands of order in a sea of disorder. For they possess the unique ability to structure themselves and to pass on the inner order generated in the process to the next generation. If one even takes the standpoint of biological evolution, then new order arises from existing order, less complex organisms develop into more and more complex ones“ (Martin Koch: „What is life? https://www.neues-deutschland.de/…/1101908.erwin…)

    But I would like to see entropy from a structural-processual point of view, where an open system can achieve advantages from the increase of structuring even without a negative energy balance, because redundancies occur.

    As an example the „Kolmogorov complexity“ is mentioned, which is also used for the development of „genetic algorithms“. Should mean shortened, why should nature „reinvent the wheel every time“ and not fall back on „tried and tested“? This is then not necessarily a gain of energy but a gain of time.

    Many greetings

Ich würde mich über einen Kommentar von Euch sehr freuen.