Entzauberung der Entropie

Zoomposium mit Prof. Dr. Arieh Ben-Naim: „Entzauberung der Entropie“

Zoomposium mit Prof. Dr. Arieh Ben-Naim: „Entzauberung der Entropie“

Informationen zur Person und seiner wissenschaftlichen Arbeit

In einer weiteren Folge in unserer Zoomposium-Reihe“ zum Thema „Physik und ihre Grenzen  hatte mein Kollege Axel Stöcker vom „Blog der großen Fragen“ und ich die Möglichkeit mit dem renommierten israelischen physikalischen Chemiker Prof. Dr. Arieh Ben-Naim ein Interview zum spannenden Thema „Entzauberung der Entropieführen zu können.

Arieh, der am 11. Juli 1934 geboren wurde, hatte über 40 Jahre einen Lehrstuhl für Physikalische Chemie an der Hebrew University of Jerusalem, wobei sein Hauptforschungsgebiet hauptsächlich in dem Bereich der Theorie der Struktur von Wasser, wässrigen Lösungen und hydrophob-hydrophilen Wechselwirkungen lag. Hierbei befasste er sich hauptsächlich mit theoretischen und experimentellen Aspekten der allgemeinen Theorie von Flüssigkeiten und Lösungen. In den letzten Jahren hat er sich für den Einsatz der Informationstheorie eingesetzt, um die statistische Mechanik und die Thermodynamik besser zu verstehen und voranzubringen.

In diesem Zusammenhang hat er sich auch intensiv mit der Frage nach dem Wesen und dem zugrundeliegenden Prinzip des Phänomens der „Entropie“ beschäftigt, das er in zahlreichen oft zitierten aber auch kontrovers diskutierten populärwissenschaftlichen Büchern veröffentlicht hat, wie z. B.:

Der Grundtenor in all seinen Veröffentlichungen und Vorträgen ist, dass wir ein neues Grundverständnis in Bezug auf das Phänomen der Entropie benötigen. Die Entropie, welche ursprünglich aus den Gesetzen der Thermodynamik und hier insbesondere dem 2. Hauptsatz entspringt, wurde aus Ariehs Sicht missbräuchlich und falsch als Konzept auf andere Bereiche der Physik, Biologie, alltägliches Leben übertragen, wie z. B.:

  • Die Interpretation von Ordnung und Unordnung
  • Die Assoziation von Entropie mit Ausbreitung/Dispersion/Aufteilung
  • Entropie als Information; Bekanntes und Unbekanntes, Sichtbares und Unsichtbares und Unwissenheit
  • Entropie als Maß für die Wahrscheinlichkeit
  • Entropie als Maß für Irreversibilität
  • Entropie als Gleichgewichtszustand
  • Die Verbindung von Entropie und Zeit
  • Boltzmanns H-Theorem und die Saat eines enormen Missverständnisses über die Entropie
  • Kann Entropie definiert und das zweite Gesetz auf lebende Systeme angewandt werden?
  • Entropie und Evolution
  • Anwendung der Entropie und des Zweiten Gesetzes auf das gesamte Universum
  • (Quelle: Entropy and Information Theory: Uses and Misuses“ (2019))

An der langen Liste ist vielleicht zu erkennen, für was Entropie schon alles herhalten musste. In diesem Zusammenhang hatte ich ja auch bereits in einem zurückliegenden Essay „Eine strukturierte Geschichte der Zeit“ auf „Doc Snyder’s Schlangensalbe“, die Entropie verwiesen, da sie immer dann komischerweise in der Physik oder physikalischen Chemie auftaucht, „wenn’s brenzlig“ wird, wenn das „Latein zur Erklärung aufgebraucht“ ist. Hier hatte ich auch schon Arieh zitiert in Bezug auf den angeblichen „Zeitpfeil“, der mit der Entropie zusammenhängen solle:

„Der israelische Professor Arieh Ben-Naim für physiklische Chemie kommt zu einem ähnlichen Ergebnis bei der forensischen Prüfung des angeblichen abgeschossenen „Zeitpfeils“:

„In my view it is far from clear that an Arrow of Time exists [34]. It is also clear that entropy is not associated with randomness, and it is far from clear that entropy always increases. Therefore, my conclusion is that entropy has nothing to do with time!“ (Arieh Ben-Naim: Entropy and Time, S. 11, https://www.mdpi.com/1099-4300/22/4/430)“

Insofern war es doch endlich mal an der Zeit (Bonmot 😉) den Autor selber einmal zu seinen bahnbrechenden Thesen zu befragen, die eine veränderte Sicht auf das Phänomen der Entropie werfen oder vielleicht besser gesagt die Entropie wieder an ihren Ursprungsort zurückholen. Arieh versucht in seinem Ansatz nämlich die Idee der Boltzmann Entropie im Sinne einer Definition auf der Grundlage der Gesamtzahl der Mikrozustände zurückzuführen:

S = kB log W

Wobei kB eine Konstante ist, die heute als Boltzmann-Konstante (1,380 × 10-23 J/K) bekannt ist, log der natürliche Logarithmus und W die Anzahl der zugänglichen Mikrozustände des Systems ist.

Diesen klassischen Ansatz aktualisiert er allerdings, in dem er die Entropie auf der Grundlage des Shannonschen Informationsmaßes (SMI) definiert:

H = K pi log pi

Wobei H die Shannon-Entropie  hier jeder Wahrscheinlichkeit p eines Ereignisses und dessen Informationsgehalt

I (z) = − log2 ⁡pz

zugeordnet ist.

Aber bevor es hier zu theoretisch und mathematisch wird, ist es vielleicht besser, wenn wir uns die ganze Sache einmal von Arieh genauer erklären lassen. Dazu hatten wir ein Interview auf Englisch mit ihm geführt, wo er unsere Fragen bezüglich der Entropie einmal genauer erläutert. Hier schon einmal die Interviewfragen auf Deutsch.

Interviewfragen: „Entzauberung der Entropie“

1. Lieber Arieh, in Deinem bekannten Buch „Entropy Demystified – The Second Law Reduced to Plain Common Sense” (World Scientific, 2007) beschäftigst Du Dich sozusagen als MythBuster und räumst mit dem „Mythos von der Entropie“ auf. Hierzu zeigst Du anhand von einfachen Wahrscheinlichkeitsberechnungen, dass Entropie keinesfalls ein Mysterium ist, sondern sich mit dem einfachen Menschenverstand erklären lässt.

● Könntest Du uns vielleicht einmal in einer nicht ganz ernst gemeinten Abwandlung eines Zitates aus Deinem Buch erklären: „Wir können also probabilistische Argumente anwenden, die denen eines Würfelspiels ähneln, d.h. es gibt ein Zufallselement, das jedem der Teilchen eine „Chance“ gibt„” (ebd., S. 181, übersetzt mit DeepL), wie wir Dich zu einem Interview mit Zoomposium bewegen konnten oder vielleicht auch eine Absage von Dir bekommen hätten.

● Welchem „glücklichen Würfelwurf” verdanken wir es denn, dass Du so freundlich warst unsere Anfrage zu einem Interview anzunehmen? Glaubst Du an Zufälle im Leben?

2. In Deinen zahlreichen Büchern zu diesem Thema, z. B. ENTROPY: The Greatest Blunder in the History of science“ (2021) oder „Best Sellers Selling Confusion on Entropy, Information, Life and The Universe“ (2021) versuchst Du die „alten Denkmuster“ (Maß an Unordnung, Zeitpfeil, Irreversibilität von Prozessen, Leben als Negentropie, Zunahme der Entropie im Universum, etc. pp.) zum Begriff der Entropie aufzubrechen und durch ein einfacheres Konzept, das sich an der Shannon’schen Informationstheorie orientiert, zu ersetzen.

● Könntest Du Dein Konzept der Entropie einmal genauer erläutern und an einigen Beispielen verdeutlichen, wie lässt sich Deiner Meinung zum Beispiel die physikalische Größe „Zeit“ oder die biologische Evidenz „Leben“ mit einer anderen Sicht auf die Entropie erklären?

3. Du schreibst in Entropy Demystified„Man könnte das Zweite Gesetz nicht von unten nach oben ableiten, selbst wenn es niemals eine Ableitung von oben nach unten gegeben hätte. Denn die Wissenschaft wird es nicht für nötig halten, ein physikalisches Gesetz zu formulieren, das auf rein logischer Deduktion beruht.“ (ebd., p. 244, übersetzt mit DeepL)

● Welche Konsequenzen müsste Deiner Meinung nach in den Modellen und Konzepten der modernen Physik hieraus gezogen werden? Brauchen wir eine „Neue Metaphysik“ für die Physik?

Wir bedanken uns ausdrücklich bei Dir, lieber Arieh, dass Du Dir die Zeit für unser Interview genommen hast, um unsere Fragen zu beantworten.

Das vollständige Interview ist auf unserem Youtube-Kanal „Zoomposium“ unter folgendem Link zu sehen:

https://youtu.be/Km88EreH4A8

© Axel Stöcker („Die großen Fragen“), Dirk Boucsein („philosophies.de“), Philipp Klar

Ich bin immer mit meiner „Diogenes-Lampe“ unterwegs, um Menschen zu finden, die sich auch nach ein wenig „Licht der Erkenntnis“ sehnen. Also wenn Ihr eigene Beiträge oder Posts für meinen Wissenschaft-/Philosophie-Blog habt, immer her damit. Sie werden mit Eurem Namen als Autor auf meiner Seite veröffentlicht, so lange sie den oben genannten Kriterien entsprechen. Denn nur geteiltes Wissen ist vermehrtes Wissen.
0 0 votes
Article Rating
Abonnieren
Benachrichtige mich bei
guest

 

22 Comments
Inline Feedbacks
View all comments
Wolfgang Stegemann
Wolfgang Stegemann
2 Monate zuvor

Welchen Zeitbegriff meint Ben-Naím? Es gibt mindestens drei Zeitbegriffe:
1. den der Relativitätstheorie, der besagt, dass je schneller sich ein Objekt im Raum bewegt, desto langsamer altert es.
2. den eines Dynamischen Systems. Nur hier hängt Zeit mit Entropie in der beschriebenen Weise zusammen. Allerdings trifft das nicht auf Lebewesen zu, denn diese importieren und exportieren Entropie, die Zeit ist davon unabhängig.
3. die individuelle Zeit. Sie ergibt sich aus der Schnelligkeit, mit der Reize verarbeitet werden. Das Ergebnis sind kleine oder größere Zeiteinheiten.

Es gibt nicht einen einzigen Zeitbegriff.

Holger Fischer
1 Monat zuvor

@Wolfgang Stegemann

Da wir alle nicht wissen, was „Zeit“ wirklich ist, wurden viele Begriffe erfunden, die toll klingen. Wahrscheinlich liefern all diese Begriffe in Wirklichkeit allerdings keine echten Erklärungen. Schon immer wurde über den Begriff „Zeit“ gerätselt – und bis heute gibt es keine zufriedenstellende und allgemeingültige Antwort ->

https://www.mythologie-antike.com/t213-chronos-gott-der-zeit-aus-der-mythologie-der-orphiker

Roswitha Steffens
1 Monat zuvor
Reply to  Holger Fischer

Das Wort Zeit zu definieren, würde ihre Fülle begrenzen und damit der Fülle dessen nicht gerecht werden, was sie bereits zu erfüllen in der Lage war. Die Form der Vergangenheit wird zur From der Gegenwart, solange sie an Zeit gebunden ist. Dafür gilt es die kleinste Einheit in ihrer höchsten Form der Entwicklung anzusprechen, sodass sie sich des Inhalts aus ihrem Verhältnis zur Gegenwart bewusst wird und ein neues Ziel aus neuer Fülle definieren kann. In ihrer Vorgabe ist Zeit einzig auf das Datum begrenzt, dem sie in ihrer Form durch seine Geburt verbunden bleibt.

Somit ist Zeit die Trägerin einer Fülle, die sich in ihrem Wandel zum Ausdruck bringt und damit ein Lebenssystem begründet, dessen Fortschritt unabhängig jeglicher Vorgaben in einen Entwicklungsprozess eingebunden ist, der unter ihren Bedingungen erwachsen ist.

Sobald dieser Entwicklungsprozess in all seinen Lebensformen angelegt ist, präsentiert sich Zeit als tragfähiges Informationssystem der Einheit, die sich in ihrer Vielfalt auf allen Ebenen eines Universums durchsetzen konnte, indem es Verbindung mit der Potenz hält, aus der sie generiert, wer der Intelligenz gewachsen ist, die das Leben fortsetzen will und sich dabei auf ihre noch unbekannte Fülle einlässt.

So wächst Zeit in ihrem Ursprung aus einem Datum heran, das sich an ihrer Geburt erfüllen kann, indem sie als Quelle ihres geistigen Ursprung erhalten bleibt und damit in seiner Form den weiteren Weg auf sich nimmt. Dazu fällt mir nur das Bewusstsein ein, in dem sie sich entfalten könnte, ohne begrenzt zu sein.

Ich hoffe sehr, mit meinen Ausführungen zur Zeit kann ich Gedanken anregen, die bisher nicht zutage treten wollten, weil sie in ihrem Widerspruch nicht so herausgefordert wurden, dass sie sich in Worte fassen ließen. Aus meinem Zeitgefühl erwachsen viele Dinge, die ich in ihrer Form so noch nicht kenne, doch ich denke, sie sind der Grund für eine Hoffnung, die sich in meiner Sehnsucht nach ihrem Leben zum Ausdruck bringt. Zeit ist damit bereits für alle Lebensformen so angelegt, dass sich damit ihr ewiger Bestand vermitteln lässt. Was sich nicht vermitteln lässt, dass ist ihr ewiges Leben, denn das besteht aus dem, was selbst der Zeit noch verborgen ist und damit im Ungewissen bleibt, bis seine Gewissheit ihren Weg zur Einheit nachvollziehen kann.

Wolfgang Stegemann
Wolfgang Stegemann
1 Monat zuvor

@Holger Fischer:

Nicht nur der Begriff Zeit wurde von Menschen erfunden, sondern alle anderen auch. Diese Begriffe enthalten keine intrinsischen Wahrheiten, sondern beziehen sich auf Dinge, die wir beschreiben. Mit dem Begriff Zeit wurden verschiedene Dinge und Zusammenhänge beschrieben. Es gibt also nicht d i e Zeit, ebenso wenig wie es d i e Wahrheit gibt.

Aber ich denke, es geht in dem Interview hauptsächlich um Entropie. Warten wir das ganze Interview ab. Aber auch hier gibt es die Shannonsche und die Boltzmannsche Entropie, und jede hat ihre Bedeutung, je nachdem um was es geht.

Die Shannon-Entropie eignet sich für lebende Systeme weniger bis gar nicht, da es bei der Shannon-Entropie um die Reduzierung von Ungewissheit geht, bei der Boltzmann-Entropie um den geordneten Zustand eines Systems.
Die Shannon-Entropie weist eher auf das Konzept der freien Energie hin und damit auf lebende Systeme als Vorhersagemaschinen. Der damit verbundene Informationsbegriff ist also eher ein Wahrscheinlichkeitsbegriff.
Boltzmann-Entropie hingegen bezeichnet das Maß an Unordnung und lässt sich im Rahmen von Entropieimport und -export besser anwenden. Der damit verbundene Informationsbegriff sagt etwas über die Strukturiertheit eines Systems aus.
Wenn von einem lebenden System die Rede ist, dann ist seine Gesamtheit gemeint. Bei einzelnen Teilaspekten kann die Shannon-Entropie nützlich sein.

Die Entropie der neuronalen Spiking-Aktivität kann verwendet werden, um Komplexität und Informationsgehalt von neuronalen Signalen zu messen.
Dies kann helfen, die Funktionsweise neuronaler Netze und die Kodierung von Informationen im Gehirn zu verstehen.
Oder man verwendet sie für die Analyse von EEG- und MEG-Daten, um verschiedene Hirnzustände, wie z.B. Wachheit, Schlaf und Aufmerksamkeit, zu charakterisieren.

Es macht also keinen Sinn, die eine gegen die andere auszuspielen.

Holger Fischer
1 Monat zuvor

@Wolfgang Stegemann

DIE WAHRHEIT kann es natürlich nicht geben. Dies war aber auch schon in der Antike bekannt. Ich gehe davon aus, dass wir uns im Dualismus befinden. Im Dualismus muss es immer konkrete Gegenüberstellungen geben, Beispiele:

Licht Dunkel
Gut Böse
Wahrheit Lüge

Es war schon in der Antike bekannt, dass der Wahrheit (Aletheia, Veritas) die Lüge gegenübergestellt werden muss:

„In einer Fabel des Äsop wird Aletheia von Prometheus erschaffen. Äsop wird als antiker griechischer Dichter von Fabeln und Gleichnissen überliefert. In dieser Fabel heißt es, dass Prometheus Aletheia aus Ton formte. Bevor Prometheus der Aletheia Leben einhauchte, erschuf Dolos eine exakte Kopie der Aletheia. Dieser Kopie fehlten jedoch die Füße, weil dem Dolos der Ton ausgegangen war.

Leben einhauchen

Prometheus fand beide Arbeiten sehr gut und hauchte seiner Aletheia (Wahrheit) und der Kopie des Dolos Leben ein. Die echte Wahrheit des Prometheus – Aletheia – hatte Füße und konnte laufen. Die Kopie des Dolos kam nicht vom Fleck und wurde zur Lüge (lateinisch mendacium = deutsch -> „lügen“)…. und deshalb haben Lügen kurze Beine…(der Lüge fehlen die Füße).“ ->

https://www.mythologie-antike.com/t482-aletheia-mythologie-gottin-der-wahrheit

Philipp
Philipp
1 Monat zuvor

Hallo Wolfgang,

soweit ich Ben-Naim aus seinen Büchern und Papern verstanden habe bezieht er sich normalerweise bzw. meistens auf die objektiv messbare Zeit, d.h. die Zeit die wir mit Instrumenten messen. Er gibt auch zu dass die Frage danach was Zeit letztendlich ist eine metaphysische Frage ist auf die es keine klare Antwort geben kann; zumindest keine auf die wir uns alle einigen würden. Er ist hier also nicht dogmatisch sondern relativ offen (zumindest habe ich ihn so gelesen).

Seine Bücher sind mitunter sehr empfehlenswert, besonders „Entropy demystified“. Er ist auch sehr symapthisch. Leider war das Interview etwas chaotisch, man kam eigentlich kaum zu Wort. Ich hoffe Axel hat es so geschnitten dass es für die Zuhörer noch nachverfolgbar und interessant genug ist. Ich habs relativ schnell aufgegeben was fragen oder sagen zu wollen. 😀

Wolfgang Stegemann
Wolfgang Stegemann
1 Monat zuvor

Hallo Dirk,
daher sagte ich, dass die Boltzmann-Entropie für das lebende Gesamtsystem geeignet ist, da es sich dabei um ein thermodynamisches System handelt, während man die Shannon-Entropie verwenden kann, um die Komplexität lebender Systeme in ihren einzelnen Elementen zu quantifizieren.

Philipp
Philipp
1 Monat zuvor

Es gibt ja inzwischen endlos viele Entropemaße um die Komplexität beispielsweise von physiologischen Zeitreihen zu berechnen. (Review hier: https://www.ncbi.nlm.nih.gov/pmc/articles/PMC7916845/pdf/entropy-23-00222.pdf)

Letztendlich bestimmt man damit aber nur wie hoch die Variabilität des Signals ist. Höhere Entrope = mehr Variabilität; geringer Entropiewert = Mehr Regularität (jedenfalls bei den meisten dieser Messungen).

Die meisten dieser Entropiemaße bauen letztendlich auf der uralten Shannon-Entropie auf, sind aber oftmals besser da sie mathematisch weiterentwickelt wurden. Die alte Shannon Entropie würde ich für physiologie Zeitreihen z.B. nicht mehr nehmen, sondern eher Sample Entropy, Multiscale entropy, etc.

Was Ben-Naim daran kritisieren würde ist dass diese Entropiemaße alle rein gar nichts mit der Entrope in der Physik zutun haben. Der Name ist also stark irreführend und man sieht es selbst in wissenschaftlichen Papern manchmal dass die Autoren meinen dass ihr Entropiemaß tatsächlich was mit „der“ Entropie zutun hätte, oder dann sogar das Buch von Schrödinger in der Introduction zitieren (alles schon gesehen…).

Laut Ben-Naim hätte Shannon sein Maß besser niemals Entropie genannt (die Geschichte erzählt ja bekanntermaßen dass er das aufgrund der Empfehlung von von Neuman tat).

Stimme dem persönlich zu; man hätte den Begriff der Entropie für diese ganzen Maße besser niemals eingeführt da es teilweise nur zu Verwirrungen geführt hat.

Holger
Holger
1 Monat zuvor
Reply to  Philipp

man hätte den Begriff der Entropie für diese ganzen Maße besser niemals eingeführt da es teilweise nur zu Verwirrungen geführt hat.“

Es geht immerhin darum, uns mit tollen Wörtern im „Wissen“ zu wägen, obwohl es sich nicht um „Wissen“ handelt, sondern nur um Wörter, zusammengesetzt aus Buchstaben.

Heinz Luediger
Heinz Luediger
1 Monat zuvor
Reply to  Philipp

Rudolf Clausius prägte den Begriff der Entropie (von gr. entrepein=umwandeln) als Maß für die Umwandelbarkeit einer Energieart in eine andere. In der klassischen Thermodynamik ist diese empirische! Größe z.B. im Carnot Prozess wichtig. Soweit alles gut.

Boltzmann sucht und findet eine theoretische Erklärung der Entropie in der Anzahl der micro states (W), die den macro state eines Gases ausmachen (S=k log(W)). Im Gegensatz zur Maxwell-Boltzmann Verteilung verläßt diese Definition den Boden der Anschaulichkeit und kann als Beginn der theoretischen Physik gesehen werden. Die Formel der ‚Entropie’ gewinnt damit eine universelle, informationstheoretische Bedeutung, entzieht sich aber gleichzeitig jeder vernünftigen Deutung. In Plancks Strahlungsgesetz, das letztlich die ‚Kollision‘ von Teilchen und Welle begründet, spielt die Informationstheorie eine noch größere Rolle. 

Shannon trennt die Bedeutung (den Sinn) einer Nachricht von ihrer symbolischen Darstellung und Übertragung. Warum er den mittleren Informationsgehalt eines Zeichens einer Datenquelle Entropie nennt, darüber mag man streiten, aber die Bedingungen, unter denen sie gilt, scheinen mir extrem wichtig. Die Berechnung der Shannon Entropie setzt voraus, daß zwischen Sender und Empfänger ein Alphabet vereinbart ist, dessen Symbole und deren Wahrscheinlichkeitsverteilung auf BEIDEN Seiten bekannt ist. Erst dadurch wird es möglich Bedeutung (Sinn) zu übertragen. Diese Bedingung ist aber nur bei menschgemachten Übertragungssystemen erfüllt, denn der Sinn der Nachricht wird erst durch das Wissen um die Funktion der Übertragungsanlage gerettet. Ähnlich wie in Searles ‚Chinese Room‘ Argument gegen Computerintelligenz geht der Sinn einer Nachricht nicht durch den ‚Chinese Room‘, sondern IST der ‚Chinese Room‘. Rein formal ist die Shannon Entropie auf vieles anwendbar, ob sie auch immer Sinn macht, da habe ich so meine Zweifel.

Philipp
Philipp
1 Monat zuvor
Reply to  Heinz Luediger

Hallo Heinz,

man kann dazu noch ergänzen dass die Berechnung der von mir oben angesprochenen „Entropiemaße“ an Wolfgang Stegemann zur Berechnung der Entropie in Lebewesen (von physiologischen Zeitreihen) Parameter benötigen die individuell eingestellt werden müssen.

Beispielsweise bei Sample Entropy sind diese Parameter die embedding dimension (m), ein Toleranz threshold/eine Art noise filter (r), sowie der time delay (tau).

Mit unterschiedlicher Einstellung dieser Parameter bekommt man alle möglichen Resultate heraus. Welche Einstellung optimal ist lässt sich so einfach nicht sagen, sondern die Parameter müssen immer an die Eigenschaften der time-series angepasst werden. Beispiel aus den Neurowissenschaften: eine EEG time-series bedarf ganz anderer Parameter als eine fMRI time-series. Es gibt aufwendige Simulationsstudien in denen versucht wurde möglichst „optimale“ Paramter zu finden um z.B. zwischen verschiedenen Dynamiken der time-series (aka Zuständen des physiologischen Systems) mit Entropymaßen systematisch unterscheiden zu können.

Unterm Strich will ich damit nur verdeutlichen dass das alles eben rein gar nichts beispielsweise mit der Anzahl der micro states (Boltzmann, ist mir alles bekannt) zutun hat.

Es ist viel eher mit Messungen wie Lempel-Ziv complexity verwandt.
Wenn es dir persönlich also um Anschaulichkeit und ich nenne es einfach mal „semantische Reinheit“ geht, dann war es ein Totalausfall den Begriff „Entropie“ bei diesen Messungen auch nur in den Mund zu nehmen.

Heinz Luediger
Heinz Luediger
1 Monat zuvor
Reply to  Philipp

Hallo Philipp,

Die ‚Entropie‘ zeigt, daß es irreführend sein kann, das Gleichheitszeichen in physikalischen Formeln als Identität aufzufassen und damit die Anwendbarkeit einer Formel überzustrapazieren, weil ihr dabei die Bodenhaftung (der Sinn) abkommt. Ich schlage daher einen kurzen Umweg vor, um dann zu Ben-Naims Thesen zurückzukehren (z.B. mit der Überlegung, daß der zweite Hauptsatz der Thermodynamik überhaupt keinen Prozess in historischer Zeit sondern eine Wissensfigur behauptet).

——————————————

Kant beginnt seine Critique mit dem Hinweis, daß es eine intrinsische Eigenschaft unseres Erkenntnisapparats ist Fragen hervorzurufen, die er aber auf Grund der Art seiner Erkenntnis prinzipiell nicht beantworten kann.

Meine ‚Übersetzung‘: die Tatsache, daß wir wissenschaftliche Fragen tatsächlich verstehen können, bedeutet nichts anderes, als daß sie interrogativ gefaßtes Wissen sind, denn sonst wären sie unverständlich. Damit sind diese Fragen aber rein rhetorisch oder auch unsinnig, weil ihre Beantwortung das schon Erkannte und damit auch die Antwort selbst devaluieren würde.

Ich habe es an anderer Stelle provokativ mal so formuliert: Wer in der Wissenschaft Fragen stellt ist selbst schuld. Wissenschaft gibt Antworten auf Fragen, die nie gestellt wurden. Alles andere ist in Kants Sinn ‚Vernüftelei‘, weil es die Erfahrung übersteigt.

Heinz

Philipp
Philipp
1 Monat zuvor
Reply to  Heinz Luediger

Hallo Heinz,

Was du mit deiner Übersetzung von Kant sagen möchtest verstehe ich.
Aber ich würde dem nicht zu 100% (immer und überall) zustimmen.

Man kann eine empirisch überprüfbare Frage stellen. Aber es ist nicht a priori klar dass das empirisch analysierte Ergebnis dieser Frage auch im Bezug auf eine bestimmte kausale Ursache verständlich sein wird. Ich weiß nicht immer und in jedem Fall warum nun Ergebnis X (statt beispielsweise Ergebnis Y oder Z) herauskam. Eventuell finde ich für Ergebnis X auch keine gute Antwort.

Wenn du natürlich Kants Metaphysik/Epistemologie voraussetzt – ja dann hast du Recht. (Ich setze bei Kant Metaphysik und Epistemologie gleich, da man nach meinem Verständnis bei Kants Tranzendentalphilosophie beides nicht mehr trennen kann bzw. beides ineinander verschmelzt.)

In Kants Transzendentalphilosophie drehen wir uns letztendlich innerhalb unseres Erkenntnisapparats im Kreis. Überspitzt formuliert, so schreibe ich es einfach mal, können wir uns hier nur selbst erkennen und verstehen. Das Ding-an-sich ist „raus“, goodbye.

Aber das setzt eben voraus dass man Kants Philosophie 1:1 „kauft“ bzw. übernimmt. Nun, ich bin kein Kantianer, auch wenn ich ihn sehr schätze…

Heinz Luediger
Heinz Luediger
1 Monat zuvor
Reply to  Philipp

Hallo Philipp,

dank für die sehr klare Stellungnahme. Du hast natürlich Recht damit, daß man mit der Akzeptanz der von mir zitierten Stelle gleich den ganzen Kant ‚kauft‘, denn aus ihr folgt als eine Möglichkeit, daß Wissen kategorial strukturiert und in der Folge notwendig a priori ist. 
Ob oder in wie weit die Antwort auf eine wissenschaftliche Frage empirisch überprüfbar ist, hängt sehr davon ab, was man unter ‚empirisch‘ verstehen will. Viele Wissenschaftler haben geglaubt Fragen zu beantworten, tatsächlich aber Forschungsbereiche, d.h. Kategorien geschaffen. Eine solche Diskussion würde jedoch den Rahmen dieses Blogs völlig sprengen. 

Aber vielleicht gibt es ja noch andere kompakte Stellungnahmen/Meinungen/Interpretationen zu: Können wissenschaftliche Fragen beantwortet werden? 

Wenn nicht, schlage ich vor zum main track zurückzukehren. Da ich Ben-Naim nicht gelesen habe, würde ich erst mal nur mitlesen.

Heinz

Philipp
Philipp
1 Monat zuvor
Reply to  Heinz Luediger

Hi Heinz,

ein Unterschied zwischen empirischen und ontologischen oder metaphysischen Fragen ist vielleicht wie folgt: Antworten auf empirische Fragen, also Lösungen, führen immer zu neuen Fragen. Man gelangt niemals an ein finales Ziel. Philosophische Fragen suchen dagegen oftmals endgültige Antworten. Sie suchen definitive Antworten auf Fragen die nicht mehr zu neuen Fragen führen würden, sondern einen Sachverhalt über das Sein endgültig klären möchten.

Heinz Luediger
Heinz Luediger
1 Monat zuvor
Reply to  Philipp

Hallo Philipp,

ich glaube schon, daß alle die selben Fragen stellen. Auch der Metaphysiker würde gern wissen was z.B. Gravitation ist, aber er weiß, daß es darauf keine Antwort gibt (geben kann und geben darf), weil sie den Gesamtkontext des Wissens (der Sprache) untergraben würde. Er sitzt also in seinem armchair und liest, denkt und kritisiert bis er (oder sein Nachfolger oder eher dessen Nachfolger) die Frage transzendiert, d.h. in einen bisher nicht gedachten größeren Zusammenhang stellt. Wenn der auf dieses neue Problem eine Antwort findet, transzendiert diese das Vorwissen und läßt es so unbeschädigt.

Das ist die Methodik der vielgeschmähten Scholastik. Sie mißt Wissen nicht an Übereinstimmung mit Tatsachen (da-draußen), sondern an innerer, sprachlicher Widerspruchslosigkeit. Denn, was sprachlich evident ist, bedarf keiner Besichtigung, und was sprachlich nicht evident ist, kann per se nicht besichtigt werden. Darin liegt ein a priori, ein kategorialer Fortschritt.

Der Empirismus hat diesen inneren Pol der ‚Wahrheitsuche‘ nach außen gekehrt, von im-Licht-des-Wissens zu im-Licht-der-Beobachtung. Das hat letztlich im Sinn Kuhnscher Wissenschaftsrevolutionen menschliches Wissen in ein Rat Race gesetzt, mit katastrophalen Folgen, wie ich denke.

Dem Metaphysiker/Scholastiker geht es n i c h t darum, das Wissen einzufrieren, sondern es zu akkumulieren, es zu erweitern und brillanter zu machen. Das habe ich versucht in meinem Ansatz eines Negativen Strukturalismus abzubilden.

schönen Sonntag,

Heinz

Philipp
Philipp
1 Monat zuvor
Reply to  Heinz Luediger

Hi,

ich glaube schon, daß alle die selben Fragen stellen.“

Das kommt auf das Thema oder breiter den Themenbereich an. Es lässt sich also nicht verallgemeinern, sondern man müsste immer konkret diskutieren um was es genau geht.

Bezüglich Sprache und Empirismus:
Es würde nur noch mehr vom Thema Entropie wegführen als ohnehin schon wenn ich dazu Stellung beziehe. Ich habe deine Beiträge auf Philosophie.ch gelesen und meine halbwegs nachvollziehen können worum es dir geht.

Nur soviel: immer wenn ich „Empirie“ oder „empirisch“ schreibe meine ich NICHT den philosophischen Empirismus, also Empirie in eine einseitige Extremposition radikalisiert.

Wir brauchen meiner Ansicht nach beides, Empirie sowie gute theoretische/philosophishe Überlegungen und dann die Verbindung beider Seite.

Dass Problem ist dass man mit einer solchen Position von zwei Seiten beschossen wird, da man zwischen den Stühlen steht. Von der einen Seite wird man von Berufsphilosophen/Metaphysikern angeschossen und nicht ernst genommen wenn sie den „logical space of reason“ ganz oben in ihre Hierarchie stellen. Empirie ist dann nur dreckige Fleißarbeit; sie ist sekundär und löst letztendlich ohnehin die großen Fragen nicht.

Von der anderen Seite feuern einseitige Wissenschaftler die zwar empirisch sehr gut ausgebildet sind, denen aber das theoretische Gebäude im Hintergrund fehlt, für die jede Theorie „fuzzy philosophy“ ist. Man kann beiden Seiten nicht gleichzeitig gerecht werden.

Roswitha Steffens
1 Monat zuvor
Reply to  Philipp

„Man kann beiden Seiten nicht gleichzeitig gerecht werden.“

Ich denke, die Empirie ist im Menschen angelegt, womit er sich der Gegenwart mit dem Infromationsgehalt nicht entziehen kann, der davon ausgeht. Durch seine Rolle (Physiker, Philosoph, Lehrer, Meister usw.) im Leben übernimmt er eine Aufgabe in genau der Form, die als Mensch dafür vorgesehen ist. Indem er ihn verkörpert und sie im Leben umsetzt, bleiben seine Daten in ihrer Form erhalten.

Im Grunde gilt es aus der Sprache der Empirie die Gemeinsamkeiten so zu exportieren, dass sie als Mensch wieder importiert werden können. Damit gewinnt die Wissenschaft ihre empirische Möglichkeit aus genau dem Leben, das in seiner Fülle bereits als Mensch angelegt ist und durch seine Identität einzig bestätigt werden kann. Dazu dienen dem Leben die Rollen, die der Mensch in seinem Sinn für die Menschheit einnimmt, bis sie selbst in der Lage ist, ihre Identität aus allen Daten der Person zuzuordnen, die dafür vorgesehen ist.

Die passende Stimme aus der Identität aller Herzen, gilt auch für den Menschen. Solange seine Geburt nicht auf den Tag genau mit ihrem Herz übereinstimmt, oder umgekehrt, geht dieser Identität Stück für Stück ihre Fülle verloren.

Genauer gesagt gilt es, das Herz des Menschen so genau zu verifizieren, dass keine Verwechslung der Daten möglich ist, deren Stimme von seiner Identität überzeugt generiert werden kann.

Fließt nicht unser ganzes Leben durch seine Stimme in das eine Herz zurück, von dem es abstammt?

Auf jedenfall könnten wir auf den Konkurenzkampf um den einzigen Wert verzichten, der bereits für alle Zeiten erfüllt, dem Leben gerecht wird, das eigentlich nur noch auf den Menschen gewartet hat.

Philipp
Philipp
1 Monat zuvor

Hallo Roswitha,

die Wissenschaft bietet keinen Trost für die Brutalität des Lebens. Etwas wirklich subtantielles für unser Herz werden wir in ihr nicht finden. Dafür würde ich zur Philosophie und eventuell Religion schauen. In der Philosophie denke ich an Philosophen wie Kierkegaard, Schopenhauer, etc.

Roswitha Steffens
1 Monat zuvor
Reply to  Philipp

Mir bietet die Wissenschaft Trost, da sie am Ende ihrer Weisheit letztendlich versucht dem gerecht zu werden, was ihr als Mensch zur Verfügung steht. Mehr kann kein Mensch tun, was mich als empirischen Teil der Wissenschaft von einem Leben überzeugen kann, das in seiner Einheit auf keinen Fall von einem Menschen abhängig ist. Dieser Trost lässt mich auf ein Leben hoffen, dem sich der Mensch letztendlich beugen wird, indem es ihn von seiner Einheit überzeugen kann.

Übrigens empfinde ich das Leben nicht als brutal! Der Mensch kann brutal sein, in seinem Überlebenskampf um eine Identität, deren Hilfe er oft nicht für sich in Anspruch nimmt.