Lesermeinung - Spektrum der Wissenschaft

Ihre Beiträge sind uns willkommen! Schreiben Sie uns Ihre Fragen und Anregungen, Ihre Kritik oder Zustimmung. Wir veröffentlichen hier laufend Ihre aktuellen Zuschriften.
  • Warum Subjektivismus, wenn es auch objektiv geht?

    02.03.2009, Norbert Hinterberger, Hamburg
    Im Spektrum-Essay wird von Robert Matthews eine für meinen Geschmack unzulässig verkürzte und zum Teil schlicht falsche Interpretation von Popper Falsifikations-Kriterium geboten. Das hat sich offenbar seit Poppers stichhaltiger Kritik an Humes resignativem Subjektivismus und an dem der Wiener Schule nicht geändert.

    Fangen wir mit den Einwänden gegen die Adäquatheit der popperschen Falsifikations-Methodologie an. Da schreibt Matthew auf Seite 74: "Ein besonders nahe liegender Einwand besagt, dass auch Astrologen, Wahrsager und Quacksalber falsifizierbare Aussagen machen, ohne dass diese dadurch wissenschaftlich würden" was natürlich richtig ist. Aber schon dieser Einwand betrifft den Falsifikationsgedanken nur als Demarkationskriterium nicht als funktionierende Methode der Kritik, denn Theorien, die wir für stabil bzw. gut gestützt halten, müssen etwas mehr als nur falsifizierbar sein, sie müssen alle ernsthaften Falsifikationsversuche überstanden haben (je mehr, desto besser) bevor wir ihnen trauen und von angemessener Stützung durch Beobachtung oder Test reden. Matthew fährt dann fort: "Aber entlarvt sie wenigstens ihr unbekümmerter Umgang mit negativer Evidenz als pseudowissenschaftlich?". Er kommt zu dem Ergebnis: nein. Er führt dazu den Konventionalisten Duhem ins Feld. Duhem hatte bekanntlich bemerkt, dass man Theorien vor Falsifikationen (also vor negativer Evidenz aus der Beobachtung) retten kann, indem man zusätzliche Hilfshypothesen aufstellt. Er behauptete überdies, dass Theorien oder einzelne Allsätze nicht separat kritisiert werden könnten.

    Diese Auffassung ist von Popper und von Gunnar Andersson wiederholt kritisiert worden: Theorien in ihrer expliziten Form müssen alle Randbedingungen und Hilfshypothesen schon enthalten, wenn sie an der Wirklichkeit getestet werden. Fügt man Hilfshypothesen erst im Falle von Falsifikationsgefahr hinzu, immunisiert man Theorien auf logisch unzulässige Weise, denn nun handelt es sich nicht mehr um die ursprüngliche Theorie, sondern um ein neues Ad hoc–Gebilde. Das erinnert nicht von ungefähr an die Gussform des No-True-Scotsman-Tricks: A behauptet, alle Schotten sind geizig. B wendet ein, dass aber doch Carnegie (mit seinen ganzen Stiftungen) nicht geizig war. Darauf erwidert B, dass Carnegie dann auch kein echter Schotte sein kann. Für B kann also schon per definitionem kein nicht-geiziger Schotte existieren. Das ist dann aber nur noch eine implizite definitorische Tautologie, die vorher nicht sichtbar war, also keine Wirklichkeitsaussage mehr, auch wenn sie noch so sehr danach aussieht. Die Kraft der falsifikativen Widerlegung wird durch beide Fälle nicht tangiert.

    Duhems zweite Vorstellung, dass hinter jeder einzelnen Theorie quasi unser gesamtes Weltwissen als Bezugsrahmen steht, ist zwar in gewissem Sinne wichtig und richtig, hindert uns aber in keiner Weise daran explizite Theorien relativ unabhängig zu kritisieren. Die Überprüfung einer Theorie kann sich in sinnvoller Weise natürlich nur auf die in ihr schriftlich fixierten Hypothesen und Randbedingungen beziehen, denn noch verfügen wir über keine "Weltformel". Ihre Prämissen und Theoreme lassen sich aber auch allesamt einzeln kritisieren durch Falsifikatoren aus der Wirklichkeit.
    Den meisten Autoren ist nicht klar, dass auch Falsifikatoren fallibel (fehlbar) sind (wie am Beispiel Einstein gegen Walter Kaufmann zu sehen: Einstein hat hier erfolgreich die falsifikativen Prämissen von Kaufmann angegriffen, die er zu Recht für theoretisch unzulänglich und im Übrigen auch falsch begründet hielt). Daher das Gerede vom Schwarz-Weiß-Sehen der Methode der Falsifikation. Eine Falsifikation wird von Popper und vom gesamten Kritischen Rationalismus/Realismus aus logischen Gründen nur als bedingte Widerlegung betrachtet, da sie von der Wahrheit der falsifikatorischen Prämissen abhängig ist - über die man sich genauso irren kann wie über alle anderen Wirklichkeits-Annahmen. Also auch falsifikative Behauptungen sind prinzipiell "theoriegetränkt", ebenso wie einzelne Theorien natürlich ein größeres metatheoretisches Umfeld besitzen – wie Duhem ganz richtig bemerkte. Trotzdem sind Erstere auf Grund ihrer fruchtbaren Asymmetrie (auch in der Einfachheit der meisten Beobachtungsaussagen) natürlich wesentlich simpler zu kontrollieren als Letztere. Deshalb kann die Methode nicht als zirkulär bezeichnet werden – es sei denn man stellt sich metatheoretisch dumm. Wenn man dagegen bei beliebigen Theorien die bayesianische Methode als "Suchrahmen" zu Gunsten der völligen Suspendierung des Falsifikationismus etablieren möchte, ist man wieder beim subjektiven Induktivismus angelangt, und der ist bei Bayes ja im übrigen sogar explizit. Man bekommt bei Wirklichkeitsaussagen ohne jegliche Falsifikationsversuche aber nie heraus, ob da nur schöne "in sich logisch konsistente Märchen" erzählt werden, oder zufällig Wirklichkeitsaspekte richtig beschrieben werden, denn bekanntlich gibt es (aus logischen Gründen: wir verfügen über kein zwingendes Wahrheitskriterium) für jede mögliche Beobachtung unendlich viele mögliche Interpretationen.

    Ganz abgesehen davon, dass der Bayesianismus von seiner Art her, Prämissen zu sammeln, eben auch nur Induktion in neuen Kleidern ist. Und wie wir seit Hume wissen schließt die Induktion nicht. Hume hat dann resignativ dazu aufgefordert sie trotzdem zu verwenden, also irrational. Er hat nicht gesehen, dass es keine unmittelbaren Beobachtungen gibt. Sie sind alle immer schon "theoriegetränkt" durch das Mittel unserer konstruktiven Vermutungen, die allesamt allgemeiner Natur und fallibel sind. Es gibt keine nichtmathematische "induktive Logik". Nur die deduktive Logik schließt korrekt, ganz einfach, weil alle ihre Schlüsse trivial sein müssen. Es darf keinen Wahrheitszuwachs geben, denn das würde Wirklichkeitsrelevanz bedeuten. Die Logik sagt aber nur etwas über korrekte Ableitungsbeziehungen von Sätzen, nichts über die Sätze selbst. Das deduktive Ableiten ist lediglich ein "Melken" allgemeiner Aussagen hin zu besonderen Konklusionen oder eine Umwandlung allgemeiner Aussagen in andere (äquivalente) allgemeine Aussagen. Bei einer deduktiven Ableitung kann nichts herauskommen, was nicht schon implizit enthalten ist. Die Regeln der deduktiven Logik sind allesamt Tautologien. Und aus denen folgt die leere Menge (der Wirklichkeitsaussagen). Man kann also mit der Logik keine Theorien entwerfen. Theorien sind immer fallible Annahmen über die Wirklichkeit, solange nicht selbst wieder formale Systeme behandelt werden. Aber die Logik liefert über den modus tollens (weiter unten erläutert) ein scharfes Instrument der bedingten Widerlegung.

    Den meisten Autoren, die sich hier für den Bayesianismus begeistern, scheint, wie schon den alten Induktivisten der Logischen Empiristen nicht klar zu sein, dass es egal ist, wie man zu einer Hypothese kommt (das kann durchaus auch irrational geschehen - auch Schwachsinnige können zufällig die Wahrheit sagen). Relevant ist dagegen, dass wissenschaftliches Verhalten erst mit der falsifikativen Überprüfung beginnt (das ist eine der Korrekturen von Popper an seinem früheren Abgrenzungskriterium), denn es gibt keinen Königsweg zum Auffinden fruchtbarer und stabiler Theorien. Und korrekte Überprüfungen finden im Wesentlichen nur im Forschungsbetrieb statt. Popper hat im Übrigen nie Forscher idealisiert, indem er davon ausging, dass sie sich allesamt brav um die Falsifikation ihrer jeweiligen Theorien bemühen (wie Matthew hier schreibt). Das müssen sie nämlich nicht. All ihre Kollegen, die konkurrierende Theorien entwerfen, werden schon dafür sorgen, ebenso wie deren Konkurrenten Falsifikationsversuche an Letzteren betreiben werden usw. Das ist es, was Popper gesagt hat. Der Wissenschaftsbetrieb ist eine offene Bühne (es gibt kein Kritiklimit), deshalb trauen sich Obskurantisten bzw. Pseudowissenschaftler nur in ganz seltenen Fällen, diese Laborbedingungen zu betreten, denn die, die es gewagt haben, sind prompt überführt worden.

    Aber auch wahrheitsrelativistische bzw. geschichtsrelativistische Einschätzungen aus dem wissenschaftlichen Lager selbst, die uns einreden wollten, dass Wissenschaft letztlich auch nur eine ‚Narration’ unter anderen sein soll, sind immer wieder schlagend logisch und anhand empirischer Beispiele kritisiert worden. Kuhns und Feyerabends Relativismus war unhaltbar (Gunnar Andersson, 1988).

    Schon Hume hatte erkannt, dass Induktion nicht schließt, aber er war gleichzeitig davon überzeugt, das wir (psychologisch eben) nur induktiv zu Erkenntnissen gelangen könnten. Was sicherlich eine Fehleinschätzung war, denn wir gelangen aufgrund unserer theoriegetränkten Sätze (auch der scheinbar nicht-allgemeinen bzw. ‚besonderen’) immer hypothetisch deduktiv zu unseren Vermutungen. Unsere Beobachtungen sind nur als Falsifikatoren oder zur vorläufigen Stützung unserer allgemeinen Hypothesen geeignet, nicht für irgendwelche scheinbar induktiven Akkumulationen. Wir raten, und das tun wir immer deduktiv.

    Hume war aber auch klar, dass aus der Konjunktion seiner beiden Annahmen folgt, dass wir nicht-rational zu unseren Erkenntnissen gelangen (seinen modernen Nachfolgern in der Wiener Schule war das nicht so klar). Er hat sich dennoch für diesen gefährlichen („Gewohnheits“-) Pragmatismus bzw. Wahrheitsrelativismus entschieden.

    Die Tatsache, dass wir über kein Wahrheitskriterium verfügen, behindert uns aber in keiner Weise, einen logisch korrekten Wahrheitsbegriff zu definieren. In diesem Sinne hat schon Popper die altehrwürdige Idee der Übereinstimmung einer Aussage mit einem Sachverhalt rehabilitiert. Hans Albert hat diesen Begriff dann noch etwas schärfer gefasst, denn Sätze haben bei genauerem Hinsehen nicht die Aufgabe jeweils ein ganzes Stück Wirklichkeit zu beschreiben oder gar ‚abzubilden’ (das können sie gar nicht, weil die Menge der logisch möglichen Relationen schlicht unendlich wäre). Sätze können dagegen einen oder einige Aspekte eines jeweiligen Gegenstandes beschreiben. Und diese Aspekt- bzw. Eigenschaftsaussagen können wahr oder falsch sein (sie müssen sogar eins von beiden sein, sofern es sich nicht um logische Antinomien handelt).

    Wir können zwar nie eine von uns für wahr gehaltene Aussage auch streng als wahr beweisen, aber wir können sie (über Falsifikationsversuche) streng prüfen, so dass sie Stützung erfahren kann, auch ohne strengen Beweis. Das ist wichtig, denn streng logisch ist keine Begründung (im Sinne eines echten Beweises) durchführbar. Wir geraten damit immer ins so genannte Münchhausentrilemma: infiniter Regress oder logischer Zirkel oder konventioneller Abbruch des Begründungs-Verfahrens (dessen einzelne Komponenten schon die antiken Skeptiker kannten, die aber erst von Hans Albert als Trilemma zusammengefasst wurden).
    Die Popperianer haben eine entsprechende metalogische Argumentation vorgelegt, gegen die bisher keine überzeugenden Einwände vorgebracht werden konnten. Sie lautet (in aller Kürze):

    Ich kann zu jeder Behauptung fragen, warum ich sie denn glauben soll, und zu der dann folgenden Begründung und zu jeder weiteren Begründung dasselbe, so dass sich ein infiniter Begründungsregress ergibt (gewissermaßen in der ‚Horizontalen’). Versucht der Begründende den Regress nun dadurch zum Stillstand zu bringen, das er alle Begriffe seiner ‚Letztbegründung’ eindeutig definiert, erhebt sich unmittelbar ein Definitionsregress (in der ‚Vertikalen’), denn für die Definition jedes einzelnen Wortes des Begründungssatzes benötige ich ja wieder jeweils einen ganzen Satz bzw. wenigstens ein ganzes Prädikat, das seinerseits undefinierte Begriffe enthält usw. ad infinitum.

    Diese beiden Komponenten ergeben die erste Alternative des so genannten Münchhausentrilemmas: den unendlichen Rückgriff, der trivialerweise nicht durchführbar ist. Die zweite Alternative wäre ein logischer Zirkel bzw. eine tautologische Argumentation. Die dritte Alternative wäre ein konventioneller Abbruch des Verfahrens. Durch keine der Alternativen kommt also eine Begründung zu Stande. Deshalb haben wir resultativ ein Trilemma der Begründung (schlechthin) vor uns.

    Kant war von Humes subjektivistischer Resignationslösung schockiert. Er hatte genau wie Hume selbst gesehen, dass diese Lösung in den Irrationalismus führt. Kant versuchte das Problem dann bekanntlich mit einem sehr subtilen, aber nichtsdestoweniger dogmatischen Apriorismus zu lösen. Dieser antirealistische Lösungsversuch kann heute - von einem realistischen Standpunkt aus - als gescheitert betrachtet werden, weil Kant seinen Apriorismus (ob nun bezogen auf Verstand, Vernunft oder Sinneswahrnehmung) nicht als hypothetisch bzw. fallibel aufgefasst hat. Nichtsdestoweniger muss ihm der kritische Rationalismus "auf der Zunge gelegen" haben, wie Popper schon bemerkte – eben mit der ihm leider zu seiner Zeit nicht zugänglichen Idee von im Übrigen auch genetisch falliblen Aprioris.

    Nun wird mit dem Bayseanismus in der Kosmologie erneut (ohne Not) ein subjektivistischer Ansatz als Ersatz für Poppers Falsifikationskriterium präsentiert.

    Formal sind natürlich beide Systeme schlüssig (was aber bekanntlich nichts über ihre Anwendbarkeit in der Realität sagt):

    Das bayessche Theorem lautet in vereinfachter Form: p(A|B) x p(B) = p(B|A) x p(A).

    "p(A|B)" gibt die Wahrscheinlichkeit von A unter der Bedingung B an.

    Die logische Struktur, die dem Falsifikationsgedanken zu Grunde liegt, ist eine metalogische Aussage zum so genannten modus tollens (einer Grundregel der Aussagenlogik): p -> q, ~q :- ~p (gelesen: Aus ‚wenn p dann q, und nicht-q’ folgt nicht-p).

    Bei Bayes ist die Bedingung B das Entscheidende. Ist sie falsch geraten bzw. ‚induktivistisch akkumuliert’ ist die ganze Berechnung falsch. Und zwar, bei völliger Falsifikationsabstinenz, ohne dass die Beteiligten das auch nur bemerken können.

    Im Falsifikationismus ist das nicht möglich, weil das Gewicht hier nicht in Genese der Hypothesenentwicklung, sondern in die Überprüfung gelegt wird.

    Colin Howson scheint regelrecht stolz auf seinen Rückfall in subjektive "Glaubens- oder Überzeugungsgrade". Für meinen Geschmack wäre er damit besser bei den Kreationisten aufgehoben. Anders gesagt, wie hart soll die angehängte Mathematik denn noch sein können, bei derartig weichen Prämissen?

    Ein derart induktivistisches Vorgehen ist im Übrigen gar nicht vereinbar mit der Wahrscheinlichkeitstheorie, denn sie ist deduktiv gültig, genau wie die mathematische Induktion.

    Und wenn Max Tegmark (S. 76) sagt: "In der Wissenschaft falsifizieren wir nicht, sondern wir bewahrheiten …", dann denkt er vermutlich in erster Line an unsere großen unfalsifizierten Theorien: Quanten- und Relativitätstheorie. Er vergisst aber wohl, wie wir dahingekommen sind, nämlich über die Falsifikation unzähliger falscher Vorstellungen durch freie Beobachtung oder Test. Sogar Newtons Theorie ist falsifiziert. Das heißt nicht etwa, dass sie pragmatisch unbrauchbar ist (wir können alles bis hin zu präzisen Mondlandungen mit ihr berechnen – und alles, was es auf der Erde zu berechnen gibt ohnedies). Es heißt einfach nur, das sie durch die Falsifikation als approximativer Spezialfall der Relativitätstheorie gelten muss. Das heißt, wir lernen offenbar aus Falsifikationen.

    Wir haben aber auch bei unseren beiden Großen noch Falsifikationen zu erwarten, denn sie widersprechen sich bekanntlich (bzw. liefern unendliche Resultate), sobald extrem große Energien in winzigen Räumen angenommen werden müssen. Hier scheint die Vorstellung von Punktteilchen (String-Theorie) oder sogar die von Teilchen überhaupt den schwarzen Peter zu bekommen (Heinz Dieter Zeh ist der Meinung, dass man alles wellentheoretisch beschreiben kann, und zwar mit dem Standardmodell!). Ausgerechnet Brain Greene (also ein "Konkurrent" aus dem Lager der String-Theoretiker) hält in diesem Zusammenhang Zehs Arbeit The Physical Basis of The Direction of Time (2001) für bahnbrechend. Auch diese Theorien sind momentan nicht direkt falsifizierbar, aber die Erfahrung hat immer wieder gezeigt, dass scheinbar unfalsifizierbare Hypothesen letztlich doch irgendwann wenigstens indirekt überprüft werden können.

    Falsifikationen, d. h. erkenntnisspezifische Erwartungsenttäuschungen stellen einen grundsätzlichen Lernprozess dar, der uns fast nie zwingt eine ganze Theorie zu verwerfen. Sie weisen nur auf Fehler in der Theorie hin. Die lassen sich nun aber nicht mit logischen Mitteln ergründen. Aber sie weisen immer auf die Notwendigkeit eines Neubaus hin. Deshalb werden wir durch Falsifikationen auch zu neuen Theorienkonstruktionen angeregt. Im Übrigen fallen doch Falsifikationsversuche, die scheitern, nun zwar nicht gerade mit Bewahrheitungen, aber immer mit vorläufigen Stützungen der betreffenden Theorien zusammen. Man weiß also gar nicht, warum ständig Gegensätze zwischen Verifkationismus und Falsifikationismus beschworen werden, denn diese vorläufigen Stützungen durch misslungene Falsifikationsversuche sind doch so etwas wie Quasi-Verifikationen (während die "induktivistischen Validierungen" eher nicht danach aussehen).

    Die sind nun zwar unsicher, wie alles, was Menschen sagen, aber das sollte uns doch langsam nicht mehr nervös machen, angesichts des immer rasanter werdenden Fortschritts der wissenschaftlichen Entwicklung.
  • Flugzeuge als Strahlensperrbereich?

    02.03.2009, Dr. Peter Mohr, Schwäbisch Hall
    Leider hat sich im genannten Artikel im Kasten auf Seite 30 links ein Fehler eingeschlichen. Die Dosis für Passagiere in einem hoch fliegenden Flugzeug liegt - je nach Breitengrad - bei ca. 10 bis 100 Mikro-Sievert und damit ca. drei Größenordnungen unter der Dosis bei einem CT (ca. 10 bis 20 Milli-Sievert, mSv). Wäre die Dosis bei einem 6-Stunden-Flug bei 18 mSv (also einem CT vergleichbar), so müsste das Flugzeug nach aktueller Strahlenschutzverordnung als Sperrbereich(!) gekennzeichnet werden (Grenzwert: 3 mSv pro Stunde) und dürfte nur in Ausnahmefällen betreten werden.

    Kurioserweise fand sich ein identischer Fehler kürzlich in der Februar-Ausgabe des Physik-Journal 8 (2009) Nr.2, S.38.
    Antwort der Redaktion:
    Die sprachliche Formulierung des Textes ist leider missverständlich. Der Satz müsste besser lauten: "Die Belastung in einem hoch fliegenden Flugzeug wäre im Fall eines Supersturms vergleichbar mit der, die bei einer Computertomografie entsteht." Es ging in diesem Kontext also nicht um den Vergleich eines normalen Flugs mit einer CT, sondern um den Extremfall eines außergewöhnlich starken Sonnensturms, der den Passagieren zusetzt. Ansonsten stimme ich Ihrer Abschätzung zu, dass zwischen den Belastungen, die bei einem normalen Passagierflug und einer CT entstehen, etwa drei Größenordnungen liegen - die CT ist deutlich belastender.
  • Race for the Cure

    02.03.2009, Susan G. Komen Deutschland e.V., Frankfurt
    Sehr geehrte Damen und Herren,


    vielen Dank für diesen sehr infrormativen Artikel zu Fortschritten in der Brustkrebstherapie.


    In der Print Ausgabe zeigen Sie zu unserer großen Freude Bilder von sogenannten "Survivors", Frauen, die Brustkrebs hatten, und in pinkfarbenen T-Shirts am "Race for Cure", der weltweit größten Serie von 5-Kilometer-Läufen zur Heilung von Brustkrebs teilnehmen. Der Name der Organisation, die dahinter steht, ist Susan G. Komen for the Cure (USA), bzw. Susan G. Komen Deutschland e.V., Verein für die Heilung von Brustkrebs (www.komen.de). Wir werben für die Früherkennung von Brustkrebs und finanzieren Modellprojekte, die betroffenen Frauen helfen. Komen in den USA unterstützt auch Forschungsprojekte, die in der Vergangenheit wesentlich dazu beigetragen haben, Brustkrebs zu verstehen und zu behandeln.


    Übrigens gibt es auch in Deutschland den im Artikel genannten Wohltätigkeitslauf, in diesem Jahr am 27.9. zum zehnten Mal in Frankfurt am Mainufer, und am 13.9. erstmalig in Meppen im Emsland (www.raceforthecure.de).

  • "Servicepack" für Sinnsucher

    01.03.2009, Heinz Dähling, Elsdorf
    Angesichts der nie endenden Diskussion über Sinn, Erklärung, Jenseits, Superschildkröte oder was auch immer, sollte man doch vielleicht einmal fragen, was uns ständig treibt zu suchen.
    Da gäbe es vielleicht eine simple Erklärung. Es ist ein Trieb, vergleichbar dem Geschlechtstrieb, zu dem uns die Evolution verholfen hat. Es ist der Drang des Menschen, alle Ereignisse stets in "sinnvolle" Abfolgen zu ordnen, der es ihm ermöglicht, beliebige Lebensräume auf diesem Globus zu besiedeln. Das hat er seinen tierischen Mitbewohnern, die im "hier und jetzt" leben, voraus. Er hat, wie es die Bibel ausdrückt, vom Baume der Erkenntnis gegessen. Erkenntnis heißt, Verstehen zeitlicher Zusammenhänge, aus denen zukunftsgerichtetes Handeln abgeleitet wird. Zeitmessung ist ein zentraler Bestandteil aller frühen Kulturen, steht gewissermaßen am Anfang der Menschwerdung.
    Einen Nachteil allerdings hat das Leben in der Zeit, die Erkenntnis der Endlichkeit des eigenen Daseins und der Mangel an Sinn darüber hinaus. Es besteht der Drang, zu suchen und das Problem, nichts zu finden. Dieser "Softwarefehler" würde unweigerlich zum Absturz führen, hätte nicht die Evolution einen "Servicepack" nachgeschoben, die Religiosität, einen physiologisch im Gehirn angelegten Speicher für virtuelle Ziele.
  • Eine Ergänzung zum "perfekten Kleid"

    01.03.2009, Dr. Traugott Schulmeiss, Jena
    Wenn wir die Ausgefallenheit, die Außerordentlichkeit eines ABC-Tripels natürlicher Zahlen {a, b, c} (a + b = c, a, b teilerfremd) bewerten wollen, steht uns nicht nur sein Kappa-Wert zur Verfügung. Dieser gibt ungefähr an, wie sich die Anzahl der Dezimalstellen von c zur Anzahl der Dezimalstellen von rad(a*b*c) verhält.
    Die starke ABC-Vermutung besagt, daß für jede noch so nahe bei 1 liegende Schranke s > 1 nur endlich viele ABC-Tripel einen Kappa-Wert > s besitzen.

    Für detailliertere Aussagen betrachten wir anstelle des
    Quotienten die Differenz, den "Exzess"

    e(abc) = log(c) - log(rad(abc)).

    Im Artikel wurde gezeigt, dass wir beliebig große Werte für e antreffen können, wenn wir immer größere Zahlen untersuchen. Die Spitzenwerte wachsen mindestens wie log(log(rad(abc)))/2, das ist extrem langsam. Aus tieferliegenden Untersuchungen ergibt sich, daß man den erreichbaren Exzess im Vergleich zur Größe von sqrt(log(rad(abc))) analysieren sollte.

    Werfen wir einen Blick auf die folgenden bekannten, sehr aufwendig aufgespürten Supertripel:

    a = 19*1307 = 24833
    b = 7 * 29^2 * 31^8 = 5020969537415167
    c = 2^8 * 3^22 * 5^4 = 5020969537440000
    rad(abc) = 2 * 3 * 5 * 7 * 19 * 29 * 31 * 1307 = 4688222070
    e(abc)= 13.88408

    a = 7^2 * 41^2 * 311^3 = 2477678547239
    b = 11^16 * 13^2 * 79 = 613474843408551921511
    c = 2 * 3^3 * 5^23 * 953 = 613474845886230468750
    rad(abc) = 2 * 3 * 5 * 7 * 11 * 13 * 41 * 79 * 311 * 953 = 28828335646110
    e(abc) = 16.87329


    a = 2^24 * 5^5 * 47^5 * 181^2 = 393927551841835417600000
    b = 13^14 * 19 * 103 * 571^2 * 4261 = 10704872737453891276395489673
    c = 7^28 * 17 * 37^2 = 10705266665005733111813089673
    rad(abc) = 2 * 5 * 7 * 13 * 17 * 19 * 37 * 47 * 103 * 181 * 571 * 4261 = 23184991375250523910
    e(abc) = 19.95050


    a = 23^8 * 37^4 = 146767394485224241
    b = 2^28 * 3^7 * 11^4 * 19^3 * 61 * 127 * 173^2 = 13669290314405085785446416384
    c = 5^18 * 17^4 * 43^2 * 4817^2 = 13669290314551853179931640625
    rad(abc) = 2 * 3 * 5 * 11 * 17 * 19 * 23 * 37 * 43 * 61 * 127 * 173 * 4817 = 25180873035975641490
    e(abc) = 20.11233

    Das letzte ist ein Weltrekord in mehrfacher Hinsicht von I. J. Calvo aus dem Jahre 2008.
    Die Beispiele zeichnen sich dadurch aus, daß in diesen einmaligen und außerordentlichen Fällen e(abc) etwa 3*sqrt(log(rad(abc))) erreicht (Schranke A). Die Frage entsteht, ob das ein perfektes (beliebig wiederholbar anzutreffendes) Kleid für den Exzess darstellt.
    Und wie groß müssen die beteiligten Zahlen sein, damit man etwa einen Exzess von 30, 40 oder 50 erreichen kann?

    M. van Frankenhuysen bewies im Jahre 2000 eine schwächere Schranke (C), nämlich dass

    e(abc) > 6.07001 * sqrt(log(rad(abc))) / log(log(rad(abc)))

    für unendlich viele ABC-Tripel gilt. In seiner Dissertation 1995 vermutete er (nach Anwendung des fruchtbaren, aber nur heuristischen Zufälligkeitsprinzips der Primfaktorverteilung der natürlichen Zahlen) das gegenüber C schnellere Wachstum (Schranke B)

    e(abc) > e0 * sqrt( log(rad(abc)) / log(log(rad(abc)))).

    Danach sind unendlich viele Tripel auffindbar, wenn e0 < 4, aber nur endlich viele, wenn e0 > 4 (perfekt, aber Widerlegung von Schranke A!).

    Stellen wir die Konsequenzen für das Wachstum der beteiligten Tripelzahlen bei vorgegebenem Exzess gegenüber:








    e(abc)rad (bei A) rad (bei B) rad (bei C)
    106.7 * 10^47.3 * 10^73.3 * 10^14
    202.0 * 10^198.8 * 10^511.1 * 10^168
    302.7 * 10^432.1 * 10^1411.3 * 10^538
    401.6 * 10^771.3 * 10^2818.1 * 10^1178
    504.3 * 10^1206.3 * 10^4742.4 * 10^2127



    Eine vor einigen Jahren durchgeführte und unlängst fortgesetzte Suchrechnung erbrachte 16 noch nicht bekannte Tripel aus riesigen Zahlen, deren Exzess die Schranke B mit e0 = 4 und damit bei weitem die Schranke C übertrifft.
    Das größte von ihnen lautet

    a = 11^3 * 107^2 * 2962839627547 * p111 = 1 595...(127)
    b = 2^52 * 7^42 * 13 * 17^11 * 29^4 * 31^17 * 37^16 * 43 * 53^8 * 61^12 = 87530769602326441009007655660104...(127)
    c = 3^52 * 5^65 * 23^15 * 41^5 * 59^34 = 87530769602326441009007655661700...(127)
    rad(abc) = 1471734201215077452...(127)
    e(abc) = 31.71657

    p111 bezeichnet eine Primzahl mit 111 Stellen, (127) steht für 127 weggelassene Dezimalstellen. Die Notation folgt der Konvention des Cunningham-Projekts.
    Antwort der Redaktion:
    Strukturell kann man das ε aus der ABC-Vermutung so verstehen: Im Funktionenkörperfall ist es gleich 0; im Zahlkörperfall sollte es den Beitrag der archimedischen Bewertungen (den absoluten Betrag) abdecken. Setzt man das ε in den Exponenten, so hat man, um in dem Bild des Artikels zu bleiben, ein passendes Kleid mit strengem klassischen Schnitt. Und das passt auch gut in das Denken der Arithmetischen Geometrie.

    Es ist aber ziemlich sicher, dass der Fehlerterm mit dem ε im Exponenten viel schneller wächst als der tatsächliche Fehler, dass also das Kleid für große Werte von A, B und C viel zu weit wird. Die Leute aus der transzendenten Zahlentheorie wollen das abmildern, indem sie den Faktor mit dem Exponenten durch einen langsamer anwachsenden Faktor ersetzen.

    Der Ansatz, den Traugott Schulmeiss beschreibt, ist "subexponentiell", dies ist ein Verhalten, das auch bei der Sicherheit von Verschlüsselungsverfahren eine wichtige Rolle spielt.


    So wie es aussieht, untersucht er statt der Abschätzung



    C/R < d * Rε



    (R ist eine Abkürzung für Rad(ABC) ) die Abschätzung



    C/R < R *exp(d*log(R)^(1/2)/log log(R)).



    Die Zahl log log R ist sehr klein, und wir machen deshalb nicht viel falsch, wenn wir statt dessen die Abschätzung



    C < R *exp(d*log(R)^(1/2)*(log log(R))^(1/2))



    betrachten, und die ist "klassisch" subexponentiell in log(R) (zwischen polynomialen Wachstum und exponentiellem Wachstum).
    Diese Funktion tritt zum Beispiel beim Faktorisieren mit Siebmethoden auf.
    Da (sei ε auch noch so klein) Rε exponentiell in log R wächst, ist also die subexponentielle Abschätzung schärfer.


    Wie Schulmeiss bemerkt, kann man mehr (teils nur heuristisch begründete) Überlegungen in Arbeiten von M. van Frankenhuysen finden. Außer nach dem Einfluss der Konstanten d zu fragen, wäre es auch interessant zu spekulieren, welcher subexponentielle Exponent (hier: 1/2) optimal wäre.



    Geht man etwas weiter und etwa zu beliebigen Zahlkörpern, so wird der Einfluss der archimedischen Bewertungen noch verzwickter.
    Es hat sich meines Wissens noch keine einhellige Meinung über das Verhalten von Konstanten oder gar Abschätzungsfunktionen bei Körpererweiterungen durchgesetzt. Hier gibt es Ansätze von Masser.
    Im Endeffekt benötigt man ein besseres Verständnis der so genannten Arakelov-Theorie.



    Prof. Gerhard Frey, Universität Duisburg-Essen
  • Elektroautos sind derzeit nicht wirtschaftlich

    26.02.2009, Dr. Karl-Heinz Decker, Aiglsbach/Bayern
    Derzeit dürfte ein Akkusatz bei etwa 500 Entladezyklen verbraucht sein. Damit kann dieses Auto dann maximal 100.000 Kilometer fahren.
    Rechnet man für ein ziemlich kleines Auto mit Kosten für den Ersatzakku von 10.000 bis 15.000 Euro, dann ist das mehr, als der Betreiber dieses Fahrzeugs für Benzin- oder Dieseltreibstoff für 100.000 Kilometer bezahlen müsste. Da sich der Staat bei größeren Anteilen an Elektroautos natürlich den derzeitigen Mineralölsteueranteil am Kraftstoff nicht entgehen lassen wird, muss ein Mautsystem eingeführt werden, womit die Kosten für das Elektrofahrzeug wiederum erhöht werden.
    Ein anderes Problem wurde von einem Leserbriefschreiber bereits angesprochen: Sind denn unsere Stromversorgungsanlagen und -netze für diesen zusätzlichen Strombedarf ausgelegt? In den USA findet derzeit ein Großversuch mit Elektro-Minis statt. Laut einem Artikel in der Süddeutschen Zeitung (26.02.2009) gab es in einigen Testgebieten erhebliche Probleme mit der Bereitstellung der Leistung.
    Was mir in der veröffentlichten Meinung besonders übel auffällt ist, dass viele Redakteure offensichtlich nur die Firmenprospekte abschreiben. Da wird vom emissionsfreien Auto fabuliert. Die Emissionen werden an anderer Stelle erzeugt. Insbesondere in einem Land wie Deutschland, in dem sehr viel Elektrizität aus dem schmutzigsten Brennstoff, der Braunkohle, erzeugt wird, sind die Werbeaussagen gewisser Hersteller reiner Hohn.
    Überall wird nur von der Leistungsaufnahme des Elektromotors im Fahrzeug gesprochen. Was ist mit den Nebenaggregaten wie Scheinwerfer, Heizung im Winter, Klimaanlage im Sommer? Was ist mit den Übertragungsverlusten und den Verlusten bei Ladung und Entladung der Akkumulatoren? Summiert man diese auf, so kommt man auf ca. 20 bis 25 Prozent Verluste!
    Über den Tesla-Sportwagen wurde in diesem Forum bereits geschrieben. Der in diesem Brief dargestellte Sachverhalt entspricht den Tatsachen und wurde bei einem Test vom ADAC nicht nur bestätigt, sondern sogar übertroffen: Der Tester fuhr wohl etwas schnell. Das Fahrzeug blieb mit defektem Akku liegen, da dieser zu heiß geworden war.
    Und das Märchen von Wind- und Wasserkraftnutzung durch Elektrofahrzeuge ist doch ebenfalls eine Fabel: Wenn Elektrizität gebraucht wird, dann wird sie geliefert, egal woher sie kommt. Und sind wir doch einmal realistisch: Mit dem geringen Anteil an erneuerbaren Energien in Deutschland ließe sich doch nur ein geringer Anteil von Elektroautos wirklich emissionsfrei betreiben.
    Es wurde sehr auf die deutsche Autoindustrie eingeprügelt, weil sie angeblich eine Entwicklung verschlafen habe.
    Was man der deutschen Autoindustrie anlasten kann, dass ihre Öffentlichkeitsarbeit erbärmlich war. Ansonsten kann es jedes neue Dieselfahrzeug sowohl bezüglich Wirtschaftlichkeit und auch Umweltrelevanz mit jedem Elektroauto aufnehmen.
  • Hörgewohnheiten sind kein Absolutum

    26.02.2009, Dr. Detlev Roßbach, Erlangen
    Die Autoren schreiben in ihrem Artikel zu Recht, dass sich Hörgewohnheiten mit der Zeit verändern. Das ist aber auch schon die einzige Aussage, die ich mit den Autoren teile. Absolute Kriterien abzuleiten, wie sich Klänge in Konsonanzen oder Dissonanzen einteilen lassen, halte ich für sehr gewagt, an einigen Stellen sogar für verwegen. Zum Teil basieren diese Kriterien auf falschen Zusammenhängen, die ich als so gravierend betrachte, dass ich mich frage, wie der Artikel den Weg in Spektrum der Wissenschaft gefunden hat. Zu einigen Punkten des Artikels möchte ich mich im Folgenden äußern.

    Auf Seite 66 der SdW-Ausgabe sind die Obertonreihen der Töne C und F angegeben, wobei in beiden Fällen der 6. Oberton falsch ist. Bleiben wir bei C, für F gilt das Folgende entsprechend: Der 6. Oberton von C hat die siebenfache Frequenz des Grundtons. In die Oktave des Grundtons hineinprojiziert ist das Frequenzverhältnis zum Grundton 7/4, also 1,75. Aus der Obertonreihe ergibt sich für die Sexte (A) ein Frequenzverhältnis von 5/3 (ca. 1,67) zum Grundton, für die kleine Septime (B) ein Frequenzverhältnis von 16/9 (ca. 1,78). D.h. dass sich der 6. Oberton deutlich näher an der kleinen Septime anordnet als an der Sexte. Dass der 6. Oberton als kleine Septime aufgefasst wird, zeigt sich z.B. auch an den Aliquotregistern der Orgel, die in den verschiedenen Tonlagen ihrer Register die Obertonreihe abbildet. Zumindest bei größeren Orgeln findet man hier und dort ein Septimregister (1 1/7’), nicht jedoch ein Sextregister. Bezogen auf das Quartintervall C-F bleibt also als gemeinsamer Oberton nur das C (in der C-Obertonreihe als Grundton sowie als erster und dritter Oberton, in der F-Obertonreihe als 2. Oberton), wenn man die Teiltöne bis zum 6. Oberton betrachtet. Hieraus abzuleiten, dass die Quarte konsonant ist, ist sicher nicht möglich, denn während sie in der Musik des Mittelalters als wohlklingend galt, war sie zur Zeit des Barock dissonant und verlangte nach Auflösung (z.B. als Quartvorhalt). Im Jazz hingegen muss sie nicht notwendigerweise aufgelöst werden.

    Bei den Dreiklängen versuchen die Autoren Spannungsakkorde (das seien solche Akkorde, bei denen die beiden aufeinanderfolgenden Intervalle gleich groß sind) durch Alteration eines Tons um einen Halbton in spannungsfreie Akkorde zu überführen und ihnen eine Dur-Moll-Tonalität zuzuordnen. Sie machen dabei jedoch den Fehler, dass sie die Begriffe „Tonalität“ und „Funktionalität“ durcheinander bringen. Die Dur-Moll-Tonalität, von der im Artikel oft die Rede ist, ist erst ab etwa 1600 wirklich etabliert. Die Musik der Renaissance war noch sehr von den Kirchentonarten beeinflusst. Die Funktionalität beschreibt, welche Funktion ein Akkord in einer harmonischen Umgebung einnimmt. Ein und derselbe Akkord kann also unterschiedliche Funktionen haben, je nachdem in welcher harmonischen Umgebung er sich befindet. In der Tabelle auf Seite 68 wird z. B. aus dem Spannungsakkord 5-5 durch Alteration des mittleren Tons um einen Halbton nach unten der Akkord 4-6, der in der Tabelle als „Dominant 7“ bezeichnet wird. Dies ist aber eine harmonische Funktion und hat erst einmal nichts mit Dur oder Moll zu tun. D7-Akkorde spielen ab der Musik des Barock (besonders seit Bach) eine wichtige Rolle und kommen sowohl in einer Dur- als auch in einer Moll-Umgebung vor. Ein G7-Akkord lässt sich z.B. sowohl nach C-Dur als auch nach c-moll auflösen, aber eines ist klar: Der Dominantseptakkord verlangt nach einer Auflösung! Hier von einem Akkord zu sprechen, bei dem die „Spannung gegen null“ geht, ist sicher nicht richtig.

    Dass sich Hörgewohnheiten tatsächlich im Lauf der Zeit ändern, mag ein anderes Beispiel zeigen: die Stimmung. Auf die gehen die Autoren in ihrem Artikel überhaupt nicht ein, obwohl gerade die verschiedenen Stimmungssysteme zeigen, welchen Änderungen Hörgewohnheiten unterworfen sind. Während in der Musik des 16. – 18. Jahrhunderts die mitteltönige Stimmung verbreitet war, etablierte sich seit dem Barock die temperierte Stimmung (Werckmeister), während man heute in der Regel die gleichstufige Stimmung verwendet. Alle Stimmungen haben ihre Pros und Contras, aber es gibt keine absoluten Kriterien, die erlauben würden, eine bestimmte Stimmung als die einzig richtige zu identifizieren. Es wäre interessant zu erfahren, wie ein Mensch des 16. Jahrhunderts beispielsweise einen Des-Dur-Akkord, der für unsere Ohren auf einem gleichstufig gestimmten Klavier gespielt ein Wohlklang sein mag, auf einem mitteltönig gestimmten Cembalo empfunden hat. Man darf vermuten eher als Missklang, denn als Konsonanz, obwohl doch auch auf einem Cembalo des 16. Jahrhunderts der Akkord aus einer großen und einer kleinen Terz besteht. Dieses einfache Beispiel zeigt, dass es nicht möglich ist, absolute Kriterien in dem Sinn, wie es die Autoren getan haben, einzuführen, um zu zeigen, ob ein Akkord als konsonant oder als nicht-konsonant empfunden wird. Hörgewohnheiten ändern sich eben!
    Antwort der Redaktion:
    Sammelantwort der Autoren auf alle Zuschriften


    Zunächst möchten wir allen Kommentatoren für ihre sorgfältige Lektüre des Artikels und die anregende Diskussion danken. In der Tat ist die Abbildung, die das Phänomen der Obertöne grundlegende erklären soll, durch den Vergleich zur bekannten Klaviatur etwas unpräzise, beispielsweise müsste F2 näher bei F3 liegen. In der heute üblichen wohltemperierten Stimmung allerdings werden die Unterschiede ein wenig nivelliert. Detlev Rosbach hat natürlich Recht damit, dass beispielsweise der 6. Oberton, vom Grundton aus gesehen, zwischen dem 33. und 34. Halbton liegen würde, mit C als Grundton also wäre das ein Ton zwischen A und Bb. Musikalisch bedeutet das übrigens, dass höhere Ordnung der Obertöne immer etwas Dissonanz erzeugen, was heute allgemein akzeptiert wird, in den Stimmungen des Mittelalters Bedeutung hatte.


    Wie Theo Hartogh richtig moniert, wird das Deutschlandlied nicht immer in D-Dur gespielt, Haydn komponierte die Melodie ursprünglich in G-Dur. In der wohltemperierten Stimmung bedeutet die Wahl einer anderen Dur-Tonart lediglich ein Verschieben der Tonhöhe, der grundlegende Charakter – kraftvoll, hell, optimistisch – ändert sich dadurch nicht. Hartogh irrt, was den Beatles-Song »Yesterday« angeht: Die Tonfolge von »Why she had to go« ergibt einen Moll-Akkord in 2. Umkehrung auf (D, G, Bb), so erzielte Paul McCartney den beabsichtigen Eindruck von Verlorenheit und Trauer.


    Dieser Moll-Charakter bleibt übrigens auch dann erhalten, wenn man die Passage mit Dur-Akkorden begleitet. Dennoch steht die Bedeutung des musikalischen Kontextes von Mehrklängen und Tonfolgen für deren Funktion innerhalb eines Stücks außer Frage. Der Clou unserer Arbeit ist aber gerade, dass wir einen biologischen „Mechanismis“ entdeckt haben, der einen Dur- oder Moll-Charakter auch dann zu erklären vermag, wenn Akkorde und Sequenzen für sich allein, also ohne Kontext erklingen. Und dieser Charakter entspricht der musikalischen Erfahrung.


    Die Tonalität von Dreiklängen wird unseres Erachtens also primär von ihrer akustischen Struktur, nicht von der jeweiligen Kultur mit ihren Wahrnehmungsgewohnheiten bestimmt. Auch wenn seit der Renaissance meist mit Bezug zur Dur-Tonalität komponiert wurde, symmetrische, spannungsvolle Akkorde hingegen seltener Verwendung fanden, eignen sie sich unseres Erachtens besser als Referenz, um die emotionale Qualität von Mehrklängen modellhaft zu untersuchen.


    Ein Blick auf nichtwestlichen Musikkulturen ändert daran übrigens nichts, mögen diesen 5-, 7- oder gar 22-tönige Skalen zugrunde liegen. Auch dort gibt es Tonfolgen mit implizit Dur- oder Moll-Charakter. Das gilt für traditionelle chinesische und japanische Stücke ebenso wie für nordindische Ragas. Die Wahrnehmung der Tongeschlechter ist also ein Kulturen übergreifende Phänomen und das spricht wohl ebenfalls für eine biologische Grundlage.
  • Energieträger für die Zukunfts-Automobilität

    25.02.2009, Dipl.Ing. Gerd Höglinger, 83026 Rosenheim
    Als Hauptenergieträger für die künftige Automobilität stelle ich mir verflüssigten Wasserstoff vor. Mit diesem laufen schon heute Otto-Motoren problemlos und er kann ebenso in Brennstoffzellen Strom für Elektromotoren erzeugen. Damit werden sehr gute Motorleistungen und genügende Fahr-Reichweiten ermöglicht.

    Der Wasserstoffbedarf kann hauptsächlich gedeckt werden durch riesige Photovoltaik-Anlagen und Wasserstoff-Verflüssigungsanlagen im Sonnengürtel der Erde (z.B. Nordafrika, Sahara, Saudi Arabien usw.) Transport des Wasserstoffs in die Bedarfsländer würde durch Spezialtankschiffe erfolgen.

    Elektroantrieb auf der Basis von Lithiumionen-Akkus halte ich nur als zukunftstauglich für Stadt- und Nahbereichsmobilität. Der Strom dafür kommt dann aus CO2-freien AKW (auch wenn die Grünen noch so aufschreien mögen...).
  • Fahren mit Windstrom

    24.02.2009, Lothar Busold, Mannheim
    Der Clou der Sache wäre natürlich, wenn man zum Betanken des Automobils die Zeiten des Überangebots an Strom nutzen könnte. Diese ergeben sich aus der nicht bestimmbaren Leistung von Windkraft- und Sonnenanlagen. Überschuss herrrscht, wenn ein Sturm über das Land fegt oder die Sonne am wolkenlosen Himmel steht. Was passiert dann heute? Man schaltet die Windkrafträder ab, oder man fährt die Leistung eines Kohle- oder Atomkraftwerks herunter. Das führt dann dazu, dass die Anlage in einem ungünstigen Wirkungsgradbereich gefahren wird, bei dem etwa 20 Prozent des durch Wind vermiedenen CO2s wieder gegenläufig entsteht.

    Hier wäre eine Lösung möglich, von der drei Partner etwas haben: Automobilhersteller, Energieerzeuger und Politik. Die Autobranche will ihre Kunden billig tanken lassen und erwirkt, dass die Akkus im Moment eines Stromüberschusses betankt werden. Zu einem sehr geringen Preis, denn der Strom wäre ansonsten ja unverkäuflich. Der Energieerzeuger freut sich über die geglättete Verbrauchskurve, die Politik kommt mit ihren CO2-Sparzielen voran.

    Ist das nicht unendlich schwierig, das abzurechnen? Vermutlich nicht, denn das Gegenstück auf der Angebotsseite gibt es schon. Ein Biogasbauer, der laut Einspeisegesetz 15 ct/kWh bekommt, darf augenblicklich an die Leipziger Strombörse wechseln und dort verkaufen, wenn er dort 17 Cent bekommt. Und selbstverständlich wieder zum EEG wechseln, wenn der Preis auf 14 Cent fällt. Dies ist so seit dem 1.1. 2009. Und es war nicht zu hören, dass die Abrechnung irgendwelche Probleme gemacht hätte.

    Preislich kann das Elektroauto noch nicht ganz mit dem Benziner mithalten, aber unter diesen Umständen käme natürlich von mehreren Seiten her Bewegung in die Preisfront.

    Also man hat jetzt nicht mehr den Tiger im Tank, sondern den Lothar. Nicht mich natürlich, sondern den gleichnamigen Orkan.
  • Logik der Forschung

    24.02.2009, Paul-Gerhard Schank, Berlin
    In seinem Essay will der Autor zeigen, dass Poppers Falsifikationskriterium aus dessen "Logik der Forschung" (1934) überholt ist oder vielleicht noch nie praktisch relevant war. Dazu stellt er Poppers Ansatz einem so genannten bayesschen Ansatz oder Bayesianismus gegenüber.

    Leider differenziert Matthews dabei zu wenig. Meines Erachtens wäre einerseits zu unterscheiden zwischen einer präskriptiven Wissenschaftstheorie und einer deskriptiven, also nicht miteinander zu vermischen, worin Wissenschaft als Methode bestehen soll und was Wissenschaft in der faktisch durch die Wissenschaftler gelebten Praxis ist. Das führt gleich zum zweiten zu unterscheidenden Paar, der Wissenschaft als institutionalisiertem Wissenschaftsbetrieb mit seiner Soziologie und Psychologie und der Wissenschaft als Programm auf dem Weg der Wahrheitssuche. Denn immerhin geht es sowohl in Poppers als auch im bayesschen Ansatz in erster Linie um die Logik, nicht um die Praxis der Forschung.

    Worauf gibt Poppers Wissenschaftstheorie mit ihrem Falsifikationskriterium eine Antwort? Es geht nicht um eine Vorab-Definition der Wissenschaft, auch nicht um ein a priori des wissenschaftlichen Tuns, sondern um den konkreten Nachweis, dass die so genannte induktive Methode logisch nicht haltbar ist. Diese Methode besteht kurz gesagt darin, scheinbar neutral Daten zu sammeln, um daraus Hypothesen abzuleiten und so in einem bottom up-Verfahren ("induktiv") zu allgemeinen Gesetzen und Theorien zu gelangen. Diese Form der Induktion ist aber kein logisch gültiges Verfahren, und es entspricht auch gar nicht der wissenschaftlichen Forschungspraxis, in dieser Weise vorzugehen; vielmehr werden (allzu oft mehr oder minder bewusst verdeckt gehaltene) Grundannahmen bei der Datengewinnung eingebracht, die dann auch für die Hypothesen- und Theorienbildung wieder eine Rolle spielen. Der daraus entstehende Zirkel ist aber für den Fortgang des Forschungsprozesses bremsend, insbesondere dann, wenn er nicht (selbst-)kritisch begleitet wird.

    Beschleunigend hingegen ist, und nichts anderes schlägt Popper vor, Theorien von vornherein so zu formulieren, dass sie möglichst viele präzise Vorhersagen machen, die einer empirischen Überprüfung zugänglich sind. Auf diese Weise können schwächere von stärkeren Theorien unterschieden sowie unhaltbare Behauptungen ausgesondert werden. Das Falsifikationskriterium beantwortet damit die Frage, wie eine wissenschaftlich vertretbare Annäherung an die Wahrheit möglich ist, ohne dass diese in direktem rationalem Zugriff erreichbar ist. Es empfiehlt eine idealtypische Methode, um Dogmatismus und Spekulation gleicherweise zu entgehen, und formuliert kein autoritäres Prinzip. Lediglich eine prinzipielle Möglichkeit zur Falsifizierung wird gefordert für den Anspruch auf Wissenschaftlichkeit; wann die Falsifizierbarkeit faktisch erreicht werden kann, bleibt im Gang der Forschung offen.

    Man kann Poppers Kriterium nicht gerecht werden, wenn man es aus dem Zusammenhang isoliert, in den es von seinem Autor gestellt worden ist. Dieser Zusammenhang besteht in einer prozessualen Schau auf den Gang der Forschung: (älteres) Problem -> Lösungsvorschläge -> Eliminationsversuche -> neue Problemformulierungen. Da mit einem (älteren) Problem begonnen und mit einem oder mehreren Problemen geschlossen oder eben grade nicht geschlossen wird, ist der Gang der Forschung nach dieser Schau zyklisch. Erst dieser Zyklus insgesamt macht aber die Wissenschaft aus. Das Falsifikationskriterium hat seinen Platz innerhalb dieses Zyklus im Prozessstadium der Eliminationsversuche und kann daher nicht für eine Definition oder Wesenscharakterisierung der Wissenschaft schlechthin herhalten. Diesen Platz innerhalb des Forschungszyklus teilt es in Poppers Sicht übrigens mit kritischer Diskussion, also auch mit dem Bayesianismus.

    Das alles ist leicht und übersichtlich nachzulesen im Abdruck des Radiovortrags (NDR, 07.03.1972), den Popper in die Aufsatzsammlung "Alles Leben ist Problemlösen" (1994) aufnehmen ließ, und zeigt, dass der wahrscheinlichkeitstheoretische bayessche Ansatz keines Wegs mit Poppers empirischer Falsifikation unverträglich ist, sondern sich zu dieser komplementär verhält. Matthews‘ polarisierende Darstellung erscheint mir von daher sachlich verfehlt oder zumindest journalistisch zu sehr überspitzt.
    Popper selbst führt übrigens die Psychoanalyse Freuds an als Beispiel für eine prinzipiell nicht falsifizierbare Theorie. Über Hugh Everetts Viel-Welten-Deutung des Quantenmessproblems oder andere Spielarten des Multiversums lässt sich aber wohl so viel extrapolieren: Was nicht empirisch überprüfbar ist, bleibt trotz Bayes so lange spekulativ, bis es auf anderem Wege (also z.B. mit mathematischer Beweisführung) behandelt werden kann – oder bis es sich selbst in die Metaphysik einzuordnen bereit ist. Wer in diesem Letzteren eine nutzlose Spielerei sieht, sollte vielleicht noch einmal den Grundkurs Philosophie belegen. Wissenschaftlich-rationale Wahrheitsansprüche werden damit freilich aufgegeben.
  • Stressbremse und Lebensglück

    24.02.2009, Paul Schmitt-Wiemann Freiheitstr 95 46284 Dorsten
    Demethylierung dieses Glucocorticoid-Rezeptors ist ein grundsätzlicher Vorgang nach der Geburt. Die bei der Geburt für das Kind auftretenden Schmerzen werden durch die Methylierung anscheinend erträglich, der künftige Erwachsene wird also durch diesen Vorgang nicht vorgeschädigt.

    Demethylierung bereitet die kindliche Sensorik und deren Erstverarbeitung damit auf die dann kommenden durchaus harten Tatsachen vor, nachdem es zuvor ja quasi in Watte gepackt worden war.

    Dieser Vorgang wird durch zu schnelle und zu frühe schlimme Erfahrungen anscheinend gestört, so dass dieser Serotonintransporter (über Freisetzung von stimmungsaufhellendem Serotonin) nicht nur jetzt, sondern auch später nicht in dem Maße wieder aufhellen kann nach schlechten Erfahrungen, wie es nötig wäre.

    Allerdings ist dies nur eine Grundeinstellung, die durch die anderen Erfahrungen weiter strukturiert werden: Jeder Mensch reagiert quasi in seinem weiteren Leben darauf. Ob er nun später Konflikte stärker vermeidet oder verstärkt kompensiert, hängt von vielen weiteren Erfahrungen ab.

    Bleiben wird wahrscheinlich so etwas wie eine Stressempfindlichkeit - und auch bei Menschen, die danach ein recht geordnetes Leben führen, so etwas wie ein größerer Bedarf an beruhigenden Momenten beziehungsweise Einflüssen.

    Mich würde interessieren, ob dies bei dem unbekannten Leserbriefschreiber der Fall ist.
  • Das Auto neu erfinden!

    24.02.2009, Nikolaus Viebahn, Bonn
    Warum beschränkt man sich nicht auf die Energiespeicherung für Kurzstrecken? Außerorts könnten Autos an Führungsschienen gekoppelt automatisch fahren und mit Strom versorgt werden, auch zur Nachladung. Alle mit gleicher Geschwindigkeit und mit kleinstem Abstand. Das reduziert den Flächenbedarf für Verkehrswege sowie den Energieaufwand. Der Luftwiderstand sinkt, die Fahrzeuge schleppen nicht unnötig schwere und großvolumige Akkupakete mit. Die Reisenden können sich entspannen und die Zeit nutzen.
    Soll die Auto-Mobilität Zukunft haben, genügt es nicht, den Tank durch Akkus oder Brennstoffzellen zu ersetzen. Das Auto muss neu erfunden werden.
  • Nicht ohne Wärme-Kraft-Kopplung!

    24.02.2009, Roland Minde, Konstanz
    Ein auf Primärenergie (Öl, Kohle, Kern) basierendes Energie-Konzept, welches entstehende Abwärme vergeudet, ist kein gutes Konzept!
    Zum Beispiel schlecht: Hybrid-Autos zur Stromerzeugung.
    Zum Beispiel gut: dezentrale Blockheizkraftwerke (in Einfamilienhäusern) zum Heizen, Strom erzeugen und Strom tanken.
  • Kategorial oder ontologisch?

    24.02.2009, Paul-Gerhard Schank, Berlin
    Kategorial oder ontologisch?
    Mir scheint, das ist bezüglich Anselms Beweis die Frage.
    Soweit ich ihn verstehe, will er uns sagen:
    Wenn wir erst einmal begonnen haben, dass wir Gott mit-denken, dann können wir diesen Schritt nicht mehr rückgängig machen. Er bleibt dann als notwendige Kategorie in unserem Denken.
    Wer ernsthaft über Gott spricht und nachdenkt, hat diesen Schritt bereits vollzogen.
    Dass sich für Anselm Gott auf diese Art erweist, ist insofern nur konsequent und nicht etwa "sein Problem". Es ist ein Wechsel der Denkungsart, nicht ein greifbarer Beweis.
  • Generelle Beschönigung?

    24.02.2009, Thomas Wietoska
    In Heft 3/09 der Zeitschrift "Spektrum der Wissenschaft" wurde relativ ausführlich über die aktuelle Entwicklung auf dem Sektor der Elektrofahrzeuge berichtet. Was ich bei diesem Artikel vermisse, ist eine genaue Analyse der zur Zeit verfügbaren Infrastruktur zur Bereitstellung der notwendigen Ladeleistungen und Energien für eine hohe dichte von Elektrofahrzeugen. Schließlich wurde bei der Auslegung des Energieversorgungsnetzes nicht berücksichtigt, das gegen 17 Uhr nicht nur der Elektroherd und die Beleuchtung eingeschaltet wird, sondern auch noch eine Unzahl von Elektroautos mit Leistungen jenseits der 10 kW aufgeladen werden. Lässt sich in einem einzelnen Haushalt noch relativ einfach ein Drehstromanschluss entsprechender Leistung nachrüsten, so dürfte es in kleineren Orten jedoch schnell zur Überlastung der Mittelspannungs-Transformatoren kommen. Zwar wird gerne behauptet dies sei alles in den Griff zu bekommen (http://www.energiespektrum.de/index.cfm?pid=1388&pk=80374) doch wird es dazu wieder unzähliger Zusatzmaßnahmen bedürfen, wie im verlinkten Artikel angedeutet wird.

    Was ich jedoch noch weitaus bedenklicher finde als die generelle Beschönigung der Elektroautos, sind die Angaben der Hersteller. Nimmt man den in Ihrem Heft vorgestellten Tesla, so wird dieser mit 360 km Reichweite beworben. Nicht viel, wenn man dann mindestens 4 Stunden "nachtanken" muß. Liest man aufmerksam den Artikel, so wird man schnell stutzig. Dort wird von 225 kW Motorleistung und 53 kWh Energiegehalt der Akkus gesprochen. Rechnerisch ist nach etwa 15 Minuten Vollgas Schlussß. Selbst bei über 200 km/h sind das kaum mehr als 50 km. Gehe ich davon aus, das ein Auto etwa 40 kW braucht, um 160 km/h zu fahren (was der Erfahrung nach so ist, wenn man Höchstgeschwindigkeit und Leistung der Autos vergleicht), eine für so einen Wagen gemütliche Geschwindigkeit, so ist nach nicht einmal 200 km Schluss. Weiterhin fällt mir auf, das diese Akkus ("Notebookakkus", vermutlich Rundzellen Typ CGR18650) keinesfalls für Belastungen mit 4 C (also Entladeleistung 4 mal so hoch wie der Energiegehalt) ausgelegt sind. Und auch kalte Temperaturen machen den Zellen zu schaffen. Hinzu kommt, das nach etwa 500 Zyklen die Kapazität schon um mehr als 20 Prozent abnimmt. (Quelle: http://www.actec.dk/Panasonic/pdf/CGR18650E.pdf).

    Man könnte argumentieren, das die Messung von Durchschnittsverbrauch und somit die Reichweite von Fahrzeugen mit Verbrennungsmotoren auch unter nicht realistischen Bedingungen stattfinden. Nur geht es dort nicht um die Halbierung oder gar Drittelung der angegebenen Reichweite bei etwas zügigerer Fahrweise. Selbst bei sportlicher Fahrweise sind die erzielbaren Reichweiten nur rund 20 Prozent geringer als Werksangaben. Wenn ich mir vorstelle, über 100.000 Euro für ein Fahrzeug auszugeben - und bei einer Vollgasfahrt ist nach nicht einmal 100 km Ende, und das für mindestens vier Stunden, nämlich die benötigte Zeit zum Aufladen???

    Es ist wieder einmal typisch für die politisch so geförderte Elektroauto-Branche, statt reale Betrachtungen (CO2-Ausstoß bei vorhandenem Energiemix, Einbeziehung der Akkuentsorgungs-Problematik, tatsächlich mögliche Leistungsmerkmale, Infrastruktur für Ladung) nur die üblichen Schlagworte zu predigen. Warum nicht einfach dazu stehen, das zur Zeit diese Technik einfach nicht ansatzweise eine Alternative ist. Und kein Mensch scheint auf die Idee zu kommen, dass für die Stadtfahrten zur Arbeit von wenigen Kilometern auch ein Fahrrad genutzt werden kann. Besser kompliziert als das Naheliegende. Lieber das Geld in einen Ausbau der Radwege in der Stadt und im Umland investieren, damit man auch sicher mit wettergeschützten Liegerädern zur Arbeit fahren kann. Diese kosten nur wenige tausend Euro und sind wirklich umweltfreundlich. Die "Ladezeit" beträgt rund eine Minute für das Verspeisen eines Müsliriegels.

    Im Übrigen fahre ich nach Belieben mit einem sparsamen TDI, einem sehr gut motorisierten Sportwagen oder dem Rad die rund 40 km zur Arbeit. Somit bin ich relativ neutral und für vieles offen, solange die Vorschläge auch wirklich im realen Leben ohne schwachsinnige Auflagen und Zusatzabgaben durchsetzbar sind.