Lesermeinung - Spektrum der Wissenschaft

Ihre Beiträge sind uns willkommen! Schreiben Sie uns Ihre Fragen und Anregungen, Ihre Kritik oder Zustimmung. Wir veröffentlichen hier laufend Ihre aktuellen Zuschriften.
  • Naturkatastrophe in Japan nicht auf Deutschland übertragbar

    19.08.2011, Gerd Zelck, Seevetal
    Den guten Beitrag mit der richtigen Erkenntnis, dass es keinen sicherheitstechnischen Grund gab und gibt, deutsche Kernkraftwerke abzuschalten, möchte ich ergänzen:
    Erdbeben und Tsunami forderten in Japan mindestens 28 000 Tote; tausende werden noch vermisst. Dagegen gab es durch die Probleme bei den Kernkraftwerken bis heute kein einziges Todesopfer. In Deutschland gab es in den vergangenen 45 Jahren, in denen die Kernenergie genutzt wurde, ebenfalls kein einziges Todesopfer, dagegen aber über eine Million Verkehrstote und eine ähnliche hohe Zahl an Schwerverletzten mit lebenslang bleibenden starken Behinderungen. Und was machen wir aus diesen Fakten? Wir übertragen die Naturgefahren in Japan und deren technische Mängel an den Reaktoren auf unser Land und steigen überhastet aus der Nutzung aus.
    Zusätzlich wird eine Gefahr durch gezielte Flugzeugabstürze auf unsere Kernkraftwerke aufgebaut. Ein verhältnismäßig kleines Objekt am Boden, wie ein KKW es darstellt, mit einem Flugzeug zu treffen, erfordert langjährige Übungen, wie sie wohl nur Militärpiloten erfahren. Terroristen, die Passagierflugzeuge kapern, erlangen diese fliegerischen Fertigkeiten wohl kaum und suchen sich leichtere Objekte, die möglichst auch noch viel spektakulärer sind, wie z. B. Wolkenkratzer in New York. Auch wir haben ähnliche Bauten in Frankfurt und auch das Reichstagsgebäude in Berlin oder ein vollbesetztes Fußballstadium wären unter Sichtflugbedingungen leichter zu treffen als so ein kleines Atomei. Ich denke, dass die Bekämpfung und Diskreditierung der Kernenergie zunächst der Ausgangspunkt war und man dann nach geeigneten Ansatzpunkten suchte. Die tragischen Ereignisse in den USA waren dafür ein willkommener Anlass.
    Allgemein verbreitet ist die Meinung, dass radioaktive Strahlung grundsätzlich schädlich für den menschlichen Organismus ist. Hierbei wird eine lineare Abnahme der Schädlichkeit aus Bereichen konkreter Vorkommnisse mit beobachteten Schädigungen bis hin zum Wert Null-Radioaktivität zu Grunde gelegt. Danach ist dann auch schon die natürlich vorhandene Umweltstrahlung, unter der sich alles Leben auf der Erde entwickelt hat, für uns Menschen grundsätzlich schädlich. Diese Einstellung über die grundsätzliche Gefährlichkeit radioaktiver Strahlungwird insbesondere von speziellen Protagonisten-gruppen wie Greenpeace, der Partei Die Grünen etc. vertreten und gehütet. In der Öffentlichkeit unterdrückt werden dagegen Beobachtungen, dass niedrige Strahlendosen für die menschliche Gesundheit eventuell sogar förderlich sein könnten. Und diese Beobachtungen gibt es!

    In Deutschland beträgt die mittlere Dosis durch die natürliche Strahlung 2,4 mS/J und kann regional bis 4 mS/a ansteigen. In bestimmten Gegenden der Erde ist diese Strahlenbelastung wesentlich höher, ohne dass dadurch besondere Krankheiten und Leiden auffällig geworden sind, so z. B. in Brasilien/Atlantikküste mit 200 mS/a, Indien/Monazitbezirk mit 40 und Ramsar/Iran mit 450 mS/a.
    Wir müssen aber gar nicht so weit unseren Blick schweifen lassen. In den Heilstollen in Bad Gastein/Österreich wurden im Mittel 44.000 Bq gemessen (Spitzenwerte bis 166.000 Bq/m³ Luft) verursacht durch Radongas. Das Bfs empfiehlt (heute) eine Wohnraumsanierung ab 100 Bq/m³. Trotz der hohen Strahlenbelastungen im österreichischen Heilstollen kommen viele Besucher und Heilsuchende und sichern gute Geschäfte. Ein Freund von mir war dort und fuhr mit seiner Frau einmal zum Kennenlernen in den Stollen ein. Allein dafür mussten sie pro Person 28 € bezahlen. Wenn das gefährlich wäre, wäre das in Österreich bestimmt verboten worden. Aber gründliche Studien mit bestrahlten und nicht-bestrahlten Probandengruppen sollen die heilende Wirkung eindeutig nachgewiesen haben.
    Insbesondere das letzte Beispiel führt zu der provokanten Frage: Ist jede Strahlendosis aus radioaktiven Quellen schädlich? In einer Broschüre „Strahlung und Strahlenschutz“ von 1992 vom damaligen Bundesamt für Strahlenschutz (Bfs) steht darüber: "Von Anbeginn an hat sich alles Leben auf der Erde unter dem Einfluss von ionisierenden Strahlen entwickelt. Obwohl es die Theorie gibt, dass ein bestimmtes Maß an ionisierender Strahlung Lebensvorgänge auch positiv beeinflussen kann, gehen alle Schutzkonzepte grundsätzlich von einer schädlichen Wirkung aus."
  • Nicht ganz überzeugend ...

    19.08.2011, Guido Carl, Lorsch
    Vielen Dank zunächst, dass Sie auf meine Kritik eingehen.

    Was meinen zweiten Hinweis angeht: Sie haben ganz Recht, dort hat Tepco bestritten, dass es sicherheitsrelevante Schäden durch das Erdbeben gegeben habe. Es tut mir leid, da habe ich mich völlig vertan und Ihnen unnötig Arbeit gemacht.

    Dass Sie allerdings meinen ersten Hinweis als Beleg verstehen wollen, geht weit am Ziel vorbei. Natürlich ist das kein unumstößlicher Beleg, sondern eben ein Hinweis darauf, dass das Erdbeben Schäden auch an sicherheitstechnisch relevanten Leitungen angerichtet haben kann.

    Es ist doch Ihre Aufgabe nachzuprüfen, ob a) die gebrochenen Leitungen tatsächlich nicht sicherheitstechnisch relevant waren. Und falls das - wie ich ebenfalls vermute - zutrifft, ist zu zeigen, ob b) diese Leitungen deutlich weniger erdbebensicher verlegt waren als die sicherheitstechnisch relevanten Leitungen. Erst dann könnten Sie man den Hinweis als vermutlich unzutreffend abhaken.
    Das war übrigens schon Ihre Aufgabe, als Sie Ihren Artikel recherchiert und geschrieben haben, nicht erst, seit ich auf dieses Defizit hingewiesen habe. Und nun verzichten Sie nicht nur darauf, diesem Hinweis nachzugehen, sondern fordern von mir die Belege, die Sie selbst nicht gesucht haben. In meinen Augen ist das nur Rhetorik.

    Und sicher, meinen Hinweis auf frühzeitige Messungen radioaktiver Teilchen habe ich nicht belegt. Leider finde ich den Artikel nicht, in dem ein fachkundiger Japaner (Techniker, Wissenschaftler?) solche Messungen erwähnt hat. Vielleicht finde ich den Artikel aber noch ...

    Mit freundlichen Grüßen
  • Es gibt durchaus Nachweise

    18.08.2011, Ottmar Krüger
    Die meisten CFS-Symptome konnten bereits pathophysiologisch nachgewiesen werden. Man findet auch hierzulande veränderte Laborparameter bei CFS-Kranken, verglichen mit den Testergebnissen gesunder Personen.
    Fakt ist, dass es sich bei CFS/Myalgischer Encepalomyelitis laut ICD 10 G 93.3, um eine neurologische Erkrankung handelt.
    In den neuesten, internationalen Konsenskriterien ME/CSF/2011 wird CSF als eine erworbene, neurologische Erkrankung definiert, die mit vielschichtigen Dysfunktionen einhergeht, wie etwa:
    - Dysregulationen des Nervensystems und Immunsystems (mit intrazellulär persistierenden Infektionen: Bakterien,Viren, Pilze) und ihren Folgen
    - Dysregulation der endokrinen Drüsen
    - Störungen im Zellstoffwechsel der Zellen (Mitochondropathie)
    - gestörter Ionenkanaltransport
    - veränderte Genexpression
    Für all diese Dysfunktionen gibt es messbare Laborparameter.
    Es gibt also durchaus Nachweise!
  • Warum nur für ipad?

    16.08.2011, Manuel Schiffer, 88662 Überlingen
    Eine tolle Idee, aber warum stellen Sie das nur für iPad zur Verfügung? So etwas sollte plattformunabhängig auf einer Website angeboten werden. Alle Bildungseinrichtungen für Astronomie wären glücklich!
  • Sendeschluss für die Inflation?

    16.08.2011, Dr. Alexander Unzicker, München
    Es ist schon bemerkenswert, wenn ein bekannter Kosmologe wie Paul Steinhardt sich zu einem Satz durchringt wie "Wenn die Inflationstheorie keine klaren Vorhersagen macht, wozu ist sie dann gut?". Recht hat er. Allerdings hätte man die Argumente, die er und andere wie Roger Penrose aufzeigen, auch abkürzen können: Die Inflationstheorie hat ein Problem mit der Falsifizierbarkeit. Denn die Hoffnung, aus den Daten des kosmischen Mikrowellenhintergrundes 380000 Jahre nach den Urknall ein Modell zu bestätigen, das sich in den ersten 10 hoch minus 32 Sekunden abspielt, ist nun mal reichlich naiv. Einen quantitativen Test der Inflation - und Wissenschaft ist immer quantitativ - hat es daher nie gegeben, auch wenn dies bei der kosmischen Hintergrundstrahlung oft behauptet wurde. Ebensogut könnte man die Existenz von Außerirdischen dadurch als belegt ansehen, dass man Daten mit weißem Rauschen empfängt und dies als Sendeschluss eines extraterrestrischen TV-Kanals interpretiert.

    Man sollte nicht vergessen, dass die Inflationstheorie als Erklärung dienen sollte für die rätselhafte Flachheit des Universums, die Robert Dicke 1969 erstmals erkannte. Und Dicke wies auch auf eine oft verdrängte Möglichkeit hin: Unsere Gravitationstheorie könnte in kosmologischem Maßstab grundlegend falsch sein.

    Dem müsste man ernsthafter ins Auge sehen, anstatt in immer schnellerem Rhythmus rein qualitative Spekulationen aufzuwerfen, die ebenso wenig falsifizierbar sind wie die Inflation. Insofern ist Steinhardts Erkenntnis reichlich spät und sehr partiell - und beleuchtet vor allem, dass die Art und Weise wie er und viele seiner Kollegen seit langem Wissenschaft betreiben, bizarr ist.
  • Zähler und Nenner verwechselt

    15.08.2011, Arfst Nickelsen, Bielefeld
    Im abschließenden Abschnitt "Revolutionär wider Willen" heißt es: "Die beiden Potenzreihen sind wohlbekannt; die im Nenner ergibt als Summe z/(1-z)^2 und die im Zähler 1/(1-z)".
    Hier müssen die Worte "Zähler" und "Nenner" vertauscht werden, wie auch aus der (korrekten) weiteren Rechnung hervorgeht.

  • Wann war der Nullpunkt der Zeitrechnung?

    12.08.2011, B. Koller, Basel
    Es hört sich plausibel an, dass man ein Millenium erst nach 1000 Jahren und nicht nach 999 Jahren feiern soll. Aber wo beginnt man zu zählen? Hätte es unsere heutige Zeitrechnung schon damals gegeben, wäre sicherlich am 31. Dezember des Jahres -1 gefeiert worden, denn der Nullpunkt ist der einzige ausgezeichnete Punkt auf der Zeitachse. Und so feierte man eben logischerweise das Millenium nach 2000 Jahren am 31. 12. 1999.
    Antwort der Redaktion:
    Es ist noch komplizierter. In der historischen Zeitrechnung gibt es kein Jahr null. Auf den 31. Dezember des Jahres 1 v. Chr. folgt der 1. Januar des Jahres 1 n. Chr. Die Astronomen rechnen (mit gutem Grund) von unserer gegenwärtigen Jahreszählung rückwärts; sie haben ein Jahr null und davor negative Jahreszahlen (für Einzelheiten siehe den Wikipedia-Artikel zum Jahr null).


    Nach der historischen Zählung gibt es zwar einen ausgezeichneten Punkt auf der Zeitachse, es war das Ende des 31. Dezembers des Jahres –1; aber zugleich war es der Anfang des Jahres 1, und damit haben diejenigen Recht, die das Millennium am 31. 12. 2000 feiern.


    Nach der historischen Zählung ist das "ausgezeichnete Ereignis" nicht ein Punkt, sondern ein ganzes Jahr, nämlich das mit der Nummer 0. Aber üblicherweise fängt man beim Zählen nicht mit 0 an, sondern mit 1 (nur manche Mathematiker und die Computer halten das anders). Und schon wieder liegt die korrekte Millenniumsfeier an Silvester 2000.


    Christoph Pöppe, Redaktion
  • Bitte Fakten berücksichtigen!

    11.08.2011, Wolfgang Bosswick, Erlangen
    Leider gewinnt man beim Lesen des Artikels den Eindruck, dass hier manipulativen Atomkraftbefürworten unkritisch eine Plattform geboten wurde. Wesentliche Fakten fallen völlig unter den Tisch, insbesondere die Tatsache, dass die Kernschmelze mindestens in Reaktor 1 bereits vor dem Tsunami und dem Ausfall der Notstromdiesel in vollem Gang war, weil das Erdbeben die Kühlung fatal beschädigt hatte. Das ist kein Detail, weil sich weltweit die Atomindustrie darauf hinausredet, an anderen Standorten gäbe es keine Tsunamis. Eine sehr gute Analyse findet man unter:

    http://cnic.jp/english/newsletter/pdffiles/nit143.pdf
    Antwort der Redaktion:
    In der genannten Quelle, einem Newsletter des Citizens' Nuclear InformationCenter, das sich selbst als Anti-Kernenergie-Organisation bezeichnet, ist ein postulierter Unfallhergang veröffentlicht. Der japanische Verfasser Mitsuhiko Tanaka, "wissenschaftlicher Autor und ehemaliger Konstrukteur von Reaktordruckbehältern", nimmt an, dass bereits das Erdbeben einen Leitungsbruch im Reaktorblock 1 verursacht hat. In seiner Ausarbeitung diskutiert er Messdaten relevanter Betriebsparameter ab der sechsten Stundenach dem Erdbeben. Zu diesen Zeitpunkt beträgt der gemessene Wasserstand oberhalb des Reaktorkern rund 0,5 m. Der Tsunami erreichte Fukushima bereits knapp eine Stunde nach dem Erdbeben. Vor diesem Hintergrund und mit den verfügbaren Messdaten lassen sich die Abläufe im Reaktorkern in der ersten Stunde nach dem Erdbeben nicht seriös diskutieren.



    Mit dem im Juni 2011 veröffentlichten "Report of the Japanese Government to the IAEA Ministerial Conference on Nuclear Safety. The Accident at Tepco's Fukushima Nuclear Power Stations" liegt ein offizieller Bericht vor, in dem die bisherigen Erkenntnisse detailliert zusammengefasst sind.



    http://www.iaea.org/newscenter/focus/fukushima/japan-report



    In der Zusammenfassung dieses Berichts heißt es auf S. 29: "Although damage to the external power supply was caused by the earthquake, no damage caused by the earthquake to systems, equipment or devices important for nuclear reactor safety at nuclear reactors has been confirmed. However, further investigation should be conducted as the details regarding this situation remain unknown."



    Damit bleibt die bisherige Aussage richtig, dass es zum jetzigen Zeitpunkt keine stichhaltigen Belege dafür gibt, dass schon das Erdbeben vor dem Tsunami sicherheitsrelevante Schäden an einzelnen Blöcken verursacht hat. Jede anderslautende Behauptung ist zum jetzigen Zeitpunkt reine Spekulation.



    Dr.-Ing. Ludger Mohrbach, Dr.-Ing. Bernhard Kuczera, Dr. Th. Walter Tromm, Dr.-Ing. Joachim Knebel
  • Idealisierungsperspektive Selbstbetrachtung

    11.08.2011, Martin Linke, Erfurt
    Als Erstes einmal ein Riesenkompliment. Ich bin ein sehr begeisterter Leser der Spektrum-Hefte. Aktuellster Stand der Forschung, verständlich formuliert und ein relativ vorbehaltloser Einblick auch in die Konflikte der Forschung. Danke sehr!

    Zum Artikel:

    Ich verfolge diese Artikelserie von Anfang an mit großer Spannung. Mir fällt auf, dass auch die Wissenschaftler, trotz aller Bemühungen, nicht frei von Vorurteilen sind. Ich finde es menschlich und verständlich, dass wir uns selber gewünschte Eigenschaften zuschreiben, deswegen auch danach suchen. Wissenschaftlern sollte dies so nicht unterlaufen. Klar ist auch, die Wirklichkeit, Realität, ist zu komplex, um durch uns verstanden zu werden. Zwangsläufiges Vermodellhaften und das Isolieren von Prozessen sind die Folge davon.
    Im Augenblick sieht es für mich so aus, als wollten wir Menschen uns bestimmte Fragen nicht beantworten. Zum Beispiel: Prozessiert unser Gehirn logisch? Ist Logik überhaupt notwendig, um erfolgreich Handlungen zu planen (viele Wege führen zum Ziel)? Ist es notwendig, vordefinierte Ziele zu erreichen, oder ist die Motivation zu irgendeiner Handlung wichtiger? Was ist Intelligenz?

    Ich persönlich sehe das Zusammenspiel zwischen unserer Psyche und unserem Gehirn etwas komplexer. Da unser Gehirn durch Evolution sehr gut an unsere Umwelt angepasst ist, widerspiegelt unser Gehirn in seiner Struktur schon ziemlich genau die Umwelt. Also selbst mit den verhältnismäßig geringen sensorischen Eingaben, zu denen wir fähig sind, gibt es schon nur ein gewisses Augabespektrum. Dies von Beginn der Wahrnehmung an. Gesellschaftliches Lernen ist quasi nur ein Finetuning. Die Zusammenhäng zwischen Bewusstsein, Wahrnehmung, Logik und den Vorstellungen über uns selbst und unsere Umwelt sind also zwangsläufig ressourcenbeschränkt. Ich meine, wir können nicht, was wir wollen, sondern nur, was wir können! Solange wie unsere Struktur uns ermöglicht, essen, schlafen und uns vermehren zu können, so lange sind wir erfolgreich. Dabei ist es nicht notwendig für uns, die Umwelt oder Realität an sich zu begreifen. Nur weil ein vermutetes Ergebniss eintrifft, ist die Idee dahinter nicht automatisch entsprechend dem tatsächlichen Prozess.

    Mit der Empathie sehe ich das identisch. Da alle Prozesse in uns Strukturfolgen unseres Gehirnes sind (unterschiedlich dicke Myelinummantelung um die Nervenbahnen, Verschaltung der Synapsen), ist es mit Sicherheit nicht weit hergeholt, dass man auf Grund der Gestik und Mimik ziemlich automatisiert auf die Stimmung und Motivation seines Gegenübers kommt. Zusätzlich wird dieses System durch erlernte und antrainierte Fähigkeiten erweitert oder eingeschränkt. Ich persönlich halte die allermeisten Prozesse in unserem Gehirn für unterbewusst, quasi automatisiert. Wir bemerken unsere Gedanken und Gefühle nur. Bewusstsein ist für mich, unsere einzigartige Fähigkeit, unsere Struktur durch bewusstes, zielgerichtetes Training zu beeinflussen um ein angestrebtes Verhalten zu erreichen. Was uns aus den verschiedensten Gründen mehr oder weniger gut gelingt.

    Nur weil wir selbst unsere Logiken als zwingend logisch betrachten, bedeutet es nicht, dass diese Logik auch außerhalb von uns existiert. Nur erkennen wir halt sehr gerne Muster (wie schon auch von ihnen in Artikeln über Glaube beschrieben), wo auch gar keine sind. Die einzige rationale Fähigkeit von uns ist, wie ich meine, die Fähigkeit der Infragestellung von uns selbst. Die Norm ist zurzeit leider, dass Menschen sich lieber für fast alles eine Bestätigung suchen, was man sich so vorstellen kann, indem sie nur die Widersprüche hartnäckig genug ignorieren. Daher ist es für Menschen schwierig, zwischen Imagination und Wirklichkeit zu trennen. Wird die Gruppe der Zustimmenden groß genug, wird aus diesen Überzeugungen Wissen. Also ein entspannterer Umgang mit uns selbst führt zwar nicht zu mehr faktischen Wissen, hält uns aber offener für alternative Sichtweisen.

    Ich freue mich schon sehr auf weitere inspirierende Beiträge.

  • Fakten?

    11.08.2011, Jutta Paulus, Neustadt an der Weinstraße
    Wenn, wie die Autoren schreiben, Notstromdiesel und Treibstoffvorräte in Deutschland verbunkert sind, warum taucht dann eben dieser Punkt in sämtlichen Prüfkatalogen bzw. Nachrüstungsforderungen auf? Woher kommt die Einstufung, deutsche AKW seien für das "100 000-jährige" Erdbeben am jeweiligen Standort ausgelegt? Neckarwestheim war nicht für die im nahe gelegenen Oberrheingraben auftretenden Beben (vgl. Basel im 14. Jahrhundert) ausgelegt.

    Mehrere Experten halten Tepcos Darstellung, der Wasserstoff sei aus Block 3 in Block 4 gelangt, für haltlos
    (http://www.tec-sim.de/images/stories/sfp-failure-23-7.pdf). Dazu hätte der Wasserstoff im WetWell unter die Wasseroberfläche diffundieren und von dort aus das Einspeiserohr erreichen müssen. Viel wahrscheinlicher
    ist das "Siphoning", welches durch Kühlwasserverlust und das Prinzip der kommunizierenden Röhren zur Freilegung der Brennstabköpfe führt.

    Kurz: "I am not convinced" - und daher ist mir 2022 auch zu spät. Auch wenn mir klar ist, dass die für meinen Wohnort größte Gefahr wahrscheinlich nicht vom (Luftlinie) nächstgelegenen AKW Philippsburg, sondern von Fessenheim und Cattenom ausgeht, und wir Deutsche auf diese keinen Einfluss haben.

    eingegangen bei spektrumdirekt am 26.7.2011
    Antwort der Redaktion:
    Die Auslegung deutscher Kernkraftwerke laut Regelwerk - unter anderem auf das 100.000-jährige Erdbeben und das 10.000-jährige Hochwasser am jeweiligen Standort zuzüglich Sicherheitsreserven - wird in den periodischen Sicherheitsüberprüfungen regelmäßig auf den Stand von Wissenschaft und Technik hin überprüft und bei Bedarf durch entsprechende Nachrüstungen verbessert. Bei neuen Erkenntnissen kommen alle Auslegungsdetails auf den Prüfstand, also auch solche, die schon in der Vergangenheit mehrfach überprüft worden sind.


    Das Basel-Beben von 1356 mit Herd im südlichen Endbereich des Oberrheingrabens ist selbstverständlich bei der Auslegung des Kernkraftwerks Neckarwestheim nach den Grundsätzen der kerntechnischen Regel KTA 2201.1 "Auslegung von Kernkraftwerken gegen seismische Einwirkungen; Teil 1: Grundsätze" als eines von vielen, im Erdbebenkatalog für Deutschland und angrenzende Gebiete geführten Ereignissen berücksichtigt worden. Nach den KTA-Grundsätzen ist einerseits ein 200-Kilometer-Standortumkreis zu berücksichtigen, anderseits sind die stärksten Ereignisse innerhalb der darin befindlichen seismotektonischen Einheiten in Standortnähe zu verschieben. Zum Basel-Beben ist festzustellen, dass sein Epizentrum weiter entfernt ist und außerhalb dieses Standortumkreises liegt, und dass es nach der Anwendung dieser Grundsätze gegenüber Erdbeben anderer Regionen von untergeordneter Bedeutung ist. Hier dominieren die Erdbeben in der Schwäbischen Alb, die seinerzeit auch bei der Auslegung des Standorts als maßgebliche Ereignisse identifiziert und zu Grunde gelegt wurden.



    Als beratendes Gremium steht den Aufsichtsbehörden unter anderem die Reaktorsicherheitskommission zur Seite, in der satzungsgemäß die "gesamte Anschauungsbandbreite nach dem Stand von Wissenschaft und Technik" repräsentiert sein soll, so dass dort regelmäßig auch einer Kernenergiebegünstigung unverdächtige Sachverständige vertreten sind. Das unverändert hohe Sicherheitsniveau in Deutschland hat dieses Gremium vor Kurzem mit seiner Stellungnahme zur anlagenspezifischen Sicherheitsüberprüfung der deutschen Anlagen unter Berücksichtigung der Ereignisse in Fukushima bestätigt. Bundesumweltminister Norbert Röttgen hat am 17. Mai 2011 bei der Präsentation dieser Stellungnahme betont, es gebe keinen sicherheitstechnischen Grund, "Hals über Kopf aus der Kernenergie auszusteigen" und es sei "verantwortbar, nicht sofort auszusteigen".



    Die Vermutung, dass die Wasserstoffexplosion im Block 4 durch einen "Siphon-Effekt" verursacht wurde, der zusätzlich zum Ausdampfen Wasser aus den Abklingbecken abgesaugt hat, ist eine schlüssige technische Erklärung, die nicht im IAEA-Bericht enthalten ist. Das Rückströmen von Wasser durch Beckenkühlleitungen kann nur dann eintreten, wenn entsprechende Rückschlagklappen nicht vorhanden waren oder versagt haben. Hierzu gibt es einige Beispiele aus US-Anlagen. In Fukushima-Anlagen könnte das Offenbleiben von Ventilen nach dem Verlust der Batteriekapazität als generische Ursache gewirkt haben. In diesem Fall könnten einzelne Brennelemente im Abklingbecken von Block 4 ausgetrocknet sein, unter Bildung von Wasserstoff bei der Zirkon-Wasserdampf-Reaktion. Dieser Hergang der Wasserstoffproduktion ist auch bei den Blöcken 1 bis 3 denkbar. Der vermutete Übertrag von Wasserstoff aus dem Block 3 in Block 4 erscheint dagegen unwahrscheinlich.



    Dr.-Ing. Ludger Mohrbach, Dr.-Ing. Bernhard Kuczera,
    Dr. Th. Walter Tromm, Dr.-Ing. Joachim Knebel

  • Welche Schäden verursachte das Erdbeben?

    11.08.2011, Guido Carl, Lorsch
    In der Analyse schreiben die Autoren, alle betroffenen Reaktoren seien "nach dem Erdbeben zunächst in einen stabilen Zustand überführt worden." Es gibt jedoch Hinweise darauf, dass bereits das Erdbeben erhebliche Schäden an den Reaktoren zur Folge hatte, also noch bevor die Flutwelle den Standort erreichte.

    - Bruch von Wasserleitungen im Reaktor 1: www.webcitation.org/5ygMQfEn5
    - Schädigung des Notkühlsystems im Reaktor 3: www.webcitation.org/5ytvAtYHZ
    - Auch soll es schon sehr frühzeitig Messungen radioaktiver Teilchen gegeben haben, was auf eine Beschädigung des Containments schließen ließe.

    Es verwundert doch sehr, dass die Autoren solche Hinweise außer Acht lassen, denn sie verändern die Sachlage von Grund auf. Gerade bei einer so heftig umstrittenen Technologie dürfen solche Fehler nicht vorkommen, denn sie untergraben die Glaubwürdigkeit der gesamten Untersuchung.

    eingegangen bei spektrumdirekt am 26.7.2011
    Antwort der Redaktion:
    Diese Hinweise sind in den genannten Quellen nicht zu finden. In der ersten wird ein Augenzeuge zitiert,
    der sich zum Zeitpunkt des Erdbebens im Reaktorgebäude von Block 1 in einem Bereich befindet, in dem gewöhnlich keine radioaktive Kontamination zu befürchten und keine Schutzkleidung zu tragen ist. Er berichtet von metallischen Leitungen, deren Schweißnähte aufbrechen, von austretendem Wasser und der Unsicherheit, ob es sich um kontaminiertes Wasser handelt. Stichhaltige Belege für die Behauptung, es habe sich tatsächlich um sicherheitstechnisch relevante Leitungen des Reaktors gehandelt, gibt der Augenzeugenbericht nicht her.



    In der zweiten Quelle, einem Bericht des Verbandes der japanischen Atomwirtschaft, sind keine Aussagen zur Beschädigung des Notkühlsystems im Block 3 vor dem Eintreffen des Tsunamis enthalten. Dort heißt es jedoch: "Quake caused no major damage to reactors. Tokyo Electric Power Company has found from its data that the March 11th erarthquake caused no safety abnormalities at the Fukushima Daiichi nuclear plant until the tsunami came." Ihre Behauptung, es habe frühzeitig vor dem Tsunami Beschädigungen am Sicherheitsbehälter und dadurch Radioaktivitätsfreisetzungen gegeben, bleibt unbelegt. Aus den veröffentlichten Daten gemessener Ortsdosisleistungen lässt sich die Aussage nicht ableiten.



    Fukushima ist keine Frage des Restrisikos. Hauptursache für diesen Unfall war die unzureichende Auslegung gegen Tsunamis bei gleichzeitigem Versagen der Aufsichtsbehörden. Stichhaltige Belege für anderslautende Behauptungen, wonach schon das Erdbeben vor dem Auftreffen des Tsunamis auslegungsüberschreitende sicherheitsrelevante Schäden an den Reaktoren verursacht habe, so dass der Unfall als Restrisiko-Ereignis eingestuft werden müsse, sind bisher nicht bekannt geworden.



    Mehr als 10 Meter hohe Tsunamiwellen sind an japanischen Küsten etwa alle 30 Jahre zu erwarten und an einzelnen Küstenstandorten etwa alle 100 bis 1000 Jahre. Dies ist bei Weitem nicht so selten, wie es für den Restrisikobereich gefordert wird: ein Ereignis in weniger als 100.000 bis über 1 Million Jahren.



    Premierminister Naoto Kan hat am 18. Mai 2011 bestätigt, dass die Aufsichtsbehörde nicht unabhängig war, Strukturänderungen angekündigt und am 4. August personelle Konsequenzen gezogen. Die Behörde hat es über Jahrzehnte versäumt, selbst nach neuen wissenschaftlichen Erkenntnissen zum Tsunamirisiko einen geeigneten baulichen Schutz durchzusetzen (z.B. wasserdichte Türen in den Maschinenhäusern oder auch verbunkerte Notstromdiesel mit gesicherten Treibstoffvorräten).



    Dr.-Ing. Ludger Mohrbach, Dr.-Ing. Bernhard Kuczera,
    Dr. Th. Walter Tromm, Dr.-Ing. Joachim Knebel

  • Restrisiko

    11.08.2011, Dr. Peter Ziegler, Alsbach-Hähnlein
    Wie von der Atomindustrie vom "Restrisiko" gesprochen wird ist Menschen verachtend. Denn wird dieses Restrisiko Realität, dann sind ganze Landstriche unbewohnbar und die hier lebende Bevölkerung verliert ihre Heimat und den größten Teil ihres Besitzes. Dabei sind diese Schäden nicht durch Versicherungen der Atomkraftwerksbetreiber abgedeckt!

    Weiterhin dürfte z.B. bei einem Super-GAU in Biblis das Rheintal unpassierbar werden mit unabsehbaren Folgen für die europäische und deutsche Wirtschaft und deren Verkehrswege. Man muss nur einmal nachsehen, welche wichtigen Verkehrswege durch dieses Gebiet führen.

    Fazit: Dieses "Restrisiko" ist nicht zu verantworten, auch wenn dabei einige Firmen finanzielle Verluste erleiden.

    eingegangen bei spektrumdirekt am 28.7.2011
    Antwort der Redaktion:
    Wir geben Ihnen Recht, dass das "Restrisiko" nicht Realität werden darf, also äußerst klein sein muss. Allerdings ist Risiko als Schadensausmaß mal Eintrittswahrscheinlichkeit definiert. Letztere ist in Japan nachweislich falsch bewertet worden. Zu Ihrer Kritik der mangelnden Versicherbarkeit lässt sich festhalten, dass die Betreiber nach einem Dreistufenmodell haften: Mit einer über den Versicherungsmarkt gedeckten Haftpflichtversicherung bis 250 Mio. € und darüber hinaus bis 2,5 Mrd. € über einen Haftungsverbund der Betreiber auf Gegenseitigkeit. Außerdem haften die jeweils betreibenden Konzerne mit ihrem Gesamtvermögen für Schäden, die diese Grenze überschreiten. Würde die Forderung nach unbegrenzter Haftung auch an andere risikoträchtige Industriezweige gerichtet, wie Betreiber von Anlagen der chemischen oder petrochemischen Industrie, von Wasserkraftwerken mit Staudämmen oder Riesentankern, so wäre deren internationale Wettbewerbsfähigkeit massiv eingeschränkt.


    Konservative Abschätzungen zu den Kosten des Rückbaus aller Reaktorblöcke an den Standorten Fukushima Daiichi und Daini inklusive notwendiger Aufräumarbeiten und Erwerb der unbewohnbaren Landflächen in der Evakuierungszone sowie entsprechender zusätzlicher Kompensationszahlungen an die bisherigen Nutzer lassen eine Schadenssumme des Reaktorunfalls in einer Bandbreite von 60 bis 180 Mrd. € erwarten.



    Zum Vergleich: Könnten in Deutschland die 17 noch vorhandenen Kernkraftwerke auch die zweite Hälfte ihrer technischen Mindestlebensdauer von 60 Jahren ausnutzen, so würden durch den Produktionskostenvorteil von etwa 4 Ct/kWh (wegfallende Abschreibungen plus steigende Marktpreise durch den Emissionshandel in der EU) rechnerisch 180 Mrd. € in heutigem Geldwert eingespart. Durch den Verzicht auf diesen volkswirtschaftlichen Kostenvorteil könnten die ökonomischen Folgen des Fukushima-Unfalls hier zu Lande größer werden als in Japan, sie liegen jedoch zumindest in einer vergleichbaren Größenordnung.


    Dr.-Ing. Ludger Mohrbach, Dr.-Ing. Bernhard Kuczera,
    Dr. Th. Walter Tromm, Dr.-Ing. Joachim Knebel
  • Wie geht das?

    10.08.2011, Liane Mayer, Wien
    Warum drehen sich diese Windräder überhaupt? Warum bleiben sie nicht stehen, sobald sie dem Wind symmetrisch gegenüberstehen? Ohne zyklische Verstellung der Rotorblätter kann ich mir das nicht vorstellen, oder gibt es noch einen anderen Trick?
    Antwort der Redaktion:
    Sehr geehrte Frau Mayer,



    die Rotorblätter sind so geformt, dass der Wind stets eine Angriffsfläche findet. Zudem bestehen sie wie "normale" Windräder aus mehreren Rotorblättern, so dass immer ein Blatt eben nicht symmmetrisch zur Windrichtung steht. Und zusätzlich schalteten die Ingenieure in ihrer Testanlage die Paare so, dass sich jeweils eine Windmühle entgegengesetzt zu ihrer Partnerin bewegte. Ich hoffe, diese Angaben helfen Ihnen weiter.



    Mit freundlichen Grüßen

    Daniel Lingenhöhl
  • Fehlende Systematik

    10.08.2011, Walter Weiss, Kassel
    Ein wenig Systematik würde die Fragestellung merklich erleichtern:

    (1) Das Dreigestirn 'Demokratie / Gleichberechtigung / Menschenrechte' ist die größte und wichtigste menschliche Erfindung der letzten 2.000 Jahre, denn es beendet endlich die unheilvolle und menschenverachtende Rolle und Bedeutung der Religionen. Dieses Dreigestirn ist keine Entdeckung (wie die in den Naturwissenschaften gefundenen Gesetze), erst recht nicht gottgegeben oder genetisch angelegt. Diese Erfindung wurde erforderlich, als die Menschheit sich in den letzten 5.000 Jahren immer schneller vermehrte und Regeln gefunden werden mussten, die ein friedvolles Zusammenleben vieler Menschen ermöglichen sollten.

    (2) Wie alle menschlichen Erfindungen müssen auch diese - zunächst schlagwortartig und grob umrissen genannt - ständig konkretisiert, verfeinert, an den Einzelfall oder einzelne Fallgruppen angepasst, justiert und maßvoll erweitert werden, wie wir das in den westlichen Demokratien ja täglich durch die Tätigkeit der Parlamente, der Gerichte, durch Volksentscheide und Diskussionen auf allen möglichen Ebenen erleben. Dabei können umfassende 'Theorien' jedweder Art erkennbar nur schaden. Die große Linie ist ja bekannt.

    (3) Eine ganz neue Dimension der genannten Erfindung ist die Überlegung in den westlichen Demokratien gewesen, die objektiv bestehenden Vorteile für die überwältigende Mehrzahl der Bürger in diesen Demokratien auch denjenigen Menschen zu geben, die das Pech haben, nicht in geordneten Demokratien nach diesem Muster zu leben. Diese Überlegung bedeutete einmal, alles in friedlicher Weise zu tun, um zu erreichen, dass auch diese Menschen eine solche demokratische Staatsform erhalten. Das bedeutete darüberhinaus, Personen aus derartigen undemokratischen Staaten zur Verantwortung zu ziehen, die die Einführung demokratischer Regeln im Sinne der oben genannten Erfindung verhinderten.

    Der Einwand bei dieser Ausweitung der genannten Erfindung auf nichtdemokratische Staaten, man missioniere da wie eine Religion und man setze außerhalb des undemokratischen Staates geltendes Recht - auch noch nachträglich - an die Stelle des in diesen undemokratischen Staaten geltenden Rechts ('Es kann heute nicht Unrecht sein, was gestern Recht war'), ist spätestens seit den Nürnberger Prozessen entkräftet. Vorrangig ist der Schutz der leidenden Menschen.

    Alles das ist übrigens ebenfalls von Menschen erdacht und gesetzt, also weder gottgegeben, noch irgendwie angeboren.
  • Ein ausführlicher und verständlicher Überblicksartikel

    10.08.2011, Walter Weiss, Kassel
    Das ist der erste Beitrag in der Serie Philosophie, der diese Bezeichnung verdient: ein ausführlicher und verständlicher Überblick über die Philosophiegeschichte zum Begriff 'Gerechtigkeit'.

    Trotzdem habe ich am Schluß eine schlagwortartige Zusammenfassung der Ansichten des Verfassers vermisst, die im Text nur andeutungsweise und versteckt zum Ausdruck gekommen sind (doch wohl mit Bedacht, wie ich voraussetzen möchte) - warum verhält sich der Verfasser insofern so zurückhaltend und zögerlich? Ich denke mir eine solche schlagwortartige Zusammenfassung so:

    (1) Der Begriff 'Gerechtigkeit' wird erst akut, als es größere Menschenmengen gab, die ihr Zusammenleben regeln mußten. Da es derartige größere Menschenansammlungen erst in den letzten rund 10.000 Jahren - allmählich, dann immer schneller wachsend - gegeben hat, war die Zeit zur entwicklungsgeschichtlichen Entstehung eines 'Gerechtigkeits-Gens' viel zu kurz. Mit anderen Worten: alles das, was Gerechtigkeit betrifft, ist weder gottgewollt, noch angeboren, sondern nichts weiter als menschliche Erfindung.

    (2) Die größte menschliche Erfindung der letzten 2.000 Jahre ist das - in sich vernetzte - Dreigestirn 'Demokratie / Menschenrechte / Gleichberechtigung', im westlichen Europa erdacht und eherner unveränderterer Rahmen für alle Gerechtigkeits-Regelungen (sei es durch Gesetz, Richterspruch oder Verfassung). Diese Erfindung hat nun endlich die unheilvolle Rolle aller Religionen abgelöst - wie gesagt: zunächst nur im Bereich der demokratisch gewordenen Staaten.

    (3) Was im jeweiligen Einzelfall in diesem ehernen Rahmen als gerecht empfunden und festgelegt wird, ist je nach den Zeitumständen, die herrschen, zu entscheiden. So kann ja beispielsweise der Bundesgerichtshof oder ein sonstiges oberstes Gericht durchaus eine bisherige Rechtsprechung aufgeben, wenn sich die Zeitumstände geändert haben. Auch kann zB der Bundestag Gesetze aufheben, die nicht mehr den geänderten Zeitumständen entsprechen, und durch neue ersetzen.

    (4) Eine 'Theorie der Gerechtigkeit' ist, da es sich (s.o.) um eine reine Menschenerfindung und nichts Gottgegebenes oder gar
    in der Natur Angelegtes handelt, schon vom systematischen Ausgangspunkt aus ein Unding.