Lesermeinung - Spektrum der Wissenschaft

Ihre Beiträge sind uns willkommen! Schreiben Sie uns Ihre Fragen und Anregungen, Ihre Kritik oder Zustimmung. Wir veröffentlichen hier laufend Ihre aktuellen Zuschriften.
  • Flügelmorphologie und Gleitzahl

    26.07.2016, Jürgen Leonhardt, Mannheim
    Die Riesenvögel haben mich als alten Segelflugpiloten sehr beeindruckt. Die Angaben im Text über die Aerodynamik beziehungsweise das vermutete Flugverhalten und Leistungsvermögen der Supergleiter erscheinen mir dagegen weniger überzeugend.
    Zunächst eine Bemerkung zum Gleitverhalten. Sie schreiben, der Sandersi konnte aus 45 Meter Höhe mehr als einen Kilometer gleiten. Das entspricht einem Gleitwinkel von mehr als 1:200! Die besten „Superorchideen“ der heutigen Segelflugzeuge mit Spannweiten von 25 Metern und mehr schaffen so um die 1:60. Nun gut, möglich ist (fast) alles, aber mir scheint der Wert für den Vogel doch ein wenig hoch gegriffen. Wichtiger für Menschen aber, die sich mit der Paläontologie der Vögel beschäftigen, scheinen mir die Klärung gewisser Details bei der Erklärung der Morphologie der großen Segler.
    Die Flächenbelastung spielt meines Erachtens nicht die große Rolle, wie der Text das vermuten lässt.
    Vögel - und natürlich auch Segelflugzeuge – können bei gleicher Flächenbelastung völlig unterschiedliche Flügelgeometrien haben.
    Ein Segler mit 10 Meter Spannweite und einer Flügeltiefe von einem Meter hat die gleiche Flächenbelastung wie ein solcher mit 20 Meter Spannweite und nur 0,5 Meter Flügeltiefe. Letzterer hat eine große Streckung und ist für schnelle Fliegen besser geeignet als Ersterer.
    Entscheidend für schnelles Fliegen bei guter Gleitzahl ist zunächst einmal nur die Streckung. Der Grund dafür liegt meines Wissens in der Verringerung des Randwirbels am Flügelende. Dieser so genannte induzierte Widerstand entsteht bei beim Druckausgleich zwischen Flügelunterseite (Überdruck) und -oberseite (Unterdruck), der den Energie fressenden Randwirbel erzeugt. Je länger der Flügel und je schmaler das Flügelende, desto kleiner der Randwiderstand und desto besser die Gleitzahl.
    Was in diesem Zusammenhang noch interessant ist: Die Flächenbelastung spielt bei den Supergleitern schon eine Rolle, aber nicht so wie man laienhaft vielleicht vermuten würde (je leichter, desto besser).
    Moderne Supersegler nehme bei sehr gutem Thermikwetter Wasser in ihre Tragflächen auf, um die Flächenbelastung und damit Fluggeschwindigkeit bei gleichem Gleitpfad zu erhöhen (die so genannte „Penetration!“). Das geht natürlich zu Lasten einer höheren Sinkgeschwindigkeit in Metern pro Sekunde und ist daher keine Option für langsames Fliegen im Aufwind. Dafür ist die kleinere Spannweite der Kondore mit der größeren Flügeltiefe besser geeignet. Aber selbst die versuchen mit allen Tricks – dem Spreizten der Randfedern – den induzierten Widerstand zu verringern.
    Fazit: Hohe Streckung (und hohe Flächenbelastung!) ist die Option für den schnellen Geradeausflug, möglichst ohne Kreisen in Aufwinden.
    Kleine Streckung mit geringer Flächenbelastung ist eher die Wahl für den langsamen, kreisenden Flug in der Thermik.
    Ich hoffe, Sie können sich für Ihre Forschung einen Reim darauf machen.
    Angebracht dennoch ein Besuch bei den großen Segelflugzeugbauern, zum Beispiel bei Alexander Schleicher in Poppenhausen in der Rhön, oder bei den Akademischen Fliegergruppen an den Technischen Hochschulen in Braunschweig, Darmstadt, Karlsruhe oder München.
  • Expertise

    26.07.2016, Heinrich Sauer
    Endlich ein Experte, der die Bezeichnung Experte verdient! Deutlich sagt Herr Dreßing, dass Expertise Zeit, Information und langwierige Analyse benötigt. Keine Schnellschüsse aus der Hüfte. Äußerten sich alle Experten so und später, dann wenn die Bedingungen erfüllt sind, sähen Politikeräußerungen, Stammtischdiskussionen und Talkshows besser aus.
    Wir alle sollten den echten Experten Mut machen, sich zu äußern.
  • Verantwortung von Wissenschaft

    26.07.2016, Rainer Biermann
    Das Lesen dieses Beitrages hinterlässt einen extrem faden Nachgeschmack. Einerseits ist es wohl verständlich, dass Herr Dreßing als Wissenschaftler von einem Bündel von "unspezifischen und ubiquitär vorkommenden" Risikofaktoren spricht und gegen eine Stigmatisierung von psychisch Erkrankten arbeitet. Andererseits kann es ihm schon rein theoretisch gar nicht gelingen, Hasstaten, die das eigene Leben und das Leben vieler anderer beenden, von psychischer Erkrankung zu trennen. Wenn Herr Dreßing meinte, eine solche Tat sei kein akuter psychischer Krankheitszustand, dann hätte er wohl seinen menschlichen Verstand mit seiner wissenschaftlichen Karriere an den Nagel gehängt. Solche zwar eher seltenen, aber doch extrem exzessiven Ausbrüche individueller, auf Selbst- und Fremdhass basierender Gewalt erzeugen völlig verständlicherweise ein großes öffentliches Echo und einen hohen Informationsbedarf. Es ist ehrenwert, Menschen mit psychischen Erkrankungen vor falschen Verdächtigungen zu schützen, jedoch hat Herr Dreßing aus meiner Sicht auch die Verantwortung, der Öffentlichkeit die Ursachen einer solch exzessiven Gewalt aufzuzeigen. Gibt es biologische, familiär-sozialisatorische oder gar gesellschaftlich-ideologische Ursachen für dieses "Bündel an Risikofaktoren"? Man weiß zum Beispiel, dass Menschen, die mit Gewalt zu absolutem Gehorsam erzogen wurden oder die frühe und/oder sehr massive Ausgrenzungserlebnisse erfahren haben, eine psychische Verarbeitung zeigen, die einige der von ihm genannten Risikofaktoren erzeugt. Wenn Herr Dreßing meint, dass hier die Datenlage zu unklar sei, dann soll er doch bitte zu Forschung in diese Richtung auffordern. Ich sehe eine große Verantwortung bei den Wissenschaftlern, die Ursachen solch exzessiver Gewalt zu erforschen um letztlich der Gesellschaft Hinweise zu geben, wie sie sich präventiv davor schützen kann.
  • "gewaltverherrlichend"

    26.07.2016, MarcGyver
    Spiele wie "Counter-Strike" und seine Nachfolger zählen übrigens als "gewaltdarstellend". Wären sie gewaltverherrlichend, wären sie nach §15 JuSchG in Deutschland verboten und der Erwerb (soweit ich weiß auch der Besitz) wären strafbar.
    Die nächstschwächere Stufe wäre eine Indizierung durch die BPjM, was bedeutet, dass man sie als Volljähriger legal erwerben und besitzen darf, was allerdings in Deutschland dann nur mit Altersnachweis und "unter der Ladentheke" geht, weil in diesem Fall jegliche Werbung für solche Spiele verboten ist.
    Die aktuellen "Counter-Strike"-Ableger sind allerdings nicht einmal indiziert, können also von jedem Volljährigen legal erworben werden und die Spiele dürfen auch beworben und in einschlägigen Medien erwähnt werden.

    Leider sieht man das sehr oft, dass die Bezeichnungen (vermutlich, um reißerisch zu klingen) falsch verwendet werden. Dadurch bekommen wahrscheinlich auch, ersichtlich an manchen Kommentaren, Menschen mit höchstens wenig Einsicht in solche Spiele eine falsche Vorstellung davon, worum es in solchen Spielen geht und denken teilweise, dass sie wegen der Gewaltdarstellung gespielt werden.
    Aus persönlicher Erfahrung ist es tendenziell eher so, dass die Gewalteffekte in den Optionen so weit wie möglich reduziert werden, weil sie die Übersicht beeinträchtigen können. Man will in solchen Spielen vorrangig anderen Spielern mit seinen Reflexen und Taktiken und seiner Hand-Augen-Koordination überlegen sein (weshalb sie auch ziemlich wettkampforientiert sind) und da können überflüssige Grafikeffekte stören.
  • Schwamm zum Reinigen??

    25.07.2016, Dirk Müller-Paul
    Das mit dem Schwamm glaub ich nicht. Auch heutzutage reinigen sich die Menschen in sehr vielen Ländern einfach mit Wasser - und der linken Hand. Meist noch aus einem Eimer - hier ist fliessendes Wasser in einer Rinne schon wesentlich besser! Moderner sind Schläuche - oder gleich die Düse in die Schüssel eingebaut, wie heutzutage z.B. in der Türkei zu finden. Sehr angenehm!
    Ein Schwamm wäre extem unhygienisch. Die linke Hand wurde einfach zum Tabu erklärt. Die Resultate draus kennen wir auch heute noch selbst in unserer Gesellschaft.
    Im Übrigen braucht das männliche Gemächt auch etwas Platz...die Sitzposition ist schon etwas merkwürig, wenn MANN pinkeln will...eigentlich müsste vorne alles rauslaufen!?
  • Sprache

    25.07.2016, Dirk Müller-Paul
    Ganz entscheidend zur Kooperation ist der Faktor Sprache. Ich denke, allein aus dem Erfolg des Tieres Mensch kann man implizit schliessen, dass er diese in komplexer Form beherrscht haben muss.
    Wobei "Sprache" allgemein Kommunikation meint - und die kann bekanntlich auch nonverbal sehr effizient sein. Man beachte nur die Jagdstrategien von rudeljagenden Raubtieren.
    Deswegen wird "Sprache" m.E. viel zu oft modern-anthropozentrisch gewertet und nur auf komplexe Lautbildung reduziert, weil der moderne Mensch sehr viel Intuition und Körpersprache verlernt hat.
    Ich gebe meinem Vorschreiber zum letzten Satz absolut Recht, nur wurde m.E. eine neue Dimension erreicht mit der Einführung von Massenvernichtungs-Fernwaffen. Es werden damit ja leider nicht nur die Aggresiven gegenseitig ausgelöscht, sondern meist die friedlicheren Kooperativen.
  • Verschiedene Messmethoden, verschiedene Resultate

    25.07.2016, Bruno Egli, Goldach (Schweiz)
    Im Beitrag werden zwei Methoden zur Messung der Lebensdauer von Neutronen beschrieben. Im ersten Fall werden Neutronen in einer „Flaschenfalle“ eingesperrt, und ihre Zerfallsrate durch Auszählen nach einem bestimmten Zeitintervall bestimmt. Bei der zweiten Methode wird ein Neutronenstrahl durch eine „elektromagnetische Falle“ geleitet und die beim Zerfall frei werdenden Protonen gezählt. Dass die Messungen verschiedene Resultate liefern, ist offensichtlich auf die Verschiedenheit der Messmethoden zurückzuführen. Was zeigen die Messresultate wirklich? Im ersten Fall die Zerfallsrate freier, statischer Neutronen in einem begrenzten, feldfreien Raum. Im zweiten Fall die Zerfallsrate von strömenden Neutronen in einem elektrischen Feld, eventuell auch in anderem Volumen. Bei der zweiten Methode sind die Randbedingungen also anders als im ersten Fall. Meines Erachtens stellt sich daher zunächst die Frage: Wie verhalten sich die Neutronen in der „Flaschenfalle“, wenn dort gleichzeitig ein elektrisches Feld angelegt wird? Andererseits wäre auch die Anzahl Protonen als gültiges Mass für die Zerfallsrate zu hinterfragen. Abgesehen von einem etwaigen relativistischen Effekt (der erst bei einer Strahlgeschwindigkeit von 13,7 Prozent der Lichtgeschwindigkeit die Abweichung erklären würde), könnte die Bewegungsenergie aus dem Strahl einigen Protonen (1 Prozent würde genügen!) ermöglichen, die Austrittsbarriere der elektrischen Falle zu überwinden und so das Resultat verfälschen. Jedenfalls legen die Messresultate nahe, dass das Elektrofallen-Ergebnis auf Grund der grossen Streubreite eher fehlerbehaftet ist. Interessant wären daher Messungen mit der elektromagnetischen Falle unter Variation der elektrischen Feldstärke oder der Strahlgeschwindigkeit oder des Messvolumens. Sollten sich dabei Streubreite und Abstand des Resultats zum Flaschenfallenwert etwa proportional ändern, wäre wohl die Ursache für die Diskrepanz der Messresultate gefunden.
  • Comeback des Jahres

    25.07.2016, Bierschnegel- Fan
    Er ist wieder da! Der sympathische Bierschnegel kann nun wieder die Herzen der Deutschen erfreuen. Eine Schnecke die scheinbar nur in Bierkellern überleben kann ist mir sympathisch ;)
  • Sichtung in Lübeck

    24.07.2016, Dampier
    Ich hörte unlängst von einem Bierschnegel in einem Lübecker Keller. Wurde per Wikipedia bestimmt, aber meines Wissens nirgendwo gemeldet. Sollte man sowas melden, und wenn ja, wo?
  • Warum fällt es uns so schwer, die Quantengravitation zu entwickeln?

    23.07.2016, Dr. Erk Hansen
    Sehr geehrte Fr. Hossenfelder,

    zunächst einmal meinen Dank für Ihren anregenden Aufsatz zur Quantengravitation im neuesten "Spektrum der Wissenschaft"! Nach dessen Lektüre kamen mir einige Fragen und Ideen: Warum fällt es uns eigentlich so schwer, eine vereinheitlichte Feldtheorie der Quantengravitation zu finden? Ein Desiderat der Physik ist ja die Entwicklung einer »Großen Vereinheitlichten Theorie« der starken, schwachen, elektromagnetischen und gravitativen Wechselwirkung, auch als »Theory Of Everything« (TOE) bezeichnet; diese sollte die »Allgemeine Relativitätstheorie« (als Theorie der gravitativen Wechselwirkung, ART) und das sog. »Standardmodell« der Quantenphysik (QP) in konsistenter Weise zusammenführen. Dass es diese Theorie geben muss, ergibt sich, neben den in ihrem Aufsatz genannten Gründen, aus der Tatsache, dass die gravitativ miteinander wechselwirkenden Massen im gekrümmten 4-dimensionalen Raum-Zeit-Kontinuum der ART ihrerseits aus den durch die QP beschriebenen Elementarteilchen aufgebaut sind, welche diese Gravitation resp. Raumkrümmung hervorrufen.

    Wie ART und QP eine neue Entwicklungsstufe der Physik bilden und die klassischen Theorien (Mechanik, Thermodynamik, Elektromagnetismus) einerseits überschreiten, andererseits aber auch als Grenzfall in sich enthalten, so wird man erwarten müssen, dass auch die TOE als eine »neue Ebene« der Physik ART und QP übersteigen, diese empirisch sehr gut bestätigten Theorien aber wiederum als »Grenzfall« mit umfassen müsste. Dieses analogisierende Argument lässt sich jetzt auf drei Ebenen der physikalischen Theoriebildung anwenden, die vielleicht aufzuzeigen vermögen, warum es so schwierig ist, zu einem tragfähigen Ansatz für eine TOE zu kommen - und auf welcher Ebene man möglicherweise ansetzen müsste, um einen Zugang zu dieser »neuen Physik« zu finden.

    Erstens: Lassen sich die Theorien der klassischen Physik, etwa die Newtonsche Gravitationstheorie, noch mit beinahe elementarem mathematischen »Handwerkszeug« formulieren und berechnen, so fordert die ART (als Erweiterung der Newtonschen Gravitationstheorie) bereits die erheblich komplexere Mathematik der Tensoranalysis im Riemannschen Raum - wenn also ein ähnlich großer Schritt in der Entwicklung der mathematischen Sprache von der ART zur TOE notwendig sein sollte wie von der klassischen zur relativistischen Physik und QP, dann haben wir möglicherweise diese Mathematik überhaupt erst in Ansätzen entwickelt und verstanden. Dies wäre der erste, allerdings wenig zielführende Weg zu einer TOE: baue die Mathematik aus und schau, inwiefern und inwieweit sie sich auf die Realität unserer Welt abbilden lässt!

    Zweitens: Wie ART und QP die klassische Physik als Grenzfall mit enthalten (v « c einerseits / h vernachlässigbar andererseits), so müsste auch die TOE ihrerseits ART und QP als »Grenzfall« mit umfassen. Das Problem dabei: Welche physikalische/-n Größe/-n einer TOE sollte/n das sein, die einer derartigen Grenzwertbetrachtung unterworfen werden müsste/-n? Hier allerdings gibt es eine zielführende Überlegung: Mit der Energie-Masse-Äquivalenz der ART und dem Welle-Teilchen-Dualismus der QP existieren zwei »Kernentitäten« der jeweiligen Theorie, die einen engen Zusammenhang untereinander aufweisen, wie er sich auch aus einer TOE ergeben müsste, soll sie ART und QP zusammenführen. Dies wäre der zweite Weg zur TOE: konstruiere eine physikalische Größe, die bei einer Grenzwertbetrachtung in Richtung der bereits etablierten Theorien auf die Einstein-Gleichungen der ART und den vereinigten Welle-Teilchen-Charakter etwa der de Brogie-Beziehung führt!

    Was für eine »physikalische Größe« das allerdings sein könnte, und welche Größe hier im Sinne eines »Grenzwertes« zu behandeln wäre, ist freilich unklar, aber ich möchte vorschlagen, in Richtung eines »erweiterten Energiebegriffs« zu suchen, denn mit der sog. »dunklen Materie« und der »dunklen Energie« (der »Grenzwert« ihrer Beschreibung in der TOE müsste dann ja z.B. in die Einsteinsche Äquivalenzgleichung E = mc2 einmünden) liegen bereits erste empirische Hinweise auf die durch eine TOE jedenfalls mit zu beschreibenden Entitäten vor, für die wir zum jetzigen Zeitpunkt ja noch keine konsistente Theorie besitzen.

    Drittens: das »Spielen« mit Dimensionsbetrachtungen. Es wurden die Gleichungen E = mc2 und λ = h/p erwähnt, beide verbinden physikalische Größen, die im Rahmen der klassischen Physik strikt voneinander getrennt behandelt wurden. Sollte also nicht auch die TOE Größen gleichungsmäßig miteinander verknüpfen, die im Rahmen der Physik des beginnenden 21. Jhs. als strikt voneinander unabhängig gedacht werden? Dies wäre der dritte Weg: verknüpfe über reine Dimensionsbetrachtungen bisher voneinander unabhängig gedachte physikalische Größen miteinander und schau, auf welche dieser neu geschaffenen Zusammenhänge es vielleicht schon erste experimentelle Hinweise gibt! - Auch dieser Weg wäre offensichtlich zwar zunächst wenig zielführend, aber vielleicht darf man in diesem Falle auf eine gewisse »richtungsweisende Intuition« der Physiker beim Spielen hoffen?

    Ein viertes - und letztes - Problem schließlich könnte sich nach Auffindung und Ausarbeitung der TOE ergeben: Werden wir sie mit unserem an mittlere Dimensionen angepassten Anschauungs- und Vorstellungsvermögen überhaupt verstehen können? Waren die Objekte, die durch die klassische Physik beschrieben werden, noch weitgehend problemlos in direkter Weise wahrnehmbar bzw. zu veranschaulichen, so lassen sich schon die Objekte, die die moderne Physik beschreibt und die uns weitestgehend nur über den Einsatz technischer Hilfmittel erreichbar sind, größtenteils nur noch metaphorisch vorstellen (»Spin« als Rotationsbewegung, »Farbe« der Quarks, »Weiße Zwerge«, »Schwarze Löcher« etc.). Sollte also ein weiterer starker Abstraktionsschritt hin zur postmodernen Physik einer TOE notwendig sein, bestünde die Gefahr, die solcherart beschriebene »Welt« allein über den Formalismus der Theorie erfassen zu können und die diesem korrespondierende »Realität« als auf registrierte Messwerte reduziert zu erleben (sog. »Instrumentalismus«): »Vor mir verschließt sich die Natur« (»Faust«, Vers 1747).
  • Giftpflanzen nie verbannen

    23.07.2016, Till Andrzejewski
    Die Meinung, dass Kinder mit heimischen toxischen Gewächsen umgehen lernen müssen, vertrete ich in meinen Vorträgen schon seit Beginn meines Informationsprojektes (www.tatortnatur.de).
    Ich stoße dabei zunächst auf Unverständnis und rollende Augen in der Zuhörerschaft. Erkläre ich dann aber, dass der kindliche Aktionsradius nicht am heimischen Gartenzaun endet, ist schlagartig das Verständnis für diese Meinung aufgebracht.
  • Flächenbelastung

    22.07.2016, mhpr262
    Die geringe Flächenbelastung sorgt in erster Linie für eine sehr geringe minimale Sinkgeschwindigkeit, da ein Flugobjekt dadurch sehr langsam fliegen kann und entsprechend wenig Höhe zur Erhaltung der Geschwindigkeit gegen den Luftwiderstand abgebaut werden muss. Für ein gutes Gleiten (bzw eine gute Gleitzahl, Meter Strecke pro Meter Höhe) ist dagegen ordentliches Gewicht erforderlich - moderne Wettkampfsegelflugzeuge sind nicht ohne Grund mit mehreren hundert Kilo Wasser "aufballastierbar".
  • Nicht bedacht: Andere Luftverhältnisse

    22.07.2016, Moritz Heinrich
    Zuerst wollte ich den Artikel nicht ganz durchlesen, weil er "schwer" geschrieben ist. Doch ich wollte hier keine Informationen überlesen, also tat ich es dennoch.

    In diesem Artikel wurde anscheinend eins nicht berücksichtigt:
    Vor 53 - 3 Millionen Jahren war die Atmosphäre noch viel dichter als heutzutage. Berechnungen der maximalgröße von Vögeln mit heutigen Verhältnissen sind da nicht vergleichbar. (Wird nicht ganz klar ob darauf eingegangen wurde)

    Allein durch die höhere Dichte der Atmosphäre konnten Dinosaurier so groß werden. Es ist wie im Wasser, das Gewicht verliert an Druck auf die restlichen Körperteile. Daher konnten die Vögel auch viel größer werden. Vielleicht sind deshalb die Knochen auch nicht unbedingt leichter gebrochen (Nur ein Denkansatz).

    Eigene mir denkbar mögliche Theorie: [Vielleicht sind die großen Wesen damals auch nur ausgestorben, weil es kurzzeitig einen Atmosphärendichteabfall gab, der sie buchstäblich zusammenfallen ließ. Oder das ganze in Kombination mit einem Meteoriteneinschlag, der zusätzlich ein "Loch" in den Himmel brannte, durch welchen die Atmosphäre rapide an Material verlor..]

    Auf die Vögel bezogen konnten sich dann nur diese Tiere halten, die vielleicht stärkere Beinknochen ausgebildet haben im Laufe der 50 Millionen Jahre ihrer Herrschaft.(wie im Artikel beschrieben)
    Doch irgendwann war auch dies nicht mehr tragbar.

    Jedes Jahr verliert die Atmosphäre 100.000 - 200.000 Tonnen an Gas. Früher war es womöglich noch mehr pro Jahr. Das ganze auf 3 oder sogar 53 Millionen Jahre gerechnet ist eine enorme Masse, die meiner Meinung nach nicht vernachlässigt werden darf.

    Ich hoffe ich habe jetzt nicht daneben gegriffen und danke Spektrum für die ganzen tollen Artikel. Ich kaufe mir auch regelmäßig Zeitschriften :)

    Viele Grüße
  • Erneuerbare Energien sind nicht erneuerbar....

    21.07.2016, Dr. J. Götz
    ....weil der Energieerhaltungssatz gilt, und es keine Erkenntnisse gibt, dass er nicht gilt! Die verschiedenen Energieformen können nur ineinander umgewandelt werden. Diese Einleitung wurde gewählt, weil im Artikel gerade das Vertrauen in die sogenannten "Erneuerbaren Energien" eine Rolle spielt und als Beispiel für Vertrauen in die Wissenschaft herangezogen wird. Otto Normalbürger vertraut auf die Aussage von "Experten" grüner Politiker, der Bundesregierung und Unternehmen, Interessenverbänden (Windkraft&Solar, sowie weiteren), dass mit den "erneuerbaren" die Energieversorgung der Bevölkerung und unseres Landes sichergestellt werden könne. Die Frage ist nicht eindeutig mit ja oder nein zu beantworten, weil es eine Frage des Geldes ist, welches die Bevölkerung bereit zu bezahlen ist. Die physikalischen Gesetzmäßigkeiten sind seit langem bekannt, aber die anlagentechnische Realisierung kostet halt Geld, sehr viel Geld. Heißt: an der Physik muss nicht gezweifelt werden, auch die ingenieurtechnische Umsetzung ist möglich. Aber: nicht so sehr viele kennen die Gesetzmäßigkeiten, nach denen ein elektrisches Versorgungsnetz betrieben werden muss, um eine sichere, unterbrechungslose Stromversorgung zu gewährleisten im Detail. Deutschland hat zwar inzwischen ein 2x100% Versorgungssystem: die installierte Kapazität "erneuerbarer" Energieerzeugungsanlagen (Wind +Solar) kann mit mehr als 100% des höchsten Bedarfs theoretisch den Strombedarf Deutschlands decken - bei Starkwind sogar mehr, so dass der Strom ins Ausland verschleudert werden muss, um das eigene Netz nicht zu gefährden. Wenn der Wind nicht weht und die Sonne nicht scheint, müssen die konventionellen Kraftwerke einspringen. Der breiten Bevölkerung ist nicht bekannt, dass Monate, in denen Wind und Solar höchstens 10% des Bedarfs decken mit einem Zeitanteil von 40% keine Ausnahme sondern eher Regel sind. Und wir - die Stromkunden - bezahlen den Betrieb dieses teuren Doppelsystems mit 22-23 Mrd. EURO jährlich und vertrauen den
    "erneuerbaren" Energien. Derzeit - also mit den noch nicht abgeschalteten Kernkraftwerken geht das noch - aber bald nicht mehr. Es müssen also Speicher her. Weit verbreitet ist der Irrglaube, dass Pumpspeicherkraftwerke, Druckluftspeicher, Batterien - und sei es in Form derjenigen von Elektroautos - dies bewerkstelligen könnten. In einem am 18.05. in Dresden gehaltenen Vortrag hat Prof. H. Sinn (ehemaliger Präsident des Iifo-Instituts für Wirtschaftsforschung) die Zahl der erforderlichen Pumpspeicherkraftwerke mit etwa 7000 beziffert, um über das Jahr hinweg nur die Stromversorgung sicherzustellen. Wollte man dies mit den Batterien von Elektroautos (Mittelklasse) tun, wären derer 500 Millionen Stück erforderlich (Größenordnung) .
    So etwas herauszuarbeiten ist wirkliche Wissenschaft.
    Aber: die Bevölkerung vertraut den "erneuerbaren".....

    Fazit: die allgemeine Bevölkerung ist mangels "Wollen" (Physik? Habe ich beizeiten abgewählt!) oder Ablehnung (Das soll ich lesen? Interessiert mich nicht, ich bin dagegen!) eher nicht in der Lage, sich eine auch nur einigermaßen fundierte Meinung zu bilden und zum Teil auch nicht willens. Deswegen erfolgen die "Antworten (häufig) nach Bauchgefühl" und zwar so, dass - wie im Artikel im Zitat Kahane Informationen sehr stark selektiert werden, so dass eigene Überzeugungen gestützt werden.

    Nicht eingegangen wurde auf den Einfluss der Politik: gemeint sind die für Wissenschaft zuständigen Ministerien, die je nach Wahlausgang/ Parteienzugehörigkeit Prioritäten bei der Geldvergabe/Förderwürdigkeit setzen und natürlich den Interessen der Unternehmen, welche durch Werbung und viele Formen der Öffentlichkeitsarbeit und des Sponsorings auf die Anwendung wissenschaftlicher Ergebnisse und deren Vermarktung Einfluss nehmen.

    Freie Wissenschaft?
    Eher weniger, alles hängt am Geld. Dies haben die Menschen durchaus realisiert und insofern richtet sich der Zweifel auch gegen Wissenschaftsgebiete und Technologien, die das nicht verdient haben - leider.
  • "Temperaturanomalie auf 1,5 Grad zu begrenzen"

    21.07.2016, Peter Jungmaier
    Können Sie bitte erklären inwiefern eine solche Erklärung von einem Temperaturziel sinnvoll ist?
    Wie möchte man den globalen Temperaturanstieg bis auf eine Nachkommastelle genau kontrollieren?
    Besitzt dieses Ziel neben dem symbolischen Charakter überhaupt eine wissenschaftliche Aussagekraft?
    Antwort der Redaktion:
    Das haben wir und andere schon oft erörtert. Hier nur einige Links:

    - http://www.spektrum.de/news/10-antworten-zum-zwei-grad-ziel/1374046
    - http://www.spektrum.de/news/begrabt-das-zwei-grad-ziel/1310984
    - http://www.spektrum.de/rezension/buchkritik-zu-unter-2-grad/1416242
    - http://www.spektrum.de/news/hoffnung-und-heisse-luft/1415010

    Und zwei externe Links auch (es gibt noch viel mehr):
    - http://wiki.bildungsserver.de/klimawandel/index.php/2-Grad-Ziel
    - https://de.wikipedia.org/wiki/Zwei-Grad-Ziel

    Mit freundlichem Gruß, d. Red.