Lesermeinung - Spektrum der Wissenschaft

Ihre Beiträge sind uns willkommen! Schreiben Sie uns Ihre Fragen und Anregungen, Ihre Kritik oder Zustimmung. Wir veröffentlichen hier laufend Ihre aktuellen Zuschriften.
  • Gewagte Theorie

    10.08.2009, Dr. Peter Kunz, Wahlwies
    Die aufwändigen Computeralgorithmen hängen in der Luft, wenn man nicht erklären kann, was die angesprochenen "Resistenzen" in der Realität sind, wie sie sich also im Molekülbau und der Funktion des Enzyms auswirken. Jeder Biologie-Oberstufenschüler kennt das Struktur-Funktions-Prinzip, es scheint aber im Fall der HIV-eigenen Protease außer Kraft gesetzt zu werden. Man kennt Erbkrankheiten, bei denen schon die Änderung eines einzigen Nucleotids im Gen massiv schädigende Auswirkungen hat.

    Im auf Seite 65 vorgestellten Entscheidungsbaum sieht man, dass einzelne Aminosäuren gegen andere mit deutlich abweichenden chemischen Eigenschaften ausgetauscht werden. Das würde in den allermeisten Fällen bedeuten, dass das Enzym in seiner Funktion gestört oder im Extremfall völlig funktionslos wäre. Nicht so bei HIV: Die Protease bindet aufgrund einer Mutation den konkurrierenden Hemmstoff zwar nicht mehr, verarbeitet das normale Substrat aber weiterhin anstandslos. Anderenfalls würde die "Resistenz" gleich wieder aussterben, und eine Anpassung der Kombitherapie, mit oder ohne Computer-Entscheidungshilfe, wäre nicht erforderlich.
    Antwort der Redaktion:
    Bei dem Leserbrief liegen Missverständnisse vor, die häufig auftreten, wenn man sich mit der Thematik beschäftigt. Erkennung und Funktion einer Resistenz werden fälschlicherweise gedanklich verquickt. Bei den beschriebenen Verfahren geht es aber zunächst nur um die Erkennung resistenter Virusstämme und nicht um das Verständnis des Resistenzmechanismus. Trotzdem wissen wir inzwischen auch etwas über die Mechanismen.



    Nicht alle Mutationen werden toleriert, manche führen zu einem Funktionverlust und damit zu vermehrungsunfähigen Viren (letale Mutationen). Alle diese Resistenzmutationen sind mit einem Vermehrungsnachteil für das Virus verbunden, deshalb ist der Ausdruck „verarbeitet das Substrat anstandslos“ nicht korrekt. Ohne den Selektionsdruck des Medikaments können sich diese Muationen nicht durchsetzen. Ein Verschwinden kommt auch mehr oder weniger schnell vor, wenn der Selektionsdruck verschwindet. Es sind auch noch andere Virus-Dynamik-Komponenten dabei, die die einzelnen Zusammenhänge verkomplizieren. Die bedeutendste Komponente ist die Ablage von Viren in Reservoirs, aus denen sie rasch wieder replizieren können, wenn der gleiche Selektionsdruck wieder eingeführt wird. Eine Medikamentenpause führt zwar zum Auftreten sensitiver HIV im Blut, die dann auch schnell wieder durch das vorige Medikament behandelt werden könnte, aber die abgelegten resistenten Viren können sich wieder rasch vermehren.



    Unser Hauptproblem bei der HIV-Therapie ist jedoch die Kreuzresistenz gegenüber noch nicht verabreichten Medikamenten. Dieses Problem stellt das Kernstück des Artikels dar. Durch die bioinformatischen Tools können wir die Kreuzresistenzproblematik so weit bekämpfen, dass wir den Patienten viel länger helfen können als vorher. Leider hat das Virus immer wieder Überraschungen für uns bereit, die uns wieder herausfordern und für die wir unsere Strategie wieder nachbessern müssen.



    Rolf Kaiser, Coautor
  • Es kommt wie es kommt?

    07.08.2009, Dr. Tim Laussmann, Leverkusen
    In einem Punkt muss ich Herrn Prof. Gethmann Recht geben: Bei der Bewältigung von "Krisen" sollte man den Erfindungsreichtum nachfolgender Generation nicht unterschätzen. Seine philosophischen Lösungsvorschläge bezüglich des Klimawandels empfinde ich allerdings als ausgesprochen lässig: Weiter auf Kernenergie setzen, weil "ein paar Tonnen" strahlenden Mülls mehr auch keine Rolle mehr spielen? Birgt nicht jedes Gramm dieses Mülls auch das Risiko, dass es in falsche Hände gerät? Die Menschen im von Hochwasser bedrohten Bangladesch einfach auf Kosten der "Gewinner" des Klimawandels umsiedeln? Abgesehen von den damit verbundenen internationalen politischen Schwierigkeiten - was nützt das der verlorenen Tier- und Pflanzenwelt dieser Regionen? Ist Artenvielfalt kein Potential, dass sich die Menschheit erhalten sollte? Erkennbare Probleme, auch wenn sie sich später doch nicht zu einer Krise auswachsen sollten, dürfen nicht auf folgende Generationen abgeschoben werden - die Zukunft beginnt mit jedem neuen Morgen. Was hält uns noch auf?

    Antwort der Redaktion:

    Sehr geehrter Herr Dr. Laussmann,



    zum Problem des strahlenden Mülls:

    Zweifellos birgt der "strahlende Müll" die von Ihnen genannten Risiken. Er ist jedoch nun einmal vorhanden und wird auch dann zunehmen, wenn die Menschheit auf Kerntechnik verzichten sollte. Es entsteht nämlich auch strahlender Müll aus den Bereichen der medizinischen Diagnose und Therapie sowie beispielsweise durch Materialbearbeitung. Da auch viele Nationen weiterhin die Kerntechnik betreiben, ja sogar ausbauen, sind die zusätzlichen Risiken, die wir in Deutschland erzeugen, eher marginal.



    Zur Artenvielfalt in Bangladesch:

    Die Klimamodelle gehen nicht davon aus, dass die großen ostasiatischen Flussdeltas vollständig überflutet werden; vielmehr nimmt man eine Zunahme von Hochwassersituationen an. Daher dürften die Arten in Flora und Fauna nicht insgesamt gefährdet sein. Ob einige Arten gefährdet sind, die außerdem am Standort singulär sind, müssen weitere ökologische Forschungen zeigen. Hält man sich den technischen und finanziellen Aufwand der Eindeichung des Maas-Rheindeltas vor Augen, dürfte diese technische Variante für die asiatischen Großflussdeltas entfallen. Da auch unter sehr günstigen Klimaprognosen relativ dichte Hochwasserszenarien zu bewältigen sind, dürfte es zur Umsiedlungsstrategie kaum Alternativen geben.




    Mit freundlichen Grüßen

    Professor Dr. Dr. h.c. C. F. Gethmann
  • Die Suche nach der Wahrheit und die Machtfrage

    07.08.2009, Dr. Rainald Hahn, Bergheim (Erft)
    "Ist nicht die Wahrheit das lohnenswerteste Ziel, das wir je erreichen können?" Diesen Standpunkt vertritt Aristarch von Samos in diesem historischen Roman ebenso leidenschaftlich wie eloquent und intelligent. Und doch macht es dieser Roman sehr wahrscheinlich, dass die Frage nach der Wahrheit unter Menschen wohl immer mit der Machtfrage verwickelt ist, insofern selbst die ganze Community der größten Gelehrten im Museion von Alexandria auf einen Schirmherrn und Richter in Gestalt des Königs angewiesen bleibt. Und dies ist umso beunruhigender, als der Richterspruch des Königs Ptolemaios am Ende dem Schwertstreich des Alexanders gleichen muss, der den intelligent geknüpften gordischen Knoten nur durchhauen kann, anstatt ihn einsichtig zu lösen - was dieser Ptolemaios hinter verschlossenen Türen im Roman auch ganz unverblümt ausspricht.

    Ich habe beinahe den Eindruck, dass dieser Roman von Thomas Bührke tiefgründiger ausgefallen ist, als es der Autor vielleicht zunächst beabsichtigt hat. Sein Buch steht gewiss für gut erzählende Wissenschaft und ist deswegen auch für jüngere Leser gut geeignet. Aber meines Erachtens transportiert dieser Roman weit mehr als nur "beste Unterhaltung", zumal der Autor mit großer Kennerschaft und zugleich mit einer zündend einfach treffenden Sprache den historischen und ideengeschichtlichen Hintergrund seines Romans wahrhaftig spannungsreich vergegenwärtigt.

    Mit freundlichen Grüßen
  • Müsste das Licht nicht längst angekommen sein?

    05.08.2009, Klaus A. Ronneberger
    Sie berichten über einen Gammablitz aus frühester Zeit des Universums. Mich als interessierten Laien irritiert, dass dieser Blitz so lange unterwegs gewesen sein soll. Zu der Zeit, als er entstand, war das Universum ja wesentlich kleiner. Das bedeutet doch, dass das Licht die Entfernung bis zu unserer Erde (die es wohl noch nicht gab) längst zurückgelegt haben müsste. Kann es vielleicht sein, dass dieser Blitz inzwischen auf dem zweiten Umlauf durch das Universum war?
    Antwort der Redaktion:
    Die lange Reisezeit des Blitzes hängt mit der Expansion des Universums zusammen. Während das Licht zu uns unterwegs ist, dehnt sich der Raum kontinuierlich aus, nämlich um rund 70 Kilometer pro Sekunde und Megaparsec (1 Megaparsec sind rund 3,26 Millionen Lichtjahre). Das heißt: In jeder Sekunde wird eine Strecke von 3,26 Millionen Lichtjahren um 70 Kilometer länger. Ein Photon muss also nicht nur den Abstand überwinden, der einst zwischen dem Ursprung des Gammablitzes und "uns" (die es damals noch nicht gab) herrschte, sondern auf der gesamten Reise gegen einen stets expandierenden Raum anlaufen – das dauert entsprechend länger.


    Eine weitere Überlegung kann das vielleicht noch veranschaulichen. Der Radius des beobachtbaren Universums – jenes Teils des Universums also, den wir zumindest im Prinzip beobachten können – beträgt rund 46 Milliarden Lichtjahre. Knapp so groß ist auch unser Abstand zu den fernsten Objekten, die wir in den Teleskopen gerade noch sehen. (Dem widerspricht nicht, dass das Alter des Universums nur 13,7 Milliarden Jahre beträgt, jegliches Licht in dieser Zeit also maximal 13,7 Milliarden Lichtjahre zurücklegen konnte. Denn weil, siehe oben, gleichzeitig der Raum, durch den es unterwegs war, kontinuierlich gestreckt wurde, hat es schließlich einen deutlich größeren Abstand überbrückt – die Expansion des Raums hat dem Licht quasi "geholfen".) Diese Größe des Universums bringt aber auch mit sich, dass selbst Objekte, die sich einst in einem relativ kleinen Raum relativ nahe beeinander befanden, heute extrem weit voneinander entfernt sein können.


    Im Internet gibt es übrigens, so verriet mir gerade ein Kollege, auch einen praktischen Rechner, der zumindest in der allereinfachsten Nutzungsvariante keine tieferen Kenntnisse erfordert. Behält man die voreingestellten Werte bei, gibt links für z den Wert 8 ein (wie er als Rotverschiebung in dem von Ihnen angesprochenen Artikel genannt ist) und klickt auf "Flat", wählt also ein flaches Universum, ist auf der rechten Seite der Satz zu finden: "The light travel time was 13.014 Gyr". Die Laufzeit des Lichts, das uns von GRB 090423 erreichte, betrug also knapp über 13 Milliarden Jahre. Und das, obwohl das Universum damals erst 630 Millionen Jahre alt und damit noch vergleichsweise klein war, die Objekte darin folglich nur geringe Abstände zueinander besaßen.
  • Expandieren wir mit?

    05.08.2009, René Boehm, Hamburg
    Liebe Redaktion,
    wo kann man eigentlich „dumme Fragen“ beantwortet bekommen, die sich auf Ihre Artikel beziehen?

    Beim Begriff „Expansion des Weltalls“ – wieder Thema der laufenden Nummer – kam mir die Frage in den Sinn, ob mit dem Raum auch derjenige Raum expandiert, den wir selbst einnehmen, ob wir also im gleichen Verhältnis wachsen. Ebenso dumm wäre die weitere Frage, ob auch das Urmeter, wenn es denn noch Maßstab wäre, mit expandiert. Wir würden dann unsere Expansion nicht feststellen können. Eventuell würde sich damit auch die Lichtgeschwindigkeit c im Verhältnis der Expansion erhöhen.

    Ich meine mich zu erinnern, früher durch einen Artikel gelernt zu haben, dass zu unterscheiden ist, ob sich zwei Dinge nur infolge der Expansion des Raumes voneinander entfernen oder ohne diesen Effekt. Soweit die Distanzvergrößerung infolge Expansion geschieht, so habe ich das verstanden, könnte diese auch höher als mit Lichtgeschwindigkeit stattfinden.

    Fragen, Fragen, und Google oder Wolfram helfen nicht – vielleicht gibt es ja bei Ihnen noch einen netten Oberlehrer.
    Antwort der Redaktion:
    Auch der Raum, den wir selbst einnehmen, ist von der Expansion nicht ausgeschlossen. Unsere Größe verändern wir dadurch aber nicht, ebensowenig wie das Urmeter. Denn letztlich sind allein die Fundamentalkräfte dafür verantwortlich, welche Abstände beispielsweise zwischen Atomkern und Elektronenhülle oder zwischen einzelnen Atomen herrschen. Man könnte sagen, sie korrigieren die durch die Expansion des Raums größer werdenden Abstände kontinuierlich wieder auf ihr "richtiges" Maß.



    Dasselbe gilt auch für unsere Milchstraße. Während sich (fast) alle anderen Galaxien durch die Raumexpansion von uns entfernen, ist sie selbst gravitativ gebunden: Die fundamentale Schwerkraft sorgt also dafür, dass sie sich nicht aufbläht.



    Der Spektrum-Artikel, den Sie gelesen haben, war vermutlich "Der Urknall – Mythos und Wahrheit". Hier geht es auch um die Frage, ob sich Galaxien überlichtschnell voneinander entfernen können. "Im Raum" können sie es nicht, ebensowenig wie beliebige andere Objekte, denn hier gilt die Lichtgeschwindigkeit als oberstes Tempolimit.



    Wenn die zwei Galaxien allerdings ausreichend weit voneinander entfernt sind – und selbst wenn sie relativ zueinander im Raum ruhen –, kann der zwischen ihnen expandierende Raum sie so stark voneinander wegreißen, dass ihr Abstand mit Überlichtgeschwindigkeit wächst. Sie bewegen sich dann also nicht durch den Raum, sondern mit ihm mit. Und dabei gelten keine Tempolimits.
  • Wie kommt das Leben in den Komet?

    04.08.2009, Stefan Taube, Leimen
    Die Gleichung Wasser = Leben erscheint mir doch ein bißchen einfach. Sollen denn die Mikroorganismen laut Chandra Wickramasinghe in den Kometen entstanden sein oder nur als Passagiere reisen? Bei Meteoriten, die aus anderen Himmelskörpern herausgesprengt werden, kann man ja über mitreisende Mikroben spekulieren, bei Kometen bleibt aber doch nur die Möglichkeit, dass das Leben wirklich in ihnen entstanden ist, oder?
    Antwort der Redaktion:
    Sehr geehrter Herr Taube,



    die Panspermie macht über den genauen Entstehungsort der Mikrolebewesen keine Aussage und beschreibt nur deren Verbreitung. Je nach Ursprung kann man beispielsweise zwischen Radio-Panspermie (Sporen von der Erde, Arrhenius 1903/08), gerichteter Panspermie (gezielte Sendung, Barber, 1963, Crick & Orgel, 1970er), und Transspermie (zwischen Nachbarplaneten wie Erde und Mars, siehe Link "astronomie heute: Überleben im All: Per Anhalter durchs
    Sonnensystem") unterscheiden.



    Fred Hoyle hat insbesondere auf Grund seiner Steady-State-Theorie gefallen an der Panspermie gefunden: Sie liefert den Mechanismus, der bestehende Organismen eines Planetensystems vor oder durch die Supernova von dessen Sonne im All verteilt, um letztendlich ein neu entstehendes Sonnensystem quasi sofort zu bevölkern. Ein ewiger Kreislauf – der Kosmos ist immer gleich.



    Insofern wird meist davon ausgegangen, dass die Mikroben bereits vor ihrer Einlagerung in die Kometen existierten, vorübergehend inaktiv waren, dort jedoch akzeptable Lebensbedingungen vorfinden, in denen sie sich reproduzieren können.



    Mit freundlichen Grüßen

    Oliver Dreissigacker
  • Abschätzung der Realisierbarkeit - Antwort auf Herrn Baum

    03.08.2009, Karl Bednarik, Wien
    Die Idee von Herrn Baum ist sehr gut. Ich versuche hier, sie rechnerisch abzuschätzen.

    In der Mitte der Vorderseite des Mondes wird ein auf dem Äquator aufliegendes Gauss-Katapult gebaut, das gegen die Umlaufrichtung des Mondes feuern kann und von Solarzellen versorgt wird. Dadurch kann ein Staubring innerhalb der Mondbahn erzeugt, Baumaterial für eine L5-Station transportiert und sogar Material zur Erde geschickt werden.

    Berechnung der Länge des Gauss-Katapults: Für Personentransport mit 10 m/s² Beschleunigung und 238 s Beschleunigungsdauer (v=a*t), also rund 4 Minuten, beträgt die Länge 283 km (s=(a/2)*t²). Diese Beschleunigung schafft sogar der Transrapid. Mit mehr Beschleunigung verkürzt sich diese Länge.

    Die Staubkapseln müssen im Perigäum ein wenig abgebremst werden, denn sonst liegt ihr Apogäum wieder auf der Mondbahn. Ein Staubtorus würde seinen Schattten gleichmäßiger auf die Erde verteilen als ein Staubring. Dazu genügt eine geringe Geschwindigkeitskomponente parallel zur Erdachse. Ein einfaches Bild dazu: http://members.chello.at/karl.bednarik/STAUBTOR.PNG

    Berechnung des Leistungsbedarfs: 2.380 m/s Fluchtgeschwindigkeit vom Mond, 2.832.200 J/kg Fluchtenergie vom Mond (m*v²/2), 1.370 W/m² Solarkonstante, im Mittel aber nur 436 W/m² durch die Rotation des Mondes relativ zur Sonne (d/Pi), 436.084.544 W/km² geteilt durch 2.832.200 J/kg ergeben bei 100 % Wirkungsgrad 154 kg/s abgechossenes Material, bei einem realistschen Gesamtwirkungsgrad von Solarzellen und Gauss-Katapult von 10 % und bei geforderten 1.540 kg/s benötigt man daher 100 km² Solarzellen, also z. B. 10 km * 10 km.

    Berechnung einer Folienscheibe: 6.378 km äquatorialer Erdradius, 127.802.895 km² Querschnittsfläche der Erde. Für eine vollständige Abschirmung der Sonnenstrahlung benötigt man eine Schichtdicke von rund 1000 nm, eine soche Schicht hat bei 1 km² Fläche 1 m³ Volumen. Man benötigt also 127.802.895 m³ Material, das sind rund 0,128 km³.

    Einerseits benötigt man keine vollständige Abschirmung, andererseits ist der Staubring viel größer als die Querschnittsfläche der Erde. Wenn man eine Folie von 1000 nm Dicke in Staubpartikel von 1000 nm Größe zerlegt, dann kommen 36,8 % (1/e) des Lichtes durch.

    Berechnung des Zeitverbrauchs: 127.802.895 m³ Material mit einer Dichte von 1 g/cm³ wären 127.802.895.000 kg Masse, unser 100 km² Solarzellen-Gauss-Katapult schafft 1.540 kg/s. Man benötigt also 82.988.893 s = 961 Tage = 2,63 Jahre.

    Die Dichte von Silikaten liegt bei etwa 3 g/cm³, und man benötigt Kapseln aus meteoritischem Eisen mit einer Dichte von 7,9 g/cm³, was die Betriebszeit auf etwa 10 Jahre erhöhen wird. Das Rohmaterial liegt auf der Mondoberfläche, das meteoritische Eisen kann man mit Magneten leicht aus dem Mondstaub holen und im Sonnenofen schmelzen.

    Abschätzung der Lebensdauer: Wenn die Dicke einer Folie 769 nm und die Dichte dieser Folie 1 g/cm³ wäre, dann wäre der Strahlungsdruck der Sonne (bei Absorption) und die Gravitation der Sonne völlig gleich, ganz unabhängig davon, wie weit man von der Sonne entfernt ist (beides 1/r²). Das gleiche gilt natürlich auch für Staubpartikel. Der Staubring wird durch den Lichtdruck des Sonnenlichtes langsam ausgedünnt, so dass er sich selbst entsorgt, wenn man ihn nicht ständig ergänzt.

    Karl Bednarik, Wien
  • Die Krise am eigenen Leib erfahren

    02.08.2009, Thomas Witke, Dresden
    Wenn Prof. Carl Friedrich Gethmann meint, dass " ... Die aktuelle Wirtschaftskrise derzeit vor allem in den Nachrichten stattfindet, aber von den meisten kaum konkret am eigenen Leib erfahren wird", dann mag das für diejenigen zutreffen, die im öffentlichen Dienst angestellt sind. Die Inzolvenzen bei Hertie, Karstadt, Qimonda, Opel, verschiedenen Werften sowie die massive Kurzarbeit in sehr vielen Bereichen der Industrie sind hingegen sehr real und kein Hirngespinst der Medien.
    Ohne die umfassenden Eingriffe des Staates wäre diese Krise auch bereits bei Prof. Gethmann angekommen.
    Antwort der Redaktion:

    Sehr geehrter Herr Witke,



    zur Wirtschaftskrise:

    Zweifellos bringt die gegenwärtige Wirtschaftskrise unverhältnismäßig vielen Menschen erhebliche Nachteile. Umfragen und ökonomische Indikatoren (privater Konsum) zeigen jedoch, dass sich in Deutschland kein Krisenbewusstsein eingestellt hat. Von einem Krisenbewusstsein möchte ich dann sprechen, wenn ein nennenswerter Teil der Bevölkerung substantielle Grundlagen der eigenen Lebensverhältnisse gefährdet sieht. In diesem Sinne kann ich (noch) kein Krisenbewusstsein in Deutschland erkennen.



    Mit freundlichen Grüßen

    Professor Dr. Dr. h.c. C.F. Gethmann

  • Schlechter Scherz

    01.08.2009, Bertold Hajen, Boppard
    Wie ein schlechter Scherz mutet der in dem genannten Artikel (S. 92) aufgeführte Vorschlag des Herrn Zenz House von der Harvard University an, das überschüssige Co2 durch NaOH zu binden, das zu diesem Zweck elektrolytisch aus Meerwasser gewonnen wird. Dieser Gedanke ist vergleichbar mit dem Vorschlag, Kraftwerkkessel doch einfach elektrisch zu heizen, da so keinerlei Co2-Emissionen entstehen. Ein paar Zahlen aus dem Chemiebuch (ich nutze den dtv-Atlas zur Chemie) belegen, dass die Idee von Zenz House Unsinn ist. Bei der Verbrennung von Kohlenstoff wird pro Mol emittiertes Co2 ein Energiebetrag von 394 kj frei. Um dieses eine Mol Co2 zu binden, werden 2 Mol NaOH benötigt. Zu dessen Erzeugung durch elektrolytische Spaltung von NaCl in wässeriger Lösung sind 446,6 kj elektrische Energie erforderlich. Kommentar überflüssig.

    Mit keinem Wort wird in Ihrem Artikel das Problem erwähnt, was denn mit dem bei der Elektrolyse entstehenden Chlor geschehen soll. Schließlich entsteht bei dem geschilderten Elektrolyseprozess pro Mol gebundenes Co2 (=44 g) 1 Mol Chlorgas Cl2 (=71 g). Es einfach in die Umwelt zu entlassen, geht nicht, schließlich war es im ersten Weltkrieg ein gefürchtetes Kampfgas. Aber auch die naheliegende Idee, es der chemischen Industrie zuzuführen, ist nur unzureichend machbar. Zwar liegt die Weltproduktion von freiem Chlor bei beachtlichen 30 ×10 6 t/a (dtv-Atlas von 1994), doch die korrespondierende Co2-Menge 44/71 ×30 ×106  t/a = 19 ×106 ist nur ein kleiner Teil des jährlich zu entsorgenden Kohlendioxyds.

    Ich staune, dass es den Autoren von der weltberühmten Harvard University gelungen ist, mit diesem Quatsch an die Öffentlichkeit zu treten. Als langjähriger Leser des „Spektrum“ bin ich aber etwas bestürzt, dass dessen Redakteure diesen Artikel offenbar kritiklos übernommen haben.

    Antwort der Redaktion:
    Sehr geehrter Herr Hajen,

    die Wissenschaftler der weltberühmten Harvard-Universität Harvard-Universität haben keinen Unsinn verzapft. Das scheint nur deshalb so, weil die Darstellung bei uns aus Platzgründen stark verkürzt wurde (wir haben nicht mit derart aufmerksamen Lesern gerechnet). Insofern haben Sie mit Ihrem Einwand absolut recht.

    Doch tatsächlich kümmert sich Herr Zenz House sehr wohl um das entstehende Chlor – sowie um den ebenfalls frei werdenden Wasserstoff. Daraus macht er in einer Brennstoffzelle Chlorwasserstoff und gewinnt so 232 kcal von den vorher verbrauchten 446 kcal zurück. Das mag Ihnen als Gipfel der Idiotie erscheinen, weil es die Elektrolyse im ersten Schritt schlicht rückgängig macht.

    Doch nun kommt der Trick: Während die Natronlauge zum Binden des Kohlendioxids dient, wird die Salzsäure mit Silicatgestein zur Reaktion gebracht, wobei Metallchloride, Siliziumdioxid und Wasser entstehen. Insgesamt bleibt so ein Energieüberschuss von
    394 – 446 + 232 = 180 kcal pro Mol gespeichertem Kohlendioxid.

    Wirkt wie Zauberei, aber beruht darauf, dass das Natriumchlorid de facto mit Wasser in Natronlauge und Salzsäure aufgespalten und letztere zu einem Metallchlorid und Kieselsäure umgesetzt wird, wobei die Kieselsäure jedoch instabil ist und in Wasser und ihr Anhydrid, eben Siliziumdioxid, zerfällt. Man kann es auch so ausdrücken: Herr Zenz House hat ein System zur rasanten Beschleunigung der Verwitterung ersonnen.

    Mit freundlichen Grüßen

    Dr. Gerhard Trageser
    Redakteur



    Antwort von Berthold Hajen:

    Sehr geehrter Herr Trageser,

    vielen Dank für Ihre Mühe, mich mit Ihrer Antwort auf meinen Fehler aufmerksam gemacht zu haben. Wenige Tage nach Abgabe meines Leserbriefs habe ich bei nochmaliger Durchsicht meiner Aufzeichnungen selbst bemerkt, dass sich bei der Elektrolyse auch Wasserstoff bildet, mit dem sich durch Reaktion mit Chlor die Energiebilanz erheblich verbessern läßt. Dass man den entstehenden Chlorwasserstoff durch Reaktion mit Silikaten unschädlich machen kann, war mir allerdings neu.

    Ich war schon dabei, meinen ersten Brief einen zweiten folgen zu lassen, doch wurde mir dabei klar, dass sich bei genauer Analyse des Problems an meinem Urteil über das Verfahren von Herrn Zenz House nichts ändert.

    Ich bin nämlich kein Chemiker, sondern Maschinenbauingenieur, Dipl. Ing. (TU). Als solcher ist mir geläufig, dass heute übliche Wärmekraftwerke aus thermodynamischen Gründen (Zweiter Hauptsatz, Carnot – Kreisprozeß) schon von der Theorie her ein Wirkungsgrad weit unter 100 % haben. Die Erfahrungswerte modernster Kohlekraftwerke liegen bei 45 %. Ein großer Teil der bei der Kohleverbrennung erzeugten Wärmeenergie verlässt die Kraftwerke über die Kühltürme. Es ist deshalb unrealistisch, in der Formel für den Energieüberschuß die Sie freundlicherweise aufgeführt haben, den vollen Wert von 394 kj (nicht kcal!) Energiegewinn pro Mol gebildetes Co2 zu verwenden. Erst mit 45 % dieses Wertes liegt man im realistischen Bereich. Sie sehen aber, dass sich der Überschuß dann in ein Defizit verwandelt. Die Wirkungsgrade der elektrochemischen Prozesse des Vorschlags von Herrn Zenz House sind wahrscheinlich besser, aber sicherlich auch kleiner als 100 %. Hinzu kommt der Energieaufwand für Abbau und Aufbereitung des Gesteins und den Betrieb der ganzen Anlage Ich vermute auch, dass die Reaktion des Chlorwasserstoffs mit Silikatgestein endotherm ist, also der Nachhilfe (Druck?, Temperatur?) bedarf. Liefe sie „von selbst“ könnte man wohl kaum gefahrlos Salzsäure in Silikatglasflaschen aufbewahren. – Alle diese Vorgänge können das Energiedefizit nur vergrößern.

    Trotz meines anfänglichen Fehlers bin ich mir deshalb nach wie vor sicher, dass mein Zweifel am Sinn des Vorschlags berechtigt war. Nur bei Kraft / Wärmekopplung ist er, wenigstens theoretisch, diskutabel.
  • Kosmologie lebt von Hypothesen

    30.07.2009, Dr. Hans-Joachim Rimek, Bonn
    Weil eine weit entfernte Supernova nicht so hell erscheint wie erwartet, schließt man auf eine beschleunigte Expansion des Universums! ("Nicht sein kann, was nicht sein darf"). Dabei ist die vorausgesetzte gleiche absolute Strahlungsstärke aller Supernovae eine möglicherweise vernünftige, aber unbewiesene Hypothese. Von solchen Hypothesen lebt die Kosmologie - sie hat ja keine Möglichkeit, ihre Annahmen zu verifizieren. Auch die beiden Relativitätstheorien Einsteins gründen trotz ihrer Erfolge auf unbeweisbaren Hypothesen. Ist der Raum unveränderlich? Läuft die Zeit gleichmäßig ab?
    Dass sich beim klassischen Michelson-Versuch die Lichtgeschwindigkeit (in einem sehr kleinen Raumabschnitt) in allen Richtungen als gleich erwiesen hatte, veranlasste Einstein, dies auch für das ganze Universum und für alle Zeiten anzunehmen. Daraus folgte dann die Variabilität des Raums.
    Etwas über die Lichtgeschwindigkeit vor z. B. 10 Milliarden Jahren oder in einer Entfernung von 10 Milliarden Lichtjahren zu wissen, ist unmöglich.
    Einstein hat zwar die ad-hoc-Hypothese von der Konstanz der Lichtgeschwindigkeit aufgestellt und verteidigt - er brauchte in seiner Theorie einen festen archimedischen Punkt -, er hat sich aber nie, anders als die Päpste, als unfehlbar angesehen.
    Vielleicht gibt es ja doch unterschiedlich helle Supernovae. Die "riesige Leere" und die "dunkle Energie"könnte man damit in den Tolkienschen Kosmos des "ersten Zeitalters" verbannen, und unsere Kosmologen könnten sich wieder entspannen.
  • Wölfelsgrund am Großen Schneeberg

    30.07.2009, Johann John, Leinfelden-Echterdingen
    An der wissenschaftlichen Kompetenz von Professor Jaenisch habe ich weiß Gott nichts auzusetzen. Als einer, der aus seiner Gegend stammt, juckt es mich jedoch, seine Geografiekenntnisse etwas zurechtzurücken. Sein Geburtsort Wölfelsgrund (heute Miedzygórze), in dem es die Klinik Dr. Jänisch gab, liegt gewiss nicht am Rande des Riesengebirges nahe der Schneekoppe, sondern am Abhang des Großen Schneebergs im Glatzer Schneegebirge, einem Teil des Glatzer Berglandes, das wie das Riesengebirge zu den Sudeten gehört. Wölfelsgrund ist von der Schneekoppe immerhin gute 100 km Luftlinie entfernt.
    Ich freue mich jedenfalls sehr, so eine Kapazität unter meinen Landsleuten zu wissen.
  • Mit einfacher Optik erklärbar - Antwort auf Dr. Voss

    30.07.2009, Andreas Naumann, Frankfurt a. M.
    Meiner Ansicht nach hat das Phänomen nichts mit Kondensstreifen o. Ä. zu tun, es lässt sich mit einfacher Optik erklären:

    Aufgrund der großen Entfernung Sonne - Erde treffen die Lichtstrahlen der Sonne fast parallel auf die Erdatmosphäre auf. Damit projiziert eine malerisch angestrahlte Wolke ein Muster aus parallelen Licht- und Schattenstreifen auf den dunstigen Bereich dahinter.

    Das scheinbare Zusammenlaufen der Strahlen in einem Punkt ist also in beiden Fällen - in Richtung Sonne oder von ihr weg - nur eine Frage der Perspektive, genauso wie eine lange und schnurgerade Straße sich in beiden Richtungen scheinbar zum Horizont hin verjüngt.

    Beeindruckend ist das Schauspiel jedoch allemal, ob vom Boden oder aus dem Flugzeug betrachtet.
  • Hohlkugel ist eine konforme Abbildung

    29.07.2009, Jan Hesselbach
    Alle Argumente, die weg von einem geozentrischen hin zu einem heliozentrischen Weltbild führten, lassen sich ebenfalls auf die Hohlweltkugel abbilden. Die äußeren Planeten müssten sich dann aber wider die Gravitation verhalten. Der Abstand zwischen den äußeren Planeten und der Erde wäre dann am größten, wenn die Sonne zwischen Planet und Erde steht. Die Sonne müsste also eine abstoßenden Wirkung auf die äußeren Planeten haben, was ein Widerspruch zu den newtonschen Gesetzen wäre.

    Ergo: Wir kreisen in einer hohlen Sonne. Und am Tag wäre ich länger als in der Nacht. ;-)
    Antwort der Redaktion:
    Schon richtig, aber nicht bemerkenswert. In der Hohlwelt gelten natürlich nicht die newtonschen Gravitationsgesetze, sondern deren auf die Hohlweelt transformierte Versionen. Und die sind so kompliziert, dass niemand sich freiwillig damit befassen würde.

    Christoph Pöppe, Redaktion
  • Bemerkungen zum halben zusammengenähten Ikosaeder

    29.07.2009, Tilman Kroeker, Darmstadt
    Ich habe in der Badeanstalt über das halbe zusammengenähte Ikosaeder sinniert. Wenn die Sonne nicht zu heiß war und meine Sinne benebelt hat, dann handelt es sich bei dem Objekt doch einfach um das fünfdimensionale Analogon des Tetraeders: sechs Ecken, jede mit jeder mit einer Kante verbunden. Durch das Zusammennähen hat das Objekt dann nicht 10 Dreiecksflächen, sondern 20. Denn jede Kante hat Anteil an vier Dreiecksflächen. Nehmen wir im Bild auf Seite 68 die Kante CB heraus. Durch das Zusammennähen entstehen die Dreiecke BCF und BCE, gleichberechtigt zu den Dreiecken BCA und BCD. Also 15 Kanten mal 4 Dreiecke durch 3 Seiten macht 20 Dreiecke.
    Klar, dass die Projektion dieses fünfdimensionalen Körpers auf nur vier Dimensionen innenliegende Kanten produziert und also nicht konvex ist.
    Antwort der Redaktion:
    Das muss ich mir mal in Ruhe in der Badeanstalt durch den Kopf gehen lassen. Hier im Büro ist alles so dreidimensional. Und im Fünfdimensionalen kenne ich mich nicht so richtig aus.

    Aber ich versuch's trotzdem mal. Das fünfdimensionale Analogon des Tetraeders (nennen wir es kurz den 5-Simplex) hat nicht nur sechs Ecken, die jede mit jeder verbunden sind; sondern auch jede beliebige Auswahl von drei aus den sechs Punkten ist ein Dreieck, das zum 5-Simplex gehört. (Wieso? Drei von den sechs Punkten sind ausgewählt. Nimm von den drei übrigen den ersten weg, und du erhältst ein 4-Simplex oder auch Fünfzell aus vier Tetraedern. Nimm den nächsten weg, und es bleibt ein gewöhnliches Tetraeder. Nimm den dritten weg, und es bleibt ein Dreieck dieses Tetraeders.) Also hat das 5-Simplex (6 über 3) = 20 Dreiecke.

    Aber das Halbikosaeder hat definitiv nur zehn Dreiecke! Im Beispiel: BC, CE und EB sind sämtlich Kanten des Halbikosaeders, aber BCE ist keine Fläche des Halbikosaeders und wird auch durch Zusammennähen nicht zu einer solchen. Das ist eigentlich nicht verwunderlich: Im intakten Ikosaeder gibt es ebene Fünfecke, die vollständig aus Kanten des Ikosaeders bestehen und trotzdem keine Flächen desselben sind.

    Also kann man sich das Halbikosaeder entstanden denken aus einem 5-Simplex, aus dem jedes zweite Dreieck rausgeschmissen wurde? Ich glaube schon; jedenfalls fällt mir nichts ein, was dem entgegenstünde. Bemerkenswert ist allerdings, dass im Halbikosaeder jede Kante an genau zwei Dreiecke angrenzt, während es im 5-Simplex genau vier waren. Das Rausschmeißen hat also sehr "gleichmäßig" stattgefunden.

    Der verstümmelte 5-Simplex ist irgendwie "zugig" geworden: Von den Wänden seiner (zum Beispiel) Tetraeder stehen nicht mehr alle, so dass der Wind durchzieht. Die Projektion in den dreidimensionalen Raum wäre also so trickreich, dass sie alle Windlöcher schließt? Ach was, diese Projektion gibt es ja gar nicht ...

    Christoph Pöppe
  • Spannender als ein Kriminalroman

    28.07.2009, Hans-Reinhard Biock, Tönisvorst
    Was ist ein großes Vergnügen? Die liegengebliebenen Spektrum-Hefte im Urlaub zu lesen! Neben all den interessanten Artikeln sticht die Reihe "Die größten Rätsel der Mathematik" hervor. Wie hier dem wenig von Mathematik verstehenden Leser (wie mir) die Probleme der heutigen Mathematik präsentiert werden, ist beispielhaft; die von Ihren Artikeln erzeugte Spannung hat mich häufig nachts (wenn meine Frau den Fernseher nicht einschalten konnte) bewegt, die ungelösten mathematischen Rätsel zu studieren. Wer da noch Romane liest, weiß nicht, was Spannung ist!

    Auch der Artikel "Abelpreis für Mikhail Gromov" ist von bestechend verständlicher Einfachheit. Seine Gedankengänge erinnern ein wenig an die großartigen Leistungen von B. Riemann, dessen Entdeckungen die Relativitätstheorie Einsteins möglich machten.

    Mit Ihren mathematischen Darlegungen erfreuen Sie sicher nicht nur mein Gemüt. Bitte machen Sie weiter auf diesem Gebiet.