Lesermeinung - Spektrum der Wissenschaft

Ihre Beiträge sind uns willkommen! Schreiben Sie uns Ihre Fragen und Anregungen, Ihre Kritik oder Zustimmung. Wir veröffentlichen hier laufend Ihre aktuellen Zuschriften.
  • Sachbearbeiterdilemma

    20.08.2007, Dr. Erich Pfalzmann, Wien
    Ich finde, es ist höchst interessant, wie der Versuch des Sachbearbeiters, sein ursprüngliches Problem - einen ihm unbekannten Wert für einen Gegenstand zu ermitteln - durch einen scheinbaren Wettstreit zwischen zwei Klienten zu lösen, als Prototyp für einen wirtschaftlichen Lösungsansatz gesehen wird:

    Das Dilemma des Sachbearbeiters (und nicht jenes der Urlauber) besteht darin, dass er trotz völliger Unkenntnis des Wertes der Vasen sein Risiko auf 200 (Einheiten) begrenzen möchte. Es bleibt ihm also nur die Hoffnung, dass die Urlauber unter der Aussicht eines individuellen Vorteils gegeneinander spielen und er durch deren gegenseitiges Unterbieten die Zahlungen an sie minimieren kann.

    Ich freue mich, dass - so scheint es - ein Großteil der Menschheit die Natur dieses Tricks (zumindest) intuitiv durchschaut und entsprechend mit Kooperation antwortet. Seltsam finde ich es, dass dafür keine mathematische Erklärung gefunden wird - betrachtet man den Sachbearbeiter als Mitspieler, so findet man ein Nullsummenspiel vor, dessen Lösung durch das Nash- Gleichgewich vermutlich plausibel erklärt wird. Menschen scheinen Erhaltungssätze nicht nur in der Physik zu bevorzugen. Vielleicht wäre eine kritische Betrachtung von "Nicht-Nullsummenspielen" ein Ansatz für die Spieltheoretiker.

    Im Übrigen erfordert eine (darüber hinaus für alle auch "faire") Auflösung des Dilemmas einfach nur den Mut des Sachbearbeiters zu einer "beliebig hohen" Zahlung: Gibt er keine (obere) Schranke vor, dann haben die beiden Urlauber keine andere gemeinsame Information als den (wahren) Wert der Vase. Jede andere Wahl des anderen Urlaubers als diese wäre angesichts der unendlich vielen Möglichkeiten (und Vorlieben) beliebig unwahrscheinlich. Es bleibt daher genau eine rationale Wahl für beide Urlauber, die auch der Sachbearbeiter erwartet - der wahre Wert der Vase!
  • Sind es wirklich Denkvorgänge?

    20.08.2007, Dr. Eckart Lefringhausen, Geldern
    Die Verfasser dieses Artikels verwenden völlig unkritisch die Begriffe Geistestätigkeit, Vernunft, Verstand, logisches Schlussfolgern usw. bei der Beschreibung des Verhaltens von Kolkraben, ohne diese Termini näher zu erläutern. Sie fassen unter Letzte zum Beispiel Gefühle, Lernprozesse und Intelligenz. Zweifellos sind viele Tierarten mit derartigen Fähigkeiten ausgestattet. Kritisch muss man aber fragen: Handelt es sich hierbei wirklich um Denkvorgänge? Oder sind diese nicht vielmehr beschränkt auf eine sprachlich vermittelte objektivierende und abstrahierende Tätigkeit? Von einem Tier, das etwa Begriffe bilden kann, habe ich noch nichts gehört.
  • Schlangen im Gleitflug

    20.08.2007, Martin Rabe, Hagen
    Im Artikel wird eine fliegende Eidechse aus der Kreidezeit beschrieben, die offensichtlich mittels einer Membran, die zwischen ihren verlängerten Rippen aufgespannt ist, durch die Luft gleiten konnte. Auch die so genannten fliegenden Schlangen der Gattung Chrysopelea aus Südostasien spreizen beim Flug die Rippen nach außen. Dabei nimmt die Unterseite die Form einer Tragfläche an, wodurch die Schlangen auch weite Strecken im Gleitflug überwinden können. Zum Glück gibt es Filmaufnahmen vom Gleitflug der Schlange wie unter www.flyingsnake.org, denn in freier Wildbahn ist es fast unmöglich, die genannte Schlange im Flug zu bewundern.
  • Allzu massereiche Sterne?

    20.08.2007, Dr. Marcus Böhm, Nürnberg
    In Ihrem Artikel über den neuen Supernova-Typus stehen Grenzen von 140 und 260 Sonnenmassen, unterhalb derer sich Neutronensterne beziehungsweise oberhalb derer sich Schwarze Löcher bilden. Nach meinem etwa zehn Jahre alten Hobbyastronomenwissen dürfte es hier eher 14 und 26 Sonnenmassen lauten, da Sonnen mit über 50 Sonnenmassen sehr selten, solche mit über 100 extrem selten anzutreffen sind. Vor allem wäre die Lebensdauer eines Sterns mit über 260 Sonnenmassen in astronomischen Maßstäben so kurz, dass sich seine Masse kurz nach seiner Geburt schon wieder durch abgestoßene Materieschübe verringern dürfte.

    Sie könnten ja mal einen Artikel über den jetzigen Stand der allgemeinen Forschung zu Sternpopulationen und den zehn massereichsten bekannten Sonnen in unserer Galaxie veröffentlichen.
    Antwort der Redaktion:
    Die Angaben in dem Artikel sind richtig, aber trotzdem brauchen Sie Ihre astronomischen Kenntnisse nicht ad acta zu legen.



    Tatsächlich sind bereits Sterne mit mehr als 20 Sonnenmassen recht selten, auch wenn theoretische Überlegungen mittlerweile sogar Sterne mit mehreren Hundert Sonnenmassen in Betracht ziehen.



    Der Vorläuferstern von SN2006gy, von dem unser Beitrag spricht, ist indessen etwas Besonderes. Wie die sehr alten Sterne des Kosmos bestand er vor allem aus leichten Elementen (in der Frühzeit des Universums gab es noch kaum schwere Elemente) – möglicherweise deshalb, weil er in einer metallarmen Region des Kosmos entstanden war. Diese sehr alten Sterne konnten aufgrund ihrer Zusammensetzung tatsächlich viel massereicher werden als das heutzutage noch möglich ist. Das lag vermutlich daran, dass der Strahlungsdruck von innen die weitere Akkretion nicht stoppen konnte: Hätte sich ihr Strahlungsdruck gegen schwerere Elemente mit größerem Wirkungsquerschnitt gerichtet, wäre er effektiver gewesen. Sehr alt wurden diese Sterne wegen ihrer hohen Masse nicht, sie hatten Lebensdauern von vielleicht einigen Millionen Jahren.



    Die Entstehung von Neutronensternen und Schwarzen Löchern indessen wird üblicherweise anhand „normaler“ Sterne mit Anfangsmassen ab elf Sonnenmassen beschrieben. Diese bilden gegen Ende ihres Lebens einen Eisenkern aus, der eines Tages kollabiert (und dabei die Hülle in einer Supernova Typ II absprengt). Dann kommt es, abhängig von der Masse des verbleibenden Kerns, entweder zu einem Neutronenstern (Kernmasse zwischen 1,4 und etwa 3 Sonnenmassen) oder zu einem Schwarzen Loch (bei darüberliegenden Massen).



    Der Vorläufer von SN2006gy indessen war kein „normaler“ Stern, sondern war sehr arm an schwereren Elementen und könnte tatsächlich eine Masse zwischen 140 und 260 Sonnenmassen aufgewiesen haben. Darauf weisen, so heißt es auch in dem Artikel, spektroskopische Daten und die große Helligkeit der Explosion hin. In diesem Massenbereich stellt sich die Endphase, zumindest laut Computermodellen, allerdings anders dar: Es kommt zu der besagten Paarinstabilitäts-Supernova, bei der das hydrostatische Gleichgewicht zusammenbricht, weil ein Teil der nach außen gerichteten Strahlung schlagartig entfällt (indem sie nämlich in Elektron-Positron-Paare umgesetzt wird). Wäre der Stern leichter gewesen als 140 Sonnenmassen, wäre er zum Neutronenstern geworden, wäre er schwerer gewesen als 260 Sonnenmassen, wäre am Ort der SN2006gy jetzt ein Schwarzes Loch zu finden.



    Nachlesen kann man hierzu: "How Massive Single Stars End Their Life" von Heger et al. in: The Astrophysical Journal, Volume 591, Issue 1, pp. 288-300. Hier ist der Text als Preprint frei erhältlich. Unter anderem finden Sie hier ein Diagramm, in dem Anfangsmasse gegen Anfangs-Metallgehalt aufgetragen ist und die entsprechenden Schicksale der Vorläufersterne dargestellt sind.



    Abgesehen davon wären massereiche Sterne tatsächlich ein schönes Thema für SdW.
  • Chex - kleiner, aber besser

    19.08.2007, Jochen Endermann, Kirchheim/Teck
    Ich persönliche finde Chex besser als das "klassische" Schach. Erstens benötigt es weniger Zeit, und zweitens beansprucht es einen, trotz der wenigeren Figuren, geistig mehr, da die Figuren viel mehr können als im klassischen Schach.
  • Re: Subjektive Bewertung der Strafe

    18.08.2007, Sabine Schulz, Hoyerswerda
    In wissenschaftlichen Fachtexten findet man meistens statt Euro oder Dollar nur abstrakte Geldeinheiten. Es ist also nicht definiert, wie viel eine Geldeinheit wert ist. Wäre der Gegenstand der Verhandlungen eine äußerst wertvolle Ming-Vase, würde man alle Beträge (Geldeinheiten) mit 1000 multiplizieren müssen, um vernünftige Euro-Beträge zu erhalten. 2000 Euro Strafe tun dann schon weh.
    Antwort der Redaktion:
    Die Antwort vom Standpunkt des abstrakten Theoretikers ist relativ einfach: Dem gedachten Nutzenmaximierer kommt es auf einen Vorfaktor nicht an. Die Theorie bleibt unverändert, wenn man alle Beiträge mit 1000 multipliziert.

    Für die konkreten Urlauber in dem anschaulichen Beispiel macht der Faktor 1000 natürlich einen riesigen Unterschied. Aber die Geschichte wird dadurch nicht unbedingt realistischer. Zwei Urlauber kaufen sich in Fernost zwei identische Ming-Vasen für jeweils einen großen fünfstelligen Euro-Betrag und tun sie dann ins aufgegebene Fluggepäck, gegen Zerstörung durch nichts gesichert als die eigene schmutzige Unterwäsche? Schwer vorstellbar. Ich glaube, ich würde die 2000 Euro dann auch noch vorher drauflegen, um das gute Stück heile nach Hause zu bekommen. Und dann wird es eine anderes Spiel, nämlich Festsetzung der Versicherungssumme beim Abschluss der Reisegepäckversicherung. Sehr interessant – aber ein anderes Thema.
  • Sommerloch

    18.08.2007, Karola Rockmann
    Mal ganz ehrlich, aber diese Meldung gehört doch auch in die Sommerlochkategorie, oder?
  • Kooperation als Ausweg

    17.08.2007, Prof. Dr. W. Krabs, Darmstadt
    Eine Möglichkeit, aus dem Dilemma herauszukommen, wäre eine Kooperation der beiden Spieler in dem Sinne, dass sie die Summe ihrer beiden Auszahlungen maximieren und diese dann halbe-halbe aufeinander verteilen. Das Maximum der Summe wäre dann 200, und jeder bekäme 100.
    Das Strategienpaar (100, 100) ist übrigens ein so genanntes Pareto-Optimum, das dadurch definiert ist, dass eine Vergrößerung der Auszahlung eines Spielers durch Änderung seiner Strategie (zum Beispiel durch die Wahl von 99 anstelle von 100, was ihm die Auszahlung 101 sichern würde) notwendig zu einer Verkleinerung der Auszahlung an den anderen Spieler (nämlich zu 97 anstelle von 100) führt. (In diesem Fall wäre die Gesamtauszahlung nur 198).
    Auf die gleiche Weise ist es auch möglich, aus dem Gefangenendilemma herauszukommen.
  • Der Andere denkt gleich

    16.08.2007, Christian Thalmann, Zürich
    Unter der offenbar üblichen spieltheoretischen Grundannahme "der Andere denkt gleich" treten beide Spieler einander mit der identischen Strategie gegenüber, folglich ist der Erwartungswert des Gewinns für beide Spieler gleich hoch.

    Es gibt so nur zwei mögliche Strategien:

    – Gleichstand. Beide Spieler setzen immer die gleiche Zahl und erhalten folglich diese ausbezahlt. Hier ist der maximale Einsatz (100) zwangsläufig der optimale Einsatz.

    – Gewinnen/Verlieren. Die Spieler wählen ihren Einsatz zufällig (z.B. 99 oder 100, je mit 50% Wahrscheinlichkeit). Sie "gewinnen" also einen Teil aller Spiele, "verlieren" einen gleich großen Teil und erzielen in den verbleibenden Spielen Gleichstand (im konkreten Beispiel 25%/25%/50%). Weil die Auszahlung bei Ungleichstand auf dem tieferen der beiden Einsätze basiert, liegt der langfristige Ertrag unter dem Mittel der Einsätze (99,25 in diesem Beispiel).

    Ganz offensichtlich ist die erste der beiden Strategien gewinnbringender, und 100 somit die rationalste Strategie.

    Die im Artikel als rational verkaufte Überlegung, dass die Strategie 99 über 100 "dominiere", ist unter dem Axiom, dass der andere Spieler immer gleich denkt, falsch. Sie geht fälschlicherweise davon aus, dass das gegenüber immer noch 100 setzt, während man selbst einen Schritt weiter gedacht hat. Die Strategie 99 bringt bei gleich denkenden Spielern einen erwarteten Gewinn von 99 statt 100 und ist somit unterlegen.
  • Es gibt kein Dilemma

    15.08.2007, Matthias Heininger, Mömbris
    Sowohl das Gefangenendilemma als auch das Urlauberdilemma beschreiben ein symmetrisches Spiel:

    1. Für alle beteiligten Spieler gelten die gleichen Regeln.

    2. Alle Spieler besitzen auch die gleichen Informationen.

    Daraus folgt, dass es keinen Grund gibt, weshalb ein Spieler eine andere Wahl trifft als ein beliebiger anderer Spieler. Daher sind nur Spiele möglich, bei denen alle Spieler die gleiche Wahl treffen. Das heißt, in der Auszahlungsmatrix ist nur die Hauptdiagonale (das gilt äquivalent für beliebig viele Spieler) erlaubt. Dies hat die folgenden Konsequenzen:

    1. Ausgehend von einem legalen Spiel (z.B. 76/76) können weitere Varianten untersucht (z.B. 25/25 und 87/87, es ist dabei egal, ob eine kleine oder eine große Distanz zum Ausgangsspiel gewählt wird) und die jeweils günstigere Variante gewählt werden. In jedem Fall ergibt sich bei iterativer Anwendung das Optimum 100/100. Ich behaupte sogar, dass es sich hierbei um das Nash-Gleichgewicht handelt (solange die Symmetrie erhalten bleibt!). Es ergibt sich somit zwanglos das beobachtete Ergebnis der Tests. Ein Nash-Gleichgewicht von 2/2 ergibt sich nur bei der Berücksichtigung von unsymmetrischen Varianten!

    2. Der große Rest in der Auszahlungsmatrix, der für unsymmetrisches Verhalten gilt, hat keine Bedeutung und darf auch nicht bei der Analyse des Spiels verwendet werden.

    3. Alle Regeln, die bei unsymmetrischem Verhalten gelten, haben keinerlei Bedeutung und dienen nur der Verschleierung und Verkomplizierung des Spiels.

    4. Der im Text genannte mögliche Gewinn von über 100 existiert nicht wirklich, sondern nur wenn die Symmetrie des Spiels ignoriert wird.

    Ich behaupte daher, dass das sogenannte Dilemma nur existiert, wenn der symmetrische Aufbau des Spiels ignoriert wird und daraus die falschen Schlüsse gezogen werden.

    Alle Abweichungen bei den durchgeführten Tests haben meines Erachtens folgende Gründe:

    1. Nicht jeder Teilnehmer durchschaut die Symmetrie und kann deren Konsequenzen abschätzen.

    2. In einigen Fällen können weitere psychologische Ursachen (Art der Aufgabenstellung, Vorwissen, etc.) dazukommen.

    3. Eventuell kann die Suggerierung eines Gewinns von über 100 zu Fehlschlüssen führen.

    Ich möchte daher behaupten, dass der Artikel in SdW die Symmetrie des Spiels und deren Auswirkungen ignoriert, aber das ist leider kein Einzelfall (siehe die lange Historie des Gefangenendilemmas und anderer Spiele).
  • Die Irrationalität der Rationalität

    15.08.2007, Ben-Michael Schueler, Hamburg
    Ich halte es für nicht sehr wahrscheinlich, dass noch kein Spieltheoretiker die Lösung des "Spieltheoretikerdilemmas" gefunden hat. Deshalb ist wohl meine Lösung hier irrational! Oder?
    Also: Beide Spiele, Urlauberdilemma (UD) und Gefangenendilemma (GD) werden in der Literatur als symmetrische, nichtnullsummige Zweipersonenspiele zwischen zwei Personen in gleicher Situation behandelt.
    Das ist beim UD in der Ursprungsfassung immer und beim GD - abhängig von der Spielmatrix und der Situation meistens falsch.
    Beim UD spielen nicht die beiden Urlauber gegeneinander, sondern jeder für sich mit unvollständiger Information gegen den Sachbearbeiter. Die Bonus- Malus-Regel mit +/- 2 Einheiten ist, verglichen mit den erzielbaren Gewinnen, vernachlässigbar. Der Zweck dieser Regel (wie auch der textlichen Disposition) ist lediglich, den "Spieltheoretiker" aufs Glatteis einer "Intellektuellen Täuschung" (siehe unten) zu locken.
    Ich, als einer der Urlauber, kann den anderen als indifferenten Zufallszahlengenerator mit einer von mir angenommenen Häufigkeitsverteilung ansehen. Die wird mit Sicherheit im Mittel weit über den zwei Einheiten der "spieltheoretischen Optimalstrategie" liegen.
    Also ist mein Einsatz von 100 Einheiten die rationalste Entscheidung!
    Für das GD ist diese Überlegung stark von der Spielmatrix abhängig. In meiner Erinnerung war bei der ersten mir bekannten Veröffentlichung die Höchststrafe die Exekution. Bei solch einem Risiko wird wohl kaum jemand auf die Kooperation des anderen Gefangenen setzen.
    Ich habe damals mit geringen Geldbeträgen das GD mit zwei Mitarbeitern gespielt. Die (Systemanalytiker) hatten ohne Verabredung sofort begriffen, dass sie koalieren mussten. Die haben mich dann als Bankhalter auch ausgenommen, bis ich das Spiel abbrach.
  • Die Spieler agieren nicht unabhängig

    14.08.2007, Dr. Wolfgang Zesch, Zürich (Schweiz)
    Beim oft zitierten Nash-Gleichgewicht wird davon ausgegangen, dass beide Personen komplett unabhängig voneinander agieren. Ein streng rationaler Spieler A, der darauf vertraut, dass auch sein Konterpart B logisch korrekt handelt, muss zum Schluss kommen, dass B die gleiche Entscheidung wie A treffen wird - zumindest in Spielen mit symmetrischer Auszahlung. Damit reduziert sich das Problem auf nur noch einen Freiheitsgrad. Konkret sind nur noch die Felder in der Diagonale der Auszahlungsmatrix erlaubt. Unter dieser Bedingung wird schnell klar, dass A und B die Wahl 100/100 treffen und damit auch "gesamtwirtschaftlich" das Optimum erzielen. Nicht ganz so rationale Akteure - oder Bauchentscheide - werden mehr oder weniger davon abweichen, aber in der Regel immer noch weit vom Nash-Gleichgewicht liegen, da sie auf das Gute (oder die Logik?) im anderen vertrauen.
  • Unterschiede im Energieaufwand

    14.08.2007, Dr. Hartmut Wand, Nussbaumen, Schweiz
    Hierzu möchte ich folgendes bemerken:

    1. Der vom Autor des Artikels zitierte Herr Ulf Bossel hat leider nicht zwischen Urankonzentration im Erz und Isotopenzusammensetzung des Natururans unterschieden. Ihr Erratum hat zwar auf den Unterschied hingewiesen, jedoch nicht den folgenden Denkfehler behoben.
    Herr Bossel meint nämlich, dass mit abnehmender Qualität des Uranerzes der Energieaufwand für die Gewinnung und Anreicherung des Kernbrennstoffs steige. Was die Gewinnung des Urans betrifft, so ist die Aussage richtig. Der Energieaufwand für die Anreicherung des gewonnenen Natururans, das grundsätzlich 0,7 % Uran-235 enthält, hängt aber – bei gegebenem Anreicherungsverfahren – nur von der angestrebten Endanreicherung ab. Letztere liegt derzeit im Bereich zwischen 3,5% und 5% Uran-235.
    2. Erhebliche Unterschiede im Energieaufwand gibt es zwischen den Anreicherungsverfahren. Das moderne Gaszentrifugenverfahren verbraucht etwa 65-mal weniger Energie als das ältere Gasdiffusionsverfahren. Für den CO2-Beitrag ist außerdem wichtig, ob die Anreicherungsanlagen mit nuklear erzeugtem Strom oder mit Strom aus Kohlekraftwerken betrieben werden. Solche und andere Unterschiede führen dazu, dass der CO2-Beitrag der Kernkraft durchaus zwischen 10 und 80 Gramm CO2/kWh schwanken kann. Dass das Ökoinstitut sogar auf bis zu 126 Gramm CO2/kWh kommt, scheint mir an einer Häufung pessimistischer Annahmen zu liegen.

    3. Der Artikel lässt ausser Acht, dass man bei einer Verknappung von Uran stärker auf die Rezyklierung von Resturan und Plutonium aus den abgebrannten Brennelementen setzen wird. Das erfordert natürlich die Wiederaufarbeitung des abgebrannten Brennstoffs, die z. B. in französischen und britischen Wiederaufarbeitungsanlagen seit Längerem praktiziert wird. Die dazu benötigte Energie kann von KKW geliefert werden. Beim Einsatz von Schnellen Brutreaktoren wird es schliesslich über Jahrhunderte kein Kernbrennstoffproblem geben. Diese Reaktoren erzeugen mehr Kernbrennstoff als sie selbst verbrauchen.

    Die Behauptung des Herrn Bossel, dass schon in wenigen Jahrzehnten der Energieaufwand für die Gewinnung des Kernbrennstoffs die Energieerzeugung der KKW übersteige, ist somit nicht glaubhaft.





  • Sättigende und medizinische Wirkung

    14.08.2007, Dr. Gerhard Rudolf, Bad Homburg v. d. Höhe
    Mein Leben lang koch ich sehr gern und habe mich daher notgedrungen mit Zen-Kochkunst, chinesischer, thailändischer, indischer, mediterraner, vollwertiger und experimenteller Küche beschäftigt, da die traditionelle deutsche Küche an Geschmacksarmut und Bekömmlichkeit leider gleich hinter der britischen und der russischen rangiert. Und so gut wie überall bin ich der Ansicht oder dem Wissen begegnet, dass Würzen nicht nur den Geschmack, sondern zugleich die Bekömmlichkeit des Essens beeinflusst und im Idealfall verbessert. Nicht nur den meisten Kräutern und Gewürzen, auch den Grundzutaten wird eine medizinische Wirkung zugeschrieben. Mit anderen Worten: Jede Speise ist zugleich Medizin, das heißt sie hat außer ihrer sättigenden zugleich eine medizinische Wirkung, - sie stopft, führt ab, kühlt, erhitzt, gleicht aus, energetisiert, beruhigt, reizt oder pflegt die Verdauungsorgane und wirkt gegen diese oder jene Beschwerden oder ruft sie hervor - je nachdem, wie die Ingredenzien eingesetzt, kombiniert und zubereitet werden. - Man kann also die Münchner Forscher nur zu ihrem Erfolg beglückwünschen.
  • Automobile der Zukunft

    14.08.2007, Volker Bartheld, München
    Jüngste Berichterstattungen im SdW diskutieren die Befriedigung individueller Mobilitätsbedürfnisse mit umweltfreundlichen und klimaneutralen Treibstoffen. Wegen grundlegender Schwächen wird sich aus unterschiedlichen Gründen auch in Zukunft ein Wasserstoffantrieb nicht durchsetzen:

    Für eine faire Beurteilung der CO2-Bilanz muss der komplette Wasserstoffkreislauf von der Erzeugung (großtechnisch via Dampfreformierung aus fossilen Kohlenwasserstoffen!) über den Transport bis zur Energieverwertung in Betracht gezogen werden.
    Klimaneutral wird Wasserstoff also erst, wenn regenerierbare
    Energiequellen zur Erzeugung z.B. aus Elektrolyse genutzt werden.

    Da der Wasserstoff weiterhin mit Luft verbrennt, sind auch andere Abgase wie z. B. Stickoxide ein Thema.

    Was bleibt ist ein Handhabungsproblem: Metallhydridspeicher mit genug Reichweite für 500 Kilometer würden etliche hundert Kilogramm wiegen, Kryotanks rasant verdunsten, platzfressende Höchstdrucktanks wären ein Sicherheitsrisiko und hätten das Packungsmaß eines überdimensionalen Feuerlöschers - Kofferraum ade!

    Entgegen suggestiver Marketingaussagen aus der Automobilindustrie ist ein übergewichtiges und für annehmbare Fahrleistungen folglich übermotorisiertes Kraftfahrzeug, das etwas weniger verbraucht als sein Vorgänger, deswegen noch längst nicht umweltfreundlich - auch wenn es umweltfreundlich angetrieben wird.

    Mit hoher Wahrscheinlichkeit wird auch in zukünftigen Automobilen noch ein Verbrennungsmotor werkeln (weil der Energieinhalt und die Speichereffizienz von kohlenwasserstoffhaltigen Flüssigkeiten einfach unschlagbar hoch ist), nur werden es vermehrt Biokraftstoffe aus regenerierbaren Energiequellen und organischen Abfällen (über
    Neuerungen auf dem Sektor der BTL-Kraftstoffe, Bioethanol und RME wurde u. A. im SdW 6/2007 schon ausgiebig berichtet) sein müssen und eben weniger, leichtere, kleinere und somit zweckmäßigere Automobile.

    Dass das keine allzu ferne Zukunftsphantasie ist, zeigt die in München ansässige Firma Loremo, die unter konsequentem Verzicht auf überflüssige Komfortmerkmale und durch strikten Leichtbau aus großserientauglichen Komponenten ein trotzdem sicheres Automobil mit überragend geringem Verbrauch (unter 3L Diesel/100km) für 2009 ankündigt. Bereichert um hybride Technologien wie auf der Kurbelwelle mitlaufendem Startgenerator (ein aus Anlasser und Lichtmaschine kombiniertes Aggregat), der die während eines Bremsvorgangs entstehende Energie in hochstromfähigen, leichten und langlebigen Kondensatoren speichern und während des
    Beschleunigungsvorgangs wieder freigeben kann, bleiben im Sinne der Umweltfreundlichkeit auch gehobene Fragestellungen der Fahrdynamik nicht auf der Strecke.

    Wenn in fernerer Zukunft kohlenwasserstoffkompatible Brennstoffzellen (sog. "Fuel Cells") effizient Strom produzieren, könnte man den prinzipbedingt schlechten Wirkungsgrad heutiger Otto- und Dieselkonzepte mit Elektroantrieben aufwerten - vorurteilsfrei betrachtet spielt nämlich in schweren und kurzlebigen Akkumulatoren gespeicherter Strom aus staatlich subventionierter Photovoltaik, Windkraft, etc. im alltäglichen Straßenverkehr auch in absehbarer Zeit nur eine vernachlässigbare und nicht unbedingt klimaneutrale Rolle.

    Kurz: Eine positive Entwicklung erreicht man in erster Linie über die radikale Abkehr von heutigen Mobilitäts- und Prestigeansprüchen und eine "de-Individualisierung" des Nahverkehrs.