Lesermeinung - Spektrum der Wissenschaft

Ihre Beiträge sind uns willkommen! Schreiben Sie uns Ihre Fragen und Anregungen, Ihre Kritik oder Zustimmung. Wir veröffentlichen hier laufend Ihre aktuellen Zuschriften.
  • Anakonda verschlingt Menschen

    09.12.2014, Paul R. Woods
    Schlichte Tierquälerei und dümmliche Effekthascherei.
  • Weg gefunden?!

    08.12.2014, Jutta Paulus
    Die Formulierung "nachdem die Varroamilbe ihren Weg von der asiatischen zur europäischen Honigbiene gefunden hat" ist geradezu verschleiernd! Fakt ist doch: beim Versuch, die asiatische Honigbiene Apis cerana in Apis mellifera einzukreuzen, wurde schlicht übersehen, dass Apis cerana mit dieser Milbe befallen ist. Übertragen auf die Größenordung eines Menschen trugen die Bienen einen kaninchengroßen Parasiten im Genick. Wie konnte das unbemerkt bleiben?!
  • weitverbreitetes Verhalten

    07.12.2014, Eva Baumgartner
    Diese Reaktion ist auch bei (erwachsenen) Diskussionsteilnehmern oder alltäglichen Gesprächen zu beobachten. Mit Heranwachsen scheint mir das nichts zu tun zu haben.
  • Rätselhaft!

    07.12.2014, Dr. Peter Altreuther
    Es ist bekannt, dass vor ca. 12000 Jahren, am Übergang der jüngeren Dryas zum Holozän, die Temperatur weltweit, z. B. auch in Grönland, innerhalb von 10 bis 15 Jahren um 5-6 Grad ansteigt. Welches Klimagas dafür verantwortlich war, weiß keiner - mindestens das Methan reagierte erst 100 Jahre später. Das wichtigste Treibhausgas muss eigentlich Wasser gewesen sein - wenn kein Wasser in der Luft ist, gibt es auch keinen Regen - und Wasser wirkt heftiger als alle anderen Treibhausgase. Aber, was geschah eigentlich zuerst? Waren es zuerst die Treibhausgase, die dann die stärkere Erwärmung herbeiführten - und wo waren sie vorher? In Grönland wohl kaum - aber warm wurde es da trotzdem, deshalb waren die Gletscher weitgehend verschwunden. War die Temperaturerhöhung vielleicht schon vorher da und warum?
    Mich stört eigentlich nur, dass es immer Wissenschaftler gibt, die unterstellen, dass ihre Ergebnisse Ereignisse "zu berechnen" erlauben. Nun habe ich den Originalbericht nicht gelesen. Die Zusammenfassung erlaubt aber keinerlei Rückschlüsse auf den Zusammenhang zwischen unterstellten Ursachen und festgestellten Ereignissen. Treibhausgase waren es sicher nicht.
  • Emergenz und biologische Entwicklung. Antwort an Andreas Dapp

    07.12.2014, H. F. Quackmann
    H. F. Quackmann

    Zu Ihrem Beitrag „Emergenz und biologische Entwicklung 12.03.2013, Andreas Dapp“ erlaube ich mir eine Stellungnahme aus Sicht der Nachrichtentechnik/Informatik.
    Die Nachrichtentechnik als Ingenieurwissenschaft, beschäftigt sich mit der technischen, hauptsächlich elektronischen Umsetzung, Übertragung und Verarbeitung von Information. Die Informatik beschäftigt sich hauptsächlich mit der Algorithmik.

    Ich möchte vorausschicken, dass es aus „logischer Sicht“ der Philosophie bestimmte Mechanismen der Digitaltechnik eigentlich gar nicht geben dürfte (z.B. „den Kippeffekt in der Flip-Flopschaltung“). Auf jedem Handychip kommt dieser Mechanismus viele Millionen mal erfolgreich zur Anwendung. Scheinbare Grenzen werden immer wieder überwunden.

    Zitat: “...Die hier betroffenen Kategorien des Erkennens, Quantität und Qualität, können zwar für sich wahrgenommen/erfasst werden, ein Übergang von der einen zur anderen ist uns aber aus erkenntnistheoretischer Sicht verschlossen. Dafür fehlt uns die entscheidende Kategorie. Vielleicht könnte man sie wirklich als „Kategorie des Übergangs“ bezeichnen....“

    „Information“, aber auch die „Kategorie des Übergangs“, wird in der Philosophie zu wenig berücksichtigt. Der Begriff „Geist“ erscheint zu vage. (Der Kippeffekt ist übrigens eine besondere Art des Überganges).
    In meinem Text „4“ auf den ich verweisen möchte, habe ich von einer Art „magischem Dreieck“ (Prozessor-Prozess-Information) geschrieben. Der „Übergang“ wäre der Prozess.
    Aus einem Information abbildenden (elektrischen) „Zustand“ (auf einer Struktur) kann mittels Verknüpfungen (in Prozessen) ein neuer Zustand abgeleitet werden, bzw. aus einer zeitlichen Abfolge mehrerer Zustände, eine ganze Kette von Zuständen die eine Handlung bewirken können. Diese Sichtweise ist in der Elektronik/Informatik völlig selbstverständlich.

    Bezüglich Emergenz verweise ich auf Paul Nipkow der frühzeitig das Problem der Emergenz aus technischer Sicht und wohl auch zu unserem Nutzen erforschte (Fernsehen).
    Etwas „Ganzes“ (z.B. ein Bild) wird in „Bildpunkte“ zerlegt die einem „elektrischen Trägersignal auf moduliert“ werden. Dieses konnte über weite Strecken übertragen werden, um es danach so umzusetzen damit wieder etwas „Ganzes“, sogar ein Film entstand, wenn die Prozesse schnell genug waren.
    Tatsächlich stecken hier in der „Kategorie des Übergangs“ die Informationen und Prozesse die danach die Emergenz problemlos und ausreichend vollständig wieder herstellen können.
    Der Begriff „Emergenz“ scheint auch hier korrekt, weil der Zusammenhang Signal - Bildpunkt - Bild jedenfalls von außerhalb des Nachrichtentechnischen Systems nicht erkennbar ist, so wie auch der Zusammenhang Signal - im Zeitschlitz triggernde Kombinationen von Neuronen auf bestimmten Strukturen - Bewusstsein. Letzteres ist zumindest naheliegend weil auch ich nicht an esoterische Phänomene außerhalb der Naturgesetze glaube. An jeder sensorischen oder muskulären Erregung sind elektrische Prozesse und neuronale Schaltprozesse beteiligt, die große Ähnlichkeit mit den Prozessen in Information verarbeitenden Systemen haben.

    Um die Entwicklung des bei vielen Lebewesen offensichtlich unterschiedlich stark ausgeprägten Bewusstseins (besteht nicht nur aus dem „Ich-Bewusstsein“) nachvollziehen zu können, ist leider ein kleiner „Ausflug“ in die Elektronik/Informatik nötig. Was für nicht „Insider“ sehr mühsam scheint.
    Der nachstehende Text gilt nur für den „elektrischen Teil“ der neuronalen Informationsverarbeitung und nicht für das darin eingebettete elektrisch chemische „Empfindungsphänomen“.
    Aus Sicht der Informatik dürfte das, was wir Bewusstsein (Empfindungen ausgenommen) nennen, auf bestimmten Strukturen abgebildet werden. Dies scheint fast eine tautologische Aussage.
    Man bezeichnet einen Prozess bei dem Information von einer Struktur auf weitere Strukturen weitergegeben wird, als „Parameterübergabe“. Es können einzelne „Bit“ übergeben werden, und in bestimmten Fällen ganze „Datenfelder“ also sehr viele besonders angeordnete Bits. Kann man sich vorstellen wie eine Matrix oder eine Excel Tabelle die in einen Computer eingegeben wird. (Einmal abgesehen davon, dass aus technischen Gründen intern jede Feldkomponente einzeln, diese aber immens schnell hintereinander, eingegeben werden).
    Im neuronalen Systemen stehen die Daten tatsächlich gleichzeitig (in einem „Zeitschlitz“) an der jeweiligen Schnittstelle z.B. Netzhaut an und werden auch parallel weiterverarbeitet.
    Auf derartigen „Datenfeldern“ sollten die bewusstseinsrelevanten Informationen abgebildet werden. Dafür kommen hautartige Oberflächenschichten in Frage. Z.B. Netzhaut, Hirnhaut, Schichten zwischen den Hirnorganen. Die „abgebildete“ Information („abgebildet“ im Sinne der Informatik, nicht optisch) steht in bestimmten Zeitschlitzen als Neuronentriggerungen an. Kann man sich vorstellen wie einen Fernsehbildschirm, nur nicht optisch. So wie beim Fernseher viele Bildpunkte zu einem Bild und deren zeitliche Abfolge zu einem Video „emergieren“, emergieren die o.a. Neuronentriggerungen zur „Bewusstseinswahrnehmung“.
    Naheliegender Weise und das ist der Kern der Sache, werden „Informationen“ unterschiedlicher Art und unterschiedlicher Zahl abgebildet. Kann man sich vorstellen wie ein Photo mit mehr oder weniger Pixel. Je mehr Pixel desto besser die Auflösung. Je verschiedenartiger die umgesetzte und ausgewertete Information, desto mehr Sachverhalte werden abgebildet (Beim Foto z.B. auch „Wärmebilder“ wenn das entsprechende Frequenzspektrum genutzt wird).
    Will damit sagen: Einfache „niedere“ weniger entwickelte und danach stabil gebliebene Lebewesen werten nur wenig und „einfache“ Information aus, Menschen relativ viel. Was aber auch bedeutet dass Hunde z.B. weitaus besser riechen können als Menschen, in ihrer „Geruchswelt“ leben, aber nicht schreiben können.
    Bei der Systementwicklung sind sozusagen viele Information umsetzende Zellen und verarbeitende Neurone und ganze Organe zusätzlich entstanden und wenn sie zweckmäßig waren, erhalten geblieben. Das Bewusstsein konnte sich im Prinzip hinsichtlich Erkenntnisfähigkeit, Quantität und Qualität entwickeln. (Das an der neuronalen Schnittstelle Chemie-Elektronik auftretende (Schmerz-)Empfindungsphänomen dürfte wesentlichen Einfluss auf die Systementwicklung genommen haben).

    Der nachfolgende Text soll aufzeigen wie sich systematisch die Zellen bis hin zu den höheren Lebewesen entwickelt haben könnten.
    Eine besondere „Maschinerie“, man könnte sie wie in der Technik „Zufallsgenerator“ nennen, bewirkt die systematische schnelle Entstehung sehr vieler Genvarianten, verschiedener Zelltypen, Verbände, Organe, Lebewesen die sich auf übliche Weise entfalten, zumindest aus Sicht der Nachrichtentechnik.
    Man sollte sich nicht vorstellen, dass sozusagen hin und wieder eine Art „Blitz“ in der DNA einschlägt und es so zu Mutationen kommt. Man sollte es sich eher wie eine Art „Lottomaschine“ vom Fernsehen vorstellen, nur viel schneller und effizienter.
    Ist ein nur schwaches Immunsystem vorhanden, können immens viele Variationen entstehen und sich im Sinne Darwins durchsetzen (oder auch nicht). Entartungen werden offenbar vom Immunsystem „abgefangen“ was zu einer stabileren und eingeschränkten Entwicklung führte.
    Die Entwicklung erhält jeweils eine „bestimmte Richtung“. Sie ist nicht absolut zufällig, sondern „etwas“ teleologisch. Zumal reale „Zufallsgeneratoren“ keine absoluten, sondern sozusagen mehr oder weniger „vorhersehbare“ Zufälle generieren.
    Willkürliche Varianten, wie z.B. Mischlinge aus Hund und Katze sind aus offensichtlichen Gründen nicht mehr möglich, sie werden von vornherein unterbunden.
    In diesem Sinne hat sich auch das „Bewusstsein“, wie z.B. auch das Immunsystem neben und aufbauend auf die „Hardware“, bei den verschiedenen Arten entwickelt.

    Zitat: „Dazu ist zunächst zu sagen, dass es Millionen von Spezies über lange Zeiträume hinweg durchaus gut gelungen ist, auch ohne Bewusstsein zu überleben. Warum sollte es dann überhaupt einen besonderen Vorteil im Kampf ums Dasein bilden können? Zumal Selbstreflexivität, die ein bewusstes Sein konstituiert, im Gegenteil sogar ein erhebliches Selbstzerstörungspotential birgt....“

    Dieser Ansatz ist sehr interessant, weil er begründet weshalb sich Ideologien entwickeln mussten.
    Ich vermute, genau darum um eine optimale Entfaltung zu fördern und um Selbstzerstörung entgegen zu wirken. Ideologien sind eine Art „Betriebssystem“ für den Geist und enthalten „Selbstsicherungselemente“. Nicht nur das Bewusstsein, sondern zusätzlich die Ideologie wird „optimiert“ um einen besonderen Vorteil im Kampf ums Dasein bilden können. (Dies ist leider mitunter ein sehr „kriegerischer“ Prozess). So wie das Immunsystem die Entwicklung verschiedener Arten „einbremsen“ dürfte, so dürften die A-Bomben (zumindest potentiell) die Entwicklung der Ideologien „einbremsen“.

    Zitat: „Einen Überlebensvorteil kann eine Eigenschaft nur dann besitzen, wenn sie einen kausal wirksamen Einfluss auf die Umwelt ausübt. Das Bewusstsein als solches wird indes als eine emergente Systemeigenschaft des Gehirns betrachtet und ist somit kausal unwirksam. Es ist bekanntlich des methodologischen Physikalismus' eigene Prämisse, dass es keine Abwärts-Verursachung (wie die Philosophen sagen) geben könne, weil die Welt des Physischen als geschlossen betrachtet wird.
    Konsequenterweise kann und darf ihm deshalb auch kein Selektionsvorteil zugesprochen werden.
    Die Schlussfolgerung muss demnach lauten, dass das menschliche Bewusstsein mit den Faktoren der biologischen Evolution, Mutation und Selektion, nicht zu erklären ist.“

    Vermutlich kann die Welt des Physischen oder Psychischen nicht als vollständig geschlossen betrachtet werden, es gibt zu viele Lücken der Erkenntnis.
    Emergenz bedeutet beim Bewusstsein vermutlich dass viele selektiv „abgelesene Informationseinheiten“ ein „Ganzes“ ergeben, wie viele Bildpunkte am Bildschirm ein Fernsehbild. Es kann, es muss aber nicht ein Output entstehen. Mittels „eingelernter“ Steuerungsmechanismen können diese am „Bewusstseinsanzeigesystem“ abgebildeten Informationen ausgewertet werden. Entweder direkt von der „Bewusstseinsanzeigestruktur“ aus, oder (auch nur teilweise) von vorgelagerten Strukturen aus. In letzterem Falle wirkt das Bewusstsein, bzw. „Komponenten des Bewusstseins, nur wie ein Spiegel oder Bildschirm, der das eigene Handeln und die Umwelt „beobachtet“.
    In diesem Sinne kann das Bewusstsein einen kausal wirksamen Einfluss auf die Umwelt ausüben.
    Die Welt des Psychischen dürfte genau so wenig geschlossen sein wie die „Welt der Software“. Die Software kann z.B. im Roboter extrem Einfluss auf die Umwelt nehmen. (Prozessor-Prozess-Information).
    Der Selektionsvorteil eines intakten menschlichen Bewusstseins ist auch insofern klar, weil Menschen mit mitunter nur leicht gestörten Bewusstseinswahrnehmungen und Handlungen sich praktisch selbst aus der Gesellschaft und der Evolution kippen.

    Ich würde auch gerne (möglichst sachliche Einwände gegen diese Sicht) zur Kenntnis nehmen, auch ich möchte mich gerne weiter entwickeln.
  • Erfolgreiche Mission - unhaltbare Kritik

    05.12.2014, Michael Feuerbacher
    Rosetta ist eine Mission, die eine grosse Zahl an Experimenten als Nutzlast mit sich trägt. Der Philae Lander ist nur eine davon, und die gesamte Mission als gescheitert zu betrachten, weil die Landung anders verlaufen ist, als geplant, ist unangemessen.

    Rosetta war schon bevor die Landung überhaupt angesetzt wurde, ausserordentlich erfolgreich. Die in der Umlaufbahn um den Kometen durchgeführten Messungen haben viele neue wissenschaftliche Erkenntnisse gebracht - nie zuvor konnte ein Komet derart exakt vermessen, charakterisiert und abgebildet werden, und auch die Reise zum Kometen hat viele wissenschaftliche Ergebnisse gebracht, z.B. der nahe Vorbeiflug an zwei Asterioiden. Ausserdem wurden einige technologische Herausforderungen bewältigt, z.B. die erstmalige Anwendung einer Hibernationstechnik bei einem Raumflug oder die Navigation eines Orbiters im minimalen Schwerefeld eines Kometen. Schon vor der Landung berichtete die ESA von 90 Publikationen, die bei namhaften Wissenschaftsjournalen wie Nature und Science eingereicht wurden. Die wissenschaftliche Ausbeute ist somit bereits jetzt ausserordentlich hoch, und der interessante Teil der Mission, der Flug durch den Perihel (sonnennächster Punkt der Kometenbahn) steht erst noch bevor.

    Auch die Landung war erfolgreich. Allein das genaue Absetzen des Landers auf dem Komenten war eine navigatorische Herausforderung - man bedenke: einen Punkt auf einem schnell beweglichen und rotierendem Objekt mit minimaler Schwerkraft in einer Entfernung von 500 Millionen Kilometern mit einer um 28 Minuten verzögerten Kommunikation auf etwa 10 meter genau zu treffen - zweifellos eine Leistung, die zu den Sternstunden der Menschheit gezählt werden darf. Vor der Abschaltung aus Energiemangel hat Philae 90 Prozent seines geplanten wissenschaftlichen Programms absolviert. Vielleicht wäre die Erkenntnisausbeute höher gewesen, hätte man es geschafft Philae an seinem ersten Landeplatz zu verankern. Vielleicht aber auch nicht - so hat man jetzt beispielsweie spektroskopische Daten von drei Stellen des Kometen statt von nur einer. Die jetztige Position des Landers birgt unter Umständen sogar neue Möglichkeiten: man war ursprünglich davon ausgegangen, dass Philae auf einem sonnennäheren Punkt der Bahn durch Überhitzung den Betrieb eingestellt hätte. In der verschatteten Lage, in der der Lander sich jetzt befindet, besteht die Möglichkeit, dass er nach erneutem Betrieb (was ab dem Erreichen einer Sonnennähe von ca. zwei astronomischen Einheiten zu erwarten ist) den Periheldurchgang überlebt, und Daten über den Durchgang hinaus liefert, was zu einer höheren wissenschaftlichen Ausbeute führen würde, als ursprünglich erhofft.

    Bei aller Kritik ist ausserdem zu bedenken, dass die gesamte Mission gar nicht für den angeflogenen Kometen P67, sondern für den wesentlich leichteren und schneller zu erreichenden Kometen Wirtanen geplant war. Aufgrund eines Startverbots der Ariane-Rakete (Ende 2002 war eine ähnliche Rakete kurz nach dem Start explodiert, und die darauf notwendige Ursachenforschung führte dazu, dass das Startfenster für Wirtanen nicht genutzt werden konnte) musste die Mission zu einem Kometen durchgeführt werden, für den die gesamte Hardware nicht optimiert war. Dass sie trotzdem so erfolgreich verläuft, ist beachtlich.

    Selbstverständlich sind die Wissenschaftler bei der Planung auch auf die Idee gekommen, eine nukleare Energieversorgung zu nutzen. Diese Alternative wurde aber nach reiflicher Überlegung verworfen. Eine nukleare Versorgung hätte den Einsatz von hochgiftigem und radioaktivem Plutionium erfordert, das aufgrund der Produktion des Raumschiffs an verschiedenen Standorten mehrmals durch Europa transportiert hätte werden müssen, was zu hohen Kosten und vermutlich auch erheblichen Protesten geführt hätte. Ausserdem musste die Sonde, um ihr fernes Ziel zu erreichen, mehrere erdnahe Swingbymanöver durchführen (auf dem Weg zu P67 waren es drei), die mit einer solchen Fracht ein höheres Risiko dargestellt hätten. Die Entscheidung für die Energieversorgung über Primärbatterien und Solarpaneele wurde also nicht fahrlässig sondern durchaus bewusst gefällt.

    Die Kosten einer solchen Mission werden übrigens gerne überschätzt. Das Gesamtbudget der Rosetta-Mission beträgt eine Milliarde Euro, was aber über einen Zeitraum von mehr als zehn Jahren zu rechnen ist. Deutschland trägt davon insgesamt einen Anteil von 290 Millionen Euro. Dies entspricht, auf's Jahr gerechnet, einem Hunderttausendstel (also einem Promille eines Prozents) des Bruttoinlandsprodukts. Davon können sie noch nicht mal 30 Kilometer Autobahn bauen….
  • Auftragsstudie mit unrealistischem Versuchsaufbau

    05.12.2014, Dyson Airblade
    Dyson stuft die Ergebnisse der Studie wegen eines unrealistischen Versuchsaufbaus als irreführend ein:

    Die Hände wurden getrocknet, ohne sie vorher zu waschen.

    Wenn die Hände vor dem trocknen gewaschen werden, gibt es „keine signifikanten Anzeichen einer Differenz zwischen den Händetrocknungsmethoden in Bezug auf die Luftkeimzahlen“, so das Ergebnis einer Studie des Forschungsinstituts Campden BRI im Auftrag des Papierhandtuch-Produzenten SCA aus dem Jahr 2013.

    Die Erhöhung der Bakterienanzahl in der Raumluft ist nicht signifikant und wird ohne Kontext präsentiert: Beim Ausziehen einer Jacke oder beim Wechseln der Schuhe wird beispielsweise eine größere Menge Bakterien in die Umgebungsluft freigesetzt.

    Wie Herr Fischer im Artikel im Artikel erwähnt, handelt es sich um eine Auftragsstudie, die vom European Tissue Symposium, der Branchenorganisation der europäischen Papierhersteller, finanziert wurde.

    Der Dyson Airblade ist der weltweit einzige Händetrockner, der von HACCP für den Einsatz in lebensmittelproduzierenden Betrieben zertifiziert wurde. HACCP überprüft und zertifiziert nach höchsten hygienischen Anforderungen Ausrüstung und Materialien für den Einsatz in der Lebensmittelindustrie.

    https://www.youtube.com/watch?v=9zLCGWB3qJQ&list=PL4jd7XKkzhO-O_ut91QXscEhPcPwOyP7B&index=19

  • Tolles Projekt

    05.12.2014, Gert Weigelt
    voll funktionsfähig, aber noch keine Gelder für die adaptive Optik? Ist so etwas sinnvoll als voll funktionsfähig nutzbar. Ich hoffe, die weiteren Gelder kommen bald zusammen.
  • interressant

    05.12.2014, Hans Peter
    könnte dies auch Auswirkungen auf die Festkörperphysik/ Physik der Grenzflächen haben?
  • Sehr schöner und informativer Artikel

    04.12.2014, Werner Kohl
    Besten Dank dafür!
  • Fehlschläge

    04.12.2014, Arthur Rautenburg
    Wenigstens hatten die Planer und Entwickler dieser Mission diese Riesenportion Glück, so dass der Lander am Ende doch so auf dem Kometen liegen blieb, dass wenigstens einige der geplanten Messungen durchgeführt werden konnten. Wie konnte es nur dazu kommen, dass die geplante Landungsmethode fehlgeschlagen ist? Wieso wurden bei der Planung und Entwicklung keine funktionierenden Landungsmethoden gefunden? Hoffentlich werden die Ursachen gefunden und angemessene Konsequenzen gezogen. Anscheinend ist es leider auch nicht gelungen, wie geplant über den Bohrer SD2 Material des Kometen in den Ofen zu überführen und zu analysieren. Vom DLR habe ich dazu bisher nur die "Erfolgsmeldung" gefunden, dass der Lander alle Schritte durchgeführt habe, um Material aufzunehmen, in den Ofen zu überführen und zu analysieren. Bisher wisse man beim DLR aber angeblich nicht, ob dabei auch tatsächlich Material in den Ofen überführt wurde. Wie bitte, wer soll das glauben, dass in den übermittelten Daten nicht sofort erkennbar ist, ob Material im Ofen angekommen ist oder nicht? Ich vermute, dass das DLR versucht, diesen Fehlschlag zu verschweigen, und darauf hofft, dass es in Zukunft erneut Riesenglück hat und der Lander über die Solarzellen doch wieder soviel Strom erzeugen kann, dass weitere Bohrversuche durchgeführt werden können. Eine Radionuklidbatterie hielten die Planer ja anscheinend nicht für notwendig. Geht in Frieden, ihr in diese Mission investierten Steuermillionen. Es werden sicher noch viele in vergleichbar "erfolgreiche" Missionen investierten folgen.
  • Forschungsförderung durch Nudeln essen?

    04.12.2014, Liane Mayer
    Gibt's die Anelloni auch zu kaufen? Wer weiß, vielleicht tun sich da neue Möglichkeiten für die Forschungsförderung auf.....
    Jedenfalls gefiele mir die Idee, dass das Zubereiten (und anschließende Aufessen) von Anelloni künftig den Chemieunterricht auflockert!
  • Ich hätte es gut gefunden ...

    04.12.2014, Werner Kohl
    ... wenn Ihr Artikel einen Hinweis darauf enthalten hätte, dass es in dieser Region der Westantarktis starke vulkanische Einflüsse gibt:

    "Wie die Forscher nun anhand von Gravitationsdaten herausfanden, ist die Erdkruste unter diesen Gletscher mit nur 18 bis 24 km Dicke sehr dünn. Hier befindet sich ein vulkanischen Grabensystem, das die Gletscher von unten erwärmt."

    Quelle:
    http://www.wetter-center.de/blog/?p=1039
  • Politik ist die Kunst des möglichen

    03.12.2014, tp1024
    Wenn man die Entwicklung der Ariane 6 verfolgt und mit den Entwicklungen in anderen staatlichen Raumfahrtorganisationen vergleicht, ist das Ergebnis eigentlich wenig überraschend. Egal ob Russland, USA oder Japan, die Entwicklung von Raketen ist konservativ und ist immer konservativer geworden. Vielleicht lag es am Scheitern des Space Shuttle nach grandiose Versprechungen. Eine gesellschaftliche Tendenz zu immer konservativerem Umgang mit Technik ist auch nicht zu leugnen. Alles andere ist die Abweichung von der Norm, weshalb SpaceX auch etwas Besonderes ist.

    Der Nimbus der "Raketentechnik" hat sich gerade in der Politik sehr festgesetzt und immer mehr von der Realität entfernt. Aber genau deswegen muss man – leider – niedrige Maßstäbe anlegen. Selbst so ist das Ergebnis gemischt. Man hat sich vom Zwang zur Höchsttechnologie verabschiedet und verwendet größtenteils schon entwickelte Komponenten. Man nutzt zwei Tanks für Wasserstoff und Sauerstoff, anstatt nur einen mit Trennwand. Das heißt mehr Masse, aber auch leichtere Herstellung. Die Boosterraketen werden kleiner, zahlreicher und billiger - und werden noch dazu auch für die neue Vega-C verwendet.

    Das wichtigste ist aber der fixe Preis. In den USA hat das ein kleines Wunder bewirkt. Zuvor wurden Kosten erstattet und pauschal einige Prozent (15%?) als Profitpauschale aufgeschlagen. Um so höher die Kosten, um so höher der (absolute) Profit. Mit fixem Preis schafft man diese Perversion ab.

    Trotzdem ist die Entwicklung der Ariane 6 zu teuer und wird zu lang dauern. Sechs Jahre sind eine zu lange Zeit für eine Rakete, deren Triebwerke bereits entwickelt sind. (Die Booster fehlen noch, sie sind aber auch nur eine inkrementelle Verbesserung der P80-Raketenstufe der aktuellen Vega.) Auch der Bau der neuen Startanlage ist zu teuer und dauert zu lange. SpaceX baut sie für 100 bis 200 Millionen Dollar in zwei Jahren, die ESA braucht 800 Millionen Dollar und vier bis fünf Jahre.

    Die Ariane 6 ist enttäuschend. Aber jede positive Entwicklung aus einer enttäuschend schlechten Situation heraus - egal in welchem Bereich - fängt mit einem etwas weniger enttäuschenden ersten Schritt an. Die Ariane 6 könnte genau das sein.
  • auch mal an die Menschen denken

    03.12.2014, Sven K
    Vielleicht sollte Herr Stirn in der vorweihnachtlichen Zeit nicht zu sehr nach den Sternen greifen und ab und an, sofern er nicht gerade schriftlich innovatives Denken und Handeln fordert, an die betroffenen Menschen denken, für die jene positive Nachricht, hinsichtlich einem Jahr vollem Hoffens und Bangens, abschließend mit einem tiefen Durchatmen endet. Amen…

Anzeige