Lesermeinung - Spektrum der Wissenschaft

Ihre Beiträge sind uns willkommen! Schreiben Sie uns Ihre Fragen und Anregungen, Ihre Kritik oder Zustimmung. Wir veröffentlichen hier laufend Ihre aktuellen Zuschriften.
  • Teilchen-Begriff

    01.07.2007, Prof.Dr. Günter Frohberg, Berlin
    Das sehr schön detailliert beschriebene Tischexperiment hat leider mit der Quantenmechanik nichts zu tun, weil es allein mittels der Ausbreitung elektromagnetischer Wellen (EM-W) erklärt werden kann. Zudem ist der Begriff "Photon" oder "Teilchen" hier fälschlich übergestülpt. Diese Begriffe sind ja geschichtlich gesehen erst mit der Reaktion (z.B. Absorption) der EM-Wellen mit anderen Systemen wie z.B. Atomen, Elektronen hereingekommen, die man am besten verstehen konnte, wenn man dem Wellenfeld bei bekannter Frequenz f eine bestimmte Energie h&nu zuordnete, was man wie eine Reaktion zwischen zwei "Teilchen" ansehen konnte. Allerdings bleibt die Frage m.E. auch heute noch offen, ob man nicht besser die Energieauswahl den Eigenschaften des reagierenden Systems hätte zuschreiben können. Leider ist der Begriff "Teilchen" m.E. nicht glücklich gewählt, weil damit auch andere Teilcheneigenschaften wie z.B. nahezu beliebige Lokalisierbarkeit (etwa als Punkt wie in der Punktdynamik) suggeriert werden. Genau das Gegenteil trifft aber hier zu. Ein Photon mit einer gut bekannten Energie hat aufgrund der Unschärfe-Relation und der großen Wellengeschwindigkeit eine große räumliche Ausdehnung (gerade bei einem LASER in dem Tischexperiment); es können sehr viele Meter sein. In der Ausdehnung steckt also gerade die Teilcheneigenschaft und man nannte das früher ein "Wellenpaket". Es ist also unsinnig von einem Photon links oder rechts an dem Draht vorbei zu sprechen. Die Teilcheneigenschaft steckt in der Gesamtheit des Wellenfeldes.

  • Besser noch mal genau lesen

    25.06.2007, Dietmar Kulsch, Aachen
    Einige der Kommentatoren scheinen mir doch den Artikel etwas oberflächlich gelesen zu haben, wenn sie ihn als ein Plädoyer für die Quadratwurzel verstehen. Sie sollten ihn noch einmal lesen, insbesondere die Passagen

    "aber die ganze Argumentation unterstellt ja, der Fall, dass es in ganz Deutschland ausgerechnet auf meine Stimme ankommt, sei irgendwie von Bedeutung oder wenigstens repräsentativ für eine Vielzahl von Fällen. Das ist schon harter Tobak. "

    und

    "Nun ist die Annahme, die Wähler seien nichts weiter als unabhängige, identisch verteilte Zufallsgrößen, immer noch ziemlich fern der Realität. (...bis...) Beides kann man durchrechnen und kommt zu dem Ergebnis, dass unter derartigen Umständen die optimale Verteilung der Stimmgewichte vom Quadratwurzelgesetz in Richtung auf das Prinzip "one person, one vote" abweicht."

    Tatsächlich ist die Quadratwurzel nur dann die mathematisch korrekte Antwort, wenn es ein homogenes Meinungsbild in allen europäischen Staaten gibt. Dann aber kommt es de facto auf die Stimmengewichtung gar nicht an, da sich die Mehrheitsmeinung so oder so durchsetzen wird (weil es ja keine landestypischen Meinungsdifferenzen gibt.)

    Für den Fall, daß die Wähler "mit gleicher Wahrscheinlichkeit "ja" wie "nein" sagen", ist das Stimmengewicht erst recht irrelevant, da in diesem Falle jede "Mehrheitsentscheidung" lediglich eine statistische Fluktuation darstellt und keine politische Aussage beinhaltet. (Man beachte hier das Beispiel Gore/Bush: Beide Kandidaten hatten etwa gleich viele Stimmen. Folglich hatten beide etwa die gleiche demokratische Legitimität. Hier hat letztlich das Wahlverfahren den Ausschlag gegeben, was aber allgemein keineswegs als undemokratisch empfunden wird - auch wenn der Kandidat mit der geringeren Gesamtstimmenzahl das Rennen gemacht hat.)

    Es bleiben also jene Fälle, in denen es unterschiedliche Meinungsbilder in den einzelnen Mitgliedsstaaten gibt. Und genau für diesen Fall ist die Quadratwurzel eben gerade nicht der gerechteste Lösungsansatz, sondern dieser weicht in Richtung "one person, one vote" ab - umso mehr, je unterschiedlicher die Meinungsbilder sind. Und genau diese Fälle sind es, in denen das Stimmengewicht überhaupt von praktischer Bedeutung ist.
  • Ein neuer Einstein fehlt

    25.06.2007, Bernhard Reddemann
    Ob wir die Realität je erkennen, steht auf einem anderen Blatt. Das hat aber wenig mit dem Quantenspuk zu tun. Hier fehlt wohl ein "neuer Einstein", der die Kopenhagener Mystik in den Orkus wischt.
    Ich fürchte, dass spätere Generationen über dieses spezielle Thema und seine aktuelle Lösung einmal herzhaft lachen werden.
    "Anton, mir graut vor Dir".
    MfG Reddemann
  • Wissenschaftlicher Irrweg

    24.06.2007, Dipl.-Ing. Jens Fronemann, Simmelsdorf,
    Wieder einmal zeigt mir der Artikel den großen Irrweg auf dem man sich mit der Weiterentwicklung der Wasserstofftechnik befindet. Die Natur macht es uns doch vor, einfacher, kompakter und sicherer als in Kohlenwasserstoffverbindungen lässt sich Energie nicht speichern (z.B. Zucker, Stärke, Zellstoff,...)! Warum werden Unmengen an Geld und Forschergeist damit verschwendet, Techniken zu entwickeln, um Wasserstoff als Energieträger nutzen zu können? Die Verbrennung von Wasserstoff in Motoren ist alles andere als schadstofffrei (NOx), die physikalischen Eigenschaften von H2 können auch nach 100 Jahren Entwicklung nicht geändert werden.
    Daher mein Vorschlag für den Energiekreislauf der Zukunft: CO2 und H2O wird aus der Luft gefiltert und durch Sonnen-, Wind-, Kernenergie, Erdwärme, Kernfusionsenergie etc. zu CHx und O2 synthetisiert. Diese CHx können auf den bekannt einfachen Wegen transportiert, gelagert und in Wärmeenergie umgewandelt werden. Dabei wird wieder CO2 frei, dass dann dem Kreislauf erneut zugeführt werden kann. Denn CO2 ist bekannterweise nur schädlich für unser Klima wenn die Konzentration in der Atmosphäre zu hoch wird.
    Evtl. enthält mein Ansatz einen Denkfehler oder eine zu hemdsärmelige Betrachtungsweise (typisch für uns Ingenieure), ich kann jedenfalls die Weiterentwicklung eines aufgrund der physikalischen Eigenschaften ungeeigneten Energieträgers nicht verstehen!
  • Ups!

    21.06.2007, Ralf Weis, Düsseldorf
    Da muss ich doch meine erste, instinktive Ablehnung zur "Quadratwurzel" sanft entsorgen. Merkwürdig, dass die geballte Recherche- und Publikationskraft deutscher Medien dies nicht breiter propagiert. Muss wohl andere Ursachen haben als den Wunsch nach einer gerechten Stimmverteilung in Europa.
  • Besitzstandswahrung

    19.06.2007, Christian Gapp, Bonn
    Die Entwicklung von Programmiersprachen ist ein mathematisch-formales Gebiet. IT-Experten vermarkten sich gerne als rationale Kopfmenschen, umso wichtiger ist es zu zeigen, dass gerade im IT-Zentrum persönliche Eitelkeiten und puristische Erbsenzählerei eine wichtige Rolle spielen. Dies beschreibt Brian Hayes sehr plastisch.

    Aber Eitelkeiten alleine reichen nicht aus, um die Programmiersprachen-Inflation zu erklären. Hayes diskutiert leider nur die üblichen akademischen Algorithmen, die in Vorlesungen verwendet werden, um Unterschiede zwischen Programmiersprachen zu illustrieren. Dabei bleibt unbeachtet, dass diese oder ähnliche Fragen in der Programmierpraxis nicht im Vordergund stehen. Und so übersieht er vielleicht den Hauptgrund für die seltsame Vermehrung der Programmiersprachen.

    Die überwiegende Mehrzahl der heute zu realisierenden Programme sind Anwenderprogramme, die auf weit gehend standardisierten, Windows-ähnlichen Betriebssystemen laufen sollen. Sie werden nach dem Baukastenprinzip zusammengesetzt, wobei die Fenster und sonstigen Elemente der Benutzerschnittstelle ohne weitere Programmierkenntnisse grafisch zusammengestellt werden können. Der Programmcode besteht zum überwiegenden Teil aus Aufrufen an die (Objekt-) Bibliothek des verwendeten Entwicklungssystems. Ob diese in Pascal, Fortran, C++ oder Visual Basic erfolgen, ist vollkommen belanglos.

    Ein großer Teil der Programme ist zudem weder besonders kritisch, noch werden ausgefeilte Datensicherungsmechanismen verlangt. Beschränkt man sich auf relativ einfache Programmierstile (keine mehrdimensionalen Arrays, keine Pointer-Jongliererei u. ä.), so können sogar Personen, die noch nie programmiert haben, direkt in den Entwicklungsprozess einbezogen werden. Derzeit arbeite ich in einem kleinen Pilotprojekt bei einer UN-Organisation, in der genau diese Vorgehensweise praktiziert wird. Mit Excel und Visual Basic wird ein Fragebogen realisiert, der im Rahmen einer Studie bei einer Telefonbefragung verwendet werden soll. Die verantwortliche Wissenschaftlerin verfügt über keinerlei Programmiererfahrung. Nach einer zweistündigen Schulung konnte sie anfangen, ihre Eingabemasken zu entwerfen. Inzwischen setzt sie vordefinierte Code-Elemente ein und verändert den Code entsprechend dem jeweiligen Maskentyp.

    Der verwendete Progarmmierstil ist sehr einfach. Jedem "richtigen" Programmierer käme er wohl kindisch vor. Aber: Er ist sehr gut lesbar, quasi inhärent dokumentierend und somit auch recht zuverlässig. Und das Programm erfüllt seinen Zweck. Natürlich kann diese Methode nicht immer angewendet werden. In der Praxis kommen jedoch viele solcher "Einfachstanwendungen" vor, die auf klassischem Wege, also unter Nutzung eines Software-Dienstleisters, schnell mehrere zehntausend Euro kosten können.

    Von den Anwendern selbst erstellte Programme bedrohen natürlich die Existenz von IT-Experten. Somit ist die Erfindung immer neuer Programmiersprachen vor allem auch als Akt der Besitzstandswahrung zu sehen. Programmieren muss kompliziert bleben. Dies hatten die Autoren des Spektrum-Artikels "Mehr Tempo auf der Datenautobahn" (http://www.spektrum.de/artikel/825567) schon 1999 mit Blick auf XML genau so ausgedrückt. Sie argumentierten, mit der Einführung von XML würde die Erstellung von Webseiten endlich so kompliziert, dass sie nur noch von professionellen Teams geleistet werden könnte. Damit seien die Tage der "Selfmade-Internet-Experten" gezählt.
  • null

    19.06.2007, vila do bispo, algarve, portugal
    Eine Verfassung, die 800 Seiten lang ist, kann vom Volk nicht verstanden werden. Eine Verfassung, die das Volk nicht versteht, sollte niemals verabschiedet werden. Wenn nicht jeder, der lesen kann, den Inhalt einer Verfassung, die für ihn maßgeblich ist, verstehen kann, dann ist das Vertragswerk Betrug am Menschen.
    Und so ist es mit diesem Vertrag.
    Mensch kann nur hoffen, dass die Polen – oder wer auch immer – ihr Veto aufrecht erhalten, aus welchen Gründen auch immer.
    Im Übrigen würde ich eine europäische Verfassung sehr begrüßen und war lange Zeit ein Verteidiger dieses Entwurfes, bis ich versucht habe, ihn zu lesen.
  • Das System würde keine Mehrheit finden – aus Unverstand

    18.06.2007, Carsten König, Ludwigsstadt
    Ein wirklich wunderbarer Artikel.
    Leider geht es in der Politik ja nicht um so schöne Dinge wie "Fairness" oder mathematische Gerechtigkeit.

    Und leider muss man wohl auch sagen, dass in unserem "BILDungsland" ein solches System von der Mehrheit der Bürger aus Missverständniss wohl schlichtweg abgelehnt werden würde ... selbst wenn der Artikel im beliebten Tagesblatt abgedruckt werden würde.
    Antwort der Redaktion:
    Tja … Die Klage über die Dummheit der Welt im Allgemeinen und der Deutschen im Besonderen ist praktisch nicht zu widerlegen. Zu zahlreich sind die traurigen Beispiele.

    Aber das ist eben nicht alles. Suchen wir die zarten Pflänzchen der Bildungsbereitschaft, päppeln wir sie mit der köstlichen Milch des exakten Denkens – ja, sie ist köstlich, auch wenn sie Euch, im Schulalltag abgestanden, den übelsten Brechreiz bereitete – und freuen wir uns, wenn die Wüste hier und da eben doch erblüht. (Natürlich muss ich so reden; das Zubereiten dieser Köstlichkeiten ist ja mein Beruf. Aber manchmal gibt es eben auch Erfolge …)

    Christoph Pöppe
  • Vielen Dank!

    18.06.2007, Philipp Meier, Ulm
    Vielen Dank für diesen interessanten, sehr verständlich geschriebenen und politisch relevanten Artikel.
  • Schön

    18.06.2007, Franz Pichler, Wien
    Super Artikel!
    Meine Güte!, wenn das nur alle Europäer lesen würden und möglichst viele auch noch verstehen!, dann gäb's vielleicht 1 zeit&geld&bürokratie-verschlingendes problem weniger...

  • Asterix - ein Gallier S. 60

    15.06.2007, Richard B. Wernig, Strassburg im Gurktal
    Albert Uderzo ist der Zeichner und René Goscinny ist der geniale Texter von Asterix und Lucky Luke etc.
  • C.F. von Weizsäcker und Integration in der Wissenschaft

    14.06.2007, Henryk Smykowski
    Ihren Artikel über Carl Friedrich von Weizsäcker habe ich mit Vergnügen gelesen und habe leider erst jetzt genügend Zeit gefunden, mich dazu zu äußern. Im Grunde genommen möchte ich lediglich eine Ihrer Äußerungen kommentieren, die Sie jedoch als abschließende Beurteilung hochgewertet haben, nämlich Ihre Überzeugung über die "Selbstzersplitterung des (wissenschaftlichen?) Weltbilds" oder, wie Sie es gleich darauf formulierten, über den "Zerfallsprozess der Naturwissenschaften". Wenn Sie dabei die engstirnigen Spezialisten meinen, die isoliert von den übrigen Wissenschaften forschen, dann stimme ich Ihnen zu. Sicherlich gibt es immer mehr solche "Fachidioten", es gibt allerdings auch viele erfolgreiche Integrationsprozesse, die das Zusammenwirken, die Kohärenz der Naturwissenschaften kräftigen. Ich bin der Meinung, das diese Tendenz doch noch zu dominieren scheint.
    Ich sehe eher ein Problem in der Kluft zwischen den Human- und den Naturwissenschaften, die weit tiefer ist als diejenige, die vor über 100 Jahren die Biologie von der Physik und der Chemie trennte. Diese Kluft wurde Anfang des 20. Jh. mit großem Engagement vieler Physiker und Chemiker, jedoch gegen den Willen vieler Biologen, überbrückt. Dasselbe wird, meiner Meinung nach, auch mit der erstgenannten Kluft passieren. Einzelne Disziplinen, wie Psychologie oder Paleoantropologie, haben bereits den Anschluß an die Naturwissenschaften gefunden. Es liegt im Interesse der gesammten Menschheit, dass sich die Sozialwissenschaften den Methoden der Naturwissenschaften möglichst schnell öffnen und weiterentwickeln sollten, um bei den Lösungen der immer komplexer werdenden sozialen Probleme angewendet werden zu können. Solche Integrationsprozesse betrachte ich nicht als Donquichotterie und möchte mich dabei, wie Sie weiter sehen werden, aktiv beteiligen.
  • Unterschiedliche Vorgänge

    12.06.2007, Olaf Wachsmuth, Meine
    Enttäuscht, wenn nicht sogar verärgert, war ich, als ich feststellen musste, dass Sie die Begriffe „Eichen“ und „Kalibrieren“ nicht unterscheiden. Meines Wissens ist das Eichen ein Rechtsakt, bei dem nur festgestellt wird, ob ein Messmittel geeignet ist, damit Handel (oder medizinische Arbeiten) durchzuführen. Beim Kalibrieren hingegen wird die Abweichung des angezeigten vom wahren Wert ermittelt und gegebenenfalls korrigiert und die verbleibende Messunsicherheit festgestellt.
    Es kann sein, dass auch diese Definition nicht vollständig ist. Prinzipiell sind nichtsdestoweniger „Eichen“ und „Kalibrieren“ zwei völlig unterschiedliche Vorgänge.
    Antwort der Redaktion:
    Zwar ist das Eichen laut der neuesten Auflage der Brockhaus-Enzyklopädie von 2006 tatsächlich ein per Gesetz geregeltes Verfahren „zur Richtighaltung der Messgeräte für den gesamten geschäftlichen und amtlichen Verkehr“. Dieser Quelle zufolge wird der Begriff „Eichen“ im „Sprachgebrauch der Technik über das amtliche Eichen hinaus im Sinne von Justieren und/oder Kalibrieren verwendet.“ Genau das haben wir im vorliegenden Text getan.

  • Müssen wir umdenken?

    12.06.2007, Hans Dieterle, Steinach
    In geschichtlichen Maßstäben gemessen glaubte die Elite der Wissenschaft noch vor sehr kurzer Zeit, dass die Erde den Mittelpunkt des Weltalls darstelle, um den sich alles dreht. Dann vor ca. hundert Jahren identifizierte man die verschwommenen Nebelgebilde am Nachthimmel als ferne Galaxien. Vor wenigen Jahrzehnten war selbst Einstein anfänglich noch von einem statischen Kosmos überzeugt. Heute dagegen versuchen wir mit immer neuen Theorien eine Welt zu ergründen, die einen „Anfangspunkt“ hat und maßen uns an, die physikalische Wirklichkeit dieses Ursprungs mit mathematischer Spitzfindigkeit in eine Formel zu zwingen.
    Haben wir moderne Zeitgenossen uns vielleicht wieder einmal voreilig auf ein Weltbild versteift, von dem wir glauben, das sei nun alles? Dunkle Materie und dunkle Energie ließen sich sehr einfach als die verwandelten Überreste früherer Welten erklären, in die wir gravitativ eingebunden sind. Ebenso ließe sich die seltsame filamentartige Anordnung ferner Galaxienhaufen plausibel interpretieren - ihre verborgenen/dunklen Strukturen bestehen schon seit Urzeiten. Urknall-Explosionen sind nach dieser Weltsicht ganz „alltägliche“ kosmische Ereignisse. Ein Teil der durch Satelliten-Beobachtung registrierten Gamma-Blitze könnten daher auch als Urknall-Signale ferner Weltregionen gedeutet werden. Hat vielleicht einmal ein naher Gammablitz auch unsere Erdenregion getroffen und einen Großteil des damals existierenden Lebens ausgelöscht? (Müsste in geologischen Formationen nachweisbar sein.)

    Eine neu entstehende kosmische Aktivitätszelle (Zündmechanismus unbekannt) erfasst auch benachbarte Weltregionen und wandelt bereits erloschene (dunkle) Galaxien zu neuen Gebilden um: Kondensationskerne für neue Strukturen. Die allgegenwärtigen kosmischen Staubwolken könnten als verdampfte Planeten-/Sonnensysteme und Super-Nova-Reste früherer Welten gedeutet werden. Auch würde das Sommersprossengesicht der kosmischen Hintergrundstrahlung bestens in diesen Rahmen passen.
    Es würde sich nach meiner Ansicht lohnen, die gesamten offenen Fragen der heutigen Kosmologie einmal auf diese ketzerischen Überlegungen hin abzuklopfen.


  • Kritische Software

    11.06.2007, Roland Schmitt, Münster (Westf.)
    Ich bin nicht sicher, ob der Essay aus heutiger Sicht die richtigen Schwerpunkte setzt. Er erweckt vielmehr den Anschein, als seien die Glaubenskriege, die uns vor mehr als 30 Jahren beschäftigt haben, immer noch am Lodern. Diese bieten zwar amüsanten Hintergrund für einen Essay, lassen aber auch den Elfenbeinturm durchschimmern, der Theoretiker und Praktiker bei diesem Thema sehr früh voneinander trennte.

    Programmiersprachen sind in erster Linie nach dem zu beurteilen, was sie leisten sollen. Kriterien, die letztlich unter Ästhetik subsummiert werden können, sind demgegenüber nachrangig.

    Für die Zuverlässigkeit kritischer Software, beispielsweise für den sicheren Betrieb eines Passagierflugzeugs oder für die Steuerung eines Kernkraftwerks bildet die bei der Konstruktion dieser Software verwendete Programmiersprache das entscheidende Fundament. Eine solche Programmiersprache muss sowohl den Programmierer bestmöglich vor unbeabsichtigten eigenen Fehlern bewahren als auch die Qualitätssicherung wirkungsvoll unterstützen: Dabei geht es darum, verbleibende Fehler – das können auch böswillig verursachte (Sabotage) sein – rasch und mit hoher Sicherheit zu erkennen sowie sicherzustellen, dass das Endprodukt exakt den Spezifikationen entspricht.

    Derartige Anforderungen erfüllen gewiss nicht alle Programmiersprachen. Bei den meisten der von Herrn Hayes erwähnten Sprachen waren sie vermutlich auch kein Design-Kriterium. Das waren sie aber explizit bei der Sprache Ada, die Herr Hayes nur kurz und in eher unfreundlichem Kontext erwähnt.
    Um nicht in den Verdacht zu geraten, Glaubenskrieger für Ada zu sein: Ada ist sicher nicht die einzige Programmiersprache, die für kritische Software geeignet ist. Mit entsprechend Programmierdisziplin, deren Einhaltung allerdings durch strenge Kontrolle sichergestellt werden muss, können auch etliche andere Programmiersprachen eingesetzt werden (Herrn Hayes' Lieblingssprache LISP eher nicht). Bei Ada wird diese erforderliche Programmierdisziplin aber bereits weitgehend durch die Sprache selbst erzwungen, Kontrolle ist insofern also nicht erforderlich. Naturgemäß ist daher Programmieren in Ada kein Freizeitvergnügen, für poetische Freiheit ist wenig Raum, aber das muss so sein.