Home
Übersicht Neue Zitate
 
  Vom Urknall zur Weltformel 


Die Entstehung des Universums
. . . Vilenkin (Physiker und Kosmologe) zufolge könnte unser gesamtes Universum durch einen . . . Quantentunnel-Effekt ins Dasein gelangt sein - "eine Idee, die mir anfangs völlig verrückt vorkam". Weil sofort danach die Inflationsphase startete, wurde es groß und stark. "Inflation ist der einzige bekannte Vorgang, ein riesiges Universum zu erzeugen." Viele andere Universen brachten es nicht so weit - sie blieben winzig, kollabierten kurz nach ihrer spontanen Entstehung schon wieder und verschwanden im Nichts. Vilenkin vergleicht die Quantentunnel-Kreation mit der Bildung von Gasblasen in kochendem Wasser. Im Unterschied dazu haben die Universen freilich keine Umgebung. In diesem Quantenvakuum existieren nicht einmal Raum und Zeit. "Das ist so nahe am Nichts, wie es nur geht. Wenn es weder Raum noch Zeit gibt, kann man sich keine physikalischen Größen mehr vorstellen. Man kann höchstens sagen, es gibt den Raumzeit-Schaum des Quantenvakuums. Und manchmal bilden sich Blasen mit einer kritischen Größe, die zu expandieren beginnen. So entsteht ein Universum." Was bislang unvorstellbar schien, hat Vilenkin mit ein paar Gleichungen von einem metaphysischen Ereignis zu einem physikalischen gemacht. Und da keine Zeit vor der Entstehung der Zeit existierte, gab es auch keinen Countdown für den Urknall. Dies sind radikale Gedanken - aber eben nicht bloß Gedanken. Vilenkin gelang es, den Quantentunnel-Effekt in der Sprache der mathematischen Physik zu formulieren. Er benutzte dazu die Wheeler-DeWitt-Gleichung, eine Verallgemeinerung der aus der Quantenphysik bekannten Schrödinger-Gleichung für das ganze Universum. Kurz gefasst lautet sie H x Y = o - aber dahinter verbirgt sich ein gigantischer Formelapparat. . . .
(Bild der Wissenschaft© - 5/02; Hawking & Co)

Die ersten Biomoleküle
Eines der ersten Experimente zur Entstehung des Lebens.
(Stanley L. Miller erforschte 1953 den Lebensursprung durch ein Experiment, das den Ozean und die Atmosphäre der Urerde in einer Flasche nachahmte.)
. . . Miller schloss Methan, Ammoniak und andere Gase, die man für Bestandteile der frühen Lufthülle hielt, in einem teilweise mit Wasser gefüllten Glasbehälter ein. Als er elektrische Funken durch das Gas zucken ließ, um Gewitter zu imitieren, färbte sich das klare Wasser erst rosa, dann braun: Dabei reicherte es sich, wie die anschließende Analyse ergab, mit Aminosäuren und anderen grundlegenden organischen Molekülen an. Mit diesem einfachen und eleganten Versuch verwandelte Miller die zuvor rein spekulative Erforschung des Lebensursprungs in exakte experimentelle Wissenschaft. Die Sensationspresse meldete gleich, demnächst würden synthetische Käfer aus den Teströhrchen kriechen. Aber auch besonnene Forscher meinten, das größte Hindernis für die Erschaffung von Leben im Labor sei nun beseitigt. . . .
(Spektrum der Wissenschaft© - 6/01; Der steinige Weg zum Leben, Robert M. Hazen)

Die ersten Einzeller
(Manfred Eigen – vom Max-Planck-Institut für Biophysikalische Chemie, Nobelpreis 1967 – erforscht die Entstehung des Lebens auf der Erde. Seine Theorie besagt, dass der Ursprung des Lebens auf Gesetzmäßigkeiten der unbelebten Materie zurückzuführen ist. Die Materie soll sich durch Mutation und Selektion in immer komplexerer Weise selbst organisiert haben, bis sich schließlich die ersten Einzeller entwickelten.)
. . . Weit über die Wissenschaft hinaus wirken vor allem seine jüngeren Ideen, die an die Grundlagen unseres Selbstverständnisses als Lebewesen rühren: Eigens Abteilung versucht heute nichts geringeres, als das erste Kapitel der Genesis neu zu schreiben. . . . "Ich bin Physiker", betont Manfred Eigen immer wieder, und so sieht die Tafel auch aus. Gleichung auf Gleichung entwickelt er, Formeln, die zeigen sollen, dass schon bei der Betrachtung der chemischen Reaktionen in der "Ursuppe" - dem theoretisch postulierten Gebräu aus Wasser und organischen Molekühlen auf der noch unbelebten Erde - "so etwas wie Darwin (Evolution) herauskommt" . . . Wahrscheinlich verstünde der Entdecker des Prinzips der natürlichen Zuchtwahl (Charles Darwin) zunächst kein Wort vom Vortrag des Max-Plank-Direktors über die "Differentialgleichung der Evolution", über "Wertfunktionen" und "katalytische Kopplungen", über "Hyperzyklen" und "Quasi-Spezies". . . .
(GEO-Wissen, Chaos u. Kreativität - 1990; Im Anfang war der Hyperzyklus)

Die Entstehung des Bewusstseins
. . . Eine dramatische Wende in der Evolution . . . trat ein, als Lebewesen Sinnesorgane und ein Nervensystem entwickelten. Zwischen den Reiz und die Reaktion war eine Zwischeninstanz, eine Vorstufe des späteren Gehirns, getreten. Viele Jahrmillionen lang jedoch kam dieses Hirn ohne Bewusstsein aus. Regenwürmer, Bienen oder Krebse funktionieren mehr oder weniger wie Automaten. Ihr Nervensystem reagiert auf Reize mit angeborenen Verhaltensmustern.
. . . Wann aber im Tierreich die erste Frühform eines Bewusstseins auftauchte, darüber streiten sich die Experten. Gerade die Subjektivität der Empfindung macht es schwierig, die Frage zu beantworten: Erleben Schnecken, Forellen, Eulen, Maulwürfe oder Schimpansen bewusst? Einige Forscher halten es für denkbar, dass die entscheidende Schwelle übertreten wurde, als die ersten Tiere ihre vorgefertigten Verhaltensprogramme durch erlernte Fähigkeiten ergänzten. Vögel, Mäuse oder Menschen lernen von ihren Eltern. Für die Hilflosigkeit während der Kindheit und die langwierigen Lektionen durch die Artgenossen werden sie durch größere Flexibilität entschädigt – die Fähigkeit, auf Neues situationsgemäß reagieren zu können. Möglicherweise war dazu das Entstehen eines Bewusstseins erforderlich. . . .
(Der Spiegel© - 16/96)

Warum wir lachen - welche urgeschichtlichen Überlebensvorteile hatte das Lachen?
. . . Menschen wenden seit jeher viel Zeit und Energie auf, um Humoriges zu erfinden und sich zu amüsieren - nicht anders als unsere nächsten tierischen Verwandten. Kein Wesen besitzt "nur so" eine prägende Eigenschaft, sagen die Evolutionsbiologen. . . . Dass Menschen - ebenso wie Affen - den Aufwand betreiben, zu lachen, zeigt: Diese Eigenschaft muss im Lauf der Evolution das Überleben ihrer Träger gefördert haben. . . .
Die zentrale Hypothese: Wer unter unseren Vorfahren zu lächeln verstand, konnte effektiver den Auseinandersetzungen in der Horde aus dem Weg gehen. Wer nicht durch ein überzeugendes Lächeln seine Friedfertigkeit ausdrücken konnte, lief Gefahr, in Kämpfen verletzt zu werden. Er fiel dann für ein oder mehrere Fortpflanzungsperioden aus. Vor allem sozial lebende Wesen, die wie Primaten über Rangordnungen und einen Spieltrieb verfügen, brauchen klare Zeichen für Friedfertigkeit, bestätigt der Verhaltensbiologe Prof. Marc Bekoff von der Univerity of Colorado: "Es wäre geradezu ein Wunder, wenn die Tiere nicht solche Signale entwickelt hätten." Spielerische Attacken könnten sonst schnell eine tödliche Vergeltung provozieren. "Da muss man sofort deutlich zeigen können: "Das hier ist nur als Spaß gedacht.". . .
Freundlichkeit kann nicht nur als stammesgeschichtliches Friedfertigkeitssignal gedeutet worden sein, so Niemitz (Humanbiologe), sondern auch als Signal der Unterordnung. In einer Affengruppe lächeln eher die Rangniederen. Auch in patriarchalisch geprägten menschlichen Gesellschaften würden Frauen häufiger lachen als Männer. . . . Frauen nutzen das Lächeln viel häufiger und geschickter bezeugt die Psychologin und Lachforscherin Prof. Eva Bänninger-Huber von der Universität Innsbruck. Ohne direkten Bezug auf die Evolutionstheorie der Primatologen zu nehmen, bestätigt sie dennoch deren Grundthese: Frauen lachen insbesondere zur Konfliktregelung. Bei Versuchen mit Paaren stellte Bänninger-Huber fest, dass Frauen zum Beispiel Kritik am Partner oft mit einem Lächeln begleiten: So wird der Partner besänftigt und ist geneigter, die Kritik zu akzeptieren. Frauen waren im Lauf der Evolution, so gesehen, das zukunftsfähigere Geschlecht: Sie konnten aggressive Impulse in ihrer Gruppe besser kontrollieren und so die Überlebensfähigkeit ihrer Sippe erhöhen. . . .
(Bild der Wissenschaft© - 1/03; Warum wir lachen)

Das Mysterium Bewusstsein
. . . Bewusstsein. Das innere Erleben, das unsere Existenz als Person bedeutet, scheint im Kern unauflösbar mysteriös zu sein. Die bis in die Neuzeit hinein kaum bezweifelte Überzeugung, ohne die unsere christlich geprägte Kultur gar nicht denkbar ist, lautet: Denken und Fühlen sind die Zentren unserer Person und gehören der unsterblichen Seele an, die, im Hirn angesiedelt, den Körper regiert. Die Seele ist es, die uns ermöglicht, zu denken, zu empfinden. . . .
(GEO - 9/98; Die Suche nach dem Ich)

. . . Die Lösung des Bewusstseinsrätsels, schreibt der Frankfurter Philosoph Thomas Metzinger, käme „einer wissenschaftlichen Revolution erster Ordnung“ gleich – und zwar einer, die „größere gesellschaftliche und kulturelle Auswirkungen hätte als jede andere theoretische Umwälzung vor ihr“.
Physiologen stehen ratlos vor der Frage, wie sich die Wahrnehmung von Licht einer bestimmten Wellenlänge in die subjektive Empfindung von „gelb“ oder „grün“ verwandelt. Anatomen suchen vergebens den Sitz des Bewusstseins zu orten. . . . Und die Vordenker der Künstliche Intelligenz haben nicht einmal eine Ahnung, wie sie feststellen könnten, ob irgendwann eine ihrer Kreationen ein eigenes Bewusstsein entwickelt.
. . . allen Bemühungen zum Trotz blieb es bisher nur bei wolkigen Umschreibungen, wenn es um das Wesen des Ichs ging. „Irgendwie, so spüren wir, wird das Wasser des physikalischen Gehirns in den Wein des Bewusstseins verwandelt“, orakelt etwa der britische Philosoph Colin McGinn. Immerhin glauben die Forscher sich langsam immer näher an die Lösung des Rätsels heranzutasten. Auf Kongressen herrscht Aufbruchstimmung. Schon bald, so eine weitverbreitete Erwartung, werde es einem „Einstein des Geistes“ gelingen, alles vorhandene Wissen über Hirn und Psyche zu einer vollständigen Theorie des Bewusstseins zusammenzuschweißen. . . .
(Der Spiegel© – 16/96)

(Ein Wissenschaftler-Team am Messachusetts Institut of Technology arbeitet an der Entwicklung eines Roboters, der mit dem Kürzel COG bezeichnet wird. Er soll so weit entwickelt werden, dass er autonom wie ein Mensch handeln kann. Es wurde aber auch die Entwicklung künstlichen Bewusstseins ins Auge gefasst, das möglicherweise eine Voraussetzung für „normalen Menschenverstand“ ist. Hier ein Auszug eines Interviews mit dem Bewusstseinsforscher Daniel C. Dennet - Mitglied des COG-Teams)
. . . GEO: Herr Dennett, sie sind gleichzeitig Experte für Psychologie und Computer. Ist das nicht widersprüchlich? Dennett: Nein, die besten Arbeiten in der Psychologie leben mit der Annahme, dass der Geist das Gehirn ist und damit letztlich ein Stück Maschine. Eine sehr, sehr komplexe Maschine. Und ich glaube, die besten Arbeiten nehmen die Last auf sich, die Frage zu beantworten: "Kann ich eine Maschine bauen, die kann, was das Gehirn kann?". . .
(GEO - 9/98; Die Suche nach dem Ich)

Werden Roboterkörper unseren Geist von der sterblichen Hülle befreien?
. . . "Ist der Geist eine Maschine? Daran habe ich nicht den geringsten Zweifel; für mich stellt sich nur die Frage: Was für eine Maschine ist der Geist?" (Marvin Minsky, Künstliche Intelligenz -Forscher) Diesem Glauben hängt auch Hans Moravec (KI-Forscher) an, der die "genetische Wachablösung" der Menschheit durch Super-Roboter angekündigt hat. Er arbeitet gerade an einem Projekt bei der "Thinking Machines Corporation" in Cambridge, . . " . . wir haben Alternativen jenseits der Biologie. Sie ist mit ihren Eiweißstrukturen nur eine von mehreren möglichen Techniken - eine, die sich aus einfacher Chemie entwickeln konnte. Das ist das eigentlich Wunderbare am Leben. Leider aber eignet dieses Material nicht für die Unsterblichkeit." . . . Wir könnten heute mit Computern völlig andere Strukturen entwerfen, fährt er fort. Bald seien wir in der Lage, unseren Geist auf Roboter zu übertragen.
(Moravec erklärt in seinem populärwissenschaftlichen Buch „Mind Children“, auf welche Art diese Übertragung möglicherweise ablaufen könnte:)
. . . Ein Roboterchirug legt seine Super-Sensorhand auf das noch bewusste Gehirn im geöffneten Schädel, erzeugt für die oberste Hirnschicht ein Simulationsprogramm und lädt dieses in den Computer des bereitstehenden Roboterkörpers. Dann trägt er die Hirnschicht mechanisch ab. Schichtweise arbeitet er sich bis zum Hirnstamm vor. Am Ende stirbt der Körper, die "Sülze" wird von einem "Absaugapparat" geschluckt. Dann können sie die Augen wieder öffnen. Ihre Perspektive hat sich verändert . . . Ihr Geist ist jetzt an den glänzenden neuen Körper angeschlossen, dessen Form, Farbe und Material Sie selbst ausgesucht haben. . . .
(GEO-Wissen, Intelligenz u. Bewusstsein - 1992; Denn sie wissen nicht, was sie tun)

Die Kontraktion unseres Universums
. . . Im Verlauf von vielleicht einer bis zehn Milliarden Jahren schrumpfen die kosmischen Abstände und scheinen sich schließlich in einem Punkt zusammenzuziehen. Das Radionfeld macht sich als eine exotische fünfte Kraft bemerkbar, die das Äquivalenzprinzip der Relativitätstheorie von schwerer und träger Masse verletzt. Das bedeutet: Die Massen der Elementarteilchen ändern sich und verschwinden sogar, die Materie löst sich auf. Falls irgendwelche hochentwickelten Lebensformen das Erkalten und Ausdünnen des Weltraums überstanden haben steht ihnen nun der Feuertod bevor. "Die Hitze lässt alle Atome verdampfen, gewöhnliche Materie - etwa von Planeten - löst sich in ein Quark-Gluonen-Plasma auf. Nur schwarze Löcher überdauern", malt Paul Steinhardt (Princeton University, New Jersey) ein apokalyptisches Bild. "Es ist vorstellbar, dass eine sehr fortgeschrittene Zivilisation ihre lokale Umgebung vor dem Kollaps bewahren kann - vielleicht durch einen Schutzwall aus schwarzen Löchern. Das ist wilde Spekulation, scheint aber momentan nicht ausgeschlossen.“. . .
(Bild der Wissenschaft© - 5/02; Ewige Wiederkehr)

Das Ende unseres Universums
. . . Frank Tipler zufolge ist es nicht einmal ausgeschlossen, dass das ganze Universum zu einem Punkt kollabiert und sich selbst verschlingt - allerdings nur, wenn es nicht unendlich groß ist. Unter geeigneten Randbedingungen könnten hochentwickelte Zivilisationen den Endknall aufhalten und so ausnutzen, dass er nicht ihr Todesurteil bedeutet, hat der Physiker von der Tulane University in New Orleans schon vor einigen Jahren in seinem umstrittenen Buch "Die Physik der Unsterblichkeit" verkündet. . . .
(Bild der Wissenschaft© - 4/02; Finstere Zukunft)

Die Weltformel
. . . In einem berühmten Vortrag sagte der Physiker Eugene P. Wigner 1959, die enorme Brauchbarkeit der Mathematik für die Naturwissenschaften grenze an ein Wunder. . . . Es gibt über diesen Zusammenhang zwischen Mathematik und Physik zwei diametral entgegengesetzte Meinungen, die bis auf die antiken Philosophen Platon und Aristoteles zurückgehen. Nach Aristoteles ist die physikalische Realität grundlegend und die mathematische Sprache nur eine nützliche Annäherung. Platon zufolge ist die mathematische Struktur das eigentlich Reale, das von den Betrachtern nur unvollkommen wahrgenommen wird. Mit unseren Worten: Die beiden Philosophen streiten sich darüber, ob die Froschperspektive des Beobachters oder die Vogelperspektive der Naturgesetze grundlegend ist. Aristoteles bevorzugt die Frosch-, Platon die Vogelperspektive. Kinder, die noch nie von Mathematik gehört haben, sind spontane Aristoteliker. Die platonische Sicht wird erst allmählich erworben. Theoretische Physiker neigen zum Platonismus: Sie vermuten, dass die Mathematik das Universum so gut beschreibt, weil es an sich mathematisch ist. Demnach ist die Gesamte Physik letztlich ein mathematisches Problem. . . .
(Spektrum der Wissenschaft© - 8/03; Paralleluniversen, Max Tegmark)

. . . Das Endziel der Physik ist etwas, das halb im Scherz eine Theorie von Allem genannt wird - eine Theorie, aus der sich alles Übrige herleiten lässt. . . . Eine allumfassende Theorie müsste vermutlich gar keine Begriffe enthalten. Andernfalls würde man sehr wahrscheinlich eine Erklärung für ihre Begriffe in Form einer noch fundamentaleren Theorie suchen - und so immer weiter in unendlichem Regress. Mit anderen Worten, die Theorie müsste rein mathematisch sein, ohne erklärende Postulate. Vielmehr sollte ein unendlich intelligenter Mathematiker fähig sein, die gesamte Hierarchie der Theorien allein aus diesen ultimativen Gleichungen herzuleiten, indem er die von ihnen beschriebenen Eigenschaften des Universums herleitet - und die Eigenschaften seiner Bewohner und ihre Wahrnehmungen der Welt. . . .
(Spektrum der Wissenschaft© - Dossier 1/03; 100 Jahre Quantentheorie, Max Tegmark u. John Archibald Wheeler)


 
 
Weitere Zitate zum Thema
 
 

 

Die Weltformel und Kochrezepte in der Wissenschaft
(Interview mit Robert Laughlin – lehrt Theoretische Physik an der Stanford University, Physik-Nobelpreis 1998. Als Buchautor – Abschied von der Weltformel – propagiert er eine neue Ära der Physik)
. . . Spiegel: Beruhen die großen Erfolge der Physik nicht grade auf dem Glauben an diesen Unterschied? (fundamentale Naturgesetze und solche die schlicht da sind) Darauf, dass sich jedes Phänomen durch Gesetze erklären lässt, die sich wiederum auf noch grundlegendere Gesetze zurückführen lassen, bis man am Ende zur Weltformel kommt?
Laughlin: Das ist historisch falsch. Nehmen wir die Metallurgie. Sie ist ohne Zweifel von größter Bedeutung für unseren Alltag – um Autos, Flugzeuge oder Maschinen zu bauen. Und woraus besteht diese Wissenschaft? Aus nichts als schwarzer Magie. Sie wurde über Jahrhunderte entwickelt zu einer wirklich raffinierten Kunst. Aber sie beruht auf nichts als Kochrezepten.
Spiegel: Es war aber doch erst die moderne Elektronentheorie der Metalle, die ein tieferes Verständnis mit sich brachte.
Laughlin: Das ändert nichts daran, dass die Leute ihre Rezepte ausgearbeitet haben – und zwar zu einer Zeit, als sie von der mikroskopischen Struktur keine Ahnung hatten. Noch vor ganz kurzem gab es einen hochinteressanten Artikel über in Metallen auftretende Spannungen – und die Autoren weigerten sich, über Atome zu sprechen, weil die atomare Theorie für die Metallurgie irrelevant sei.
Spiegel: Wird Ihrer Meinung nach die Bedeutung des tiefen Verständnisses in der gesamten Physik überschätzt?
Laughlin: Nicht nur in der Physik. Nehmen Sie die Medizin: Die wirklich wichtigen Fortschritte beruhen auch da oft auf bloßen Kochrezepten, wie man gesund wird . . .

(Der Spiegel - 1/2008)

 
 


Gehirnforscher wollen den Schaltplan des Gehirns scannen

. . . Mit dem Diffusions-MRT (Magnet-Resonanz-Tomographie) können die Forscher im lebenden Gehirn noch Nervenfasern von etwa zwei Millimeter Durchmesser erkennen. . . . Etwa zehn Minuten muss ein Proband dafür still in der Tomographen-Röhre liegen. Gehirne von Toten können die Forscher noch intensiver scannen – bis zu 24 Stunden lang – und sehen so noch 0,3 Millimeter dicke Fasern. Andere Wissenschaftler wollen noch weiter ins Detail gehen, in den Millionstel-Millimeter-Bereich, allen voran Winfried Denk vom Max-Plank-Institut für medizinische Forschung in Heidelberg und Jeff Lichtmann von der Harvard University in Cambridge, Massachusetts. Die beiden Professoren wollen nicht nur erkennen, welche Nervenstränge von welcher Gehirnregion in welche anderen Regionen verlaufen, sondern sogar, wie jede einzelne Nervenzelle mit den anderen Neuronen verschaltet ist. Geplant ist ein Atlas des Gehirns, in dem jeder Forscher die für seine Fragestellung wichtigen Nervenschaltpläne findet. Eine Mammutaufgabe, den das menschliche Gehirn besteht aus etwa 100 Milliarden Nervenzellen mit insgesamt rund 100 Billionen Synapsen. . . . Und so funktioniert der „Heidelberger Hobel“: Ein Stück Gehirn wird mit Kunstharz hart genug gemacht, um es gut schneiden zu können. Dann wird es in die Halterung des Mikrotoms gesetzt, der ganze Apparat wird verschlossen und der Rechner gestartet. Ein Elektronenstrahl scannt nun die Oberfläche des nur 0,3 mal 0,3 Millimeter großen Gehirnstücks ab. Das dauert eine gute Viertelstunde, da die Hirnstrukturen sehr komplex sind. Dann hobelt das Mikrotom eine unglaublich dünne Schicht von nur 25 Millionstel Millimeter ab – und der Elektronenstrahl beginnt wieder zu scannen. Stück für Stück wird so ein Stück Gehirn auseinander genommen und im Rechner wieder zusammengesetzt. . . . Das Ziel der Connectom-Forscher ist der komplette Scann eines menschlichen Gehirns. Aber das liegt in weiter Ferne. Die Wissenschaftler müssen dafür noch viel Entwicklungsarbeit leisten, und die Computerindustrie muss gigantische Speichermedien liefern. Zellbiologe Lichtmann erklärt: „Wir wollen in fünf Jahren einen Kubikmillimeter Mäusegehirn gescannt haben. Das würde Informationen von 1000 Terabyte liefern. Für das ganze menschliche Gehirn wären es eine Million Mal 1000 Terabyte. Das übertrifft die Menge der zurzeit weltweit gespeicherten Daten.“
Lichtmann und seine Kollegen setzten sich deshalb kleinere, erreichbare Teilziele: Seung arbeitet am Fliegenhirn. Denk untersucht die Netzhaut, die so etwas wie ein Minigehirn für Bildverarbeitung ist. Aber selbst für diese Projekte muss die Connectom-Forschung „industrialisiert“ werden, so wie es Ende des letzten Jahrhunderts mit der Genom-Forschung geschah. . . .
(bdw – 10/09)

(Mit diesem neuronalen Schaltplan ist man natürlich noch nicht in die Welt der Moleküle vorgedrungen. Es gibt z.B. zahlreiche Neurotransmitter, welche die Information von einer Nervenzelle zur anderen über die Kontaktstelle der Nervenzellen, der Synapse , weitergeben. Viele molekulare Abläufe, wie z.B. das speichern von Information – also das Gedächtnis – werden auch noch gar nicht vollständig verstanden. Eine „Momentaufnahme“ bis auf die Ebene der Moleküle würde also noch ein Vielfaches der genannten Speicherkapazität benötigen.)


 
 


Entsteht bei einer zeitlich oder räumlich unendlichen Entwicklung des Universums irgendwann zwangsläufig eine atomgenaue Kopie unserer Erde?

(Es gibt einige unterschiedliche Hypothesen über unser Universum. Zwei Modelle in verschiedenen Ausprägungen werden von der Wissenschaftsgemeinde zurzeit anscheinend favorisiert, da von diesen häufiger zu lesen ist. Das Eine ist das „Multiuniversen-Modell“, das man sich so ähnlich wie Schaumblasen vorstellen kann, wobei bestehende Universen immer neue Universen hervorbringen, – dies könnte z.B. in schwarzen Löchern geschehen – die mit diesen zwar zusammenhängen, aber nach dem neuen Urknall nicht mehr mit ihnen in physikalischer Wechselwirkung stehen. Es müssten sich sehr viele dieser neuen Universen entwickeln, damit irgendwann wiederholt unsere Naturgesetze entstehen könnten. Es wird unten im Artikel das „Recycling“-Modell genannt . Zum Zweiten gibt es das Modell des „Zyklischen Universums“, das durch Expansion und Kontraktion immer wieder von neuem entsteht. Dazu gibt es eine Hypothese, die die Entstehung der immer gleichen Naturgesetze voraussagt. Des weiteren gibt es noch die Theorie über das räumlich unendliche Universum, das aber anscheinend nicht mehr sehr viele Anhänger hat.)

. . . Existieren in der Natur unendlich viele Variationen (der Materie), sodass eine exakt identische ewige Wiederkehr unmöglich ist? Vermutlich nicht. Denn der exzellent bestätigten Quantentheorie zufolge sind die Zustände der Materie nicht kontinuierlich. Und es gibt wohl auch keine beliebig kleinsten Einheiten von Raum und Zeit, sondern eine Art „körnige“ Struktur – gleichsam Raum- und Zeit-„Atome“ in der Größenordnung von 10-33 Zentimetern und 10-43 Sekunden. Das bedeutet jedoch: In einem endlichen Volumen kommt nur eine endliche Zahl von Materie-Konfigurationen vor(*1). So wie es beispielsweise auf einem Schachbrett zwar eine riesige Menge verschiedener Partien gibt (rund 10120) – tatsächlich mehr als Atome im beobachtbaren All (ungefähr 1080) -, aber eben nicht unendlich viele. Ist das Universum aber unendlich im Raum und/oder in der Zeit, wird unweigerlich alles physikalisch Mögliche auch wirklich – und zwar unendlich oft(*2). Alle Kombinationen wären also irgendwo und/oder irgendwann realisiert. Und nicht nur das, sondern auch exakte Doppelgänger von uns allen (auch unendlich oft). Das ist eine irritierende Vorstellung. Doch dafür haben die Kosmologen George Ellis, Alexander Vilenkin und Jaume Garriga harte Argumente angeführt (bdw 9/2001 „Ewiges Leben im Universum“). Das Ganze lässt sich sogar in – freilich astronomisch großen – Zahlen quantifizieren: Sean M. Carroll und Jennifer Chen zufolge wiederholt sich unser Universum im Rahmen des „Recycling“-Modells durch kosmische Quantenfluktuationen alle etwa 1010(hoch) 56 Jahre. Und Max Tegmark hat die Ewige Wiederkehr im Raum abgeschätzt, die unvermeidlich ist, selbst wenn es nur einen einzigen Urknall gab, der aber ein unendliches All hervorgebracht hat. Demnach ist der nächste Doppelgänger von Ihnen, lieber Leser, statistisch gesehen 1010(hoch) 29 Meter entfernt (das uns sichtbare Universum hat etwa einen Radius von 1,23 x 1026 Meter), das nächste Doppelgänger-Volumen einer Kugel mit 100 Lichtjahren Radius (einschließlich einer exakten Doppelgänger-Erde) 1010(hoch) 91 Meter und das nächste Doppelgänger-Universum, das so groß ist wie unser beobachtbares Volumen, 1010(hoch)115 Meter. Es ist also sehr unwahrscheinlich, dass wir einem Alter Ego jemals die Hand reichen können.

(Urknall, bdw - 11/09)

. . . Wollte man diese doppelte Hochzahl (1010 hoch 123) ausschreiben, wären dafür weitaus mehr Hefte von bild der wissenschaft nötig, als im gesamten beobachtbaren Universum Platz hätten. . . . (Wollte man 10 hoch 10 hoch 51 ausschreiben, würden die bdw-Heftstapel dafür bequem in der Milchstraße Platz finden) (*3). . . .
(bdw-online, aus Heft 3/09)

Wie genau man diese Wahrscheinlichkeiten berechnen kann, ist fragwürdig, Nicht alle mathematisch möglichen Kombinationen sind auch physikalisch oder biologisch möglich und sinnvoll. Stellt man sich etwa ein digitales Bild vor, so ergibt nur eine verschwindend geringe Zahl an Farbpixel-Kombinationen auch ein sinnvolles Bild – fast immer wird die zufällige Kombination einfach nur ein Farbrauschen ergeben. Wie wahrscheinlich die Entwicklung intelligenter Lebensformen überhaupt ist, kann auch nur ungefähr abgeschätzt werden.
Aber bestimmte Faktoren werden bei dieser gigantischen Zahl, deren Nullen gleich das ganze Universum füllen, vernachlässigbar sein. Relativ gesehen macht es keinen Unterschied, wenn wir davon zum Beispiel 61 Nullen streichen. Diese 61 Stellen sind der Unterschied zwischen der Größe unseres sichtbaren Universums und der quantenmechanisch kleinstmöglichen Entfernung von
10 -33 cm . Somit zeigt sich auch, dass diese Größenordnungen eigentlich sowieso nicht in halbwegs genauen Zahlen darstellbar sind. Mit der nächst größeren Hochzahl kommt man zum Beispiel gleich von einem Universum voller Nullen zur zehnfachen Menge.

Falls es atomgenaue Kopien von uns Menschen gibt, ist nicht sicher, dass diese genau das gleiche Bewusstsein besitzen wie wir. Denn wir wissen – wie oben im Hauptteil beschrieben – noch nicht wie aus Gehirnströmen Bewusstsein entsteht und ob dazu mehr notwendig ist als die oben beschriebenen Gehirnstrukturen. Eine exakte Kopie unseres Gehirns bedingt natürlich auch eine, zwar nicht gleich atomgenaue, doch „kognitiv informationsgleiche“ Umwelt, da Gedächtnisinhalte molekular gespeichert sind. Daher ist es ein Unterschied ob wir die Wahrscheinlichkeit der Existenz eines doppelten Durchschnittsmenschen, der wahrscheinlich von der Beschaffenheit des Mars einiges weiß, oder die eines Astronomen berechnen, der Kenntnisse von Galaxien hat, die Milliarden Lichtjahre entfernt sind. Es könnte also - wie oben im Zitat beschrieben - irgendwann zwei Astronomen geben, die in atomgleichen Universen leben. Natürlich wird es nach den statistischen Gesetzmäßigkeiten vorher Myriarden von - für einen Astronomen - nur „wissenschaftlich informationsgleichen" Universen geben müssen. Aber irgendwann und irgendwo würde es auch einmal vorkommen, - auf unendlich ganz sicher - dass das atomgleiche Universum zeitlich oder räumlich näher ist als das "wissenschaftlich informationsgleiche" Universum.

*1- In einem früheren bdw-Artikel wurde der Sachverhalt auch etwas einfacher dargestellt, wobei die Autoren dieses Modell wahrscheinlich auch als Berechnungsgrundlage verwendet haben. Die Autoren haben die Kernbausteine Proton und Neutron, die sich in einem entsprechend kleinen Raum-Rasterpunkt befinden können oder nicht, verwendet. Dieses Modell wäre also mit einer gigantischen Festplatte mit drei statt zwei möglichen Informations-Zuständen vergleichbar und kann als „atomgenau“ bezeichnet werden.
*2 – Es ist im Kleinen wie im Großen immer das Gleiche. Mit zwei zehnseitigen Würfeln können 100 Zahlen generiert werden. Daher müssen sich spätestens nach 100 Würfen die ersten Zahlen wiederholen. Egal wie winzig eine Wahrscheinlichkeit auch ist, nach genügend vielen Versuchen wird das Ereignis wahrscheinlich werden.
*3 - Ein Beispiel für dieses exponentielle Wachstum ist die Weizenkornlegende. Dabei wird auf einem Schachbrett die Anzahl der Weizenkörner Feld für Feld 63 mal verdoppelt, wobei auf dem ersten Feld mit einem einzelnen Korn begonnen wird. Auf dem gesamten Schachbrett ergibt sich so etwa die Menge der 1500 fachen Weltjahresproduktion. Auf die doppelten Hochzahlen übertragen bedeutet dies, dass zum Beispiel bei 1010 hoch 80 – unser Universum besteht aus etwa 1080 Atomen – die gesamten Atome des Universums die Schachfelder darstellen, wobei "Atom für Atom" mit Zehn multipliziert wird. Also wird es eine Zahl mit 1080 Nullen.

 
 


Der Zufall hat kein Gedächtnis

In Israel sind im September/Oktober 2010 innerhalb von vier Wochen – bis auf die Zusatzzahl – exakt die gleichen Lottozahlen gezogen worden. 95 Teilnehmer hatten richtig auf diese identischen Zahlen getippt. Irgendwann muss ein solches Ereignis auch innerhalb von zwei Wochen direkt hintereinander stattfinden. Solche Ereignisse sind selten und daher für uns etwas Besonderes. Dass dies nur bedingt gilt und teilweise nur auf unsere Anschauung zurückzuführen ist, soll hier gezeigt werden.
Ungewöhnlich ist auch eine starke Abweichung der Ziehungshäufigkeit der Lottozahlen vom Druchschnittswert. Vielfach wird versucht, durch die Berücksichtigung dieser Abweichungen die Gewinnchanche zu erhöhen. Es gibt zum Beispiel Internetseiten die auf der Grundlage dieser Daten bei der Generierung entsprechender Lottozahlen helfen. Hier soll der Beweiß geführt werden, dass dies völlig zwecklos ist.
Ein statistisches Gesetz besagt: Die relative Abweichung von der durchschnittlichen Ziehungshäufigkeit, z.B. einer Lottokugel oder einer Münzseite, geht mit zunehmender Anzahl an Ziehungen im Allgemeinen gegen Null.
Dieses Gesetz wird oft nicht richtig interpretiert. Folgende Website erklärt dieses statistische Gesetz mathematisch: Mathematik Online – Gesetz der großen Zahl
Es gibt auch eine anschauliche Erklärung dieses Gesetzes:
Eine Tatsache die den meisten Lesern bekannt sein dürfte ist, dass eine bestimmte anfängliche absolute Abweichung der Ziehungshäufigkeit vom Durchschnittswert, mit zunehmender Anzahl an Ziehungen, relativ gesehen, immer weniger ins Gewicht fällt. Somit muss kein Ausgleich stattfinden, damit diese anfänglich prozentual starke Abweichung sich im weiteren Verlauf wieder gegen Null bewegt. In der Statistik wird mit entsprechenden relativen Diagramm-Darstellungen gearbeitet. Der Sachverhalt, der hier im folgenden ausführlich beschrieben wird, muss anhand eines speziellen Diagramms nach absoluten Zahlen erklärt werden. Stellen wir uns hierfür ein Schachbrettmuster vor, das auf der Horizontalen mittig eine Nulllinie hat. Auf diesem „Schachbrettdiagramm“ lässt man modellhaft Spielfiguren laufen indem eine Münze geworfen wird. Dabei wird die Figur nach jedem Wurf von der Nulllinie aus nach rechts-oben oder rechts-unten geschoben. Bei größer werdender Anzahl an Versuchen ergibt sich ein immer höheres Diagramm (zwei Quadrate) nach absoluten Zahlen. Nach einer bestimmten Anzahl an Schritten endet der Lauf der Figur irgendwo am rechten Ende des Diagramms. Für die beiden Ziele ganz oben oder ganz unten müssen jeweils ständig entweder nur Kopf oder nur Zahl fallen. Den Weg zu diesen beiden Endfeldern kann man auch mit einer digitalen Zahl beschreiben, die entweder nur Nullen oder Einsen hat. Also gibt es jeweils nur einen einzigen Weg zu diesen beiden Feldern. Beim vertikal benachbarten Feld gibt es schon so viele Zahlen/Wege wie Schritte gemacht wurden. Die Anzahl der möglichen Wege/Zahlen nimmt gegen den Nullpunkt rasant zu und ist dort am größten. Der wahrscheinlichste Fall ist also, dass die Figur auf dem Nullpunkt landen wird, da dort die meisten Wege/Zahlen enden. Mit zunehmender Anzahl an Ziehungen wird die Menge an möglichen Wegen/Zahlen, die relativ weit außen in den beiden „ausgedünnten Regionen“ im Diagramm enden, in Relation zu den möglichen Wegen/Zahlen die mehr in der Mitte enden, immer geringer. Die unterschiedliche Anzahl der jeweils möglichen Wege/Zahlen kann natürlich mathematisch errechnet werden. Jeder weiß aber, dass z.B. ca. 80 von 100 identische Münzwürfe viel schwerer zu erreichen sind als ca. 8 von 10. Was sich so erklärt, dass für die große Häufung des Ereignisses wiederum eine Serie der kleinen Häufung (8/10 mal 10) notwendig ist.
Diese beiden Sachverhalte erklären das oben genannte statistische Gesetz. Wichtig bei diesem statistischen Gesetz ist noch die Beschreibung „im Allgemeinen“, denn auch bei einer sehr hohen Anzahl an Ziehungen ist es möglich, dass eine Figur z.B.
einfach mal ganz nach außen läuft, anstatt einen der vielen Wege zur Mitte zu nehmen(*1). Hat eine Figur schon eine bestimmte Abweichung von der Nullachse, dann wird nun der neue wahrscheinlichste Zielpunkt auf der horizontalen Achse liegen auf der sich die Figur nun befindet. Diese einfache Darstellung für den Münzwurf gilt prinzipiell auch für die Lottozahlen.. Mit diesem Denkmodell ist auch die Lottoziehung noch ungefähr darstellbar, falls auf ganze Zahlenverhältnisse gerundet wird. Für die Entwicklung mathematischer Gesetze musste aber ein anderer Denkansatz gewählt werden, da diese universell anwendbar sein müssen.
Alle Kurven unseres Diagramms sind gleich wahrscheinlich, denn es handelt sich letztlich immer nur um Zahlen, die genauso gut in einem Schritt zum Beispiel als Los aus einer großen Trommel gezogen werden könnten(*1). Wir erkennen in den Zahlen oder Kurven irgendwelche auffällige Muster und halten sie für unwahrscheinlich, aber all die anderen chaotischen Ereignisse in unserem Diagramm sind ebenso unwahrscheinlich. Deshalb kann auch beim Lotto dieselbe Kombination in einer beliebig langen Serie immer wieder mit gleicher Wahrscheinlichkeit gezogen werden. Würden wir auf eine bestimmte Doppel-Serie tippen, wäre das gleichbedeutend mit einer Ziehung von 12 Zahlen. Dieses Ereignis ist als Ganzes betrachtet natürlich unwahrscheinlicher als nur sechs Richtige, wenn aber schon sechs Richtige erreicht sind haben wir einfach eine gute Ausgangslage um letztlich auch die 12 Richtigen zu verwirklichen. Ebenso verhält es sich mit der Lottokugel 13, die momentan am weitesten im Rückstand ist. Auch hier kann man sagen, dass die Ausgangslage nun günstig ist, um eine der wenigen Kurven zu erzeugen, die relativ weit in die „ausgedünnte Region“ läuft. Genauso gut kann sich der Rückstand in Zukunft natürlich auch ausgleichen.
Eine serielle Wiederholung der wöchentlichen Ziehung ist gar nicht so unwahrscheinlich. Jede Woche kann auf die Zahlen der letzten Woche getippt werden. Die Wahrscheinlichkeit für ein Tippfeld
ist im deutschen Lotto ca. 1:14 Millionen, also ist die Wahrscheinlichkeit für diese Wiederholung genauso hoch wie für jede andere x-beliebige normale Kombination, denn die Grundvoraussetzung ist jedes Mal schon gegeben(*2). In Israel werden nicht zufällig 95 Teilnehmer die kürzlich gezogene Kombination getippt haben. Manche Leute tippen wahrscheinlich irgendwie verrückte Zahlen, in der Annahme, dass dies kaum ein anderer tut.

*1 Letztlich verhält sich das Ganze wie z.B. rein zufällige Meteoriteneinschläge. Wahrscheinlich wird der Kleinmeteorit - die regelmäßig auf unserer Erde niedergehen - irgendwo in den weiten des Pazifiks einschlagen und nicht gerade z.B. auf der winzigen Insel Bora Bora. Verwirklicht sich dann aber ein konkreter Einschlagspunkt, ist dieser im Vergleich zu Bora Bora natürlich genau gleich wahrscheinlich. Auch die Fliegeneinschläge auf unserer Windschutzscheibe könnte man als Beispiel heranziehen. Es wird einige Zeit dauern bis z.B. gerade der Steinschlagschaden getroffen wird.
*2
Würde in 100 Ländern der Erde unser Lottosystem 6 aus 49 mit zwei Ziehungen pro Woche gespielt, ergäbe sich eine durchschnittliche Wiederholungsrate für die serielle Doppelziehung von ca. 1400 Jahren (eine Serie ist bei dieser Rechnung nur z.B. durch zwei identische Samstagsziehungen gegeben). In diesem durchschnittlichen Zeitabstand könnten wir dann jeweils auf eine Dreierserie tippen. Für die Realisierung dieses Ereignisses würden wir dann schon durchschnittlich 19,6 Milliarden Jahre brauchen (1400 Jahre multipliziert mit 14 Millionen). Auch hier gilt die Regel: Im Allgemeinen wird der Zufall nicht sehr weit vom Durchschnittswert abweichen. Es müssen irgendwann aber auch Einzellfälle auftreten die sehr stark vom Durchschnitt abweichen – das heißt in diesem Fall, die Serie wird über einen extrem langen Zeitraum nicht kommen. Oder noch ein anderes Beispiel: Wenn der Jackpot sehr lange nicht geknackt wurde, ist eine gute Voraussetzung gegeben, dass es diesmal noch viel länger dauert.
(Zu diesem Thema unter Wikipedia: Spielerfehlschluss)

(Günther Geiger© , Oktober 2010, Dieser Artikel ist frei zur Verwendung, sofern ein Link auf diese Website oder meine Startseite geschaltet wird)

 
 


Mensch gegen Maschine

Der US-Konzern IBM bereitet einen Supercomputer auf einen denkwürdigen Wettkampf vor: Der Rechner soll in einem TV-Quiz gegen menschliche Kandidaten antreten – Experten hielten so etwas bisher für aussichtslos.
Mensch gegen Maschine – es ist wieder so weit: Vor 13 Jahren gab es ein ähnliches Duell. Da schlug einer von Watsons Vorfahren, genannt Deep Blue, den Schachweltmeister Garri Kasparow. Es war der erste Wettkampfsieg einer Maschine gegen den besten Vertreter des königlichen Denksports. Die halbe Welt war aus dem Häuschen.
Dabei hatte Deep Blue damals vergleichsweise leichtes Spiel. Computer sind auf ihrem Terrain, wenn es gilt, Millionen Stellungen im Voraus zu berechnen; Schach ist wie geschaffen für sie. Inzwischen haben sich die Leute an die Überlegenheit der Maschinen im Zahlenfressen gewöhnt; sie finden es ja auch nicht dramatisch, dass die Menschheit von den Taschenrechnern im Wurzelziehen deklassiert wird.
Jetzt aber fordert der Computer seine Schöpfer auf ihrem ureigenen Feld heraus: In einem Quiz geht es um Sprachverstand und Weltwissen – und speziell bei „Jeopardy“ kommen noch eine Menge Intuition und Hintersinn hinzu.
. . . Es ist ausgeschlossen, einen Computer auf all die Eventualitäten mit speziellen Datenbanken vorzubereiten. Watson muss sich schon selbst helfen, muss die Fragen ausdeuten und in seinem digitalen Gedächtnis nach möglichen Antworten fahnden. Die Forscher haben ihn dafür gefüttert mit Fachlexika, elektronischen Wörterbüchern und der gesamten Wikipedia. Auch Sammlungen von Zitaten und Sprichwörtern füllten sie ihm in den Speicher, dazu die halbe englischsprachige Weltliteratur, die Theaterstücke Shakespeares, etliche Jahrgänge der „New York Times“ und, für alle Fälle, ein paar Übersetzungen der Bibel.
„Zusammen sind das wohl an die hundert Gigabyte Text“, sagt David Ferrucci (Computerspezialist bei IBM). „Aber das garantiert uns gar nichts.“ Jederzeit kann eine Quizfrage daherkommen wie diese hier: „Chile teilt seine längste Grenze mit diesem Land.“ Watson lag immerhin mit Bolivien nur knapp daneben; auf Argentinien kam er nicht.
. . . Obwohl er die Rechenleistung des Vorgängers Deep Blue um etwa das zehnfache übertrifft, verstand er oft schon die Frage kaum. Doch im Lauf der Zeit wurde der Computer immer besser. . . . Der Computer lernt selbst, wie es in der Welt zugeht, und er braucht dafür vor allem Statistik. Seine Hauptfrage an einen Text ist: Welche Wörter treten häufig zusammen auf, welche sehr selten? Watson macht von der Methode reichlich Gebrauch. Sie hilft ihm zum Beispiel, mit den gefürchteten Mehrdeutigkeiten der Sprache fertig zu werden. Er hat gelernt, dass mit „Kiwis“ wohl Vögel gemeint sind, wenn in der Nähe Wörter wie „Nest“ oder „Fressfeind“ stehen. Geht es mehr in Richtung „Obstschale“ oder „Marmelade“, dürfte von der Frucht die Rede sein.
Auch sonst erfährt ein Computer mittels Statistik viel über die Welt. „Watson lernt zum Beispiel, welche Dinge sinken“, sagt Ferrucci. „Er lernt auch, dass es bei Spielsachen eher im Pool geschieht, bei Booten eher im Ozean. Eines Tages, meint der Forscher, könne der Computer vielleicht sogar ergründen, welche Folgen dieses Sinken unausgesprochen nach sich zieht – wird ein Boot, das gesunken ist , je wieder verkauft werden? „So etwas zu lernen ist natürlich viel schwerer. Aber je mehr Daten wir haben, desto besser geht es.“ . . . Ein eigenes Hilfsprogramm überprüft die Zeitangaben (Watson hat über hundert Hilfsprogramme) – findet es Widersprüche, legt es ein Veto ein. „Im Quiz war mal ein Autor des 19. Jahrhunderts gefragt“, erzählt Ferrucci, „und Watson verirrte sich irgendwie zu den Pet Shop Boys. Da erkannte er dass die Epoche nicht passte, und sie flogen wieder raus.“. . .

(Der Spiegel – 28/2010)

Watson leistet sich peinliche Schnitzer
Von Montag bis Mittwoch hatte das Ringen der Quiz-Genies mit dem neuen Supercomputer in der amerikanischen Rätselsendung „Jeopardy“ gedauert. Es ging nicht nur um das Preisgeld in Höhe von einer Million Dollar. Es ging vor allem um die Ehre der Menschheit.
Doch „Watson“, nach IBM-Gründer Thomas Watson benannt, war seinen Gegenspielern aus Fleisch und Blut bei diesem spielerischen Wettkampf überlegen, selbst wenn er sich zwischendurch so manchen peinlichen Schnitzer leistete.
. . . Für IBM war das Experiment vor Millionen Zuschauern weit mehr als nur ein harmloser Rätselspaß. Der Computerkonzern will Watson schon bald als medizinischen Assistenten vermarkten, der Ärzten bei der Erstellung von Diagnosen und Therapien beratend zur Seite stehen soll. Ersetzen soll er sie noch nicht.

(Augsburger Allgemeine – 18.02.2011)

(Die Gegner waren Rutter und Jennings, sie sind die erfolgreichsten Jeopardy-Spieler: Rutter hat als Einzelspieler mit über 3,2 Millionen US-Dollar die höchste Gewinnsumme erspielt. Jennings hat mit 74 Siegen die größte Gewinnserie geschafft.)

 
 


Interstellare Reisen mit dem Fusionsantrieb

. . . Quälend lange Reisezeiten gehören zur Raumfahrt wie die Stille und die Schwerelosigkeit. Sechs lange Jahre flog die „Galileo“-Kapsel bis zum Jupiter, nach knapp sieben Jahren traf „Cassini“ beim Ringplaneten Saturn ein. Selbst zum benachbarten Mars sind Raumsonden mindestens ein halbes Jahr lang unterwegs.
. . . Geht es wirklich nicht schneller? Ein Veteran des Raumfahrzeitalters hat zu Papier gebracht, wie sich die Flugzeiten entscheidend verkürzen ließen. . . . Im Fachblatt „Acta Astronautica“ beschreibt (Friedwardt) Winterberg (deutsch-amerikanischer Physiker, 82) im Detail, wie ein Fusionsantrieb funktionieren würde. Sein Bauplan klingt abenteuerlich: Die Explosionen winziger Wasserstoffbomben sollen für die nötige Schubkraft sorgen. Im Heckbereich des futuristischen Raumschiffs, so seine Idee, werden dazu Kügelchen ausgestoßen, die schweren Wasserstoff (Deuterium) enthalten. Diese werden mit einer Protonenkanone beschossen – was zur Zündung der Mini-H-Bomben führt. . . . „Jede dieser Mikrobomben hätte die Maße einer Aspirin-Tablette und die Sprengkraft von bis zu hundert Tonnen TNT.“

Die Hiroshima-Bombe hatte die Energie von etwa 13.000 Tonnen TNT, also nur das 130fache der „Minibomben“, welche aber zu schwach sein sollen, um ein entsprechendes futuristisches Raumschiff zu beschädigen. Für interstellare Reisen könnte dieser Antrieb ein Raumschiff auf etwa Zehn Prozent der Lichtgeschwindigkeit beschleunigen. Für die relativ kurze Reise zum Mars wäre es ökonomischer das Raumschiff nur auf etwa 300.000 Km/h zu beschleunigen, da es vor dem Ziel schließlich auch wieder abgebremst werden muss. Die Mars wäre so in etwa einer Woche zu erreichen.
Der Physiker Winterberg veröffentlichte erstmals in den siebziger Jahren seine Theorie über den Fusionsantrieb. Seit immer neue Planetensysteme in unserer galaktischen Nachbarschaft entdeckt werden, denken die Britisch Interplanetary Society und die amerikanische Militärforschungsagentur Darpa über interstellare Reisen mit einem derartigen Fusionsantrieb nach. Ein mögliches Ziel wäre z.B. der 20,5 Lichtjahre entfernte Stern „Gliese 581“, der gleich von zwei erdähnlichen Planeten umkreist wird. Trotzdem wäre das Ganze immer noch ein Jahrhundertunternehmen mit astronomisch hohen Kosten.

. . . „Aber eines Tages muss der Mensch dieses Abenteuer ohnehin wagen“, sagt Winterberg. „Spätestens der unausweichliche Untergang unserer Sonne wird uns irgendwann zwingen, da draußen im All nach einer neuen Heimat zu suchen. (aber erst in rund 5 Milliarden Jahren)
(Der Spiegel – 40/2011)

 
 
Planet der Dinosaurier

(Interview mit Richard Butler – Paläontologe an der Ludwig-Maximilian-Universität München – über seine neue Studie zur Formenvielfalt der Urzeitechsen)
Spiegel: Sie glauben, ohne den Meteoriteneinschlag vor 65 Millionen Jahren wären die Dinos nicht ausgestorben?
Butler: Unsere Ergebnisse zeigen, dass es vielen Gruppen und Arten vor der Katastrophe ausnehmend gut ging.
. . . Spiegel: Wie lange hätten diese Gruppen ohne die Umweltkatastrophe die Erde noch bevölkern können?
Butler: Es gäbe sie sicher heute noch.
Spiegel: Hätten sich die Säuger gegen sie behaupten können?
Butler: Säugetiere lebten ja bereits zur Zeit der Dinosaurier auf der Erde. Aber sie waren fast alle klein und wagten sich nur nachts aus ihren Verstecken. Ohne das Verschwinden der Urechsen wären die Säugetiere wahrscheinlich noch immer mickrige Nachtwesen – Affen hätten sich gar nicht erst entwickelt.
. . .
(Der Spiegel 20/2012)
 
 
Der Antimaterie-Antrieb

(Gerald Jackson und sein Team – von Hbar Technologies in West Chicago – haben für ihre Studie über den Antimaterie-Antrieb einen Preis des NASA Institute for Advanced Concepts gewonnen, der mit 75.000 Dollar dotiert war.)
. . . „Eigentlich braucht man nur ein großes Netz, fast wie beim Fischen“, sagt Jackson. Damit will er Antiprotonen fangen. Davon gibt es eine Menge: Etwa 80 Gramm kreisen zwischen Venus und Mars um die Sonne, und bis zu 20 Kilogramm befinden sich vermutlich innerhalb der Saturnbahn. Denn bei Explosionen auf der Sonne werden große Mengen an Positronen und Antiprotonen erzeugt.
Jackson schlägt ein System vor, das aus drei konzentrischen Kugelschalen aus Draht besteht. Die äußerste wäre 16 Kilometer im Durchmesser und positiv geladen, um Protonen abzulenken und Antiprotonen anzuziehen. Diese würden durch die zweite Drahtschale abgebremst und dann in der inneren, nur 100 Meter großen Schale gefangen. Gezielt auf ein Segel aus normaler Materie gelenkt und dort zur Zerstrahlung gebracht, würden sie das Raumschiff in die Weiten des Alls treiben. Um Pluto zu erreichen, wären nur 30 Milligramm Antimaterie erforderlich. Für einen Ausflug zum sonnennächsten Stern, Proxima Centauri, würden 17 Gramm benötigt. „Das ist nicht unmöglich“, sagt Jackson, „sondern nur eine Frage der Effizienz.“

(Bild der Wissenschaft – 6/2012)
 
 
Simulation des menschlichen Gehirns

. . . Er (Henry Markram, Neurowissenschaftler) will nichts weniger als den menschlichen Geist im Computer simulieren – detailgetreu, Neuron für Neuron, binnen zehn Jahren. Mit diesem „Human Brain Projekt“ hat er sich für eine (EU-)Förderung von einer Milliarde Euro beworben.
. . . „Die Simulation des Gehirns ist eine Mondmission mit nie dagewesenen Möglichkeiten für die Menschheit“, wirbt Markram auf der Pressekonferenz. 460 Krankheiten des Gehirns – von Alzheimer bis Parkinson – sind bis heute nicht wirklich verstanden. . . . Das künstliche Gehirn soll dieses dunkle Terrain ausleuchten. . . . Nebenbei werde die Computersimulation die Mysterien des menschlichen Geistes lüften: Wahrnehmung, Bewusstsein und Träume.
. . . Um das Gehirn zu verstehen, muss er die Ergebnisse der Neurowissenschaften zusammentragen. Jedes Jahr erscheinen 60 000 Fachartikel. Aus diesen Fragmenten will er grundlegende Regeln extrahieren und diese dann zu einem großen Ganzen verschmelzen – zu einem simulierten Gehirn, einer gigantischen elektronischen Kopie des menschlichen Geistes.
. . . 2005 startete er (Henry Markram) an der École Polytechnique Fédérale de Lausanne das „Blue Brain Projekt“. Sein Ziel: im Computer ein aus 10 000 Neuronen bestehendes senkrechtes Segment aus der Hirnrinde einer Ratte, eine sogenannte kortikale Säule, nachzubauen. . . . Markram kann IBM für sein Projekt gewinnen. Das Unternehmen stellt den Supercomputer, der für die Simulation notwendig ist. Vier Geräte, jedes von der Größe eines Kühlschranks, beherbergen seither ein wachsendes Stück virtuelles Nagerhirn. 36 kortikale Säulen, eine Million Neuronen und eine Milliarde Synapsen habe er mittlerweile darin untergebracht, sagt Markram. Das menschliche Gehirn ist um mehr als das Tausendfache größer.
. . . Mittlerweile haben sich über 350 Forscher dem Human Brain Projekt angeschlossen. Sie gehören 13 Institutionen aus 9 EU-Staaten an. . . . Das Forschungszentrum Jülich will den Supercomputer bauen, der nötig ist, um das menschliche Gehirn nachzubilden. Er muss 1000 Mal leistungsfähiger sein als verfügbare Rekordrechner. Das Münchner Bernstein-Zentrum für Hirnforschung hat sich angemeldet, um aus den Daten der gesamten Hirnforschung Regeln abzuleiten, die für den Bau des virtuellen Gehirns nötig sind. Andere schielen auf die Anwendungen, die sich aus der Hirnsimulation ergeben: Die Technische Universität München möchte zur Wiege der denkenden Roboter werden. Da kein Supercomputer in einen mannsgroßen Roboter passt, will die Universität Heidelberg handliche Chips aus Silizium konstruieren, die dem Nervenzellnetzwerk im Gehirn nachempfunden sind, sogenannte neuromorphe Chips.
. . . Der „Geist“ wiegt nur 1,5 Kilogramm und beansprucht keine Turnhalle wie moderne Hochleistungsrechner. Trotzdem kann es in vielerlei Hinsicht mehr. „Es kann lernen und sich erneuern, ist enorm robust und fehlertolerant“, erklärt Karl-Heinz Meier, Physiker von der Universität Heidelberg. „Das spektakulärste ist aber der extrem geringe Energieverbrauch von 20 Watt. Das sind weniger, als die mittlerweile verbotene Glühbirne verbraucht hat, und steht in scharfem Gegensatz zu den vielen Megawatt bei unseren Großrechnern.“ Wenn die die modernen Rechenmaschinen noch leistungsfähiger werden, müsse man ein Atomkraftwerk daneben stellen – „undenkbar“, sagt Meier. Nur ein Großrechner à la Gehirn könne das sich abzeichnende Energieproblem lösen, verdeutlicht Robotikforscher Alois Knoll von der Technischen Universität München. Überspitzt könnte man sagen: Die Informationstechnik steuert in eine Sackgasse, wenn sie es nicht schafft, das Gehirn zu verstehen. . . .

(bild der wissenschaft – 5/2012)
 
 

 

(Copyright für Illustration, die Zusammenstellung der Zitate und den kursiven Text: Günther Geiger/2004. Weitere Erklärung zum Copyright-Vermerk© unter Satire-Übersicht)

 
 
oben weiter