Aliens und Zeitreisen: Fünf irre Thesen von Stephen Hawking

Astrophysiker Stephen Hawking mit 76 Jahren gestorben

Der weltberühmte britische Astrophysiker Stephen Hawking ist im Alter von 76 Jahren gestorben. Er sei am frühen Mittwochmorgen in seinem Haus in Cambridge friedlich eingeschlafen, teilte seine Fa...

Der weltberühmte britische Astrophysiker Stephen Hawking ist im Alter von 76 Jahren gestorben. Er sei am frühen Mittwochmorgen in seinem Haus in Cambridge friedlich eingeschlafen, teilte seine Fa...

Beschreibung anzeigen
Stephen Hawking hatte nicht nur beim Thema Schwarze Löcher interessante Ideen. Wir zeigen fünf beeindruckende Theorien des Superhirns.

Berlin.  Dem brillanten Verstand von Stephen Hawking war es im irdischen Hier und Jetzt oftmals zu öde. Doch nicht nur abstrakte Schwarze Löcher, der Urknall und die Relativitätstheorie beschäftigten den Astrophysiker.

Hawking machte sich auch seine Sorgen um die Zukunft der Menschheit. Die Ideen, die Theorien, die er daraus folgerte, machten ihn populär – und sie faszinierten viele Menschen. Wir zeigen einige der beeindruckendsten Gedankengänge des am Mittwoch verstorbenen Superhirns:

1.) „Früher oder später müssen wir zu den Sternen schauen“

Was den Fortbestand der Menschheit angeht, war Hawking nicht gerade optimistisch. Viren, Asteroiden, Nuklearwaffen und Überbevölkerung sah er als potenzielle Gefahren für das Überleben unserer Spezies an – zumindest, so lange der Mensch auf der Erde bleibt. „Die Menschheit ist verloren, wenn wir nicht die Erde verlassen“, sagte Hawking der BBC im vergangenen Jahr.

In 200 bis 500 Jahren müsse der Mensch die Erde verlassen haben, so Hawkings Theorie. Damit die Kolonialisierung des Weltraums nicht zu spät kommt, hatte er konkrete Forderungen: Bis 2025 sollten die führenden Nationen einen Menschen zum Mars geschickt und bis 2047 eine Mondbasis errichtet haben.

Untätig bleiben wollte Hawking bei der Erforschung extraterrestrischer Lebensräume nicht: Gemeinsam mit dem russischen Milliardär Jurij Milner machte er 2016 Pläne öffentlich, eine Armee winziger Raumfähren auf eine 20-jährige Reise schicken zu wollen, um das Sternsystem Alpha Centauri auszukundschaften.

2.) „Das Denken an Außerirdische ist völlig rational“

Bei seinen gedanklichen Reisen durch die Weiten des Universums traf Hawking auch immer wieder auf Außerirdische. „In meinem mathematischen Hirn machen die Zahlen allein das Denken an Außerirdische völlig rational“, sagte Hawking 2010 in einer Dokumentation des Fernsehsenders Discovery Channel. Immer wieder machte er sich dafür stark, in der Wissenschaft eine Diskussion über außerirdisches Leben zu etablieren.

Angesichts von Milliarden von Galaxien und Abermillionen von Sternen sei es unwahrscheinlich, dass die Erde der einzige Planet sei, auf dem Leben möglich ist. Womöglich seien viele Aliens Kleinlebewesen und einfache Tiere, aber auch intelligentes Leben hielt Hawking für wahrscheinlich.

In diesem Zusammenhang warnte er immer wieder vor einer allzu naiven Kontaktaufnahme und kritisierte wiederholt Projekte, bei denen Signale ins All gesendet wurden. Hawking sagte: „Wenn uns Außerirdische jemals besuchen, wird der Ausgang, so denke ich, genauso sein wie die Landung von Christopher Columbus in Amerika, was für die Eingeborenen nicht sehr gut ausging.“

http://Stephen_Hawking-_Stationen_seines_Lebens{esc#213716893}[gallery]

3.) „Wenn wir erst das Buch des Lebens gelesen haben, werden wir anfangen, Korrekturen vorzunehmen“

Hawking glaubte daran, dass es nicht der Mensch von heute sein wird, der sich zu den Sternen aufmacht. In einer öffentlichen Vorlesung in Bombay im Jahr 2001 vertrat er die Meinung, dass es in Zukunft einen „Übermenschen“ geben wird – von Gentechnik optimiert. „Wenn wir erst das Buch des Lebens gelesen haben, werden wir anfangen, Korrekturen vorzunehmen“, sagte er.

Trotz aller Verbote und Gesetze werde es immer wieder Neugierige geben, die der Versuchung nicht widerstehen könnten, den Menschen genetisch zu verbessern, war sich Hawking sicher. Es beginne eine „Ära, die man als Evolution per Design bezeichnen kann“.

Die Geburt eines solchen Supermenschen hätte zwar Konflikte zur Folge, so Hawking weiter, sie berge aber auch Chancen – zum Beispiel neue Erkenntnisse in der Raumfahrt. Einen Standpunkt für oder wider diese Entwicklung wollte Hawking nicht beziehen: „Ich befürworte das nicht, ich sage nur, es wird passieren, ob wir wollen oder nicht.“

4.) „Zeitreisen wird es geben“

Hawking war sich sicher, dass es irgendwann Zeitreisen geben wird. Wenn in ferner Zukunft ein Schiff beinahe mit Lichtgeschwindigkeit fliegen könnte, würden an Bord nur Stunden vergehen, während auf der Erde Tage ins Land ziehen. Und dass das die Menschheit schaffen würde, daran hatte Hawking keinen Zweifel.

Ein bizarres Experiment zum Thema Zeitreisen führte Hawking 2009 durch. Er plante eine Party, stellte Champagner und Buffet bereit – verschickte die Einladungen aber erst, als der Abend schon gelaufen war.

„Die Einladung zur Party steht auf Papier, das viele Tausend Jahre überstehen soll. Sollten Menschen irgendwann in ferner Zukunft durch die Zeit reisen können, könnten sie sich entscheiden, der Einladung zu folgen. Sie könnten zurück in die Vergangenheit reisen und die Party stürmen“, erklärte Hawking.

Der Abend allerdings verlief eher ruhig: „Ich habe lange gewartet, aber niemand kam.“ Seine Schlussfolgerung: Reisen in die Vergangenheit sind wohl unmöglich.

5.) „Künstliche Intelligenz könnte einen eigenen Willen entwickeln“

Ob sich Stephen Hawking für Filme mit Arnold Schwarzenegger interessierte, ist unbekannt. Allerdings hielt er die Idee, auf der einer der bekanntesten Filme des Schauspielers basiert, für gar nicht so abwegig. Hawking befürchtete, künstliche Intelligenz könnte eines Tages die Menschheit bedrohen – genauso, wie es in der „Terminator“-Reihe passiert.

„Die Entwicklung künstlicher Intelligenz könnte entweder das Schlimmste oder das Beste sein, was den Menschen passiert ist“, sagte Hawking Ende 2017 auf einer Konferenz in Lissabon. Sollten Maschinen sich irgendwann selbst verbessern können, könnten sie dem Menschen gefährlich werden und sich seiner Kontrolle entziehen.

Vor diesem Hintergrund mahnte er Tech-Konzerne wie Apple, Google und Amazon, bei ihren Entwicklungen mit Vorsicht zu arbeiten. Man solle sich auf die Verbesserung der Dienste von Maschinen konzentrieren – und nicht auf die Verbesserung ihrer Intelligenz.

 

EURE FAVORITEN