banner
Heim / Nachricht / Wir können den „großen Filter“ vermeiden, der fortgeschrittene Zivilisationen zerstört
Nachricht

Wir können den „großen Filter“ vermeiden, der fortgeschrittene Zivilisationen zerstört

Nov 10, 2023Nov 10, 2023

Ein neuer wissenschaftlicher Artikel diskutiert existenzielle Bedrohungen wie Klimawandel und KI – und wie man sie überwinden kann.

In einem neuen, nicht von Experten begutachteten Artikel versammelt ein Wissenschaftler des Jet Propulsion Laboratory (JPL) der NASA ein vielseitiges Forscherteam, um die größten existenziellen Bedrohungen für die Menschheit zu untersuchen und zu untersuchen, wie diese zum „Großen Filter“-Ereignis werden könnten. Wie Massenaussterben in der Vergangenheit gehen diese Szenarien von einer Katastrophe aus, die das Leben auf der Erde auslöschen wird, bis nur noch sehr wenig oder gar kein Leben mehr übrig bleibt. Und während frühere Massenaussterben durch natürlich vorkommende Klimaveränderungen oder ungewöhnliche Asteroideneinschläge verursacht wurden, haben wir heute ein viel größeres Portfolio selbst verursachter potenzieller Katastrophen.

Jonathan H. Jiang ist ein Astrophysiker und Atmosphärenphysiker, der für das JPL der NASA im Raum Los Angeles arbeitet. Er untersucht Aerosole und Atmosphäre in Form von Dingen wie Wolkenbedeckung, Reflexionsvermögen verschiedener Aerosolpartikel wie atmosphärischem Ruß sowie Klima- und Wettersystemen.

In einem Oral History-Interview im Jahr 2020 beschrieb Jiang, wie er von seinem Elternhaus in Peking aus in den Himmel blickte: „Ich wurde Mitte der 1960er Jahre geboren – es gab eine Kulturrevolution, also war alles ruhig. Zu dieser Zeit war in Peking Nachts hatten wir nicht viele Lichter der Stadt, keine Wolkenkratzer, nichts, also gab es viele Sterne. Nach Einbruch der Dunkelheit sahen wir den Himmel. Da habe ich mich darüber gewundert. Ich glaube, als ich zehn Jahre alt wurde, Ich wollte den Himmel studieren.

Am JPL macht er genau das seit Jahrzehnten. Und sein Interesse gilt nicht nur dem Klima oder der Astronomie. Er hat auch an einem halben Dutzend oder mehr Artikeln über den Großen Filter mitgewirkt und dabei sehr unterschiedliche und vielseitige Wissenschaftler und andere Mitwirkende zusammengebracht, um den Fortschritt der Menschheit in den Weltraum, unsere Natur als potenzielle Kardashev-Typ-I-Zivilisation und mehr zu diskutieren. (Die Kardashev-Skala gruppiert Bevölkerungsgruppen wie uns danach, wie viel nutzbare Energie uns zur Verfügung steht.)

Vielleicht kennen Sie das Fermi-Paradoxon, das im Wesentlichen besagt: Wenn es in unserem Universum unendlich viele Planeten gibt, wie kann es sein, dass wir noch nie von einer anderen Zivilisation gehört haben? Wo sind alle? Theoretiker fragen sich, ob der Grund dafür, dass wir nirgendwo sonst jemanden sehen, darin liegt, dass jede Zivilisation ein Ereignis durchgemacht hat, das praktisch jeden Kandidaten vom Aufstieg auf die nächste Ebene ausschließt. Was wäre, wenn nur 1 Prozent – ​​oder sogar nur 0,01 Prozent oder 0,00001 Prozent oder 0,00000001 Prozent – ​​diesen großen Filter passieren würden? Kein Wunder, dass es keine Nachbarn gibt.

„Die Vorstellung, allein in einem Universum zu sein, das größer ist, als unsere Kreativität berühren kann, ist erschreckend: ein Gefühl kosmischer Isolation“, heißt es in dem Papier. „Und die Annahme, dass ein phänotypisch einzigartiger Organismus die Intelligenz besitzt, zu kommunizieren oder zumindest Spuren von Substanz zu hinterlassen, ist faszinierend. Wenn ein Oktopus, der ein Glas öffnet, oder ein Elefant, der ein paar Farbstriche macht, ausreicht, um die Aufmerksamkeit von Milliarden auf sich zu ziehen, ist die Entdeckung von.“ Ein Bewusstsein jenseits unserer Biosphäre würde globale Schockwellen auslösen.“

Aber um andere Überlebende des Großen Filters im Universum zu finden und mit ihnen in Kontakt zu treten, können wir uns in der Zwischenzeit nicht selbst zerstören. Auf diese Weise fügt sich die Diskussion über den Großen Filter in die allgemeine Diskussion über existenzielle Risiken ein, bei denen es sich um potenzielle Ereignisse handelt, die die Existenz der Menschheit oder der Erde selbst gefährden könnten. Unser Überleben hängt davon ab, dass wir lange genug leben, um unseren Planeten entweder bis in die ferne Zukunft zu bewahren und zu pflegen oder erfolgreich auf andere Planeten zu gelangen und dort zu gedeihen.

Die Entwicklung von Atomwaffen hat der ganzen Welt bewusst gemacht, dass sie sich jederzeit selbst zerstören kann. In diesem Moment verwandelte sich die Gefahr der Zerstörung im Krieg in die Gefahr der völligen Ausrottung. Und für die menschliche Zivilisation würde das den Verlust von allem bedeuten, wofür wir jemals gearbeitet haben, und die Möglichkeit, mit anderen Lebewesen in unserem Universum in Kontakt zu treten. Pandemien, der Klimawandel und die anderen Risiken des Großen Filters könnten in ähnlichen Zeiträumen das Gleiche bewirken. (Weitere Informationen zu diesen Risiken finden Sie in Josh Clarks Podcast-Miniserie „End of the World“ von „Stuff You Should Know“ aus dem Jahr 2018.)

Jiang und seine Mitarbeiter konzentrieren sich in diesem kurzen, erläuternden (und nicht experimentellen) Artikel auf fünf wichtige Kandidaten für große Filter. Dies sind: Atomkrieg, Pandemien oder Krankheitserreger, künstliche Intelligenz, Asteroiden- oder Kometeneinschläge und Klimawandel. Aufmerksame Beobachter werden feststellen, dass es sich hierbei fast ausschließlich um vom Menschen verursachte Ereignisse handelt oder, wie bei der COVID-19-Pandemie, um Ereignisse, deren Umstände durch menschliches Versagen und Korruption erheblich verschlimmert werden. Sogar Asteroiden und Kometen können mit Aufmerksamkeit und Technologie zum Glück wahrscheinlich „umgeleitet“ werden.

Jiang erklärt gegenüber Popular Mechanics, dass die Betonung der menschlichen Natur und menschlichen Ursachen kein Zufall sei. „Unsere Verantwortung als Menschen hat sich zu globalen Herausforderungen und in manchen Fällen sogar zu völligen Katastrophen entwickelt, da wir sie in exponentiellen technologischen Fortschritten marinieren ließen“, erklärt er. „Der erste Schritt besteht darin, das Problem anzuerkennen, was wir [in dem Papier] erreichen wollten, und dann zu diskutieren, wie wir Änderungen vornehmen können.“

Kelly Lu, eine High-School-Schülerin aus der Gegend von Los Angeles, ist eine der Mitautorinnen des Artikels. „Ich denke, ich spreche im Namen vieler, wenn ich erwähne, dass dieses Papier eine unterschwellige Angst offenbart, die alle Menschen empfinden, wenn sie sich der Funktionsweise unserer Welt bewusst werden“, sagt Lu gegenüber Popular Mechanics.

Co-Autor Philip Rosen, ein pensionierter Ingenieur, sagt, das Überleben der Menschheit im Atomzeitalter „bezeugt, dass wir als Spezies darauf abzielen, langfristig „im Spiel“ zu bleiben.“ Lu, Rosen und Jiang vertreten alle eine Ansicht, die sie als optimistisch bezeichnen, denn das Verständnis und die Bekämpfung dieser Risiken ist eine wesentliche Investition in unser Überleben und in unsere Fähigkeit, uns selbst zu retten.

„Wir verfügen auf jeden Fall über die Mittel, um auf eine robuste und dauerhafte Gesellschaft hinzuarbeiten“, schlussfolgert das Team. „Gerade in diesen prekären Zeiten müssen wir über weitere Maßnahmen nachdenken. Es beginnt mit der Zusammenarbeit.“

Caroline Delbert ist Autorin, begeisterte Leserin und Redakteurin bei Pop Mech. Außerdem ist sie eine Liebhaberin von fast allem. Zu ihren Lieblingsthemen gehören Kernenergie, Kosmologie, Mathematik alltäglicher Dinge und die Philosophie des Ganzen.

Gentherapie der nächsten Stufe durch ein mit Mega-DNA gefülltes Virus

Gedächtnislöschung und Psychedelika ... für die Wissenschaft!

Wie Wissenschaftler den Galapagos-Rosa-Leguan retten werden

Was sind die Nordlichter?

Alternder Mann, der seinem Sohn Blut abnimmt

Supercomputer enthüllen die Diamantmaschine der Erde

Wolkenkratzer wandelt Kohlendioxid in Beton um

Die USA „spielen“ das Stromnetz

Ist Nugget-Eis das beste Eis?

Im Rahmen der Mission der CIA, das Bewusstsein zu entschlüsseln

Wie El Niño und La Niña unser Klima beeinflussen

Wie Teleskope das unsichtbare Universum erhellen