fbpx

Wochenendrebellen

Groundhopping | Autismus | Wissenschaft | Podcast | Weltverbesserung

Neue Technologien, die bald erfunden und uns retten werden

Der Fusionsreaktor ITER geht im Sommer 2020 in die entscheidende und letzte Bauphase, in fünf Jahren soll er das Sonnenfeuer auf Erden entzünden und zeigen, dass neue Technologien in der Lage sind, die Menschheit in eine atemberaubende Zukunft der unbegrenzten, umweltfreundlichen und günstigen Energie zu führen. Doch neue Technologien werden auch immer wieder im Rahmen des Klimaschutzes herangezogen. Anlass genug, neue Technologien im Klimaschutz wissenschaftlich zu beleuchten.

Wenn man über klima- oder energiepolitische Themen schreibt und eine beliebige Behauptung aufstellt, dann ist eine Antwort, die man wirklich sehr häufig erhält: „Ja, momentan vielleicht, aber das ist doch kein Naturgesetz.“ Daher beginne ich in diesem Artikel einfach mal mit einem Naturgesetz, und zwar dem Energieerhaltungssatz von 1842. Er besagt, dass Energie nicht aus dem Nichts erzeugt werden kann und nicht ins Nichts verschwinden kann.

Wenn wir also davon sprechen Energie zu „erzeugen“ oder zu „verbrauchen“, dann drücken wir uns unpräzise aus, eigentlich meinen wir die Umwandlung einer Energieform in eine andere. In einem Verbrennungsmotor wird beispielsweise die chemische Energie des Kraftstoffs in kinetische Energie (das Auto fährt) und Wärmeenergie (Abwärme) umgewandelt. Der Motor erzeugt dabei keine Energie, er wandelt eine für uns schwer nutzbare Energie in eine für uns einfacher nutzbare Energie, bzw. eine Energie, die Arbeit verrichten kann, um. Das sind die physikalischen Grundlagen.

Die entscheidende Frage ist also nicht „Wie viel Energie kann die Menschheit erzeugen?“, sondern „Wie viel Energie kann die Menschheit nutzen?“ Doch wie kann man sowas eigentlich messen? Diese Frage hat sich der russische Physiker Nikolai Kardaschow gestellt und die Kardaschow-Skala entwickelt. Dabei ordnete er der Menschheit – und allen potentiellen Zivilisationen – eine Zahl zwischen null und drei zu und postulierte somit drei Typen hochentwickelter Zivilisationen:

Typ I (planetare Zivilisation): Eine Typ I-Zivilisation ist in der Lage, die gesamte zu Verfügung stehende Energie ihres Heimatplaneten zu nutzen, im Falle der Erde sind das etwa 1,74·1017 Watt.

Typ II (stellare Zivilisation): Eine Typ II-Zivilisation ist in der Lage, die gesamte Energie ihres Heimatsterns nutzbar zu machen, im Falle der Sonne sind das etwa 4*1026 Watt.

Typ III (galaktische Zivilisation): Eine Typ III-Zivilisation ist in der Lage, die gesamte Energie ihrer Heimatgalaxie, also aller Sterne ihrer Galaxie zu nutzen. Im Falle der Milchstraße sind das etwa 4*1037 Watt.

Dabei ist offensichtlich, dass die Skala nicht linear ist, 4*1026 Watt sind etwa zehn Milliarden Mal mehr als 1,74*1017 Watt. Eine Typ II-Zivilisation nutzt also so viel Energie wie zehn Milliarden Typ I-Zivilisationen während eine Typ III-Zivilisation etwa 100 Milliarden Mal mehr Energie nutzt als eine Typ II-Zivilisation.

Doch wo steht die Menschheit auf der Kardaschow-Skala? In den letzten Jahrzehnten stieg der Wert der Menschheit zwar von 0,582 auf 0,72, dennoch sind wir damit nicht einmal auf der Skala, da wir noch nicht die gesamte Energie nutzen, die unser Heimatplanet zur Verfügung stellt, sondern noch immer fossile Brennstoffe nutzen.

Unsortiert | Neue Technologien, die bald erfunden und uns retten werden | neue technologien die bald erfunden und uns retten werden 3
Entwicklung der Menschheit auf der Kardaschow-Skala seit 1900

Doch das liegt nicht an mangelnden Technologien, sondern daran, dass all die Menschen, die genug Macht haben, um diesen Zustand zu verändern, ihre Macht eben genau diesem Zustand verdanken und deswegen gar kein Interesse an dessen Änderung haben. Ein globaler, fairer und grenzenloser Austausch erneuerbarer Energien wäre technologisch innerhalb weniger Jahre erreichbar, doch er ist einfach nicht gewollt.

Schaut man einmal in die Vergangenheit, dann haben neue Technologien häufig Dinge ermöglicht, die sich noch wenige Jahre zuvor kein Mensch hätte vorstellen können. Doch fast immer, wenn wir auf neue Technologien zur Lösung gegenwärtiger Probleme hofften, wurden wir enttäuscht. Blicken wir zum Beispiel einmal auf die Kernenergie.

„Die Kernenergie ist sicher.“

Ernst Bloch

Das Zitat kann sich glatt bei den berühmten letzten Worten „Das müsste halten.“, „Die Schlange kenn´ ich, die ist nicht giftig.“ und „Was ist das für ein Draht?“ einreihen. Tatsächlich galt Kernenergie einst als Lösung für alles: Sie sollte die Menschheit mit grenzenloser und umweltfreundlicher Energie versorgen, sollte Raketen, Autos und selbst Staubsauger antreiben und ein paar Kilogramm Uran sollten die Antarktis in eine sonnige Riviera und Wüsten in fruchtbare Landstriche verwandeln.

Und selbst wenn ein Atomkraftwerk explodieren sollte, die Radioaktivität würde sich nur über einen Radius von 100 Metern verteilen, so hieß es. Natürlich handelte es sich dabei um perfide Propaganda der Atomindustrie und niemals um den wirklichen Stand der Wissenschaft.

Mittlerweile hat sich riesige Ernüchterung breit gemacht, wobei die Menschheit einen kleinen Anschubs gebraucht hat, um zu verstehen, dass es sich bei dem Bau eines Atomkraftwerks auf der aktivsten Erdbebenzone der Welt vielleicht doch nicht um einen energiepolitischen Geniestreich handelt.

Immerhin ist seitdem aber selbst den meisten Atomkraft-Befürworter*innen klar, dass die Hauptrolle in Zukunft den erneuerbaren Energien gehören muss. Was es eigentlich bräuchte ist also eine flexible Ergänzung zu den wechselhaften Energieformen Solar-, Wind- und Wasserenergie.

Das können Atomkraftwerke jedoch nicht leisten, denn sie wurden als Säulen des deutschen Stromnetzes konzipiert. Sie sind sehr träge und haben hohe Fixkosten, sie müssen also rund um die Uhr mit voller Kapazität laufen, um profitabel zu sein. Damit verstopfen sie jedoch Netz für erneuerbare Energien statt sie zu ergänzen. Erneuerbaren Energien wird es dadurch auf dem Markt schwerer gemacht – quasi eine Kohle-Subvention durch die Hintertür. Atomkraftwerke passen einfach nicht in ein ökologisches und modernes Stromnetz.

Der Teufel liegt also immer im Detail und fast immer, wenn Politiker*innen so herrlich unkonkret von neuen Technologien sprechen, werden diese wissenschaftlichen Details getrost ignoriert. Und aus Fehleinschätzungen werden schnell Fehlschlüsse. FDP-Chef Christian Lindner etwa hat sich offen gegen verbindliche CO2-Einsparziele ausgesprochen, er bezeichnete sie sogar als „Karikatur von Planwirtschaft“. Seine Begründung dafür:

„Man kann doch gar nicht wissen, wo wann welcher technologische Quantensprung gelingt.“

Christian Lindner

Es ist zwar off-topic, aber als Physiker kann ich nicht anders als anzumerken, dass ein „Quantensprung“ die kleinstmögliche Einheit ist, um die sich ein System verändern kann. Ein Quantensprung ist also folglich eine extrem kleine Änderung und kein großer Fortschritt. Aber darum soll es hier ja nicht gehen. Nein, es soll hier um den quasi-religiösen Glauben daran gehen, neue Technologien würde uns schon aus der Scheiße rausholen.

Es ist ein bisschen wie in einem schlechten Film: Wenn ein Hauptcharakter sich in einer absolut aussichtslosen Situation befindet, dann vertrauen wir dennoch intuitiv darauf, dass er irgendwie überlebt. So unwahrscheinlich es auch sein mag, die Handlung wird meist so gedreht, dass sie zwangsläufig zum Überleben des Hauptcharakters führt – Dramaturgen sprechen von einem Deus ex Machina, das ist lateinisch für „Gott aus der Maschine“.

Tatsächlich beschreibt es „Gott aus der Maschine“ ganz gut, wir scheinen darauf zu vertrauen, dass plötzlich ein Gott hinter der Bühne hervorkommt und uns alle rettet – in Gestalt eines Wasserstoffautos, eines Fusionskraftwerks oder irgendwelchen Dingen, die wir heute noch gar nicht kennen.

Gezeitenbojen, Vulkane anzapfen und flauschige Hochhäuser

Dadurch, dass die Erde einen so überproportional großen Mond hat, ist sie der einzige Planet im Sonnensystem, der nennenswerten Gezeitenkräften unterliegt – der Mond ist der einen Hälfte der Erde also näher als der anderen und diese wird dadurch stärker von ihm angezogen. Auf diese Weise entstehen die Gezeiten, der Meeresspiegel steigt und sinkt also in regelmäßigen Abständen. Ein australisches Unternehmen namens Carnegie Clean Energy hatte dazu eine innovative Idee.

Demzufolge wäre es möglich, die Energie der Gezeiten anzuzapfen, jedoch nicht über gewöhnliche Gezeitenkraftwerke, die im Wesentlichen wie ein Staudamm funktionieren, sondern über umweltfreundlichere und effizientere Bojen. Sie würden durch die Bewegung des Wassers mitgenommen und regelmäßig aufsteigen und wieder sinken. Dabei sollen sie eine Pumpe antreiben, die dann zur Stromerzeugung dient.

Die Bojen könnten gleichzeitig natürlich auch anderweitig genutzt werden, etwa als Forschungsstationen, man könnte dort aber auch unter Wasser Pflanzen anbauen oder sogar Wohnräume schaffen. Neue Technologien wie diese haben tatsächlich Potential: Könnte man nur 0,1% der durch Sonne und Mond ausgeübten Gezeitenenergie nutzen, könnte man damit fünfmal den gesamten Weltenergiebedarf decken.

Doch natürlich ist es utopisch, auch nur annähernd an diese Schwelle heranzukommen. Selbst wenn man nun im großen Stil diese Bojen bauen würde, könnte man damit nur einen Bruchteil dieses Anteils erreichen. Und noch ist Carnegie Clean Energy mit seinem Plan auch erst ganz am Anfang: Taucher*innen sollen bald erste Gezeitenbojen vor der Küste Westaustraliens installieren.

Unsortiert | Neue Technologien, die bald erfunden und uns retten werden | neue technologien die bald erfunden und uns retten werden 2
Carnegie Wave Energy Limited, CETO-unitCC BY-SA 3.0

Künstliches Sonnenfeuer

Der heilige Gral der Stromerzeugung und das Musterbeispiel für neue Technologien ist daher etwas anderes – er gilt als Schlüsseltechnologie des 21.Jahrhunderts, baut jedoch auf dem alten Konzept eines Großkraftwerks auf – die oben bereits erwähnte Kernfusion. Es ist die Methode, mit der auch unsere Sonne und die Sterne am Nachthimmel Licht und Wärme erzeugen. Unsere Sonne strahlt, weil sie so groß ist, dass der Druck in ihrem Innern genügt, um die Atome, aus denen die Sonne besteht, miteinander verschmelzen zu lassen. Die Ausgangselemente haben eine größere Masse als die Endprodukte und da Masse nicht einfach verschwinden kann, wir die Differenz abgestrahlt – nur dieses winzig kleine Massendefizit ist es, welches uns allen Licht und Wärme schenkt und das scheinbar unbegrenzt.

Nun haben sich einige kluge Köpfe, darunter die Physiker Edward Teller und Enrico Fermi gedacht: Was die Sonne kann, das können wir doch auch! Wieso sollten wir nicht auch auf der Erde in Reaktoren Atomkerne miteinander verschmelzen lassen können wie es die Sonne in ihrem Innern kann? Das klingt wirklich nach einer dummen Frage: Wie sollen wir auf der Erde den Druck erzeugen, der im Innern der Sonne herrscht, die ja immerhin eine Masse von fast zwei Quintillionen Kilogramm hat? Gar nicht. Wir müssen einsehen, dass dies wohl immer ein Ding der Unmöglichkeit sein wird.

Glücklicherweise muss man das jedoch auch nicht, denn die Sonne betreibt die Kernfusion sowieso sehr ineffizient, ein Atom kann dort viele Millionen Jahre durch die Gegend fliegen ohne mit einem anderen zu fusionieren. Der einzige Grund, weshalb in der Sonne dennoch so viele Fusionsreaktionen ablaufen ist einfach, dass die Sonne unglaublich groß ist. Ein einzelner Lottospieler kann schließlich auch ein ganzes Leben lang nie gewinnen, dennoch gewinnt ständig irgendwo irgendwer, einfach weil es so viele Spieler gibt.

Einfach die Sonne kopieren können wir also nicht, aber wir könnten vielleicht ganz neue Technologien erfinden, um Kernfusion zu betreiben. Wie genau das gehen könnte, darüber haben tatsächlich viele Menschen nachgedacht und sind im Wesentlichen auf zwei Ideen gekommen, die sie Tokamak und Stellarator genannt haben. Beide komprimieren eine spezielle Masse namens Plasma durch starke Magnetfelder in einer Art „Magnetkäfig“, also nicht wie die Sonne durch den Druck der Masse. In beiden Reaktoren wird zudem nicht gewöhnlicher Wasserstoff fusioniert wie in der Sonne, sondern ganz spezielle Arten von Wasserstoff namens Deuterium und Tritium.

Der Unterschied zwischen einem Reaktor des Typs Tokamak und des Typs Stellarator ist die Art der Magnetfelder, die für die Komprimierung des Plasmas genutzt werden. Beim Stellarator wird das verdrillte Magnetfeld durch auf komplexe Weise verteilte Spulen von außen erzeugt, beim Tokamak hingegen soll ein verschachteltes Magnetfeld durch elektrische Ströme innerhalb des Plasmas entstehen. Das klingt recht unwichtig, hat jedoch eine große Bedeutung.

Unsortiert | Neue Technologien, die bald erfunden und uns retten werden | neue technologien die bald erfunden und uns retten werden 4
Komplexe Spulengeometrie des HSX, eines Stellarator-Reaktors

Die komplexe Geometrie der Spulen beim Stellarator macht ihn zum Beispiel sehr wartungsintensiv, es gibt zudem noch Schwierigkeiten damit, das Plasma vollständig einzuschließen. Der Tokamak ist dort viel einfacher gebaut, doch auch er hat einen entscheidenden Nachteil: Er funktioniert vielleicht nicht einmal in der Theorie so ganz, denn es ist nicht sicher wie lange sich elektrische Ströme in Plasma aufrechterhalten lassen, beziehungsweise ob sie überhaupt stabil sind oder schnell kollabieren.

Die großen im Bau befindlichen Kernfusionsreaktoren, etwa der International Thermonuclear Experimental Reactor, kurz ITER (lateinisch für Weg), sind aber fast alle vom Typ Tokamak. Es ist also gar nicht sicher, ob diese jemals Strom ins Netz einspeisen oder aber sich als Milliardengrab entpuppen werden. Wollen wir das Überleben unserer Zivilisation wirklich von sowas abhängig machen, obwohl es auch anders ginge, nur um jetzt nicht handeln zu müssen und etwas Geld zu sparen? Ich möchte das nicht.

Selbst wenn wir trotz dieser Unsicherheit einmal optimistisch bleiben und annehmen, dass die Experimente am ITER schon in wenigen Jahren zeigen, dass der Tokamak-Reaktor tatsächlich funktioniert – was tatsächlich relativ wahrscheinlich ist – würde das in Bezug auf den Klimaschutz nicht viel ändern. Denn damit so ein Fusionskraftwerk auch profitabel läuft, darf das Ingangsetzen der Fusion natürlich nicht mehr Energie benötigen als sie dann hinterher abwirft und das ist schwierig, denn das Plasma muss auf eine Temperatur von 150 Millionen Grad Celsius erhitzt werden – dafür ist nun einmal sehr viel Energie nötig.

1997 konnte ein erster Erfolg erzielt werden, kurzfristig wurde durch Kernfusion eine Leistung von 16 Megawatt generiert, für das Ingangsetzen der Reaktion waren jedoch 24 Megawatt notwendig. Das Verhältnis zwischen diesen Werten wird Q-Faktor genannt und wenn er genau eins beträgt, denn wird genauso viel Leistung generiert wie hereingesteckt wird. Um wirklich dauerhaft Fusionsreaktionen ablaufen zu lassen, benötigt es wohl – wenn es überhaupt funktioniert – mindestens einen Q-Faktor von fünf – beim Versuch von 1997 betrug er gerade einmal 0,67 (16 Megawatt dividiert durch 24 Megawatt).

Wir sehen also, das ist bei weitem nicht so einfach wie man häufig dahersagt, wenn man so herrlich unkonkret über neue Technologien spricht. Zwar sollen im ITER, wenn alles nach Plan läuft, ab 2035 Fusionsreaktionen mit einem Q-Faktor von zehn ablaufen, doch selbst dabei muss stets neue Energie zugeführt werden, eine „echte“ Fusion, die sich selbst aufrechterhält, werden wir also auch 2035 noch nicht haben. Dies soll dann der Nachfolger des ITER namens DEMO erreichen, er soll erstmals circa ein Gigawatt Fusionsenergie ins Stromnetz einspeisen und dabei einen Q-Faktor von 25 erreichen – geplant ist das für 2040, Experten rechnen jedoch damit, dass es erst später der Fall sein wird.

Selbst DEMO wird jedoch noch kein echtes kommerzielles Kraftwerk sein, dafür sind seine Ausmaße zu klein. Das soll erst dessen Nachfolger PROTO erbringen und spätestens hier werden die Pläne echt nebulös. Irgendwann nach 2050, so der Plan, werden durch PROTO dann wirklich in großen Mengen Fusionsenergie ins Stromnetz eingespeist, weitere Reaktoren sollen folgen. Wenn ihr mich fragt, wird das aber eher bis 2075, vielleicht sogar bis ans Ende des Jahrhunderts dauern. Vielleicht geht es auch schneller – man kann nie wissen…

 ITERDEMOPROTO
Inbetrieb
nahme
20252040nach 2050
StatusIn BauGeplantGeplant
TypTokamakWahrscheinlich TokamakWahrscheinlich
Tokamak
Q-Faktor1025?
Leistung500 Megawatt1 Gigawatt?
ZielMachbarkeits
beweis für ein Fusionskraftwerk
Erstes FusionskraftwerkErstes kommerzielles Fusionskraftwerk

Angenommen wir vertrauen jedoch auf neue Technologien und das „Wundermittel“ Fusionsenergie und machen deshalb einfach so weiter, dann wird die Erde im Jahr 2100, wenn dann also vielleicht wirklich nennenswerte Mengen Fusionsenergie im Stromnetz sind, vermutlich etwa sechs Grad Celsius wärmer sein als in vorindustrieller Zeit. Dies wird dazu führen, dass beinahe das gesamte irdische Eis schmilzt.

Es droht ein Ökozid

In den nun eisfreien Polregionen würden riesige Grünflächen frei, unter der ansonsten eisbedeckten Arktis läge nun der offene Ozean. Sowohl ein Ozean als auch eine Grünfläche sind jedoch viel dunkler als Eis, sie reflektieren also weniger Licht und schlucken es größtenteils, wodurch es in Wärme umgewandelt wird. Der Boden strahlt diese Wärme dann wieder in Richtung der Atmosphäre ab, dort wird sie von den Treibhausgasen festgehalten und versetzt die Gasteilchen in Schwingungen – ein Wärmeüberschuss entsteht.

Durch diese Erwärmung schmilzt dann noch mehr Eis, wodurch noch mehr Grünflächen und Ozeane freiwerden und sich die Erde noch weiter erwärmt – ein für Millionen Menschen tödlicher Teufelskreis. Ab diesem Zeitpunkt sind der Hauptantrieb der Erderhitzung nicht mehr die menschengemachten Emissionen direkt, sondern die durch sie ausgelösten Rückkopplungen. Das ist der Moment des Kontrollverlustes. Selbst bei sofortigem Herunterfahren aller Emissionen auf null, würde sich die Erhitzung fortsetzen.

Hier würde die Katastrophe jedoch keinen Halt machen, denn seit der letzten Eiszeit schlummern enorme Mengen Treibhausgasen in gefrorenen Böden, vor allem im sibirischen Permafrost. Wenn die Erde in ein Warmzeitalter übergeht und diese Böden schmelzen, dann werden die dort eingeschlossenen Treibhausgase in die Atmosphäre geraten – als etwas Vergleichbares zum letzten Mal passierte, nämlich durch starken Vulkanismus vor 252 Millionen Jahren, brachen beinahe alle Ökosysteme im größten Massenaussterben aller Zeiten zusammen – eine geologische Zäsur, die unsere Erde auf ewig verändert hat.

Es ist mir wirklich wichtig, den gesamten Impakt eines solchen Ereignisses klarzumachen. Derzeit befinden wir uns in einer Warmzeit innerhalb eines Eiszeitalters. Die Erde befindet sich also seit etwa 34 Millionen Jahren in einer ihrer eher kälteren Phasen, in der die Pole vereist sind – in einem Eiszeitalter. Innerhalb dieses Eiszeitalters befinden wir uns seit etwa 100.000 Jahren jedoch nicht mehr in einer Eiszeit, also einer Zeit, in der das Eis sich bis weit jenseits der Pole ausbreitet, sondern bereits in einer Warmzeit, in der es zwar Eis auf der Erde gibt, allerdings nur in Polnähe und Gebirgen.

Tritt das oben beschriebene Szenario ein, indem ein Teufelskreis das gesamte irdische Eis schmelzen lässt und sich die Erde um bis zu sechs Grad Celsius erwärmt, dann wird das seit 34 Millionen Jahren herrschende Eiszeitalter, das Känozoische Eiszeitalter, zu Ende gehen und durch ein Warmzeitalter abgelöst werden wie wir es noch nie zuvor erlebt haben. Ein Warmzeitalter liegt dann vor, wenn es auch an den Polen keine durchgehende Vergletscherung gibt – das letzte Warmzeitalter endete noch viele Millionen Jahren bevor die ersten Menschen die Erde bevölkerten.

Wir sehen also, dass das irdische Klima sich nicht immer reparieren lässt, wird der Schaden zu groß, so setzen die eben beschriebenen Kettenreaktionen (insgesamt gibt es 16 bekannte solcher Kettenreaktionen, Klimaforscher nennen sie Kipppunkte) ein, die nicht enden werden, bevor nicht die letzte Eisscholle geschmolzen und die letzte Tonne Treibhausgas entwichen ist. Was hat das nun mit dem Thema neue Technologien und Kernfusion zutun, mag man sich fragen?

Zum einen wird immer wieder über eine neue Technologie namens Geoengineering diskutiert. Die Idee ist, dass es vielleicht möglich wäre, das Klima auch im Kippen oder sogar nach dem Kippen zu retten, indem man künstlich eingreift und beispielsweise Treibhausgase wieder aus der Atmosphäre filtert. Andere Ideen umfassen riesige Segel im Weltall, die ihren Schatten auf die Erde werfen oder Aerosole, die in der Atmosphäre verstreut werden und Sonnenlicht reflektieren sollen.

Doch die Probleme sind riesig und die Folgen nicht abschätzbar. Geoengineering könnte fatale Folgen haben, einige Simulationen legen beispielsweise nahe, dass eine künstliche Abkühlung der Nordhalbkugel eine weitere Erhitzung der Südhalbkugel zufolge haben könnte – und letztlich ist es nach wie vor nicht sicher, ob es überhaupt funktioniert. Wir sind aktuell gerade mal so weit, Anlagen bauen zu können, die etwa 4.000 Tonnen Kohlenstoffdioxid pro Jahr aus der Atmosphäre filtern – die deutschen Kohlekraftwerke zusammen stoßen das 37.500-fache aus…

Natürlich kann man hier auf neue Technologien hoffen und vielleicht sind sie eines Tages unsere letzte Hoffnung, doch das Klima aktuell durch Geoengineering retten zu wollen, ist ungefähr so, als würde unser Haus brennen und wir hoffen, dass es vielleicht bald einen hinreichend großen Tsunami gibt, um es zu löschen – obwohl der Feuerlöscher direkt nebenan steht und dieser Feuerlöscher ist effizienter und ernsthafter Klimaschutz.

Das heißt natürlich nicht, dass neue Technologien bei diesem Klimaschutz gar keine Rolle spielen können. Besonders beim Thema Fleisch, dessen Methanemissionen uns bisher einen Großteil der bereits überschrittenen Kipppunkte eingebrockt haben, können und müssen sie das sehr wohl. Die Skandale während der Corona-Pandemie, die jüngsten Ausbrüche der Schweinepest in Deutschland, aber besonders die in diesem Bereich stetig wachsende Aufmerksamkeit der Bevölkerung haben in meinen Augen durchaus das Potential, dem Thema Fleisch binnen der nächsten zehn Jahren den Todesstoß zu verpassen.

Mehr als fünf vor zwölf

Der Hauptgrund, weshalb die Kipppunkte ganz entscheidend sind, wenn es um die Rolle für neue Technologien im Klimaschutz geht, sind jedoch nicht Geoengineering und Kunstfleisch: Wenn neue Technologien wie Fusionsenergie ausgereift und im Einsatz sind, wird es für die Lösung der Klimakatastrophe schon längst zu spät sein, denn dann wird die Schwelle zu irreparablen Schäden längst überschritten sein.

Das heißt natürlich nicht, dass wir nun aufhören sollen, neue Technologien zu erforschen oder der ITER kein lohnenswertes Projekt ist. Als Physiker bin ich natürlich enthusiastischer Anhänger der Fusionskraft, die uns ganz neue Möglichkeiten eröffnen könnte. Wir müssen uns aber bewusst sein, dass Kernfusion kein Klimaschutz, sondern Grundlagenforschung ist – genauso wie viele andere neue Technologien.

Leider ist sich die Europäische Kommission dessen nicht bewusst oder sie deklariert es bewusst falsch, denn der ITER wird seit neuestem zu 100% aus dem Klimaschutz-Etat finanziert. Das ist aus wissenschaftlicher Perspektive aus den eben erläuterten Gründen Unfug:

  • Die Machbarkeit der Fusionsenergie ist keinesfalls sicher.
  • Selbst wenn machbar, werden wirtschaftliche Fusionsreaktoren viel zu spät für die Lösung der Klimaproblematik kommen.
  • Es gibt bereits viele Methoden zur Stromerzeugung, die nicht spekulativ sind und fossile Brennstoffe ablösen könnten.

Geht man nicht nach wissenschaftlichen, sondern nach politischen Kriterien vor, dann lässt sich die Entscheidung natürlich plötzlich wieder nachvollziehen, denn es handelt sich lediglich um einen Rechentrick. Die Europäische Union hat sich selbst das Ziel gesetzt, 25% ihres Budgets für Klimaschutz auszugeben.

Statt wirklich die Ausgaben dafür zu erhöhen, wird nun aber einfach ein Milliardenprojekt über neue Technologien als „Klimaschutz“ deklariert, das zwar sehr löblich ist, aber neue Technologien betrifft, die mit Klimaschutz aber nichts zutun haben. Das ist unwissenschaftlich und verschafft der Bevölkerung ein falsches Bild von der Dringlichkeit unserer Lage – wenn ein Reaktor, der vielleicht 2050 mal in Betrieb geht und andere neue Technologien uns alle retten, dann müssen wir ja gar nichts machen…

Unabhängig davon welche neuen Technologien es in Zukunft geben wird, wir Menschen müssen uns einfach einer bitteren Wahrheit stellen, einem grundlegenden Prinzip unseres Universums, dessen Wahrnehmung uns aufgrund der begrenzten Lebenszeit eines Menschen immer häufiger verwehrt bleibt: Jede Aktion zieht eine Wirkung nach sich, alles, was wir tun, hat Konsequenzen.

Die Konsequenzen mögen zeitversetzt auftreten, vielleicht erst gar nicht zu spüren zu sein und dann über Jahrhunderte oder Jahrtausende ihre gesamte zerstörerische Wirkung entfalten, aber sie werden kommen. Für die Konsequenzen unseres Tuns werden wir die Verantwortung übernehmen müssen. Neue Technologien werden uns das nicht abnehmen können.

Wir können die Menschheit zu einer Zivilisation des Typs I machen, ich behaupte sogar, wir müssen es. Wenn man mal analysiert, wie die zunehmende Fähigkeit, Energie zu nutzen die Menschheit verändert hat, dann fällt etwas auf: Als wir in der Steinzeit noch bei einem Wert von 0,1 waren, war die Menschheit in einzelne Gruppen von Hominiden unterteilt, die nomadisch durch Afrika zogen und Probleme unter Einsatz grober Gewalt lösten.

Bei 0,3 begannen die einzelnen Stämme miteinander zu handeln und Aufgaben aufzuteilen, bei 0,5 gründeten die Menschen Staaten, die darauf fokussiert waren, durch Handel mit anderen Staaten eine hohe Lebensqualität auf dem eigenen Territorium zu ermöglichen. Nun, bei etwa 0,7 gibt es bereits weltweite Behörden, Normen und auch Veranstaltungen, neue Technologien werden uns schon bald globalen kabellosen Internetzugang und sehr zuverlässige Übersetzer aller Sprachen der Welt bescheren.

Die Tendenz ist eindeutig: Je höher der Wert auf der Kardaschow-Skala, desto mehr wächst die Menschheit zusammen, desto weniger Gewalt wird eingesetzt (in der Regel zumindest) und desto flacher sind die Hierarchien – Grenzen und Nationalstaaten verlieren an Bedeutung. Denken wir dies in die Zukunft weiter, dann entspricht ein Wert von 1,0 einer gänzlich globalisierten Welt, in der das gesamte menschliche Wissen digitalisiert und für jeden Menschen jederzeit abrufbar ist.

Auf dieser Entwicklungsstufe hätte die Menschheit endlich zu einer globalen Kultur zusammengefunden, alle Staaten der Welt wären Demokratien und ein grenzenloser und regulierter Handel über den gesamten Planeten wäre möglich – Kriege werden in einer solchen Welt viel schwieriger zu rechtfertigen sein, alle Menschen könnten wahrhaft gleich sein.

Diese Welt könnte bereits Realität sein, gäbe es nicht die Autokraten und Lobbyisten, die lieber zum Typ 0,3 zurückkehren würden als Häuptlinge noch Stämme anführten und das Recht des Stärkeren galt – es sind nicht neue Technologien, die es für diese Welt braucht, es waren nie neue Technologien. Es war und es ist der Wille und dieser Wille ist aktuell einfach noch nicht da.

Zeit lassen sollten wir uns jedoch nicht, neun der 16 Kipppunkte sind bereits überschritten. Wir leben wahrlich in einer interessanten Zeit: Entweder wir werden in den nächsten Jahrzehnten zu einer Zivilisation des Typs I – oder wir werden es niemals… Dann wird alles, was wir an unserer Welt kennen und lieben, nicht mehr sein.

Show More

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert