„Wenn das IFR-Projekt erfolgreich zuende geführt wurde, warum haben wir dann noch keine weltweite IFR-Energieversorgung?“
„Weil die Clinton-Regierung mit John Kerry vorneweg es als unpopuläres Projekt ansah und deshalb stoppte.“
Wir sind von der Entwicklung der Personalcomputer her mit raschem technologischem Fortschritt „verwöhnt“. Wir wissen, dass wenn wir einen Computer kaufen mit Sicherheit einige Jahre später ein leistungsstärkeres Modell verfügbar sein wird.
In anderen Bereichen der Technik dagegen scheint die Entwicklung oft über längere Zeiträume zu stagnieren. Düsenflugzeuge sind zwar leiser und sparsamer (und größer) geworden, aber das Prinzip hat sich seit den 1950ern nicht wesentlich geändert. Raketentriebwerke arbeiten heutzutage nicht wesentlich anders als zu Beginn des Raumfahrtzeitalters, und seit Ende des Apolloprojektes haben Menschen keine Expeditionen mehr über den erdnahen Weltraum hinaus unternommen. Bei Eisenbahnzügen war die letzte große Innovation die Einführung der E-Lok, ansonsten wurde nicht viel verändert, obwohl Magnetschwebebahnen als leistungsfähigere Alternative zur Verfügung stehen.
Man sollte sich die Frage stellen, weshalb sich die Technologie manchmal schnell, manchmal langsam entwickelt, und wieso manche Innovationen sich rasch durchsetzen, andere dagegen quasi in Winterschlaf zu verfallen scheinen, bis jemand sie hervorholt.
Die moderne Technologie und Wissenschaft hat ihren Ursprung in der Industrialisierung zu Beginn des 19. Jahrhunderts, die wiederum aus den wissenschaftlichen und philosophischen Vorarbeiten zur Zeit der Renaissance und Aufklärung resultierte. Wieso entwickelten die alten Römer oder Griechen noch keine Dampfmaschine? Sie kannten die benötigten Grundkonzepte – auf Dampfexpansion beruhende Tempeltüröffner und den Heronsball (eine Vorform der Dampfturbine) gab es damals bereits. Warum mussten die römischen Legionäre dann zu Fuß, zu Pferd oder auf Schiffen in die Schlacht transportiert werden, anstatt wie die preußischen Soldaten im Krieg gegen Frankreich mit der Eisenbahn anzureisen? Viele beantworten diese Frage mit einem einzigen Wort: Sklaverei. Die Römer hatten Maschinen, Roboter: nämlich menschliche Sklaven. Wenn man über Tausende von besiegten Galliern, Germanen, Karthagern etc. gebietet, kommt man nicht auf den Gedanken, Maschinen zu erfinden, da die unterworfene menschliche Muskelkraft keinen Bedarf an zischenden Dampfzylindern aufkommen lässt.
Ich vermute jedoch, dass es noch einen anderen wichtigen Grund gab. Die antiken Europäer hatten keine moderne Mathematik – noch nicht mal ein „ordentliches“ Zahlensystem mit Ziffern, Stellen und insbesondere einer Null: diese wurde erst im Mittelalter in Indien erfunden – ganz zu schweigen von Vektoren, Koordinatensystemen, dem Funktionsbegriff, Analysis, Differentialgleichungen. Die antike Mathematik beruhte im wesentlichen auf darstellender Geometrie. Erst in der frühen Neuzeit entwickelten Gelehrte wie Newton, Leibniz und Descartes die mathematischen Werkzeuge, die das A und O für eine systematische, theoretisch untermauerte Naturwissenschaft sind. Und ohne diese ist fortschrittliche Technologie unmöglich. Es wäre hoffnungslos, eine leistungsfähige Dampfmaschine ohne Analysis entwickeln zu wollen. Versuch und Irrtum können zuweilen überraschend fähige Gehilfen sein, aber um in Forschung und Entwicklung wirklich zielgerichtet vorzugehen, sind Kenntnisse der zugrundeliegenden Theorie unverzichtbar.
Natürlich sind die tatsächlichen Mechanismen, die bestimmen, was wann von welcher Kultur entwickelt wird, viel komplizierter. Philosophische, soziale und insbesondere auch politische Faktoren spielen hinein, hier möchte ich nur einige Grundgedanken anreißen.
Nachdem die theoretischen Grundlagen geschaffen waren, konnten Wissenschaft und Technologie im 18. Jahrhundert „abheben“ – ein sich selbst beschleunigender Innovationsprozess setzte ein, und im Ganzen betrachtet sausen wir seitdem in rasanter Fahrt dahin. Aber es gibt auch Plateaus, Stagnationen und manchmal Rückentwicklungen wie die Abschaffung der Shuttles zugunsten der einfacheren Dragon-Raumkapsel.
Technische Innovationen kommen dann zustande, wenn jemand sie bis zur Serienreife entwickelt, und ein Unternehmen oder ggf. ein staatlicher Betrieb die Produktion startet. Soll die Erfindung unter kapitalistischen Bedingungen vermarktet werden, ist es auch erforderlich, dass der Konsument sie annimmt, es einen Markt dafür gibt.
Besonders günstige Bedingungen boten sich im Laufe der vergangenen 200 Jahre meist dann, wenn die Erfindung entweder eine militärische Anwendung hatte – sie also nötig war oder für nötig gehalten wurde, um auf eine reale oder illusorische externe Bedrohung zu reagieren – oder aber sich mit ihr viel Profit generieren ließ. Raketentechnik ist ein Beispiel für die erste, die Dampfmaschine für die zweite Motivation. Oft überwog auch erst das militärische, später das ökonomische Interesse – Kernenergie, Computer, Flugzeuge sowie moderne Metallurgie und (teilweise) Synthesechemie wurden beispielsweise zunächst für kriegerische Zwecke entwickelt, später aber friedlich eingesetzt.
Eine faszinierende Parallele zwischen Computern und Kernreaktoren besteht darin, dass sich beide Technologiezweige in vier Generationen unterteilen lassen. Ich möchte anhand der Geschichte der beiden Technologien aufzeigen, wie es zu unterschiedlichen Fortentwicklungsgeschwindigkeiten kommen kann.
Generation I – Proof of Principle
Die erste Frage, die bei jeder neuen Technologie beantwortet werden muss, ist, ob sie auch außerhalb des Forschungslabors sinnvoll eingesetzt werden kann, ob sie quasi „realitätstauglich“ ist. Dies leisteten im Falle der Kerntechnik Kernkraftwerke der ersten Generation – die ersten Leistungsreaktoren, die Strom ins Netz einspeisten: Shippingport (1957 – 1982, Pennsylvania), Dresden-I (1960 – 1978, Illinois), Calder Hall-1 (1956 – 2003, Großbritannien). Zu diesen Systemen gehört der britische gasgekühlte Magnox-Reaktor. Ein einzelnes Kraftwerk der I. Generation ist noch heute in Betrieb: Wylfa Nuclear Power Station in Wales.
Im Reich der Computer lag es bei der Elektronenröhre, den Proof of Principle zu liefern. Röhrenrechner wie der ENIAC waren riesig, langsam und sehr fehleranfällig. Die Röhren mussten überdies ständig gekühlt werden. Wenn es auch diesen Computern gelang, zu zeigen, dass Digitalrechner nützliche Gesellen waren die viele verschiedene Probleme zu lösen vermochten, war schon gegen Ende der 1950er Jahre klar, dass eine neue Schaltungstechnik her musste, damit die Maschinen ihr Potential entfalten konnten.
Generation II – Kommerzielle Verbreitung
Eine Universität, ein Forschungsinstitut oder ein Industriebetrieb benötigen robuste, zuverlässige Technologie die nicht auf tagtäglicher Basis gewartet oder repariert werden muss. Den Durchbruch in der Computertechnik schaffte der Transistor. Mit ihm anstelle von Röhren ließen sich kleinere, zuverlässigere Rechner mit viel weniger Abwärme herstellen. Für diese Maschinen wurden auch die ersten Programmiersprachen entwickelt, die den kryptischen Maschinencode verdrängten: Assembler, aber auch schon höher aggregierte Sprachen wie COBOL oder FORTRAN. Dateneingabe erfolgte immer noch mittels Lochkarten oder Lochstreifen, die Ausgabe via Drucker.
Die ersten Rechner dieser Art wurden Ende der 50er Jahre für die Kernenergie-Industrie entwickelt! Diese begann wenige Jahre später sich auf die beiden Reaktordesigns festzulegen, die heute die kommerzielle Stromerzeugung weltweit dominieren: Druck- und Siedewasserreaktor. Die meisten heutigen Kernkraftwerke enthalten Reaktoren der II. Generation – wassergekühlte (d.h. thermische) Reaktoren, die meistens mit leicht angereichertem Uran arbeiten und nur einen sehr geringen Anteil (ca. 0.7%) der Ressource nutzbar machen. Sie haben verschiedene Vor- und Nachteile – bei verantwortungsvollem Betrieb erzeugen sie viel klimaneutrale Energie aus trotz niedriger Ressourceneffizienz sehr kleinen Substanzmengen (insgesamt 100 – 200 t Uran pro Jahr) und verursachen sehr geringe Schäden an Mensch und Natur pro freigesetzter Energiemenge. Die Hauptnachteile sind die Unfähigkeit sich selbsttätig zu kühlen – was in Fukushima Daiichi in Kombination mit fehlenden Wasserstoffrekombinatoren, ungenügendem Wellenbrecher und im Untergeschoss platziertem Dieselaggregat unangenehme Folgen hatte – sowie die extrem geringe Nutzung der Gesamturanmasse und das nicht vollständig mögliche Recycling der Aktiniden im thermischen Neutronenspektrum, wodurch langlebige radioaktive Abfallstoffe entstehen.
Generation III
Die ersten beiden Generation von Computern und Kernreaktoren ließen sich unter gemeinsamer Überschrift erklären: Proof of Principle, und anschließend Kommerzialisierung. Ab der dritten Generation jedoch laufen die beiden Historien auseinander: Computer erreichen Mitte der Sechzigerjahre die nächste Evolutionsstufe – den integrierten Schaltkreis – bei Kernreaktoren finden zwar Verbesserungen statt, eine komplett neue Technik wird aber nicht implementiert. Im Laufe der 1990er wurden verschiedene verbesserte Leichtwasserreaktoren entwickelt und zertifiziert, die sich von der II. Generation durch höhere Wirtschaftlichkeit mittels modularer Bauweise, höhere thermische Effizienz und gesteigerte Sicherheit unterschieden – darunter der ABWR (Advanced Boiling Water Reactor) und der AP600. Bislang sind weltweit vier Reaktoren der dritten Generation im kommerziellen Einsatz. Nochmals leicht verbesserte Abkömmlinge der dritten Generation – Generation III+ – werden gerade bzw. wurden kürzlich zertifiziert, zum Beispiel der AP1000 (quasi ein AP600 mit höherer Leistung). Diese Systeme stellen, insbesondere wegen der implementierten passiven Kühlung, zweifellos eine Verbesserung gegenüber der veraltenden zweiten Generation dar, aber es sind eben immer noch Leichtwasserreaktoren mit geringer Ressourcennutzung, hohem Innendruck und langlebigen Abfällen und kein völlig neues, grundverbessertes System!
Die Möglichkeit, miniaturisierte Schaltelemente auf einen Siliziumchip aufzubringen, machte Computer kleiner, schneller, robuster und nicht zuletzt auch viel billiger. Ein- und Ausgabe erfolgten nun über Tastatur und Monitor, was die Bedienung stark vereinfachte. Der größte Fortschritt aber erfolgte, als man Anfang der 1970er darauf kam, viele unterschiedliche Funktionen auf einem einzigen Chip zusammenzufassen…
Generation IV
…was das Zeitalter der Mikroprozessoren einläutete, und zu den winzigen Leistungsboliden von Computern führte, die heute in fast jeder Wohnung der industrialisierten Welt anzutreffen sind.
In den 1980ern gab es viele verschiedene Heimcomputer-Typen, die nicht miteinander kompatibel waren: IBM-PCs, Apples, Atari-ST-Rechner, Commodore, Schneider-Computer etc. Mit diesen Maschinen wuchs die erste Generation der Nerds auf (obwohl ich mich nicht so sehr als Nerd ansehe, habe ich wunderbare Erinnerungen an meinen geliebten Atari 1040STF). Die Rechenleistung der Chips verdoppelte sich nach Moore’s Exponentialgesetz ca. alle 2 Jahre. Dieser Zuwachs hält bis heute an, und wird vermutlich erst dann enden, wenn die Chips an prinzipielle physikalische Grenzen stoßen, d.h. wenn die Schaltelemente die Größe von Molekülen erreicht haben und daher nicht mehr weiter schrumpfen können. Danach werden Wissenschaftler und Ingenieure sich etwas völlig neuartiges einfallen lassen müssen, um die V. Computergeneration an den Start zu bringen: Nanorechner, die auf dreidimensionalen Datenkristallen aus Molekularschaltungen beruhen, Quantenrechner, biologische Systeme oder ein noch zu entdeckendes futuristisches Konzept.
Während Chips immer schneller, Speichermedien immer fassungsmächtiger und Computergrafiken immer lebensechter wurden, drängten zwei Hauptmodelle, der IBM-kompatible und der Apple-PC, fast alle Konkurrenten aus dem Feld – nur Amiga vermochte bis Anfang der 2000er Jahre eine gewisse Nischenexistenz zu behaupten. Die Festlegung auf einige wenige Standardsysteme erleichterte vermutlich auch die weltweite Zusammenschaltung von Millionen von Computern zum Internet, wodurch das eigentliche Digitale Zeitalter anbrechen konnte.
Dokumentation
- The Computer Generations
- Gen IV Forum: Evolution of Nuclear Power (Grafik)
- Goldberg, Rosner (2011): Nuclear Reactors: Generation to Generation
Aber wo sind die Kernkraftwerke für das Digitale Zeitalter? Von der Clinton-Regierung in eine Schublade gesperrt: Obwohl das IFR-Projekt auf der ganzen Linie erfolgreich war, wollte die Führungsriege der Democrats nichts davon wissen.
Manche, die zum ersten Mal von der Geschichte des Projektes hören, finden es unglaublich, dass Politiker leichtfertig auf eine Energiequelle verzichten, die in puncto Sicherheit, Effizienz und vermutlich auch Wirtschaftlichkeit für einen weltweit flächendeckenden Einsatz geeignet wäre und uns vom Öl unabhängig machen könnte. Warum tat John Kerry etwas derart Dummes?
Wer den momentanen US-Präsidentschaftswahlkampf aufmerksam verfolgt, wird eine interessante Beobachtung machen: Weder Obama noch Romney streifen dabei je das Thema Kernkraft. Energiepolitik wird durchaus erwähnt, aber die Kandidaten scheinen nur Fossile Energiequellen und Erneuerbare zu kennen. Kernkraftwerke werden geflissentlich übersehen.
Kernkraft ist in der westlichen Welt zu einem sehr empfindlichen Reizthema geworden – ganz besonders in Deutschland, aber in geringerem Maße auch in anderen Ländern. Politiker scheuen Themen, die aufgrund von Kontroversität zu einem starken Stimmenverlust führen könnten. Doch ist dies der einzige Grund für das knapp verfrühte Ende des Projektes? Man denke an andere Technologiezweige: Wieso waren wir nach Apollo nicht mehr auf dem Mond – und noch nicht auf dem Mars? Warum fahren wir noch mit Rädereisenbahnen und nicht mit den schnelleren, effizienteren Maglevs?
„Lässt sich damit Geld verdienen? Ist es gegen Feind XY einsetzbar?“ flüstert der adamsmith’sche Dämon, der die Schleuse zwischen dem Raum der Ideen und dem Raum der umgesetzten Ideen bedient.
Sowohl bei Computern wie bei Raumfahrzeugen wie auch Kernreaktoren war die ursprüngliche Motivation ihrer Entwicklung, dass die zweite Frage im 2. Weltkrieg und dem danach beginnenden Kalten Krieg mit „ja“ beantwortet wurde. Später, als die drei Technologien in den Bereich friedlicher Anwendungen vorgedrungen waren (und der Konflikt zwischen Ost und West sich dem Ende zuneigte), wurde die erste Frage des Dämons relevant. Nun begann die Computertechnik auf einer wunderbaren Welle zu surfen, die bei den beiden anderen Technikbereichen nicht zum Tragen kam. Personalcomputer erwiesen sich als Verkaufsrenner – und die Kunden verlangten nach immer leistungsstärkeren Maschinen, die die Industrie durch stetige Verbesserung der Technik zu liefern vermochte. Die Betonung liegt auf stetig: Rechengeschwindigkeit und Speicherplatz sind (beinahe) kontinuierliche Größen, die durch Verkleinerung der Schaltelemente im Laufe der Zeit exponentiell hochgefahren werden konnten. Das Besondere an der Computerevolution ist ja, dass sie zwar einerseits in vier diskrete Technologiestufen unterteilbar ist, innerhalb jeder dieser Stufen – und insbesondere innerhalb der modernsten vierten – aber stetige Verbesserung möglich war und immer noch ist. Zusammen mit dem Appetit der Kunden auf immer bessere Hardware – wobei die Forderung von Gamern nach fotorealistischer Grafik eine nicht zu vernachlässigende Rolle spielte – entstand so eine Positivrückkopplung, die die Technologieentwicklung kräftig vorwärts trieb und es ermöglichte, dass Moore’s Gesetz immer noch Gültigkeit hat.
Bei Kernreaktoren dagegen stellen die Stufen Plateaus dar – die Entwicklung verläuft eher diskret und nicht stetig. Auch fehlt hier die Positivrückkopplung zwischen Kunde und industrieller Forschung: den allermeisten ist es ja ziemlich egal, wie der Strom erzeugt wird, solange er aus der Steckdose kommt und erschwinglich ist. Ferner sind hochwertige Uranerze in großem Umfang vorhanden, so dass kaum ökonomischer Druck bezüglich der Entwicklung fortgeschrittener Brennstoffzyklen (i.e. Brüter mit vollständigem Aktinidenrecycling) ausgeübt wird. Uran ist billig. Fossile Brennstoffe sind noch viel billiger und mit einfacher, robuster Technologie nutzbar. Wen wundert es da noch, dass weltweit nach wie vor ein Großteil der Elektrizität und fast der komplette sonstige Energiebedarf aus Kohle, Gas und Öl gespeist wird?
Militärischer Bedarf an Reaktoren der IV. Generation existiert auch nicht, da IFR und LFTR prinzipbedingt nicht zur Erzeugung von waffenfähigem Material geeignet sind – abgesehen davon dass heutzutage ohnehin eher spezialisierte militärische Reaktoren dafür eingesetzt werden und keine zivilen Leistungsreaktoren.
Fassen wir unsere Überlegungen soweit zusammen:
- (Westliche) Politiker scheuen vor dem Thema Kernkraft zurück: Es könnte Wählerstimmen kosten!
- Wirtschaftlich existiert keine Notwendigkeit für neue Kraftwerkstypen: Uran ist billig, Kohle billiger.
- Das Militär hat ebenfalls keinen Bedarf.
Jetzt erscheint es nicht mehr so erstaunlich, dass der IFR noch nicht weltweit eingesetzt wird!
Bezüglich der Raumfahrt ist die Situation schwerer zu verstehen: Sie begeistert nach wie vor viele Menschen, gerade in den Vereinigten Staaten. Warum hat das Interesse der US-Regierung (genau wie das der meisten anderen Regierungen) daran seit dem Ende des Kalten Krieges stark abgenommen? Einerseits ist natürlich kein Konkurrent mehr vorhanden, dem technische Überlegenheit bewiesen werden muss. Andererseits dauern umfassende Raumfahrtvorhaben – z. B. eine bemannte Marsexpedition – mehrere Legislaturperioden und reichen damit vermutlich über den geistigen Zeithorizont der meisten Politiker hinaus. Nichtsdestotrotz ist es meines Erachtens nach erbärmlich, und sollte den meisten Amerikanern peinlich sein, dass das James Webb Space Telescope vor Kürzungen gerettet werden musste, während 3000 Milliarden Dollar vom Irakkrieg verschlungen wurden. Leider leben wir in einer historischen Phase, in der Finanzkrisen und militärische Konflikte fast die gesamte Aufmerksamkeit auf sich lenken, und die Menschen sich eher vor der Zukunft fürchten als sie in Angriff zu nehmen. Selbstverständlich hoffe ich, dass sich dies noch zu meiner Lebenszeit ändert. Diesbezüglich kann man, denke ich, vorsichtigen Optimismus walten lassen: Es zeichnet sich ab, dass allmählich wieder mehr Menschen an technologischen Fortschritt und eine Entwicklung zum Besseren glauben.
Natürlich ist es mit „glauben“ oder „wünschen“ nicht getan – Fortschritte müssen aktiv in die Wege geleitet und erarbeitet werden. Da auf die Politiker zur Zeit nicht viel Verlass zu sein scheint, schlagen viele vor, die Privatwirtschaft solle wichtige Zukunftsprojekte in Angriff nehmen. Im Bereich der Raumfahrt wurden hier bereits einige Erfolge erzielt. Die von Elon Musks Firma SpaceX gebaute Dragon-Raumkapsel wurde dieses Jahr erfolgreich für den Frachttransport zur ISS eingesetzt, und Richard Bransons Weltraumflugzeug SpaceShipOne unternahm schon 2004 mehrere bemannte parabolische Weltraumhüpfer. Auch die Dragon soll später in der Lage sein, Astronauten zu transportieren.
Es bleibt abzusehen, wie erfolgreich das Konzept der privat organisierten Weltraumfahrt ist. Während SpaceShipOne wohl nicht als richtiges Raumschiff angesehen werden kann, sondern eher als technische Kuriosität – es führt schließlich nur winzige Parabelsprünge von knapp über 100 km Höhe durch – ist die Dragon (auf der Rakete Falcon-9) ein vollgültiges orbitales Raumschiff. Allerdings wurde die Firma bei der Entwicklung des Schiffs von der NASA unterstützt, so dass es sich nicht um ein rein privatwirtschaftliches Projekt handelt. Ob es auch ausführlichere private Raummissionen, vielleicht sogar private Mond- und Marsflüge geben wird? Es ist schwer zu sagen. Auf den ersten Blick scheint es schwierig, sich vorzustellen, wie eine Firma damit Geld verdienen könnte. Indem sie steinreiche Touristen mitfliegen lässt? Indem sie technologische Spinoffs vermarktet? Oder etwa gar durch den Verkauf von Senderechten an TV-Firmen? Die fast unendlichen Metallressourcen in Asteroiden könnten für zukünftige Weltraum-Montanunternehmen hochinteressant sein. Aber man bedenke, dass wenn das Sonnensystem erst in großem Stil industrialisiert ist, Rohstoffe im Überfluss zu Verfügung stehen, und somit die Preise ins Bodenlose stürzen. Für die Menschheit ein enormer Segen, aber für ein Privatunternehmen ein Fluch. Wird der Kapitalismus sich auf diese Weise selbst obsolet machen? Oder werden die Unternehmen versuchen, künstlich Knappheit zu erzeugen, zum Beispiel durch Vereinbarungen, wieviel pro Jahr abgebaut werden darf? Die Zukunft wird spannend!
Damit energieaufwändige Industrien wie die Raumfahrt in größerem Umfang betrieben werden können, sind leistungsstarke Energiequellen unerlässlich. Können auch diese von der Privatwirtschaft bereitgestellt werden? Maschinenbau-Gigant GE Hitachi hat sich vorgenommen, dort weiterzumachen, wo das ANL aufhören musste: Möglicherweise lässt Großbritannien sich in den kommenden Jahren einen S-PRISM-Reaktor liefern, um die angesammelten Plutoniumvorräte zu entsorgen. Der S-PRISM beruht vom Design her auf dem IFR-Konzept (Metallkern, Poolkühlung). Das Nachfolgemodell soll auch über eine Pyroprozessanlage verfügen, so dass der Brennstoffzyklus geschlossen werden kann.
Aber nicht nur die Industriegiganten haben Interesse an Kerntechnik. Kleinere Startups wie Bill Gates‘ TerraPower oder Kirk Sorensens FlibeEnergy möchten alternative Reaktorkonzepte (Laufwellenreaktor bzw. Flüssigsalzreaktor) entwickeln und vermarkten. Man darf gespannt sein, ob es ihnen gelingt, sich gegen die etablierten, großen Energiefirmen durchzusetzen. Voraussetzung dafür ist, dass sich trotz niedriger Uranpreise und billigem Kohlestrom ein Markt für fortgeschrittene Kernreaktoren finden lässt. Manche vermuten, dass LFTR-Energie noch billiger als Kohle sein könnte! Dann würden diese Systeme sich „ganz von allein“, auf kapitalistischem Wege, durchsetzen, auch ohne staatliche Kontrolle.
Eine andere Motivation könnte die Bestrebung sein, die angesammelten Reaktorabfälle aus Leichtwasserreaktoren zu recyceln, da Einlagerung über Jahrhunderttausende nicht wirklich eine gute Option ist! Die Bürger müssen sich klarmachen, dass die einzige praktikable Alternative hierzu darin besteht, die Aktiniden in schnellen Reaktoren zu zerstören. Sobald sich dieser Gedanke verbreitet hat, könnte das erste Unternehmen, das einen Transmutationsreaktor zu liefern vermag, durch weltweite Vermarktung der Maschinen riesigen Profit machen und zu einem beachtlichen Wirtschaftsspieler werden.
Ich bin kein Kommunist – ich denke, dass Privatwirtschaft ihren Platz in der modernen Gesellschaft hat, und kleine Newcomer wie FlibeEnergy haben nicht nur den Charme des „David gegen Goliath“, sondern vor allem auch viel Innovationspotential und sollten meiner Meinung nach daher unbedingt unterstützt werden. Aber ich bin auch der Ansicht, dass derartig wichtige zivilisatorische Aufgabenbereiche wie Energieversorgung und Klimaschutz nicht rein marktwirtschaftlich in Angriff genommen werden dürfen. Wenn es um das Wohl aller Menschen geht, darf der Profit eines einzelnen Unternehmens nicht im Vordergrund stehen.
Es ist klar: Damit eine energiereiche Zukunft mit flächendeckendem Einsatz von Kernkraftwerken der IV. Generation gestartet werden kann, müssen die demokratisch gewählten Regierungen und daher die Bürger dieses Projekt mehrheitlich unterstützen. Das ist nötig, um die beiden politischen Haupthindernisse, die den IFR in den 1990ern ausbremsten, beiseite zu räumen: Berührungsängste der Politiker und mangelnden ökonomischen Impetus. Ersteres ergibt sich ganz zwanglos, wenn die Mehrheit der Bevölkerung in einem demokratischen Staat neue Kernkraftwerke einfordert. Letzteres ist eine komplexere Frage. Falls sich Kernkraft der IV. Generation in der Tat als billiger als Kohle erweist, dann geschieht die Umstellung unter marktwirtschaftlichen Bedingungen von selbst. Die Einführung einer Carbon Tax kann zusätzlich dazu beitragen, fossile Energieträger zurückzudrängen, indem sie unprofitabel werden. Ich persönlich würde es jedoch vorziehen – wie bereits angedeutet – die Energieversorgung nicht primär kapitalistisch zu organisieren, sondern sie in irgendeiner Form unter demokratische Kontrolle zu stellen, ohne Profitmotiv. Hierzu wäre in den meisten westlichen Ländern natürlich ein beträchtlicher politisch-ökonomischer Umbau vonnöten.
Wie genau der Einstieg ins postfossile Zeitalter erfolgen wird, ist eine offene Frage an die Zukunft. Eines ist jedoch sicher: Wenn die Menschen ihn wirklich wollen, können sie ihn auch möglich machen. An der Technik liegt’s nicht – die wurde am EBR-II ausführlich getestet – sondern eben an Politik und Wirtschaft. Und die lassen sich verändern.
Siehe auch:
Tom Blees: Prescription for the Planet, p. 343, Chapter Twelve – Political Quicksand
(Komplettes Buch zum freien Download – großes File, eventuell lange Ladezeit)
5 Antworten
Habe den Artikel mit Interesse gelesen, bis ich an diese Textstelle kam:
„Die fast unendlichen Metallressourcen in Asteroiden könnten für zukünftige Weltraum-Montanunternehmen hochinteressant sein. Aber man bedenke, dass wenn das Sonnensystem erst in großem Stil industrialisiert ist, Rohstoffe im Überfluss zu Verfügung stehen, und somit die Preise ins Bodenlose stürzen.“
Ich kann nicht glauben, dass jemand, der offensichtlich so viel physikalische Ahnung hat wie Du, nicht den Unterschied zwischen theoretisch (vielleicht) Möglichem und mit vertretbarem technischen, finanziellen und energetischem Aufwand praktisch Sinnvollem erkennt. Ich glaube, Du hast wirklich zu viele Science-Fiction-Filme gesehen.
Eine Harddisk anno 1956. Speicherkapazität 5 MB.
Mehrere GB im Hosentaschenformat abspeichern? HAHAHAHAHAHAHA, reine Science Fiction!
Irgendjemand müßte ja erstmal anfangen mit der Industrialisierung des Sonnensystems.
Und da gibt es das Henne-Ei-Problem: der Bergbau auf Asteroiden wird erst dann günstiger als der auf der Erde, wenn die Kunden, die das Metall zu Satelliten und Raumsonden weiterverarbeiten, auch im Weltraum sitzen.
Interessanter Artikel, der zumindest einige Zusammenhänge meiner Frage aus Laiensicht beantwortet, warum weiter Kernkraftwerke gebaut werden, die auf veralteter Technologie beruhen und gegen die es meines Erachtens gute Gründe gibt. Und eben keine besseren, im Sinne von „sicherer“ (auch ohne Eingriffe im Störfall in jedem Fall abschaltend, nahezu drucklos, Selbsteinschluß von radioaktiven Partikeln bei Leckagen) , „umweltfreundlicher“ (andere Art bzw. Steuerbarkeit von resultierenden Isotopen und vor allem eine tatsächlich emmisionsfreie bzw. wegfallende „Wiederaufbereitung“) und für weit mehr als Stromerzeugung (Stichtwort Kraftstoffsynthetisierung) nützlich wären.
Platt ausgedrückt: Solange etwas funktioniert ist eine Innovation, insbesondere wenn diese zunächst hohe Investitionen erfordert, nicht zwingend eforderlich. Selbst wenn sie objektiv um mindestens eine Zehnerpotenz effektiver ist.
Die Ausführungen in diesem und im Artikel zu Reaktoren in der Weltraumforschung sind gute Beispiele, dass Aufrüstung und Krieg auch positive Nebenaspekte haben kann. Aber eben in den allermeisten Fällen nur soweit es auch das effektivere Töten von Menschen voranbringt.
Warum sind „wir“ nicht auch ohne militärischen „Fortschritt“ oder als Nebeneffekt zur Waffenerzeugung in der Lage einen Prototypen zu bauen und in der Realität zu zeigen, dass er funktioniert? Denn für die „Öffentlichkeit“ macht es einen Riesenunterschied, ob etwas als Computersimulation funktioniert oder auch in der Realität.
Meinetwegen in unbewohntem Gebiet in einem Staat, der Kernenergie positiv gegenübersteht, um selbst den größten Skeptikern genüge zu tun.
Wenn ich die Prinzipien richtig verstanden habe hätte ich persönlich aber auch nichts dagegen, den Prototypen neben den 20 KM entfernten noch in Betrieb befindlichen Druckwasserreaktor zu stellen. Der macht mir noch größere Sorgen.
Vielleicht braucht es einen „Verrückten“, der den IFR erfolgreich als militärische Forschungsinvestion „verkauft“? Deutschland soll ja für seine NATO-„Verpflichtungen“ seine Rüstungsausgaben drastisch steigern.
Ich versuche übrigens gerade nicht witzig zu sein, sondern bin eher wütend.
Zwar kein IFR, aber immerhin ein natriumgekühlter Schneller Reaktor ist der BN-800, der seit wenigen Jahren im russischen Kernkraftwerk Beloyarsk läuft. Mehr dazu: »Strom aus Atommüll: Schneller Reaktor BN-800 im kommerziellen Leistungsbetrieb«.
Was die Sicherheit angeht: Selbst bei einem auslegungsüberschreitenden Unfall (vulgo »Super-GAU«) würden die radiologischen Freisetzungen eine Strahlendosis von lediglich maximal 23 mSv pro Jahr in 3 km Entfernung bewirken. Da der Grenzwert für eine Evakuierung der Bevölkerung außerhalb der 3-km-Zone bei 500 mSv pro Jahr liegt, hat man für den nahegelegenen Ort Saretschny gar keinen Evakuierungsplan aufgestellt. Er ist schlichtweg unnötig.