Suche

Die Entropiewende – #JedenTagEinAntrag #PA260

Auf Jan Kastners Blog las ich gestern abend von der von @schwarzblond initiierten Aktion #JedenTagEinAntrag, im Rahmen derer die Anträge für den baldigen Bundesparteitag der Piratenpartei auf verschiedenen Blogs diskutiert werden sollen.

Ich entschloss mich, den Antrag PA260 zu besprechen, denn dieser hatte meine Aufmerksamkeit erregt.


Als Punkt in einem Parteiprogramm eigentlich völlig unmöglich – der enthusiastische, fast schon ekstatische Tonfall, die kindlich anmutenden Formulierungen, das wilde Durcheinandermischen von sozialen Konzepten wie dem Grundeinkommen, futuristischen Spekulationen und persönlichen Ansichten sowie die teilweise mangelhafte Semantik disqualifizieren ihn in dieser Hinsicht – geht von ihm dennoch die „Faszination der Begeisterung“ aus: der Antragsteller Steffen Hannemann ist so hin und weg von seinen eigenen Ideen – was sich unter anderem in Ausrufezeichengewittern entläd – dass man sich schwer tut, nicht selbst auch ein wenig hin und weg zu sein.

Worum geht es? Der Antrag empfielt die riesigen Summen, die bisher typischerweise in Bankenrettungen flossen, in die naturwissenschaftliche und technologische Forschung zu investieren, um eine futuristische Welt zu schaffen, in der Roboter alle unkreativen Arbeiten übernehmen, jeder Bürger durch ein BGE unterstützt wird, und Armut und Knappheit weltweit abgeschafft sind. Energetisch gespeist werden solle dieses technologisch-soziale System aus erneuerbaren Energiequellen, da diese, so Steffen Hannemann, billig und in riesiger Menge vorhanden seien. Hier kann unsere Untersuchung seiner Vorschläge ansetzen.

„Mit billiger Energie im Überfluss kann man alles herstellen, selbst Lebensmittel für 15 Milliarden Menschen im Überfluss!“

Stimmt… fast!

Was geschieht denn eigentlich, wenn nützliche Produkte hergestellt werden?

Eine Portion unstrukturierter Materie wird in ein hochstrukturiertes System umgewandelt – beispielsweise bei der Produktion eines Computers. Computer bestehen aus Silizium, Metallen, Halbmetallen und Kunststoff, wobei letzterer wiederum aus Kohlenwasserstoffen, meist Erdöl, gewonnen wird. Eine Menge des ursprünglichen Rohstoffs ist nicht geordnet: Ein Haufen Sand in der Wüste enthält kaum Information, keine Struktur. Nimmt man ein Sandkorn und platziert es woanders im Haufen, ist es immer noch ein völlig identischer Sandhaufen, an dem sich äußerlich nichts geändert hat.

Bei der Computerherstellung wird sehr viel Struktur in den Rohstoff eingebracht. Aus dem im Sand enthaltenen Silizium, verschiedenen Metallen, Halbmetallen und Kohlenwasserstoffen werden Chips, elektronische Bausteine, die Hauptplatine und endlich der gesamte Computer gefertigt. Dabei müssen mikroskopische Strukturen mit äußerster Präzision platziert werden. Bei elektronischen Chips ist es, im Gegensatz zu einer Sandportion, bezüglich des makroskopisch sichtbaren Verhaltens nicht mehr egal, wo welches kleine Teilchen sitzt. Eine geringfügige Änderung der Anordnung der Schaltelemente würde zu falschen Rechenergebnissen oder wahrscheinlicher zu einem völligen Zusammenbruch der Funktionen führen. Damit ein Chip ordnungsgemäß arbeitet, ist es wichtig, dass alle Materiekomponenten, aus denen er aufgebaut ist, am richtigen Ort sind – bei einem Eimer voll Sand ist das egal, obwohl er überwiegend aus der gleichen Atomsorte besteht (Silizium).

Die Güterproduktion auf der Erde wurde in den vergangenen 200 Jahren zweimal komplett umgekrempelt: Zunächst durch die Einführung der Dampfmaschine zu Beginn des 19. Jahrhunderts, dann durch die Digitale Revolution, die Entwicklung von Computern und Robotern in der zweiten Hälfte des 20. Jahrhunderts. Beide Revolutionen haben die Wertschöpfungskraft des einzelnen Arbeiters in fast unvorstellbarem Maß gesteigert – faszinierend daran ist aber insbesondere, dass die beiden Innovationen, Dampfmaschine und Computer, auf tieferer Ebene physikalisch-mathematisch verknüpft sind, dass zwischen Informationsgehalt/Strukturierung eines Systems und der Erzeugung von mechanischer Arbeit aus Wärmeenergie ein intimer Zusammenhang existiert!

Sadi Carnot

Anfang des 19. Jahrhunderts stellte der junge französische Ingenieur Sadi Carnot sich die Frage, wie sehr man die Leistung einer der neuen Dampfmaschinen eigentlich steigern könne? Wenn man ein Wärmeenergiereservoir – etwa einen Dampfkessel – anzapfe, gäbe es dann irgendeine Obergrenze für die aus einer bestimmten Menge Wärmeenergie gewinnbare mechanische Arbeit (etwa Rotation eines Schwungrades)? Oder ließe sich der Wirkungsgrad [math]\eta = W/Q_1[/math], das Verhältnis von geleisteter Arbeit [math]W[/math] zu in die Maschine eingespeister Wärmeenergie [math]Q_1[/math], durch geschickte Wahl von Materialien und Konstruktionskniffen bis auf 100% erhöhen?

Betrachtet man eine Dampfmaschine, oder irgendeinen anderen Motor, dann kann man erkennen, wie Wärme vom heißen Teil der Maschine zum kalten wandert: Von Feuerung und Kessel zum Kondensator, in dem der Dampf wieder verflüssigt und dabei Wärme an die Umgebung abgegeben wird, oder, bei beispielsweise einem Benzinmotor – von den Zylindern, in denen das Treibstoff-Luft-Gemisch explodiert, zu den Kühlrippen und auch hinaus zum Auspuff.

Das kann man schön mit einem Diagramm darstellen:

Wärmeenergie [math]Q_1[/math] geht vom heißen Wärmereservoir mit der Temperatur [math]T_1[/math] hinein in die Maschine, wo sie teils zu nutzbarer mechanischer Arbeit [math]W[/math], teils zu Abwärme [math]Q_2[/math] wird, die an ein Reservoir mit niedrigerer Temperatur [math]T_2 \textless T_1[/math] abgegeben werden muss. Es gilt der Energieerhaltungssatz

[math]!W = Q_1 – Q_2[/math]

den man in diesem Zusammenhang auch den 1. Hauptsatz der Thermodynamik nennt!

Was ist diese Wärmeenergie, von der ich ganz zwanglos spreche, eigentlich genau? Dass ein rotglühendes Stahlstück mehr Energie enthält als ein kaltes ist intuitiv klar, denn es hat ja ausreichend Energie um mir die Hände zu verbrennen. Doch was ist das für eine Energieform, worin besteht sie? Wärmeenergie ist eigentlich Bewegungsenergie, auch genannt kinetische Energie: In jedem Körper vollführen die Teilchen, Moleküle und Atome, zufällig verteilte, völlig ungeordnete, Schwingungen, die mit umso höherer Geschwindigkeit erfolgen, je höher die Temperatur ist. Wärme ist die in den zufälligen Schwingungen enthaltene Bewegungsenergie.

Sadi Carnot wollte also wissen: Was ist die maximale Effizienz, mit der ich ungeordnete, zufällige Bewegungen sehr vieler mikroskopischer Teilchen in die geordnete Bewegung eines makroskopischen Körpers, zum Beispiel Drehung von Rädern, umwandeln kann? (Er selbst formulierte dies freilich noch nicht so, da zu seiner Zeit der moderne Atombegriff und die mikroskopische Theorie der Wärme noch nicht bekannt waren.)

Jetzt sehen wir schon, wo der Zusammenhang zwischen Dampfmaschine und Informationszeitalter versteckt ist: Ein sich drehendes Räderwerk ist ein hochgeordnetes System, ein Kessel voller heißem Dampf ein sehr ungeordnetes. Zwischen ihnen besteht der gleiche Zusammenhang wie zwischen Sandhaufen und Computer.

Die Erschaffung von Ordnung aus Unordnung sehen wir als Charakteristikum menschlichen Schaffens an. Natürlich existiert sie auch in der nicht vernunftbegabten Natur: Bäume wachsen und verwandeln dabei ungeordnete Kohlendioxidmoleküle in geordnete Holzstrukturen, hochgeordnete Kristalle fallen aus Lösungen aus. Dennoch hat die Schaffung von Ordnung etwas „künstliches“ an sich: Von alleine werden Systeme ungeordneter, nicht geordneter. Eine zu Boden fallende Tasse zerspringt – damit die Scherben wieder zur Tasse werden, ist menschliches Eingreifen nötig, von alleine fliegen sie niemals wieder auf den Tisch und setzen sich zur Tasse zusammen. Wärmeenergie breitet sich aus und wird immer diffuser, ein heißes Objekt erwärmt seine Umgebung, bis alle in Kontakt befindlichen Körper die gleiche Temperatur haben. Nie geschieht es, dass ein kaltes Objekt ein warmes erhitzt und dabei selber noch kälter wird! Damit eine Wärmepumpe Wärme aus dem Erdboden entnehmen und mit ihr ein Haus erwärmen kann, muss extern in sie elektrische Energie eingespeist werden, von alleine erwärmt das Haus seine Umgebung und nicht umgekehrt. Ein Dampfkessel alleine wird einfach auskühlen – damit bei der Wanderung der Wärmeenergie vom Dampf zur kühleren Umgebung ein Teil als mechanische Arbeit, d.h. geordnete Bewegungsenergie makroskopischer Körper, abgezweigt werden kann, ist eine raffiniert konstruierte Maschine nötig.

Prozesse, die von alleine in nur eine bestimmte Richtung laufen – heißes Objekt erwärmt kältere Umgebung, Tasse zerbricht – nennt man irreversibel (unumkehrbar). Umkehrbare Prozesse dagegen heißen entsprechend reversibel – z. B. ein völlig reibungsfrei schwingendes Pendel, das keinerlei Energieverluste erleidet, exakt in die Anfangsposition zurückkehrt und ohne äußeren Antrieb unendlich lange immer weiter die gleiche Bahn durchläuft. In der Realität gibt es offensichtlich keine reversiblen Prozesse, da bei makroskopischen Vorgängen stets Reibungsverluste auftreten – allerdings kommen manche Vorgänge der Reversibilität äußerst nahe, beispielsweise der Umlauf der Planeten um die Sonne, da im Hochvakuum des Weltraums die Reibung extrem gering ist.

Damit eine Maschine den größtmöglichen Wirkungsgrad erreicht, schlussfolgerte Sadi Carnot, muss sie reibunsgfrei laufen, also eine reversible Maschine sein. Dazu ist es nötig, dass in ihr nur Körper in Kontakt gebracht werden, deren Temperatur sich allenfalls um einen infinitesimal kleinen Betrag unterscheidet, denn Wärmeaustausch zwischen Objekten mit endlichem Temperaturunterschied ist ja stets irreversibel (Wärme strömt vom wärmeren zum kälteren und nicht rückwärts). Die zu Carnots Zeiten üblichen Dampfmaschinen beruhten darauf, dass heißer Dampf sich in Zylindern ausdehnte und dadurch Kolben bewegte. Carnot idealisierte diesen Vorgang gedanklich, um eine reversible Maschine mit maximalem Wirkungsgrad als theoretischen Grenzfall zu erhalten. Die Carnot-Maschine nimmt zuerst Wärme bei der höheren Temperatur [math]T_1[/math] auf, indem ein Zylinder, der mit einem Arbeitsgas gefüllt ist, das vorher ebenfalls auf die Temperatur [math]T_1[/math] gebracht wurde, mit dem oberen Wärmereservoir in Kontakt gebracht wird. Durch geringfügige Absenkung des Umgebungsdrucks wird der Kolben des Zylinders dazu gebracht, sich nach außen zu bewegen, was in dieser theoretischen Idealisierung unendlich langsam erfolgen muss, damit die Temperatur des Arbeitsgases nie um mehr als einen infinitesimalen Betrag unter [math]T_1[/math] fällt. Das den Zylinder umgebende Wärmreservoir lässt also während der Expansion immer genug Wärmeenergie in ihn einströmen, um das Gas daran zu hindern, sich abzukühlen, was es ja bei Ausdehnung ohne äußere Wärmequelle tun würde. Man nennt diesen Vorgang „isotherme Expansion“ („iso“ bedeutet gleich). Es liegt nahe, anzusetzen, dass die einströmende Wärmeenergie [math]Q_1[/math] der Temperatur proportional ist:

[math]!Q_1 = S \times T_1[/math]

Diese Formel kann man als Definition einer unmittelbar in der Wärmelehre verankerten, nicht auf irgendwelche sekundären Effekte wie Ausdehung einer Quecksilbersäule angewiesenen, Temperaturskala benutzen, die man auch absolute oder thermodynamische Temperatur nennt. Die Einheit ist Kelvin, Formelzeichen K. Heutzutage ist es üblich, einfach nur „Kelvin“ ohne Grad davor zu nutzen, da „Grad“ sich nur auf indirekte Skalen, die über Ausdehnung von Flüssigkeiten o. ä. definiert sind (wie z. B. die Celsius-Skala), beziehen.

Nach der Ausdehnung muss das Arbeitsgas auf die niedrigere Temperatur [math]T_2[/math] abgekühlt werden, da es ja erst dann mit dem kälteren Reservoir in Kontakt kommen darf, wenn es dessen Temperatur hat. Dazu wird die Ausdehnung weiter fortgesetzt, nun aber unter thermischer Isolation, so dass weder Wärmeenergie hinein noch heraus geht. Das Gas kühlt sich dadurch ab – man nennt dies „adiabatische Expansion“. Hat es die Temperatur [math]T_2[/math] angenommen, lässt man die beiden Schritte umgekehrt ablaufen: Zunächst komprimiert man das Gas, während der Zylinder mit dem kälteren Wärmebad [math]T_2[/math] in Kontakt ist, so dass es zu keiner Aufheizung kommt, da die Wärme [math]Q_2 = S \times T_2[/math] an das Reservoir abgegeben wird (isotherme Kompression). Anschließend isoliert man den Zylinder wieder und setzt die Kompression fort, wobei das Gas sich erhitzt (adiabatische Kompression). Hat es die Temperatur [math]T_1[/math] erreicht, ist man wieder am Ausgangspunkt, und der Kreislauf kann erneut beginnen.

Wovon hängt die Proportionalitätskonstante [math]S[/math] ab? Es muss zur Konstanthaltung der Temperatur während des isothermen Expansionsschritts umso mehr Wärmeenergie in den Kolben einströmen, je stärker das Gas sich ausdehnt, die Konstante wird also mit dem Verhältnis [math]V_2/V_1[/math] streng monoton ansteigen, wobei [math]V_2[/math] das Gasvolumen nach, [math]V_1[/math] das vor der isothermen Expansion ist. Ferner sollte [math]S[/math] der Teilchenanzahl direkt proportional sein, da pro Teilchen ein gewisser Wärmeenergiebetrag eingespeist werden muss. Man leitet folgende Formel ab:

[math]!S = k \times N \times \ln{\left( \frac{V_2}{V_1} \right)}[/math]

mit der Boltzmann-Konstanten [math]k \approx 1.38 \, \times \, 10^{-23} \, \mathrm{J}/\mathrm{K}[/math].

Man kann diesen Ausdruck auch als Funktion von Wahrscheinlichkeiten deuten: steht einem sich zufällig bewegenden Molekül das ganze Volumen [math]V_2[/math] zur Verfügung, ist die Wahrscheinlichkeit, dass es darin ist, [math]P_2 = 1[/math], die Wahrscheinlichkeit dass es in dem kleineren Teilvolumen [math]V_1[/math] zu finden ist, beträgt [math]P_1 = V_1/V_2[/math]. Für [math]N[/math] unabhängige Moleküle ist die Wahrscheinlichkeit, dass sie alle gleichzeitig in [math]V_1[/math] anzutreffen sind [math]P_{1N} = (V_1/V_2)^N = P_1^N[/math]. Man sieht, dass aufgrund der sehr großen Teilchenzahlen in makroskopischen Stoffmengen, die Wahrscheinlichkeit, sie alle nur in einem Teilbereich des ihnen zur Verfügung stehenden Raumes anzutreffen, extrem niedrig ist. Prinzipiell ist es nicht unmöglich, dass alle Sauerstoffmoleküle im Zimmer sich in einer Ecke sammeln und ich ersticke – aber die Wahrscheinlichkeit dafür ist so wahnwitzig niedrig, dass es selbst in Milliarden von Weltaltern nicht eintritt.

Es gilt demnach:

[math]!S = k \times N \times \ln{\left( \frac{V_2}{V_1} \right)} = k \times N \times \ln{\left( \frac{P_2}{P_1} \right)} = k \times \ln{\left[ \left( \frac{P_2}{P_1} \right)^N \right]}[/math]

In Worten: Die Proportionalitätskonstante [math]S[/math], die die beim reversiblen Kreisprozess aufgenommene Wärmemenge mit der Temperatur verknüpft, ist gleich der Boltzmann-Konstanten mal dem natürlichen Logarithmus der Wahrscheinlichkeit des Endzustandes (Teilchen in [math]V_2[/math] gleichförmig verteilt) geteilt durch die Wahrscheinlichkeit des Anfangszustandes (Teilchen nur in [math]V_1[/math]).

Dies kann man verallgemeinern. Die Wahrscheinlichkeit für ein bestimmtes Ereignis ist gleich dem Anteil dieses Ereignisses an allen möglichen Ereignissen – sind in einer Urne 3 rote und 17 weiße Kugeln, dann beträgt die Wahrscheinlichkeit, dass ich eine rote herausziehe, 3/20. Die Wahrscheinlichkeit für einen bestimmten, makroskopisch messbaren, thermodynamischen Zustand (Druck, Temperatur…) enstpricht daher der Gesamtmenge der Mikrozustände (Orte und Impulse der Moleküle), die diesem Makrozustand entsprechen:

[math]!S = k \times ln{(\Omega)}[/math]

Die Zahl der Mikrozustände [math]\Omega[/math] kann man sich anschaulich als Ausschnitt des Phasenraumes vorstellen. Der Phasenraum ist ein abstrakter Raum mit sovielen Dimensionen, wie das betrachtete System Freiheitsgrade aufweist. Bei [math]N[/math] nicht wechselwirkenden, strukturlosen Teilchen ist die Anzahl der Dimensionen [math]6 N[/math], da jedes Teilchen drei Orts- und drei Impulskoordinaten hat. Jeder Punkt im Phasenraum repräsentiert einen präzisen Systemzustand bezüglich der Aufenthaltsorte und Bewegungen der einzelnen Teilchen. Jeder makroskopisch unterscheidbare Systemzustand nimmt ein bestimmtes Teilvolumen des Phasenraums ein, denn damit ein bestimmter Druck und eine bestimmte Temperatur herrscht, müssen Orte und Impulse der Teilchen sich innerhalb gewisser Werteintervalle befinden. Unwahrscheinliche Zustände, z. B. alle Teilchen nur in einer Hälfte des Volumens, nehmen nur sehr kleine Teilbereiche des Phasenraums ein, dem wahrscheinlichsten – thermodynamisches Gleichgewicht mit Teilchen, die das Volumen gleichförmig ausfüllen und überall identischer Temperatur – ist mit Abstand das größte Phasenraumvolumen zugeordnet. Daher ist es nahezu sicher, dass das System sich in diesem Zustand befindet.

Jedem makroskopisch unterscheidbaren Zustand entspricht ein gewisser Teilbereich des Phasenraums: Hier dargestellt als verschiedenfarbige Flächen. Der Systemzustand wird durch einen einzigen Punkt im Phasenraum gekennzeichnet, der sich im Laufe der Zeit zufällig fortbewegt (Pfeilkette). Mit allerhöchster Wahrscheinlichkeit landet er in dem Teilbereich, der dem thermodynmischen Gleichgewicht (Moleküle gleichmäßig verteilt, überall fast identische Temperatur) entspricht. Das ist nicht physikalisch zwingend – aber eben am wahrscheinlichsten, da dieser Bereich viel größer ist als die anderen (hier nicht maßstäblich!)

Die zeitliche Entwicklung des Systems kann man sich nun als zufällige Wanderung des Punktes, der den Gesamtzustand repräsentiert, durch den Phasenraum vorstellen. Er irrt rein zufällig durch den Raum – dass er den mit Abstand größten Teilbereich, der das thermodynamische Gleichgewicht darstellt, erreicht, ist keinesfalls zwingend, aber äußerst wahrscheinlich! Greife ich in einen Sack, in dem Billionen von roten und nur drei weiße Kugeln sind, gehe ich ja auch (nahezu) mit Sicherheit davon aus, eine rote zu ziehen.

Man nennt die Größe [math]S[/math] die Entropie des Systems.

Sie ist ein Maß für:

  • die Wahrscheinlichkeit eines Zustandes,
  • die Anzahl der Mikrozustände, die mit einem makroskopischen Zustand vereinbar sind,
  • die Wärmemenge, die beim reversiblen Kreisprozess bei einer bestimmten Temperatur ausgetauscht wird geteilt durch diese Temperatur.

Die drei Definitionen sind völlig identisch!

Da unwahrscheinliche Zustände, denen nur wenig Mikrozustände zugeordnet sind (Bsp. alle Gasmoleküle in einer Raumhälfte), als „geordneter“ angesehen werden können als die wahrscheinlichen, denen viele Mikrozustände entsprechen (Moleküle gleichförmig verteilt), sagt man umganssprachlich: „die Entropie ist ein Maß für die Unordnung in einem System“. Je mehr innere Struktur ein System hat, desto kleiner ist seine Entropie. Ein Sandhaufen hat hohe Entropie – wo die Körner genau sind, ist für das Erscheinungsbild „Sandhaufen“ unwesentlich, ihm entsprechen daher sehr viele Mikrozustände. Ein Computer hat eine viel niedrigere Entropie – jedes Bauteil muss an seiner Stelle sein, um Funktionalität zu gewährleisten, vergleichsweise wenige Mikrozustände entsprechen dem Makrozustand „einsatzbereiter Computer“!

Bei der reversiblen Maschine treten keinerlei Verluste auf, da sie reibunsgfrei arbeitet. Die umgesetzte Arbeit [math]W[/math] steht auch nur in der Art der Klemmspannung eines Generators zur Verfügung – würde sie irgendetwas antreiben, wäre das System ja nicht mehr verlustfrei. Daher bleibt beim reversiblen Prozess die Entropie konstant! Bei allen realen Prozessen, die im Universum möglich sind, nimmt sie zu. Das ist der 2. Hauptsatz der Thermodynamik. Es gibt viele gleichwertige Möglichkeiten, ihn zu formulieren:

  • Die Entropie und damit die Unordnung bzw. Strukturlosigkeit der Welt nimmt unablässig zu.
  • Wärme fließt von alleine vom wärmeren zum kälteren Körper und nicht andersherum.
  • Es ist nicht möglich, Wärme komplett in Arbeit umzuwandeln, ein Teil muss an ein Wärmereservoir mit niedrigerer Temperatur abgegeben werden.

Die dritte Formulierung lässt sich direkt aus der zweiten ableiten: Könnte man den Wärmeenergiegehalt irgendeines Reservoirs komplett in Arbeit verwandeln, ohne einen Teil an ein zweites, kälteres abzugeben, dann könnte diese Arbeit – z. B. die Drehung eines Rades – dazu dienen einen Körper der heißer ist als das Wärmereservoir durch Reibung noch weiter aufzuheizen. Dann würde aber Wärme von alleine vom kälteren zum wärmeren Körper fließen, und dies ist nicht möglich!

Der 2. Hauptsatz ist von einer anderen Natur als der 1. und auch alle übrigen Naturgesetze. Die Energieerhaltung ist ein Gesetz, das aus experimentellen Untersuchungen folgt – nach dem Noether-Theorem letztlich aus der Beobachtung, dass die Naturgesetze zeitlich konstant bleiben. Der 2. Hauptsatz aber ist gar kein Naturgesetz, denn er macht nur Wahrscheinlichkeitsaussagen. Es ist durchaus möglich, dass Wärme vom kälteren zum wärmeren Körper fließt oder ein Sandhaufen spontan zu einem Mikrochip wird – es ist aber irrwitzig unwahrscheinlich! So unwahrscheinlich, dass es nie beobachtet wurde und mit Sicherheit nie beobachtet werden wird! Obwohl (oder gerade weil?!) der 2. Hauptsatz eher ein mathematisches als ein physikalisches Gesetz darstellt, sehen manche Physiker ihn als grundlegender, unverrückbarer an als die „richtigen“ Naturgesetze. Sir Arthur Eddington schrieb: „If someone points out to you that your pet theory of the universe is in disagreement with Maxwell’s equations—then so much the worse for Maxwell’s equations. If it is found to be contradicted by observation—well these experimentalists do bungle things sometimes. But if your theory is found to be against the second law of thermodynamics I can give you no hope; there is nothing for it but to collapse in deepest humiliation.“

Aus dem 2. lässt sich noch ein 3. thermodynamischer Hauptsatz ableiten, indem man den Wirkungsgrad durch die Temperaturen ausdrückt:

[math]!\eta = \frac{W}{Q_1} = 1 – \frac{Q_2}{Q_1} = 1 – \frac{T_2}{T_1}[/math]

Da der Carnot-Prozess die theoretische, real nicht erreichbare Obergrenze bezüglich des Effizienz von zyklischen Maschinen darstellt, kann dieser Wirkunsggrad nie überschritten – noch nicht mal erreicht! – werden, egal wie raffiniert man eine Maschine konstruiert. Das ist das Ergebnis, das Carnot gesucht hatte.

Der Wirkungsgrad wächst offensichtlich mit dem Temperaturunterschied. Die niedrigere Temperatur [math]T_2[/math] kann nie Null werden, da dann der Wirkungsgrad gleich 1 wäre, was bedeuten würden, dass man Wärme komplett in Arbeit verwandeln könnte – nicht möglich nach dem 2. Hauptsatz!

Der absolute Nullpunkt kann daher nur in asymptotischer Näherung erreicht werden. Null Kelvin entsprechen -273.15 Grad Celsius. Einem perfekten Kristall bei 0 K ordnet man die Entropie 0 zu.

Wir nutzen die Arbeit von Maschinen dazu, die Entropie unserer Welt lokal zu verringern: Indem wir Produkte mit niedriger Entropie aus Rohstoffen mit hoher Entropie herstellen. Notwendigerweise wird dabei die Entropie andernorts gesteigert, so dass die Gesamtentropie des Universums wie immer zunimmt. Es gilt die Bilanz:

[math]!\Delta S_G = \Delta S_P + \Delta S_M + \Delta S_U[/math]

wobei [math]\Delta S_G \textgreater 0[/math] die gesamte Entropieänderung aller beteiligten Systeme ist (nach dem 2. Hauptsatz immer positiv) [math]\Delta S_P \textless 0[/math] ist die Entropieänderung bei Herstellung des Industrieproduktes, [math]\Delta S_M \textgreater 0[/math] ist die Entropieänderung innerhalb des Maschine (z. B. durch Verbrennung des Treibstoffs) die den Herstellungsprozess antreibt, und [math]\Delta S_U \textgreater 0[/math] die der Umgebung durch Abwärme aus der Maschine.

Aufgelöst nach der Entropieänderung bei der Produktion, die uns hier interessiert, erhält man [math]\Delta S_P = \Delta S_G – \Delta S_M – \Delta S_U[/math]. Dieser negative Wert soll einen besonders hohen Absolutbetrag haben, damit wir viele Produkte mit hoher Komplexität erzeugen können. Da die Gesamtentropieänderung [math]\Delta S_G[/math] stets positiv ist, müssen die beiden anderen Werte – Entropieumsatz in der Maschine und in der Umgebung – dazu entsprechend groß sein! Um die Änderung der Umgebungsentropie nicht unpraktisch groß werden zu lassen (denn eine übermäßig entrope Umgebung ist nicht wünschenswert), muss sich innerhalb der Maschine die Entropie besonders stark ändern. Der bei der Herstellung komplexer, niedrigentropischer Produkte unvermeidliche Anstieg der Gesamtentropie der Welt kann entweder in [math]\Delta S_U[/math], also in der Umgebung, oder in [math]\Delta S_M[/math] – der Maschine – enthalten sein. Bei Nutzung eines starken Entropieanstieges innerhalb der Maschine bleibt die resultierende Gesamtunordnung in dieser eingesperrt. Es braucht dafür einen Treibstoff, der eine sehr niedrige Anfangs- und eine sehr hohe End-Entropie aufweist. Seine Anfangsentropie ist umso geringer, je konzentrierter (d.h. geordneter) die Energie in ihm ist: Das deutet auf Kernbrennstoffe hin!

Was dies in der Praxis bedeutet, sei anhand des Vorschlages aus PA260 aufgezeigt, den gesamten Energieverbrauch Europas mithilfe eines riesigen, die Nordsee bedeckenden Offshore-Windparks zu speisen.

Die Nordsee hat eine Fläche von 575.000 Quadratkilometern. Bei einer typischen Windpark-Flussdichte von 3 Watt pro Quadratmeter ergibt sich ein Gesamtenergieertrag von 1725 Gigawatt. Verteilt auf die 500 Millionen Menschen in der EU erhält man 3450 Watt pro Person, was sich in der Tat in der Größenordnung eines typischen europäischen Primärenergieverbrauchs von einigen kW pro Person bewegt.

Nun ist aber der „Brennstoff“ eines Windparks – nämlich bewegte Luftmoleküle – äußerst hochentrop: Selbst bei einer sehr scharfen Brise mit einer Windgeschwindigkeit von 10 Metern pro Sekunde enthält ein Stickstoffmolekül eine kinetische Energie von nur 14.5 Millionstel Elektronenvolt, in etwa ein Hunderttausendstel der bei chemischen Reaktionen üblichen Energiedichte. Die Windenergie ist äußerst diffus – der Entropieanstieg im Inneren der Windkraftanlagen sehr gering, der Anstieg in der Umgebung aber umso größer! Bei einem die Nordsee bedeckenden Superwindpark würde dieser Anstieg sich vor allem in massiven meteorologischen Veränderungen bemerkbar machen: Windströmungen würden abgeschwächt und umgelenkt, Niederschlagsmuster sich ändern. Hinzu kämen starke Auswirkungen auf Meerestiere, insbesondere Vögel und Wale.

Ähnlich ist der Fall bei Solarenergie. Hier wird Energie in Form von sichtbaren Photonen im Bereich von 500 Nanometern Wellenlänge aufgenommen, und in Form längerwelliger Photonen im Infrarotbereich wieder abgegeben. Das einfallende Licht hat nach der Formel [math]E = h \times \nu[/math] mit der Planck’schen Konstante [math]h \approx 6.626 \, \times \, 10^{-34} \, \mathrm{J s}[/math] und der Frequenz [math]\nu[/math] eine Energie pro Teilchen von 2.5 Elektronenvolt – vergleichbar mit chemischen Reaktionen (die ja oft sichtbares Licht erzeugen). Das bedeutet, dass auch Photovoltaik, wenn sie in großem Umfang genutzt wird, in hohem Maße die Umgebungs-Entropie auf der Erde erhöht. Sie ist eben, wie alle Erneuerbaren, sehr diffus – Flussdichten im Bereich einstelliger Wattzahlen pro Quadratmeter. Jedes zusätzliche Gigawatt, das nutzbar gemacht werden soll, erfordert die Bedeckung großer Landsstriche mit künstlichen Strukturen.

Nicht jede Energieform ist gleich nützlich: Je höher ihre Entropie, desto schwieriger ist es, sie für industrielle Prozesse, bei denen niedrigentropische (ich sage dazu manchmal auch: antientropisch, da der Entropie lokal entgegengewirkt wird, auch wenn sie sich global natürlich erhöht) Produkte erzeugt werden sollen, einzusetzen. Das Meer enthält einen riesigen Vorrat an Wärmeenergie. Dieser steht jedoch nicht ohne weiteres abgreifbar zur Verfügung, da es hierzu nach dem 2. Hauptsatz eine kältere Wärmesenke geben muß. An einigen Stellen in tropischen Meeren sind entsprechende Situationen gegeben, der Temperaturunterschied zwischen Oberflächen- und Tiefenwasser ist hier ausgeprägt genug, um Betrieb von Wärmekraftmaschinen zu erlauben – dies nennt man OTEC (Ocean Thermal Energy Conversion). Aber weil die Wärmenergie im Meer hochentrop ist, ist auch diese Energiequelle, wie alle anderen klassischen Erneuerbaren, sehr diffus, sie hat eine niedrige Flächenleistungsdichte.

Ähnliches gilt für die Wärmeenergie im Inneren der Erde, die man mittels Geothermie zu nutzen versucht. Der Antrag weist darauf hin, dass wir auf einer riesigen Kugel von glutheißer Materie säßen, und damit auf sehr viel Energie. Richtig – aber eben auch auf viel Entropie: Denn die Wärme aus dem Erdinneren sickert an den allermeisten Stellen nur sehr behutsam nach außen (was ja auch ganz gut so ist), so dass pro Quadratmeter Oberfläche bzw. pro Kilogramm Krustenfels nur kleine Leistungserträge abgegriffen werden können. Ein Ausnahmefall sind Vulkanregionen wie Island oder manche Regionen in Italien, hier steht Erdwärme in konzentrierter, niederigentropischer Form zur Verfügung, so dass kompakte, starke Geothermiekraftwerke gebaut werden können, Kernkraftwerken ähnlich.

Interessant wäre, wenn man eine Methode entwickeln könnte, Sonden bis in den Erdmantel vorzuschieben, um die dortige hohe Energiedichte vor Ort abzugreifen, aber Materialien, die solche Drücke und Temperaturen dauerhaft aushalten, werden in absehbarer Zukunft nicht herstellbar sein.

Alle Erneuerbaren speisen sich aus nur drei Quellen: Solarenergie, Erdwärme und gravitativ-kinetische Energie (Gezeiten). Sie alle zeichnen sich dadurch aus, dass sie enorme Gesamtenergiemengen bereitstellen (z. B. fallen insgesamt 178 Mio. Gigawatt Sonnenlicht auf die Erde), aber diese in hochentroper Form vorliegt: diffus, auf sehr große Stoffportionen, Volumina bzw. Flächen verteilt. Um stark antientrope industrielle Prozesse mit ihnen anzutreiben, ist eine massive Steigerung der Umgebungsentropie erforderlich. Das äußert sich in den impraktikabel großen Landflächen, die dazu mit künstlichen Strukturen bedeckt werden müssen, und den daraus resultierenden ausgeprägten Auswirkungen auf Wetter, Tiere, Pflanzen, Ökosysteme u.v.a.

Wir haben somit in der Tat keine Energiekrise, sondern eine Entropiekrise.

Der Ausweg aus der Entropiekrise – quasi die Entropiewende – besteht in postfossilen, langfristig verfügbaren Energiequellen mit niedriger Entropie und somit geringen Umweltauswirkungen und hoher Leistungsdichte: Kernkraftwerke der IV. Generation wie Integral Fast Reactor oder Flüssigsalzreaktor („SmartNuclear“), und zukünftig auch Fusionskraftwerke.

Die Roboterwirtschaft der Zukunft wird riesige Mengen an niedrigentropischer Energie benötigen. Diese kann in sogar noch konzentrierterer Form genutzt werden, als es bei heutigen Großkernkraftwerken üblich ist: In Form modularer Klein- und Kleinstreaktoren, die jedes Industriewerk lokalisiert versorgen.

Häufig wird gesagt, dass klassische Erneuerbare den Vorteil böten, kleinskalig zur dezentralen Energieerzeugung einsetzbar zu sein. Das stimmt zwar insofern, als dass es sicher sinnvoller ist, statt eines riesigen, monolithischen Wind- oder Solarparks ein Mosaik aus vielen kleineren zu bauen. Sollen diese kleinen Energiestationen aber zur Speisung energieintensiver Produktionsprozesse eingesetzt werden, dann entsteht ein Problem: Denn die Fabrik verbraucht viel mehr Leistung, als ein einzelnes Minisolar- oder -windkraftwerk zu erzeugen vermag. Sie muss sich also ihren Bedarf in weitem Umkreis zusammensuchen, aus jeder kleinen Anlage eine gewisse Menge herausgreifen – die dann den Privathaushalten fehlt und zur Fabrik geleitet werden muss, damit sich die kleinen Anteile dort hoffentlich zu der erforderlichen hohen Leistung aufaddieren.

Viel praktischer und machbarer ist dagegen, die hochentropen Quellen auch hochentrope Prozesse speisen zu lassen: Den Energieverbrauch der Menschen zuhause. 10 bis 20 Quadratmeter Photovoltaik pro Mensch auf Hausdächern ergeben mit einer Peakleistung von 150 Watt pro Quadratmeter und einem Nutzungsgrad von 10% in Deutschland eine zur Verfügung stehende Leistung von 150 bis 300 Watt pro Person – im Größenordnungsbereich des häuslichen Stromverbrauchs (wobei natürlich leistungsfähige Puffer zur Zwischenspeicherung entwickelt werden müssen). Haushaltsgeräte sind hochentrope Anwendungen, da sie keine starke Neustrukturierung der Materie vornehmen, wie sie beispielsweise in einem Hüttenwerk stattfindet – daher sind Erneuerbare zu ihrer Versorgung geeignet. Wenn in Zukunft viele Elektroautos und elektrische Wärmepumpen als Heizungen angeschafft werden, wird der Stromverbrauch zuhause natürlich ansteigen, so dass Photovoltaik auf Dächern dann eventuell nicht mehr genug liefert und zusätzliche Quellen genutzt werden müssen. In der Zukunft wird es aber sicher auch gelingen, Multijunctionzellen, deren Wirkungsgrad die Shockley-Queisser-Grenze von 30% übertrifft, in Serie herzustellen.

Industriewerke sind niederentropisch: Sie führen massive Neu- und Umstrukturierungen der Materie durch, und brauchen dazu hochkonzentrierte Energie. Was könnte dafür besser geeignet sein als ein lokalisiertes, unterirdisches Kleinkernkraftwerk! Damit wird die Fabrik völlig energieautark und benötigt keine Einspeisungen mehr von außen: Dezentralität 2.0!

Wenn die Industrie sich selbst lokalisiert mit klimaneutraler, antientroper Energie versorgen kann, dann sind in der Tat den Materieumgestaltungswünschen der Menschheit kaum noch Grenzen gesetzt, und die Versorgung von 10, 12 oder 15 Milliarden auf europäischem Niveau ist realistisch möglich.

Nicht nur Elektrizität, auch die Prozesswärme, die der Reaktor erzeugt, ist von immensem Nutzen in einem Industriewerk, insbesondere in der Chemie- und Metallindustrie, wo sie das Verhütten, Schmelzen, Gießen, Walzen und Weiterverarbeiten der Metalle unterstützen kann. Während die Verhüttung von Aluminium heute bereits komplett elektrisch durchgeführt wird, kommt bei Stahl als Reduktionsmittel Kohle zum Einsatz. Im postfossilen Zeitalter sollten hierfür Alternativen entwickelt werden – entweder elektrische Reduktion oder aber Einsatz von Wasserstoff, der vor Ort durch Elektro- und/oder Thermolyse aus Wasser erzeugt werden kann, wozu ein Reaktormodul die benötigte Energie liefert.

Eine der größten Rohstoff-Ressorucen der Menschheit sitzt möglicherweise direkt vor unseren Nasen: Die städtischen Müllkippen weltweit. Kein Objekt, das jemand wegwirft, ist in diesem Sinne wirklich Abfall, denn so gut wie alle Atome, die es im fabrikneuen Zustand enthielt sind immer noch darin, wenn es im Müll landet. Das Objekt mag schadhaft, kaputt, abgenutzt sein, aber die Rohstoffe in ihm sind nach wie vor alle vorhanden. Was fehlt, ist ein geschlossener chemisch-industrieller Kreislauf, der den Abfall wieder als Rohstoff nutzbar macht! Eine nuklear angetriebene Plasmafackel ist hierzu das Mittel der Wahl: Bei bis zu 17.000 Kelvin knackt sie fast jegliche chemische Bindung und verwandelt beliebige Abfälle, selbst Abwässer, in zwei nutzbare Stoffströme: Syngas aus Wasserstoff und Kohlenmonoxid, und Schlacke aus Metall und Silikaten. Letztere ist gut für Metall- und Baustoffindustrie, ersteres für Treibstoff-, Kunststoff-, überhaupt die gesamte Synthesechemie, die bislang fossile Rohstoffe wie Erdöl und Kohle nutzte. Aus Wasserstoff und Kohlenmonoxid können sowohl synthetisches Benzin, Dieselkraftstoffe und Kerosin für Flugzeuge wie auch Plastik und ähnliche Kunststoffe gewonnen werden. Es muß nur genug antientrope Energie zum Aufbrechen und Neuknüpfen kovalenter Bindungen zur Verfügung stehen, dann können Jumbos mit aus Abwässern, Haus-, Landwirtschafts- und Industriemüll gewonnenem Treibstoff betankt werden, und wir können auch noch in fernster Zukunft mit Düsenmaschinen fliegen, ohne auch nur einen Tropfen Erdöl verarbeiten zu müssen.

Was machen wir eigentlich dann mit den Kohlekraftwerken? Man könnte sie in Museen, Bibliotheken oder Freizeitzentren umwandeln – oder aber sie refitten: Die kohlebefeuerten Dampferzeuger durch nukleare Energiemodule ersetzen. Eine dezentrale Energieversorgung erhält man so zwar nicht, aber es wäre eine exzellente Methode, vorhandene Infrastruktur und Material zur klimaneutralen Energieversorgung zu nutzen.

Und wenn die 6 Grad Erwärmung dennoch bedrohlich nahe rücken sollten: Auch das Kohlendioxid in der Luft lässt sich mittels geeigneter Saugvorrichtungen („Carbon Scrubber“) von einem Klimarisiko in einen Rohstoff umwandeln. Das Ansaugen und Filtern der Gase und das Aufbrechen der Bindung des Kohlendioxidmoleküls sind energiehungrige, antientrope Prozesse: Ein typischer Fall für SmartNuclear.

Schon heute erfolgen immer mehr Wareneinkäufe im Internet: Wozu in den Laden gehen, wenn die Kaffeemaschine mit einem einzigen Mausklick bestellt werden kann. Im robotischen Zeitalter wäre es logisch, dieses Prinzip auf die Herstellung auszuweiten. Heute überlegt sich eine Firma, was für Produkte möglicherweise vermarktbar sein könnten, stellt eine gewisse Menge her und hofft, Käufer zu finden. Oft frage ich mich, ob es nicht sinnvoller wäre, wenn der Kunde sein Produkt mit einem Editor am Computer selbst gestalten, oder auf vorgefertigte Open-Source-Designs zurückgreifen könnte, die Daten an eine robotische Fabrik schickte, wo es sofort gefertigt und mittels eines ebenfalls vollständig automatisierten Versandsystems zum Kunden geschickt werden würde! Production on demand. Es wird nur das hergestellt, was der Kunde wirklich haben möchte, komplett nach seinen Vorstellungen. Bei Plastikobjekten kann man das heute schon zuhause erleben, wenn man sich einen 3D-Drucker anschafft. Aber es gibt auch 3D-Druckverfahren für andere Materialien, z. B. Lasersintern und Pulvermetallurgie.

In der Zukunft könnte möglicherweise in der Nähe jeder größeren Ansiedlung, jedes Großsstadtviertels, jeder Kleinstadt und jedes Dorfes eine unterirdische Robot-Omnifabrik gebaut werden, in der, von einem SmartNuclear-Modul mit Energie versorgt, alle denkbaren Waren on demand vom Rohstoff – im Wesentlichen Abfälle und Abwässer! – bis hin zum Endprodukt erzeugt werden. Angenommen, jemand benötigt ein Auto: Er sucht sich ein hübsches Open-Source-Design im Internet aus, oder erstellt selbst eines, und schickt die Daten an die robotische Omnifabrik. Sofort beginnen die Roboter mit der Fertigung: Müll wandert durch den Plasmabogen. Metalle werden aus der Schlacke extrahiert, das Syngas im chemischen Abschnitt der Fabrik in Kunststoffe umgewandelt. Dann nehmen die 3D-Drucker die Arbeit auf: Motoren- und Karosserieteile werden aus Metallen gedruckt, die Inneneinrichtung, Armaturen, Verschalungen aus Kunststoff und Silikaten. Spezialisierte Roboter stellen Elektronik und Elektrik her. Zum Schluss wandern alle gedruckten Einzelteile in die Endfertigungshalle, wo größere Roboter sie zusammenfügen und -schweißen. Nun braucht das Auto nur noch zu seinem neuen Besitzer geschickt werden – entweder in einer großen Frachtkapsel, die unterirdisch durch Magnetschwebetunnel gleitet, oder aber es ist selbst robotisch und fährt eigenständig bis zur Garage.

Genauso können alle anderen Produkte erzeugt werden: Die Roboter müssen nur mit den benötigten digitalen Daten gefüttert werden, um statt eines Autos einen Computer, einen Elektroherd, ein Teleskop oder Schuhe herzustellen. Sie benötigen nur Rohstoffe aus Abfällen, konzenrtierte Energie aus einem IFR oder LFTR um die Rohstoffe umzugestalten und natürlich Bits und Bytes, damit sie wissen, wie sie sie umgestalten sollen.

Was anorganischen Produkten recht ist, sollte Nahrungsmitteln billig sein! Die auf Feldern, Ställen und Erdreich basierende Landwirtschaft könnte bald zum Auslaufmodell werden, und von Robotern bedienten hydroponischen Turmfarmen, sogenannten Greenscrapern, Platz machen. Dadurch könnte der Nahrungsextrag pro Landfläche in etwa um das gleiche Verhätlnis gesteigert werden, wie ein Kernkraftwerk pro Fläche mehr Leistung umsetzt als ein Windpark! Wird der Greenscraper selbst von Kernenergie versorgt – zum Antrieb und Steuerung der Roboter, aber vor allem auch zur Beleuchtung der Pflanzen und zur Aufbereitung von Wasser, was insbesondere in den Tropen ein wichtiger Punkt ist – zum Beispiel mittels eines kleinen Flüssigsalzreaktors im Keller, dann ist er energieautark und produziert vor Ort äußerst platzsparend Nahrungsmittel aus Kernkraft… so eigenartig das für manche klingen mag.

Weil sie wirklich extrem antientropisch ist – es stecken ja in jedem Kern mehrere Mega-Elektronenvolt pro AMU – vermag die Kernenergie aber nicht nur chemische und mechanische Materiewandlungen zu unterstützen, sondern taugt sogar dazu, in den Femtobereich, die Kernbindungen selbst, einzugreifen. Die Transmutation von Reaktorabfällen mittels IFR ist hierfür ein gutes Beispiel, oder auch die Erbrütung neuer Nuklide für viele verschiedene Anwendungen. In diesem Sinne erlaubt die Kernenergienutzung eine Ausweitung des Periodensystems zu einem Isotopen-System. Durch Neutronenbestrahlung lässt sich die Materie in ihren allerfeisnten Strukturen manipulieren und nutzen.

Futuristen um den im Programmantrag vielzitierten Ray Kurzweil spekulierten unlängst, ob es wohl gelänge, Femtocomputer zu erschaffen, die die Reaktionen zwischen Quarks und Gluonen für Berechnungen nutzen, und ein Ingenieur namens Alexander Bolonkin macht den exzentrisch aber faszinierend anmutenden Vorschlag, makroskopische Strukturen aus Protonen und Neutronen zu fertigen, um Substanzen mit unglaublichen Eigenschaften bezüglich Härte, Transparenz und Widerstandsfähigkeit zu gewinnen. Gewiß ist diese „Femtotechnologie“ ein höchst futuristischer, spekulativer Einfall. Falls sie irgendwann mal Realität werden sollte, ist es aber nicht unmöglich, dass die Menschen (oder zukünftigen Superintelligenzen!) zueinander sagen werden: „Die Kernreaktoren des 21. Jahrhunderts waren eine primitive Vorstufe zu unserer Technik. Gut, dass unsere Vorfahren weiter daran geforscht und es nicht aus Angst aufgegeben haben!“

Auch wenn der Antrag PA260 recht naiv, teilweise fast ekstatisch, über weite Strecken kindlich (ich vermute, er wurde von einem sehr jungen JuPi geschrieben…) und im Großen und Ganzen in dieser Form nie und nimmer in ein Parteiprogramm übernehmbar formuliert ist – ich sympathisiere mit mehreren seiner inhaltlichen Punkte. Massiv in die wissenschaftliche Forschung zu investieren um das Leben aller Menschen zu bessern ist ein herausragend guter Gedanke. Die Menschen von verdummender, eintöniger Arbeit durch Robotisierung der gesamten Produktion zu befreien und alle Bürger bedingungslos durch ein Grundeinkommen zu unterstützen würde ich als Zukunftsziel sofort unterschreiben. Ich finde es gut, dass offensichtlich gerade die ganz junge Generation, die noch jünger ist als ich – Teenager und Menschen Anfang 20 – endlich den tristen Technikskeptizismus den die Grünen unnötig popularisierten hinter sich lassen und mit neuen Spitzentechnologien den Weg zu einem besseren Leben ebnen möchte. Auf Wissenschaft und Technologie zu setzen ist klug und sympathisch.

Aber natürlich sieht man auch immer noch, welches Beharrungsvermögen der zivilisationsskeptische Ungeist der Grünen hat. Kernkraft ist anscheinend ein furchterregendes Konzept, über das nicht diskutiert werden darf, auch wenn man ansonsten von gewaltigen Fortschritten auf allen anderen Gebieten, insbesondere dem der künstlichen Intelligenz, schwärmt.

Liebe Leute, es ist nicht schwer, gebt euch einen Ruck: Wenn ihr schon weitreichende Pläne bezüglich der Gestaltung der Materie auf der Nanoebene macht, dann könnt ihr auch die Größenordnungsleiter sechs Zehnerpotenzen weiter hinunterklettern, ins Herz der Materie, und sie im Femtobereich umgestalten! Hört nicht immer auf eure grünen Eltern mit ihrer Radiophobie. Eure Eltern bekommen einen Schock, wenn sie sehen, was ihr mit dem Skateboard in der Halfpipe anstellt – da könnt ihr sie auch mit ein paar zukunftsweisenden Thoriumplänen schocken, das überleben sie auch noch.

Denn eine robotisierte Produktion verbraucht sehr sehr viel Energie, und zwar optimalerweise konzentrierte, antientropische Energie, wie Kernreaktoren sie bereitstellen.

In vielen heutigen futuristischen Konzepten, wie z. B. dem „Venus Project“ von Jaque Fresco, zu dessen Wikipedia-Artikel auch im Antrag verlinkt wird, ist die Hoffnung auf technischen Fortschritt immer noch recht eng mit resignierenden Stillstandsvorstellungen verquickt: Dies wird oft unter dem Schlagwort „Nachhaltigkeit“ subsummiert – die Menschen sollen sich in einen statischen Zustand hineinentwickeln, sich nach Erreichen einer bestimmten Situation nicht mehr oder nur noch minimal verändern (in den transhumanistischen Kreisen um Ray Kurzweil wird oft die technologische Singularität, der Augenblick, zu dem Computer intelligenter werden als Menschen, als diese Situation angesehen – danach können wir alle in den Cyberspace uploaden und existieren ab da für immer statisch in einer Art elektronischem Paradies). Aber Stillstand ist nicht menschengerecht. Humanistisch – und erst recht transhumanistisch! – ist nur die stetige Weiterentwicklung, das unendliche Wachstum an Fähigkeiten, Wissen, Produktionskapazitäten und Möglichkeiten, die physikalische Realität zu gestalten. Anstatt sich auf der Erde in einen friedlichen, aber völlig unbefriedigenden Zsutand der Selbstgenügsamkeit hineinzuentwickeln, ist es daher geradezu zwingend, dass die Menschheit zur raumfahrenden Zivilisation wird, die andere Planeten besiedeln und industrialisieren kann. Raumfahrt ist daher ein Thema, dass meines Erachtens nach dringend in einen Antrag zur wissenschaftlichen Forschung gehört – in PA260 fehlt sie völlig.

Kernkraft, Raumfahrt, unbegrenztes Wachstum: Das sind die Themen, die wieder auf den Tisch, in die Diskussion gebracht werden müssen! Und wenn jemand sagt, Kernkraft sei „altmodische Fünfzigerjahre-Technik“, dann sollten wir nur lachen und ihn fragen, ob er mit einem ENIAC ins Internet geht. SmartNuclear, die IV. Generation der Kernreaktoren, ist die wichtigste Energietechnik für das Digitale Zeitalter.

Bei der Piratenpartei – oder zumindest bei manchen ihrer (jüngeren?) Mitglieder – zeigt sich ein Silberstreifen von Optimismus am Horizont, wie man an PA260 sieht. Gelänge es, diesen Optimismus auf ein breiteres Spektrum von Technologien auszuweiten und die Besessenheit mit „Grenzen des Wachstums“ (die ja nun wirklich sowas von Neunzehnhundertsiebziger ist! ;)) durch Konzepte der Weiterentwicklung durch Raumhfahrt und immer stärkere Energiequellen im Sinne der Kardaschowskala zu ersetzen, dann befände man sich auf einem vielversprechenden Pfad in die Zukunft.

Der Antrag ist nicht parteiprogrammgeeignet – was mir persönlich aber im Augenblick viel wichtiger erscheint: Er zeigt, dass optimistisches Potential da ist!

Newsletter

Ja, ich will … Infos über Aktionen und Neues rund um die beste Energiequelle direkt in mein Postfach.