Suche

LNT-Hypothese: Mediziner gegen gängige Strahlentheorie

Gastbeitrag von Dr. Klaus-Dieter Humpich

Unerwartete Hilfe für Strahlenschützer kommt mit dem in JNM – The Journal of Nuclear Medicine erschienenen Beitrag „Subjecting Radiologic Imaging to the Linear No-Threshold Hypothesis: A Non Sequitur of Non-Trivial Proportion“ nun von der Medizin. Neu ist weniger die Kritik der Strahlenmediziner an der LNT-Hypothese, als die Abwägung der Nachteile durch ihre Anwendung.

Die LNT-Hypothese (Linear No-Threshold) geht von einem rein linearen Zusammenhang zwischen Strahlungsdosis und Krebsfällen aus. Die Gerade soll von einer Dosis Null bis unendlich verlaufen. Es gibt nach dieser These ausdrücklich keinen Schwellwert, unterhalb dessen kein Krebs auftritt. Wegen dieser Annahme hat man für den Strahlenschutz das ALARA-Prinzip (as low as reasonably achievable) geschaffen.

Selbst Kritiker des linearen Ansatzes ohne Schwellwert sind oft Anhänger des Prinzips: »So wenig Strahlung wie vernünftig erreichbar«. Das Wort »vernünftig« wird wegen der angeblichen Krebsgefahr als »so gering wie möglich« überinterpretiert. Das gut gemeinte Vorsorgeprinzip wird dadurch leider in einen Nachteil verkehrt. Genau da setzt die Kritik der Mediziner ein. Vorab aber noch ein paar Worte zur Erklärung.

Wieso linear?

Durch den Bombenabwurf auf Hiroshima und Nagasaki hat man einen gigantischen Menschenversuch gestartet, dessen Untersuchungen bis heute anhalten. Die Bedingungen entsprachen geradezu einem klinischen Versuch: Hunderttausende von Menschen – also eine große Zahl im Sinne der Statistik – wurden unterschiedlichen Strahlendosen ausgesetzt. Es handelte sich um eine »normale« Bevölkerung mit unterschiedliche Altersgruppen, unterschiedliche Vorbelastungen usw., die man problemlos in Relation zur sonstigen japanischen Bevölkerung setzen konnte. Es war somit eine relativ einfache Aufgabe, das Mehr an Krebserkrankungen quantitativ zu erfassen. In der Tat ergab sich im meßbaren Bereich ein linearer Zusammenhang zwischen Dosis und Krebsfällen. Dabei muß man sich allerdings vor Augen führen, daß die Meßbarkeit sowohl oben wie unten begrenzt war: Menschen, die hohen Strahlendosen ausgesetzt waren, also sich nahe am Abwurfpunkt befanden, hatten meist auch schwerste Brand- und Explosionsverletzungen erlitten und verstarben lange bevor sich überhaupt Krebs hätte bilden können. Bei sehr kleinen Dosen bildeten die Krebsfälle die übliche Wolke, wie sie in jeder Bevölkerung auftritt, ob bestrahlt oder nicht. Das Hindurchlegen einer Geraden, treffend als Ausgleichsgerade bezeichnet, ist hier eine ziemlich willkürliche Angelegenheit.

Man einigte sich auf eine Gerade mit einer Steigung, die einer Zunahmen tödlicher Krebserkrankungen um jeweils fünf Prozent bei einer zusätzlichen Strahlungsdosis von einem Gray (Gy) entspricht. Ein Gy entspricht einer vom Körper absorbierten Energie von 1 J/kg oder nach alter Maßeinheit 100 Rad.

Warum kein Schwellwert?

Will man es positiv betrachten, wollte man die Unsicherheit im Bereich sehr kleiner Dosen durch eine Extrapolation ersetzen. Besonders unsicher war man sich über die Zeitdauer, die es erfordern könnte, bis ein Krebs ausbricht. Heute kann man mit Sicherheit sagen, daß der Ansatz falsch ist.

In der Wissenschaft ist es üblich, Hypothesen (Modelle) aufzustellen. Anders als zum Beispiel in der Mathematik kann man deren Richtigkeit aber nicht beweisen. Man überprüft sie dadurch, daß man sich Experimente überlegt und dann deren Ergebnisse mit der Hypothese vergleicht. Genau diese Vorgehensweise führt bei kleinen Strahlendosen immer zu frappierenden Differenzen zwischen Modell-Vorhersage und Auswertung. Die LNT-Hypothese ist damit eigentlich als falsch zu den Akten zu legen.

Weshalb additiv übers ganze Leben?

Der größte Blödsinn ist jedoch die Außerkraftsetzung des Grundsatzes: »Die Dosis macht’s«. Das widerspricht jeder Alltagserfahrung und ist vergleichbar der Behauptung, ein Schnaps pro Woche habe die gleiche Wirkung wie eine Flasche »auf ex«. Bestenfalls ist dieser Irrglaube auf ein »physikalisches« Weltbild in der seinerzeit aufkommenden Molekularbiologie zurückzuführen. Man konnte messen, daß durch Strahlung DNA und sogar ganze Gene geschädigt werden konnten. Legendär ist der Versuch des späteren Nobelpreisträgers Muller mit Fruchtfliegen. Allerdings wurde damals mit Dosen von mehr als 4 Gy (400 Rad) gearbeitet. Bei diesen hohen Dosen gab es ohne Zweifel eine lineare Abhängigkeit der genetischen Schäden. Eine Extrapolation über mehrere Größenordnungen hinweg in den Milli-Rad-Bereich hinein war schon damals eigentlich aberwitzig, aber man hatte eine physikalische und keine biologische Vorstellung von Leben. In der Welt der Molekularbiologie war ein einmal zerstörter DNA-Strang halt ein auf ewig kaputtes Molekül. Insofern mußten sich in dieser einfältigen Welt alle einmal aufgetretenen Schäden addieren.

Heute weiß man: Es gibt Reparaturmechanismen auf der Ebene der DNA-Stränge, es gibt angeregte Produktion von Antioxidantien, programmierten Zelltod, Beistandseffekte auf Gewebeebene und zu guter Letzt das Immunsystems auf Körperebene. Ganz nebenbei sind all diese biologischen Vorgänge im höchsten Maße nichtlinear. Wie man daraus eine LNT-Hypothese basteln konnte, ist schon recht seltsam. Bisher sind mindestens sechs Mechanismen zur Reduktion von Krebs, angeregt durch geringe Strahlung, nachgewiesen worden. Diese Erkenntnisse machen moderne Krebstherapien erst möglich, wenngleich sehr schwierig.

Gerade aus der Strahlentherapie gegen Krebs kommen täglich die Argumente gegen eine kumulierende Wirkung einzelner Dosen: Man teilt eine Behandlung in mehrere Dosen auf, damit sich das gesunde Gewebe besser regenerieren kann. Mutationen sind zwar eine notwendige Bedingung für Krebs, aber noch lange nicht hinreichend. Der Grundsatz »eine Mutation = ein Krebs« ist schlichtweg Unsinn.

Warum immer noch LNT?

Aus der Wissenschaftsgeschichte ist bekannt, daß sich falsche Theorien sehr lange halten können, bis sie endlich verschwinden. Dies um so länger, wenn Macht oder Geld im Spiel sind. Beim ALARA-Prinzip dürfte es schlicht das Geld sein. Der »Strahlenschutz« ist ein weltweiter Milliardenmarkt. Hinzu kommen Tausende von Angestellte und Wissenschaffende, die damit ihren Lebensunterhalt bestreiten und ihre Karrieren aufbauen – alles potentielle Gegner anderer Erkenntnisse.

Ein Meinungsumschwung ist erst dann zu erzielen, wenn breite Bevölkerungsschichten nicht mehr bereit sind, einfach nur zu glauben, sondern ihren gesunden Menschenverstand einsetzen und kritische Fragen stellen. In diesem Sinne dürfte Fukushima als Meilenstein in die Wissenschaftsgeschichte eingehen. Alle Vorhersagen der Angstindustrie über verseuchte Lebensmittel, unbewohnbar gewordene Landstriche, Millionen zusätzlicher Krebserkrankungen usw. haben sich als primitive Propaganda enttarnt. Die Glaubwürdigkeit der »Walschützer« ist verspielt. Händeringend suchen diese Organisationen nach neuen Katastrophen (Klima, Gentechnik, Wasser, …), um die Spendengelder weiter strömen zu lassen. Die Wahl eines Präsidenten in den USA, der sich in seinem Wahlkampf bewußt gegen »Klimaschutz« und andere Machenschaften der »Ökoindustrie« ausgesprochen hat, ist lediglich das erste Wetterleuchten. Der Schulterschluss zwischen Politik, Presse und Geschäftemachern neigt sich dem Ende zu.

Was ist das Neue an der Kritik der Mediziner?

Die Fakten zu LNT und ALARA sind allen Fachleuten längst bekannt. In der Fachwelt gibt es schon lange keine ernsthafte Verteidigung der LNT-Hypothese mehr. Überlebt hat bisher nur das ALARA-Prinzip. Mit der nötigen Eindimensionalität im Denken ließ es sich als Vorsorge verkaufen. Kritik gab es allenfalls von der Betriebswirtschaft: Sind die überproportional zunehmenden Kosten noch vertretbar? Könnte man mit dem Geld nicht anderswo mehr Arbeitsschutz erreichen? Diese – zwar inhaltlich richtige – Kritik war eher ein gefundenes Fressen für alle »Gutmenschen« mit linker Grundhaltung.

Nun dreht langsam der Wind, da plötzlich harte moralische Fakten von immer größeren Bevölkerungsschichten wahrgenommen werden. Es begann weltweit mit Fukushima. Auch der Speerspitze der Angstindustrie gelang es nicht, einen einzigen Strahlentoten oder (bisher) eine zusätzliche Krebserkrankung nachzuweisen. Andererseits äußerten sich immer mehr Mediziner kritisch zu den Umständen der Evakuierung, zu überhasteten Evakuierungen ganzer Krankenhäuser und Pflegeheime. Man spricht inzwischen von etwa 1600 Toten durch die Evakuierungsmaßnahmen. Plötzlich wird deutlich: Strahlenphobie tötet. Darüberhinaus führt Strahlenphobie zu dauerhaften psychischen Erkrankungen. Die sozialen Folgen der Zwangsumsiedlung haben sogar zu Selbsttötungen geführt, ein Phänomen, das schon vom Tschernobyl-Unglück bekannt ist.

Nun melden sich mit dem JNM-Artikel auch die Diagnostiker öffentlich zu Wort. Schon seit Jahren sind sie mit verängstigten Patienten konfrontiert, die notwendige Untersuchungen aus Angst vor Strahlung verweigern. Inzwischen ist das ALARA-Prinzip so weit auf die Spitze getrieben worden, daß die medizinische Diagnostik als solche gefährdet scheint. Clevere Gerätehersteller haben die Strahlung so weit gesenkt, daß die damit gewonnenen Ergebnisse teilweise unbrauchbar sind. Mehrfachuntersuchungen sind nötig, falsche Diagnosen sind nicht ausgeschlossen. Auch hier gilt es, rein medizinische Vor- und Nachteile gegeneinander abzuwägen. Eigentlich reicht auch hier schon der gesunde Menschenverstand.

Röntgenärzte waren übrigens – lange vor der Kerntechnik – die ersten Betroffenen von Strahlenkrankheiten. Sie waren auch die ersten, die Grenzwerte für die Strahlenbelastung einführten. Ganz pragmatisch gingen sie von der Hautrötung als erkennbarem Anzeichen einer Schädigung aus. Sicherheitshalber setzten sie ein Zehntel davon für eine Unbedenklichkeit an. Dieser Grenzwert war lange der Standard, bis im Kalten Krieg die Strahlenphobie zur politischen Waffe wurde.

Zusammenfassung

Es gibt in Natur und Technik kein Gut und kein Schlecht, sondern allenfalls ein Optimum. Jede Sache hat ihre Vor- und Nachteile, die immer untrennbar miteinander verbunden sind. Diese Erkenntnisse sind so alt wie die Menschheit. Fast jede Giftpflanze ist – in der richtigen Dosierung – gleichzeitig auch Heilkraut. Die Erkenntnis »die Dosis macht’s« ist schon seit Jahrhunderten die Grundlage einer jeden Apotheke – unabhängig vom Kulturkreis. Der Angstmensch als Massenerscheinung wurde erst vor wenigen Jahrzehnten in saturierten, westlichen Gesellschaften kultiviert.

Die Strahlenmediziner kritisieren zu Recht, daß fachgerechten Untersuchungen etwa mit Röntgenstrahlen, Computertomographie oder Radionukliden zur Diagnose und Behandlung von Krebs ein innewohnendes, zu hohes Krebsrisiko unterstellt wird. Dieser Fehlschluß beruht einzig auf der falschen LNT-Hypothese. Unterhalb einer Dosis von 100 mGy (10 Rad) konnte kein einziger Krebsfall nachgewiesen werden. Angebliche Fälle werden nur aus dem bekannt falschen LNT-Modell hergeleitet. Ähnlichkeiten zu den »Klimawissenschaften«, bei denen »Welt-Temperaturen« mit bekannt fehlerhaften »Weltmodellen« berechnet werden, sind auffällig, aber beileibe nicht zufällig. Es sind lediglich Spielarten des gleichen Lyssenkoismus.


Titelbild: Kombiniertes Gerät für Positronen-Emissions-Tomographie (PET) und Röntgen-Computer-Tomographie (CT), Siemens Biograph. Quelle: Brudersohn, Wikipedia


5 Antworten

  1. Es ist zwar seit den 1980ern weithin akzeptiert und de-facto bewiesen das die LNT Hypothese nicht richtig ist und das niedrige Strahlendosen und insbesondere Dosisleistungen weniger schädlich sind als die LNT Hypothese vermuten lässt…

    …aber eine wirklich bessere Alternative mit der man sich immer noch auf der sicheren Seite befindet konnte auch nicht gefunden werden.

    Die reale Gefährlichkeit der Strahlung im Niedrigdosisbereich bzw. Niedrigdosisleistungsbereich ist einfach schlecht erforscht.

    Was sollte denn die Alternative zum linearen Dosis-Schädigung Modell das aus der LNT Hypothese hervorgeht und Alara sein?

    Als Alternative zum linearen Modell wurde ein linearquadratisches Modell vorgeschlagen das in gewissen Dosisbereichen besser mit Experimenten oder Beobachtungen übereinstimmt aber dieses impliziert auch eine wenn auch eine geringere Schädigung im Niedrigdosisbereich und scheint auch nicht der Weißheit letzter Schluss zu sein, weder im Niedrigdosisbereich noch im Hochdosisbereich wo es nachweislich falsch ist.

    Sinnvoll wäre ein Modell das nicht nur die Dosis berücksichtigt sondern auch die Dosisleistung und höhere Dosisleistungen stärker gewichtet. Das macht die Sache aber freilich komplizierter. Es gibt auch einfach zu wenige statistisch signifikante Erfahrungswerte im Dosisbereich unterhalb von etwa 100mSv (bei hoher Dosisleistung) um ein solches Modell zu einer sinnvollen These zu machen.

    In der Strahlenschutzpraxis wäre es vielleicht sinnvoller mit Dosisleistungsbezogenen Unbedenklichkeitsgrenzwerten zu arbeiten als mit ALARA. Grenzwerte gibt es aber schon heute; ihre Festlegung wirkt aber zum Teil ein wenig willkürlich auch wenn sie mit sehr hohen Sicherheitsmargen gesetzt wurden; daher werden sie mit ALARA ergänzt.

    Für bessere bzw. besser abgesicherte Grenzwerte fehlen die Erfahrungswerte.

    Eine starke Gewichtung der Dosisleistung die aus radiobiologischer Sicht sinnvoll wäre ist in der Strahlenschutzpraxis auch schwerer umzusetzen und bedingt einen höheren messtechnischen Aufwand.

    Auch in der Arbeitspraxis und der medizinischen Praxis wäre das tendenziell problematisch; viele strahlenexponierte Arbeiten und medizinische Untersuchungen sind zwar mit relativ niedrigen Dosen aber relativ hohen Dosisleistungen verbunden. In der Praxis macht man es so das man die Dosisleistung nicht berücksichtigt und die Kurzzeitdosen dadurch kompensiert das man dafür im weiteren Verlauf auf andere Strahlenexpositionen mit häufig geringeren Dosisleistungen verzichtet. Wird eine gegebene Dosis bei höherer Dosisleistung aber wesentlich stärker gewichtet was eigentlich sinnvoll wäre wird diese Praxis behindert.

    In der Österreichischen Strahlenschutzverordnung gibt es für Strahlenexponiertes Personal der Kathegorie A beispielsweise nur einen gesetzlich festgelegten Grenzwert: Maximal 20mSv pro Jahr. Bis zu 60mSv pro Jahr können gerechtfertigt werden wenn dafür in den folgenden 60 Monaten insgesamt nicht mehr als 100mSv erreicht werden. Ähnlich ist auch die Deutsche Strahlenschutzverordnung aufgebaut wobei sich dort auch noch eine eigentlich nur schwer zu rechtfertigende Berufslebensdosis findet.

    In der Praxis sind 20mSv gleichmäßig übers Jahr verteilt als völlig harmlos einzustufen aber 20mSv oder gar 60mSv auf einen Schlag sind eventuell schon wirklich nicht mehr völlig unbedenklich- hier macht ALARA vielleicht schon Sinn wenn es darum geht solche Aktionen zu vermeiden. Die Verordnung ist also gleichzeitig sowohl überkonservativ und (viel) zu streng als auch relativ großzügig. In der Praxis dürfte es durchaus vorkommen das die Jahresdosis zu wesentlichen Teilen in kurzen Zeiträumen ausgereizt wird, weniger in kerntechnischen Anlagen, vor allem aber im Medizintechnischen Bereich. Man kann eine relativ hohe Kurzzeitdosis nicht dadurch kompensieren das man sich dafür ein paar Monate oder Jahre von Strahlenexpositionen fernhält, das ist jedenfalls ein verbreiteter Fehlschluss.

    Unabhängig von ALARA und LNT muss man auch festhalten das es durchaus nicht unumstritten ist ob etwa die bis zu ~10mSv Kurzzeitdosis einer CT-Untersuchung völlig unbedenklich sind. Es gibt auch belegte Fälle akkuter Strahlenschäden durch in kurzer Folge mehrfach wiederholter CT Untersuchungen; soo weit von wirklich gefährlichen Dosen ist man ja nicht entfernt und die Dosisleistung bei der Untersuchung ist mit bis zu mehreren Sv/h durchaus beachtlich.

    Zum Teil gibt es firmeninterne inoffizielle Grenzwerte die dem Rechnung tragen, in vielen KKW gibt es etwa auch Monats- und Tagesgrenzwerte um die Dosiskonzentration auf kurze Zeiträume zu vermeiden aber in Unternehmen in denen solche Grenzwerte hinderlich sind wird man darauf verzichten sie einzuführen. Die Langzeitdosis ist im Gegenzug natürlich auch nicht höher. Zu bemerken ist das diese Grenzwerte wie auch jene in der Strahlenschutzverordnung allerdings relativ willkürlich festgelegt sind und nicht das Ergebnis empirischer Forschungsergebnisse.

    Also: Um LNT und ALARA wirklich ad acta legen zu können brauchen wir ein empirisch abgesichertes und strahlenschutzpraxistaugliches Alternativmodell. Ein solches ist sehr schwer zu erstellen da man für sinnvolle Niedrigdosisstudien eine Stichprobe von hunderttausenden kontrolliert geringfügig Strahlenexponierten Personen und eine ähnlich große Kontrollgruppe mit gut vergleichbaren sonstigen Risikofaktoren bräuchte. Versuche mit Tieren oder Zellkulturen eignen sich in der Praxis nur bedingt da DNS Reparaturmechanismen bei vielen Tieren anders (oft schlechter) funktionieren als beim Menschen und weil die Bedeutung des Immunsystems, Beistandseffekte und Stoffwechseleffekte die Aussagekraft von Studien mit Zellkulturen einschränken. Allerdings muss man hier noch bemerken das Fortschritte in der Biotechnologie immer realistischere (wenn auch aufwendigere) Experimente mit Zellkulturen möglich machen.

    Ich habe zu dem Artikel einige weitere Kritikpunkte anzumerken:

    „Bei sehr kleinen Dosen bildeten die Krebsfälle die übliche Wolke, wie sie in jeder Bevölkerung auftritt, ob bestrahlt oder nicht.“

    Was genau hier mit einer „Wolke“ gemeint ist ist meiner Ansicht nach möglicherweise nicht für jeden Leser offensichtlich.

    „Der größte Blödsinn ist jedoch die Außerkraftsetzung des Grundsatzes: »Die Dosis macht’s«. Das widerspricht jeder Alltagserfahrung und ist vergleichbar der Behauptung, ein Schnaps pro Woche habe die gleiche Wirkung wie eine Flasche »auf ex«.“

    Diese Aussage widerspricht sich etwas selbst denn in dem Fall gilt ja eben das nicht nur die Dosis sondern gleichzeitig auch die Dosisleistung berücksichtigt werden sollte.

    „Heute weiß man: Es gibt Reparaturmechanismen auf der Ebene der DNA-Stränge, es gibt angeregte Produktion von Antioxidantien, programmierten Zelltod, Beistandseffekte auf Gewebeebene und zu guter Letzt das Immunsystems auf Körperebene. Ganz nebenbei sind all diese biologischen Vorgänge im höchsten Maße nichtlinear.“

    Das sollte meiner Ansicht nach besser erklärt werden. Bemerkenswert ist insbesondere:

    -Die DNS Reparaturmechanismen wurden erst in den 1970er Jahren entdeckt; die Entdecker wurden übrigens 2015 mit dem Chemienobelpreis geehrt.
    -Das das DNS Molekül überhaupt Träger der Erbinformation ist und wie dieses Molekül aufgebaut ist wurde bekanntlich auch erst in den 1950er Jahren entdeckt, das LNT-Modell ist älter
    -Zu bemerken ist das die DNS bei normaler Temperatur kein stabiles Molekül ist. Schäden treten auch ohne Strahlenbelastung andauernd auf, entweder spontan oder durch Giftstoffe induziert wobei diese Gifte zum Teil unvermeidbare Stoffwechselprodukte sind und werden andauernd repariert

    „Etwa 60 bis 70 % der DNA-Schäden in Säugetierzellen entstehen durch Oxidation. Oxidationen erzeugen etwa 10.000 bis 11.500 Schäden pro Tag pro menschlicher Zelle“
    Strahlung bildet durch Radiolyse Wasserstoffperoxid aus dem Wasser in den Zellen (Zellen bestehen überwiegend aus Wasser), dieses kann die DNS durch Oxidation schädigen. Es sollte offensichtlich sein das eine geringfügige Erhöhung eines bereits im strahlungslosen Normalfall vorhandenen Schädigungsmechanismus keine gravierenden Folgen haben sollte.

    -Zu bemerken ist das die Vorstellung die Strahlung würde die DNS direkt schädigen falsch ist. Der wichtigste Schädigungsmechanismus ist eigentlich die Bildung von Giftstoffen in den Zellen durch Radiochemische Effekte. Je höher die Konzentration dieser Giftstoffe desto stärker ist ihre Wirkung, neben einer direkten Schädigung der DNS können diese Stoffe auch die Reparaturmechanismen beeinträchtigen. Da diese Giftstoffe im Laufe der Zeit abgebaut werden ist das ein weiterer Faktor der zu einer größeren Gefährlichkeit hoher Dosisleistungen bei gleicher Gesamtdosis beiträgt. Es ist aber schon bemerkenswert das die Strahlung primär wie ein chemisches Gift wirkt und nicht wirklich eine Sonderstellung hat. Das gilt übrigens sowohl für die DNS Schädigung als auch die Strahlenkrankheit. Gegen diese Giftwirkung gibt es auch Gegengifte. Bestimmte Stoffe können die durch die Strahlung gebildeten Giftstoffe chemisch binden und neutralisieren, die Einnahme solcher Stoffe ist potenziell sowohl vor einer Strahlenexposition als auch unmittelbar nach dieser sinnvoll. Ein Beispiel für so einen Stoff ist DIM (3,3’-diindolylmethane) welches in manchen Nahrungsmitteln vorkommt. Diese relativ junge Erkenntnis hat allerdings noch praktisch keine Anwendung in der Strahlenschutzpraxis gefunden.
    -Im gleichen Zusammenhang ist anzumerken das verschiedene Stoffwechselfaktoren, eine Belastung mit chemischen Giften bzw. Schadstoffen oder irgendwelchen Krankheiten die Empfindlichkeit gegenüber Strahlung durch eine Beeinträchtigung der Regenaration der Zellen, des Immunsystems und/oder der DNS Reparatur erhöhen kann oder könnte.
    -Weiters ist zu bemerken das Reparaturmechanismen und Giftstoffabbau in den Zellen in einer zeitlichen Größenordnung von Sekunden bis hin zu einigen zehn Minuten wirken. Das ist ein Anhaltspunkt dafür ab welchen Zeiträumen die zeitliche Streckung einer gewissen Strahlendosis zu deren (un-) Gefährlichkeit beitragen kann

    „Wie man daraus eine LNT-Hypothese basteln konnte, ist schon recht seltsam.“

    Das wurde ja eigentlich schon zuvor erklärt: Weil es tatsächlich eine ziemlich lineare Dosis-Wirkung Beziehung gibt, jedenfalls in einem gewissen Dosisbereich bei hohen Dosisleistungen. Und mit den Atombombenopfern als einzige statistisch signifikante Stichprobe hatte man nur eine Statistik aus Personen zur Verfügung die eine auf einen sehr kurzen Zeitraum konzentrierten Belastung ausgesetzt waren. In weitgehender Ermangelung anderer Erkenntnisse hatte man gar keine andere Wahl als mit diesen Werten zu arbeiten auch wenn klar war das das vielleicht nicht der Weißheit letzter Schluss ist.

    „Röntgenärzte waren übrigens – lange vor der Kerntechnik – die ersten Betroffenen von Strahlenkrankheiten. Sie waren auch die ersten, die Grenzwerte für die Strahlenbelastung einführten. Ganz pragmatisch gingen sie von der Hautrötung als erkennbarem Anzeichen einer Schädigung aus. Sicherheitshalber setzten sie ein Zehntel davon für eine Unbedenklichkeit an. Dieser Grenzwert war lange der Standard, bis im Kalten Krieg die Strahlenphobie zur politischen Waffe wurde.“

    So blöd ist der Ansatz nicht auch wenn ein Zehntel einer Dosis (und Dosisleistung!) die zu einer Hautrötung führt aus heutiger Sicht doch recht fahrlässig erscheint. Die Mechanismen die zu Akkutschäden führen (Entstehung von Giftstoffen in den Zellen) entsprechen ja weitgehend jenen die zu Mutationen führen.

    Ein Zehntel einer Dosis die zu nachweisbaren Akkutschäden führt wären 25mSv (Kurzzeit), da wären wir schon in der Größenordnung in der man irgendwo einen Schwellwert zur völligen Ungefährlichkeit vermuten könnte. Schlagen wir nochmal eine ordentliche Sicherheitsmarge drauf und machen 2,5mSv daraus. Dann könnte man sich noch die Bedeutung der Dosisleistung auf dieser Basis ansehen und entsprechende Grenzwerte entwickeln. Das könnte dann etwa in diesem Bereich liegen:

    -2,5mSv pro Stunde als maximale Kurzzeitdosis; in der Praxis würde man das meist als Tagesdosis umsetzen
    -20mSv pro Tag (bei weniger als 2,5mSv/h) als maximale Tagesdosis
    -250mSv pro Jahr als maximale Jahresdosis

    Beachtlich ist das ein solches Modell bei kurzen Expositionen strenger wäre als die gültigen Grenzwerte der Strahlenschutzverordnung. Über einen längeren Zeitraum gestreckte Dosen würden aber weit weniger stark gewichtet.

    Man könnte und sollte das dann natürlich so kommunizieren das innerhalb dieser Grenzwerte mit hoher Sicherheit von einer weitgehenden oder wahrscheinlich sogar praktisch völligen Ungefährlichkeit der Strahlung ausgegangen werden kann.

    Beachtlich ist das die hohe Jahresdosis massive Konsequenzen für die Bewertung von Freisetzungen radioaktiver Stoffe in die Umwelt und damit die Bewertung von Reaktorunfällen hat. Hätte man Grenzwerte in dieser Größenordnung angenommen hätte es etwa in Fukushima überhaupt keine Evakuierungen nach dem Reaktorunfall in Fukushima Daiichi geben müssen, jedenfalls keine über längere Zeiträume als wenige Tagen-Wochen (solche wären fallweise unabhängig von tatsächlichen Strahlendosen als Sicherheitsmaßnahme im Fall einer weiteren Eskalation der Situation zu rechtfertigen gewesen).

    „Ähnlichkeiten zu den »Klimawissenschaften«, bei denen »Welt-Temperaturen« mit bekannt fehlerhaften »Weltmodellen« berechnet werden, sind auffällig, aber beileibe nicht zufällig. Es sind lediglich Spielarten des gleichen Lyssenkoismus.“

    Verzichtbare Stichelein gegenüber Klimaschutz und Klimaforschung helfen uns hier nicht weiter und machen die restlichen Aussagen des Artikels und sogar die Nuklearia im Allgemeinen ohne Not in den Augen vieler potenziell unglaubwürdiger und zudem angreifbar.

  2. Herr Humpich, das Team Trump ist leider voll mit Geschäftemachern aus der Öl und Gas und Kohleindstrie, gerade die, die bei einem Ausbau der Kernenergie am meisten zu verlieren hätten.
    Diese mächtigen Lobbygruppen haben leider beide Seiten des politischen Spektrums gekauft, und so sind übertriebene Strahlenangst und Zweifel an der schädlichkeit von massivenTreibhausgasemissionen zwei Seiten derselben Medallie.

    1. Na ja das muss man allerdings durchaus einschränken…

      1) Viele Firmen die im Bereich der Kohlenutzung und Gewinnung tätig sind sind auch im Bereich der Kerntechnik tätig. Einem EVU ist egal ob er ein KKW oder ein Kohlekraftwerk betreibt, hauptsache es ist gewinnbringend, einer Firma die im Anlagenbau tätig ist ist egal ob sie ein KKW baut oder ein Kohlekraftwerk

      2) Die Energiebilanz der Förderung unkonventioneller Ölvorkommen in den USA ist sehr schlecht. Ein großer Teil der Energie die man durch die Förderung gewinnt wird für die Förderung wiederum verbraucht. Hier läge die Möglichkeit nahe die Förderung unkonventioneller Ölvorkommen mit Hilfe von KKW energetisch querzusubventionieren. Besonders interessant ist das im Fall tief liegender Schieferölvorkommen die in den USA in riesigen Mengen vorhanden sind. Im Zuge der Gewinnung muss das Ölvorkommen selbst allerdings künstlich aufgeheizt werden, ein sehr energieintensiver Prozess. Eine großtechnische Erschließung dieser Ölvorkommen könnte einen Energieverbrauch von mehreren Gigawatt mit sich bringen und es besteht natürlich ein Interesse daran diesen Bedarf aus billigeren Quellen als aus Öl zu decken.

      Richtig ist aber das Trump angekündigt hat politische Maßnahmen umzusetzen welche die Wirtschaftlichkeit von Gas- und Kohlekraftwerken in Zukunft deutlich weiter verbessern sollte. Gegenwärtig können KKW Neubauprojekte da kaum mithalten. Es bleibt abzuwarten ob, in welcher Form und in welchem Umfang auch Reformen beschlossen und umgesetzt werden welche die Wirtschaftlichkeit von KKW Neubauten entschieden verbessern.

      1. Ein paar Anmerkungen zu 1). Steinkohle, Öl und Gasförderung ist meist getrennt von EVUs, insofern hat man es hier durchaus mit separaten fossilen Energieindustrien zu tun. Die politische Macht der Kohleindustrie in Deutschland erkennt man ja schon daran, dass sie immer noch 3 milliarden Euro Subventionen im Jahr einsackt, ein Zustand, der Regierungen von rot-grün bis schwarz-gelb überdauert hat.

        Man muss sich ja nur den post-politischen Werdegang von Gerhard „Gazprom“ Schröder ansehen, um zu Verstehen, wo die Nutzniesser des Atomausstiegs sitzen.

        Ex-KKW-Bauer Siemens hat sich ganz hervorragend auf die Energiewende eingestellt. Für einen Kraftwerksbauer ist natürlich die mutwillige Zerstörung von Kraftwerken in den besten Jahren eine tolle Konjunkturspritze. Irgendwie müssen die KKW ja ersetzt werden. Und nach der Logik der Energiewende gleich dreifach: Sonne, Wind, und wenn beides nichts liefert, Kohle oder Gas.

        Von der Braunkohleförderanlage zur Windturbine, vom Solarwandler zum Kohlekraftwerk, und auch bei den HVDC Leitungen um den lokal und dezentral und „demokratisch“ erzeugten Strom zeitweilig quer durchs Land zu transportieren, an allen Eckpfeilern der Energiewende also, verdient Siemens fleissig mit. Je teurer wir unsere Stromversorgung gestalten, desto besser für Siemens. Mit der Energiewende sind wir da auf dem richtigen Weg.

        Selbst in der Kernenergiesparte lässt sich noch Geld machen: beim Rückbau. Auch hier gilt der Grundsatz: Je teurer, desto besser für die beauftragten Unternehmen.

        Ich bin sicher, dem Rückhol-König, der jetzt für den Rückbau zuständig ist, wird da einiges einfallen. Bei der Asse wird schliesslich beispielsweise ständig überprüft, ob die Tritium-Konzentration in der Salzlauge, die nach Mariaglück in ein anderes Salzbergwerk verbracht wird, auch weiterhin 2000-fach unter dem WHO Grenzwert für Trinkwasser ist. Bei STRAHLUNG kann man ja nicht vorsichtig genug sein. Einhaltung von Grenzwerten ist schon lange nicht mehr genug. Beim Strahlenschutz gilt inzwischen ein umgekehrtes LNT Modell. Je schwerer nachweisbar die Strahlung ist, desto grösser ist die Gefahr, dass unglaubliches vertuscht wird.
        All dieser Unsinn würde nicht passieren, wenn es hier nicht um so viel Geld ginge.

  3. Is natürlich Kaffeesatz, aber von einer Lockerung überflüssiger Restriktionen könnten vermutlich alle Sparten profitieren und einen gesunden Wettbewerb lostreten – mit uns als Zuschauer.

Newsletter

Ja, ich will … Infos über Aktionen und Neues rund um die beste Energiequelle direkt in mein Postfach.