Technisches Forum Sicherheit

Frage 161: Verifizierung und Falsifizierung von Modellen

Modelle sind mehr oder weniger genaue Annäherungen an die Wirklichkeit, aber nicht die Wirklichkeit selbst. Sie basieren auf Theorien. Das Klimamodell beinhaltet etwa die Theorie des Wärmetransports in der Atmosphäre, die Theorie über den Energieaustausch zwischen Meeren und Kontinenten, die Theorie über den Strahlungshaushalt von Wolken, die Theorie des Druckausgleichs durch Winde usw. Komplexe Modelle können sich somit aus verschiedenen Theorien zusammensetzen, und dennoch wird das Modell nicht sämtliche Effekte beschreiben können. Dies hängt nicht zuletzt damit zusammen, dass Theorien zwar induktiv oder deduktiv gewonnene Erkenntnisse möglichst umfassend beschreiben. Dennoch ist eine endgültige Bestätigung einer Theorie laut Karl Poppers «Logik der Forschung» nicht möglich. Vielmehr sei sie logisch ausgeschlossen, da aus allen empirisch gewonnenen Erfahrungssätzen nur induktiv auf allgemeine Gesetze der Theorie geschlossen werden könne.

Deshalb hat Karl Popper das Verifikations- durch das Falsifikationsprinzip ersetzt: Theorien müssen widerlegbar sein und sind daher der empirischen Nachprüfung durch Experimente auszusetzen. Dieses Prinzip kann missverstanden werden, und deshalb wird es in der tatsächlichen Wissenschaft kaum in reiner Form angewandt. Daher verlangt Karl Popper: «Wann immer wir glauben, die Lösung eines Problems gefunden zu haben, sollten wir unsere Lösung nicht verteidigen, sondern mit allen Mitteln versuchen, sie selber umzustossen.» Nach Popper muss eine Theorie, um dem Anspruch der Wissenschaftlichkeit zu genügen, von vornherein so gebaut sein, dass sie falsifizierbar ist. Die Bestätigung einer Theorie stützt sie (ohne sie zu beweisen), die Falsifizierung einer These würde (nach Popper) die ganze Theorie widerlegen, da die These ja aus der Theorie hergeleitet wurde.

Paul Feyerabend hinterfragt Poppers Falsifikationsprinzip in seiner Darstellung «Wider den Methodenzwang». Feyerabend zeigt an vielen Beispielen (etwa an Newtons Farbenlehre oder an Einsteins Allgemeiner Relativitätstheorie), dass es keine einzige Theorie gibt, die mit allen bekannten Tatsachen auf ihrem Gebiet übereinstimmt. Schwierigkeiten entstünden gerade durch Experimente und Messungen von höchster Genauigkeit und Zuverlässigkeit. Gemäss Feyerabend wäre es fatal, wenn sich Wissenschaftler ausschliesslich entsprechend des Popperschen Falsifikationsprinzips verhalten und ihre Theorien als widerlegt betrachten würden, falls sie anerkannten empirischen Tatsachen widersprechen. Manchmal könne man solche Tatsachen auch nutzen, um Theorien zu verbessern. Das heisst, man sucht nach zusätzlichen, bisher nicht berücksichtigten Mechanismen oder Parametern, welche die Abweichung zwischen theoretischer Vorhersage und empirischem Befund erklären. Nach Feyerabend sei es oft schwer, Annahmen von spontan eingeführten Hypothesen zu unterscheiden, die benötigt werden, um eine bestehende Theorie aufrecht zu halten. Ein typisches Beispiel ist die Modellierung des Treibhauseffekts. Dort werden die eingesetzten Theorien gebildet, laufend überprüft, ergänzt, verfeinert und mit empirisch gewonnenen Daten kalibriert. Dennoch lassen die heutigen Klimamodelle – trotz komplexer Modellierung – keine zukünftigen Klimaschwankungen über Tausende von Jahren zu; der heutige Prognosezeitraum beträgt wenige Jahrzehnte bis Jahrhunderte.

Auch bei der Suche nach einem geologischen Tiefenlager werden Modelle (z.B. Transfer von Radionukliden in die Biosphäre, Verdünnung von Konzentrationen in Fliessgewässern, Wanderung von Ionen durch den Opalinuston) eingesetzt. Erkenntnisse daraus sind nur so gut, wie die eingesetzte Theorie.

Aufgrund der Wissenschaftstheorie stellen sich daher verschiedene Fragen:

  1. Welche Bedeutung haben Modelle und Szenarien in der Erarbeitung des Sicherheitsnachweises? – Auf welchen Grundannahmen basieren diese? – Welche unterschiedlichen Typen von Modellen und Szenarien werden eingesetzt?
  2. Nach welchen Kriterien werden die eingesetzten wissenschaftlichen Modelle überprüft? – Wird versucht, Erkenntnisse aus Modellen im Sinne von Karl Popper umzustossen, um ihren Erklärungsgehalt zu verifizieren oder zu falsifizieren?
  3. Modelle sind nur so gut, wie der momentane Forschungsstand es zulässt. Werden Modelle verfeinert oder auch abgelehnt, wenn sich neuere, bessere Erkenntnisse ergeben? – Falls ja, nach welchen Kriterien? – Wie wird die Sensitivität der Modelle festgelegt? – Gibt es dazu anschauliche Beispiele aus dem Sachplanverfahren bzw. der Forschung der Nagra?
  4. Wie fliessen neue Erkenntnisse in die Modelle ein, zum Beispiel die in der Trüllikoner Bohrung gefundenen Risse im Opalinuston, welche den «selbstheilenden» Effekt des Opalinuston in Frage stellen?
  5. Die Sicherheit verlangt, dass Vorhersagen über hunderttausende von Jahren zu treffen sind. Aufgrund welcher Tatsachen und Modelle werden langfristige Aussagen (über Tausende bis Millionen von Jahren) gewonnen? – Wie werden diese wissenschaftlich verifiziert bzw. falsifiziert? – Oder basiert alles auf Charles Lyells Aussage: «The past is the key to the present» und somit auch für die Zukunft? – Was wenn die einem Modell zugrunde liegenden Parameter sich in Zukunft unvorhergesehen ändern? (Z. B. könnten sich die Hebungsraten aufgrund der nordwärts driftenden afrikanischen Kontinentalscholle erhöhen.)
Thema Bereich
Eingegangen am 7. Februar 2022 Fragende Instanz FG Si ZNO
Status beantwortet
Beantwortet am 9. August 2022 Beantwortet von ,

Beantwortet von ENSI

a)

Die Richtlinie ENSI-G03 schreibt vor, dass für den Sicherheitsnachweis Daten, Prozesse und Modellkonzepte gemäss Stand von Wissenschaft und Technik zu verwenden und deren Unsicherheiten aufzuzeigen sind. Der Sicherheitsnachweis ist auf die Ergebnisse einer umfassenden Sicherheitsanalyse abzustützen, in der das Langzeitverhalten eines geologischen Tiefenlagers und die daraus resultierenden sicherheitsrelevanten Auswirkungen untersucht werden. Neben quantitativen Betrachtungen ist auch die Bewertung qualitativer Aspekte im Sicherheitsnachweis aufzuführen.

Der Sicherheitsnachweis hat Aufschluss über die Zuverlässigkeit der getroffenen Aussagen und über die sicherheitstechnische Relevanz von Unsicherheiten zu geben. Unsicherheiten sind, soweit notwendig und möglich, durch Forschung und Datenerhebung zu reduzieren. Die verfügbaren technisch-wissenschaftlichen Daten über das geologische Tiefenlager und seine Umgebung, die Informationen über die eingelagerten Abfallgebinde, die während des Betriebs gewonnenen Erkenntnisse und die Ergebnisse der Überwachung sind im Sicherheitsnachweis zu berücksichtigen.

Unsicherheiten in den Daten, Prozessen und Modellkonzepten sowie in der zukünftigen Entwicklung eines geologischen Tiefenlagers sind unvermeidlich. Der Umgang mit Unsicherheiten ist im Sicherheitsnachweis und in der Sicherheitsanalyse ein zentrales Element. Um die Robustheit der Wirkung des Barrierensystems aufzuzeigen, werden deshalb auch Entwicklungen betrachtet, die wenig wahrscheinlich oder sogar rein hypothetisch („what if“-Fälle) sind.

Die systematische Untersuchung des Einflusses der Unsicherheiten auf die Langzeitsicherheit dient dazu, das Vertrauen in die Aussagen zur Langzeitsicherheit zu stärken, den zukünftigen Forschungsbedarf aufzuzeigen und die Auslegung des geologischen Tiefenlagers zu optimieren.

Modelle werden eingesetzt, um das Langzeitverhalten des ganzen Tiefenlagersystems zu beschreiben. Dies umfasst das Verhalten der radioaktiven Abfälle, Komponenten wie Behältermaterialien, das Verhalten des Nahfelds (Verfüllung), das Verhalten des Gebirges. Teil des Sicherheitsnachweises sind die Betrachtung verschiedener Entwicklungsmöglichkeiten des Tiefenlagers und die Analyse der radiologischen Folgen dieser Entwicklungsszenarien. Betrachtet werden unter anderem Prozesse wie Erosion, Hebung, Erdbeben und die Veränderung von Klimabedingungen.

Die Möglichkeiten der Entwicklung eines geologischen Tiefenlagers werden durch die Eigenschaften seiner Komponenten sowie die Abfolge von Ereignissen und Prozessen (features, events and processes; FEP) bestimmt, welche die Freisetzung von Radionukliden aus dem Lager und deren Transport in den Lebensraum des Menschen (die Biosphäre) beeinflussen. Die FEPs ergeben sich zunächst aus dem Verständnis des betrachteten Systems heraus, werden aber üblicherweise durch den Vergleich mit internationalen FEP-Datenbanken bisheriger Endlagerprojekte überprüft. Basierend auf den massgeblichen FEPs werden die Szenarien definiert, innerhalb derer sich das Lagersystem voraussichtlich entwickeln wird. Dabei sind Vereinfachungen, welche eine Zusammenfassung ähnlicher Szenarien erlauben, zulässig, um eine zu feine Einteilung in Szenarien zu vermeiden.

Mit der Berechnung der radiologischen Folgen umhüllender Varianten der Entwicklung eines geologischen Tiefenlagers wird davon ausgegangen, dass die tatsächliche Entwicklung mit keiner grösseren Freisetzung verbunden sein wird, als sich in diesen Entwicklungsvarianten zeigt. Allenfalls sind auch konservative Annahmen für die Wahl der Modellansätze und Modellparameter in die Berechnungen einzubeziehen. Dazu gehören auch Freilegungsszenarien und das unbeabsichtigte menschliche Eindringen. Bei der Modellierung von Szenarien können auch stilisierte Annahmen verwendet werden wie zum Beispiel die Biosphärenmodellierung.

Die möglichen Prozesse und Entwicklungsmöglichkeiten werden systematisch betrachtet. Als Beispiel sei auf die internationale Sammlung «International Features, Events and Processes (IFEP) List for the Deep Geological Disposal of Radioactive Waste» hingewiesen, in der die einzelnen Entwicklungsmöglichkeiten gruppiert dokumentiert sind:

FEP 1: External factors: Repository issues (pre-closure), Geological factors, Climatic factors, Future human actions, Other external factors.

FEP 2: Waste package factors: Waste form, Waste packaging characteristics and properties, Waste package processes, Contaminant release [waste form], Contaminant migration [waste package]

FEP 3: Repository factors: Repository characteristics and properties, Repository processes, Contaminant migration [repository]

FEP 4: Geosphere factors: Geosphere characteristics and properties, Geosphere processes, Contaminant migration [geosphere]

FEP 5: Biosphere factors: Surface environment, Human characteristics and behavior, Contaminant migration [biosphere], Exposure factors

Sensitivitäts- und Unsicherheitsanalysen geben wertvolle Hinweise auf eventuell notwendige weitere Untersuchungen und Methodenentwicklungen, um die bestehenden Unsicherheiten der Eingabewerte und Modelle zu reduzieren. Sie kann die Abhängigkeit der Berechnungsergebnisse von möglichen Vereinfachungen aufzeigen. Probabilistische Berechnungen können verwendet werden, um die mit den Szenarien verbundenen Risiken unter Berücksichtigung der Parameterbandbreiten, respektive deren dazugehörigen Unsicherheiten zu quantifizieren.

Nach Möglichkeit sind die Aussagen der Sicherheitsanalysen durch Naturanaloga zu stützen. Als Naturanaloga bezeichnet man für ein geologisches Tiefenlager relevante Geosysteme, Materialien und Prozesse in der Natur, deren Verhalten über lange Zeiträume der Vergangenheit untersucht werden kann. Darunter fallen auch anthropogene Materialien, die über längere Zeiträume natürlichen Prozessen ausgesetzt waren. Die Untersuchungen solcher Naturanaloga helfen bei der Abschätzung möglicher Entwicklungen und der Beurteilung der Langzeitsicherheit eines geologischen Tiefenlagers.

Die Dosisberechnung stützt sich unter anderem auf Annahmen über die Strahlungsempfindlichkeit und die Lebensweise von Menschen, die in weit entfernter Zukunft leben. Die Richtlinie ENSI-G03 fordert, dass aus heutiger Sicht glaubwürdige Annahmen zu treffen sind.

Damit ist gemeint, dass ausgehend von mutmasslichen örtlichen und klimatischen Gegebenheiten eine für heutige Menschen mögliche Besiedlung und Lebensweise anzunehmen ist. Die Ergebnisse der Individualdosis-Berechnung dienen der Bewertung der Freisetzung der radioaktiven Stoffe aus dem geologischen Tiefenlager und somit der Bewertung der in der Zukunft vorhandenen Schutzfunktion des geologischen Tiefenlagers. Für die Bewertung der Langzeitsicherheit sind auch Szenarien einzubeziehen, welche die Folgen von menschlichen Handlungen analysieren.

Bei der Modellierung der einzelnen Prozesse kommen je nach Anwendungsgebiet unterschiedliche Programme zum Einsatz. Das ENSI achtet darauf, die Berechnungen mit anderen Programmen als die Nagra durchzuführen.

b)

Der Philosoph Karl Raimund Popper war der Ansicht, dass die wissenschaftliche Praxis durch ihr kontinuierliches Bemühen gekennzeichnet ist, Theorien anhand von Erfahrungen zu testen und auf der Grundlage der Ergebnisse dieser Tests Überarbeitungen vorzunehmen sind.

Grundlage jeder Modellierung ist die Erfahrung, dass sich ablaufende Prozesse mathematisch fassen und berechnen lassen. Im Falle der Modellierung der im Tiefenlager und im geologischen Umfeld ablaufenden Prozesse ist die Kenntnis dieser Prozesse, ihre gegenseitigen Abhängigkeiten, die Kenntnis der Ausgangsbedingungen von grosser Bedeutung. Das Modell lässt sich, je nach Fragestellung, durch einen Satz von Gleichungen beschreiben. In diese Gleichungen gehen Parameter ein, die experimentell bestimmt werden.

Werden Modellierungen im Sicherheitsnachweis verwendet, ist also zu überprüfen, ob alle sicherheitsrelevanten Prozesse erfasst und mathematisch korrekt beschrieben wurden. Letzteres erfolgt anhand von Experimenten, deren Resultate die Anwendbarkeit des Modells überprüfen. Zudem ist zu überprüfen, ob alle in die Gleichungen einfliessenden Parameter experimentell belastbar bestimmt wurden.

Die stete Verfeinerung der Modelle und das Hinterfragen, ob die Modelle im Hinblick auf die Langzeitsicherheit anwendbar sind, ist ein Grundsatz bei der Erstellung und Prüfung eines Sicherheitsnachweises.

e)

Uniformitarismus ist die Annahme, dass die gleichen Naturgesetze und Prozesse, die in unseren heutigen wissenschaftlichen Beobachtungen festgestellt werden, auch in der Vergangenheit gewirkt haben. In der Geologie geht der Uniformitarismus von der Annahme aus, dass «die Gegenwart der Schlüssel zur Vergangenheit ist» und dass aktuell beobachtbare geologische Prozesse auch in der Vergangenheit aufgetreten sind.

Im 18. Jahrhundert wurde dieser Ansatz von britischen Naturforschern wie William Whewell im Gegensatz zum Katastrophismus entwickelt. Zu erwähnen sind dabei auch James Hutton mit seinem Buch Theory of the Earth. Diese Ideen wurden von John Playfair verfeinert und durch Charles Lyell im ersten Drittel des 19. Jahrhunderts in seinem Buch Principles of Geology bekannt gemacht. Die Entwicklung des Planeten wird heute als ein langsamer, stetiger Prozess angesehen, der von gelegentlichen Naturkatastrophen unterbrochen wird.

Die Bewertung der potenziellen radiologischen Auswirkungen eines geologischen Tiefenlagers muss den unvermeidlichen, mit zunehmender Zeitspanne wachsenden Unsicherheiten Rechnung tragen. So haben technische Barrieren, Wirtgestein, umgebende geologische Schichten, Biosphäre und die Lebensgewohnheiten der Menschen jeweils eine unterschiedliche zeitliche Prognostizierbarkeit.

Der geforderte Nachweiszeitraum von bis zu einer Million Jahren ist abgeleitet vom zeitlichen Verlauf des radiologischen Gefährdungspotenzials der eingelagerten abgebrannten Brennelemente und von den Zeiträumen (bis zu einigen Millionen Jahren), in denen belastbare Aussagen zur geologischen Langzeitentwicklung in der Schweiz möglich sind.

Zu den Unsicherheiten, die im Sicherheitsbericht aufzuzeigen und zu quantifizieren sind, gehören Unsicherheiten bezüglich Konzeptualisierungen, Rechenmodellen, Szenarien und Parametern. Die gesamte Unsicherheit des Tiefenlagersystems kann auch durch Anpassung der Auslegung des Tiefenlagers reduziert werden.

Grundlage der Modellierung ist der Ansatz, dass die Kenntnisse der möglichen Szenarien, der dabei ablaufenden Prozesse und der mögliche Parameterraum (beispielsweise der Bereich zu betrachtender Hebungsraten) ausreichen, die Bandbreite der potenziellen radiologischen Auswirkungen zu bestimmen.

Wie unter Teilfrage b) dargelegt, bildet die Erfahrung, dass sich ablaufende Prozesse mathematisch fassen und berechnen lassen, Grundlage. Werden die Modellierungen im Sicherheitsnachweis verwendet, ist also zu überprüfen, ob alle sicherheitsrelevanten Prozesse erfasst und mathematisch korrekt beschrieben wurden. Letztere erfolgt anhand von Experimenten, deren Resultate die Anwendbarkeit des Modells überprüfen. Zudem ist zu überprüfen, ob alle in die Gleichungen einfliessenden Parameter experimentell belastbar bestimmt wurden.

Beantwortet von Nagra

c)

Die Modelle werden von der Nagra laufend an die neusten wissenschaftlichen Erkenntnisse und Daten sowie den Projektfortschritt angepasst. Dies schliesst Verfeinerungen oder auch den Aufbau neuer Modelle zur Ergänzung oder zum Ersatz bestehender Modelle mit ein. Erweiterte Erkenntnisse ergeben sich einerseits aus Untersuchungen, welche von der Nagra selbst (z. B. erdwissen­schaftliche Untersuchungen in der laufenden Etappe 3 des Sachplans geologische Tiefenlager (SGT), Experimente im Felslabor Mont Terri und im Felslabor Grimsel), von Partnerorganisationen (z. B. Schwesterorganisationen, PSI, etc.) oder von Dritten (Universitäten, etc.) durchgeführt werden. Modelle werden zudem periodisch auf den neusten Stand von Wissenschaft und Technik gebracht (z. B. Fortschritte beim Prozessverständnis, neue Computer-Codes, etc.).

So nimmt die Nagra an einer Reihe von internationalen Benchmark-Studien teil (z.B. Swedish Nuclear Fuel and Waste Management Company Task Force on Engineered Barrier Systems, EU-Programme: FORGE, BEACON, EURAD-GAS, EURAD-HITEC, siehe z. B. https://www.ejp-eurad.eu/). Die Nagra organisiert auch eigene Modellier-Task-Forces mit internationaler Beteiligung (Mont Terri Rock Laboratory (MT) – Full-scale Emplacement Experiment (FE) Task Force, Grimsel Test Site (GTS) – Gas-Permeable Seal Test (GAST) Task Force, GTS – High Temperature Effects on Bentonite Buffers (HotBENT)). Die Teilnahme an solchen Benchmark-Studien ist ein Schlüsselelement in der RD&D-Strategie der Nagra.

Die Sensitivität der Modellergebnisse gegenüber verbleibenden Ungewissheiten wird mit deterministischen und probabilistischen Ungewissheits- und Sensitivitätsanalysen analysiert. Es lassen sich so einerseits die Parameter oder Prozesse identifizieren, die den grössten Einfluss auf die Modellergebnisse haben (Sensitivitätsanalyse) wie auch der Einfluss der Ungewissheiten in den Eingangsparametern auf die Modellergebnisse quantifizieren (Ungewissheitsanalyse). Dies erlaubt eine gezielte Weiterentwicklung des Projektes (inkl. Forschung, Prozessverständnis, Modellierung, etc.) zur Reduktion von allenfalls relevanten Ungewissheiten. Beispielsweise wurden Vorhersagemodellierungen zur Validierung der verwendeten gekoppelten Modelle anhand des Heater Tests im Felslabor Mont Terri (Start Heizphase 2015) durchgeführt. Ziel war, die Temperaturentwicklung im Nahfeld der hochaktiven Abfälle (Bentonitverfüllung, Auflockerungszone) mittels Modellrechnungen zu prognostizieren und später mit der gemessenen Temperaturentwicklung zu vergleichen. Dabei wurden auch parametrische und konzeptuelle Ungewissheiten sowie verschiedene Szenarien untersucht. Die erfolgte Zwischenbeurteilung nach 2.5 Jahren ergab eine exzellente Übereinstimmung der gemessenen und berechneten Temperaturen: Die Modellvorhersagen liegen komfortabel innerhalb der 95%-Bandbreite. Die nächste Beurteilung erfolgt nach fünf Jahren.

Ebenfalls berücksichtigt wird der stufengerechte Detaillierungsgrad und die Vollständigkeit der Modelle (welche Szenarien und Prozesse bilden die Modelle ab?). Der Detaillierungsgrad der Modelle wird stufengerecht an die ENSI-Vorgaben für den anstehenden Projektmeilenstein angepasst und die Vollständigkeit der Modelle wird durch eine systematische Kopplung an die Forschungs- und Entwicklungsarbeiten (siehe erster Absatz) sichergestellt. Beispielsweise wurden in Etappe 2 SGT gemäss ENSI-Vorgaben provisorische Sicherheitsanalysen für die Nachverschlussphase durchgeführt, welche auf provisorischen Daten für die verbleibenden drei Standortgebiete für das Lager für hochaktive Abfälle bzw. sechs Standortgebiete für das Lager für schwach- und mittelaktive Abfälle basierten. Diese Sicherheitsanalysen weisen einen geringeren Detaillierungsgrad auf als die Sicherheitsanalysen für den Standortvergleich in Etappe 3 SGT, und diese wiederum einen geringeren Detaillierungsgrad als die für den Sicherheitsnachweis erforderlichen Modellrechnungen im Rahmenbewilligungsgesuch. Parallel dazu werden in der Etappe 3 SGT die wissenschaftlichen Kenntnisse und Daten für die verbleibenden drei Standortgebiete, welche als Inputdaten in die Modelle einfliessen, laufend gezielt verfeinert. Die Bandbreiten der Ungewissheiten in den standortspezifischen Daten nehmen daher ab und entsprechend nimmt auch die Bandbreite der Ungewissheiten in den Modellergebnissen ab, was in Etappe 3 SGT zu präziseren Aussagen der Modelle im Vergleich zu jenen aus Etappe 2 führt. Auch mit zunehmendem Detaillierungsgrad passen die Aussagen zusammen.

d)

Wie in der Antwort auf Teilfrage c) erläutert wird, erfolgt eine fortlaufende und stufengerechte Anpassung der Modelle an die neusten wissenschaftlichen Erkenntnisse und Daten. Aus den in Etappe 3 SGT durchgeführten erdwissenschaftlichen Untersuchungen ergibt sich eine Fülle neuer, standortspezifischer Daten. Mit 3D-Seismikmessungen wurden die geometrischen Verhältnisse im Untergrund erfasst. Mit insgesamt 9 zusätzlichen Tiefbohrungen bis in Tiefen zwischen 800 und 1300 m konnte das geometrische Modell des Untergrundes weiter verfeinert werden (Kalibrierung der 3D Seismik) und mit zahlreichen Bohrlochtests wurden die Eigenschaften und Zustandsparameter der Gesteine bestimmt, z.B. die Wasserdurchlässigkeit, der Gaseintrittsdruck und die Gebirgstemperatur. Aus den Bohrungen wurden rund 10’000 m Bohrkerne geborgen und davon rund 6’000 Gesteinsproben entnommen. Mit den Gesteinsproben wurden in verschiedenen Universitäten und Labors weitere Eigenschaften und Zustandsparameter der Gesteine bestimmt.

Diese Daten werden aus geologischer Sicht konsolidiert sowie interpretiert und die bestehenden Modelle mit den neuen Daten aktualisiert (standortspezifische Geodatensätze). Es erfolgt also eine integrative, gesamtheitliche Analyse der Kenntnisse. Auf dieser Grundlage werden die Modellkonzepte zur Analyse der Wirkung der technischen und natürlichen Barrieren (‚performance assessments‘) sowie zur Radionuklidausbreitung (Dosisberechnungen für die Nachverschlussphase) erstellt und die Modellrechnungen durchgeführt. Beispielsweise ist schon aus früheren erdwissenschaftlichen Untersuchungen (Entsorgungsnachweis (Nagra 2002), Etappen 1 und 2 SGT) bekannt, dass in den Standortregionen der gesamte Gesteinsstapel (so auch der Opalinuston) in der geologischen Vergangenheit tektonisch überprägt wurde. Dies wurde durch die vertieften erdwissenschaftlichen Untersuchungen in Etappe 3 SGT bestätigt. Die Beobachtungen in der Bohrung Trüllikon stellen insofern keine Überraschung dar, sondern gehören zum erwarteten Erscheinungsbild des Opalinuston. Weiter erwartet die Nagra, dass der Opalinuston selbstabdichtend wirkt, in dem durch Quellprozesse, die das Schliessen von Trennflächen bewirken, die Durchlässigkeit verringert wird. Von einem „selbstheilenden“ Verhalten, in dem Sinne, dass das Gestein wieder wie ursprünglich wird, geht die Nagra nicht aus.

Die neu erhobenen Daten bestätigen dieses Verständnis, insbesondere dadurch, dass der Opalinuston in allen Standortgebieten eine gleichmässig hohe Qualität mit hohen Tonmineralgehalten, einem ausgezeichneten Selbstabdichtungsvermögen und sehr tiefen hydraulischen Durchlässigkeiten aufweist. Die hydrogeologischen Ungewissheiten wurden in Etappe 3 SGT somit weiter reduziert und die Bandbreiten der hydraulischen Parameter des Opalinustons (hydraulische Durchlässigkeiten und Transmissivitäten) weiter eingegrenzt. Damit wurde die zentrale Annahme aus Etappe 2 SGT erhärtet, nämlich dass der Radionuklidtransport im Opalinuston diffusionsdominiert erfolgt.

Im Sinne eines vorsichtigen Vorgehens wird in Etappe 3 SGT (wie auch bereits in der Etappe 2) regionalen Störungszonen und komplexen tektonischen Elementen bei der Lagerfeldplatzierung unter Einhaltung eines Mindestabstandes konsequent ausgewichen. Kleinere tektonische Störungen im Opalinuston sind schon in relativ geringer Tiefe gut abgedichtet (durch das Zusammenspiel von in-situ Normalspannungen auf den Trennflächen und Quellen der Tonminerale). Dies wurde u.a. durch die Ergebnisse von Packer-Tests im Opalinuston in den Tiefbohrungen bestätigt, die systematisch auch auf Zonen mit gestörtem Opalinuston angesetzt wurden. Dies ist auch bei den Tests in der Bohrung Trüllikon der Fall. Kleineren tektonischen Störungen muss deshalb bei der Lagerfeldplatzierung nicht ausgewichen werden. Durch ungünstige Annahmen zu den Transporteigenschaften im Opalinuston in den Modellen können Ungewissheiten bezüglich der Durchlässigkeit solcher Strukturen angemessen berücksichtigt werden. Zum Beispiel konnten die berechneten charakteristischen Dosisintervalle aus Etappe 2 SGT, welche auch solche Rechenfälle mit ungünstigeren Annahmen zu den Transporteigenschaften im Opalinuston umfassen, in Etappe 3 weitgehend bestätigt werden. Die Dosisberechnungen zeigen ferner auch, dass die im Standortgebiet Nördlich Lägern in verschiedenen Tiefbohrungen angetroffene Herrenwies-Einheit (versteinertes Korallenriff) für die Langzeitsicherheit von untergeordneter Bedeutung ist.

Referenzen

ENSI-G03: Geologische Tiefenlager, Eidgenössisches Nuklearsicherheitsinspektorat, Brugg, Dezember 2020.

International Features, Events and Processes (IFEP) List for the Deep Geological Disposal of Radioactive Waste, Version 3, NEA RWM, Juli 2019 https://inis.iaea.org/collection/NCLCollectionStore/_Public/50/061/50061148.pdf.

Sachplan Geologische Tiefenlager – Konzeptteil. 2. April 2008 (Revision vom 30. November 2011).

Nagra (2002): Projekt Opalinuston: Konzept für die Anlage und den Betrieb eines geologischen Tiefenlagers – Entsorgungsnachweis für abgebrannte Brennelemente, verglaste hochaktive sowie langlebige mittelaktive Abfälle. Nagra Technischer Bericht NTB 02-02