Technisches Forum Sicherheit
Frage 161: Verifizierung und Falsifizierung von Modellen
Modelle sind mehr oder weniger genaue Annäherungen an die Wirklichkeit, aber nicht die Wirklichkeit selbst. Sie basieren auf Theorien. Das Klimamodell beinhaltet etwa die Theorie des Wärmetransports in der Atmosphäre, die Theorie über den Energieaustausch zwischen Meeren und Kontinenten, die Theorie über den Strahlungshaushalt von Wolken, die Theorie des Druckausgleichs durch Winde usw. Komplexe Modelle können sich somit aus verschiedenen Theorien zusammensetzen, und dennoch wird das Modell nicht sämtliche Effekte beschreiben können. Dies hängt nicht zuletzt damit zusammen, dass Theorien zwar induktiv oder deduktiv gewonnene Erkenntnisse möglichst umfassend beschreiben. Dennoch ist eine endgültige Bestätigung einer Theorie laut Karl Poppers «Logik der Forschung» nicht möglich. Vielmehr sei sie logisch ausgeschlossen, da aus allen empirisch gewonnenen Erfahrungssätzen nur induktiv auf allgemeine Gesetze der Theorie geschlossen werden könne.
Deshalb hat Karl Popper das Verifikations- durch das Falsifikationsprinzip ersetzt: Theorien müssen widerlegbar sein und sind daher der empirischen Nachprüfung durch Experimente auszusetzen. Dieses Prinzip kann missverstanden werden, und deshalb wird es in der tatsächlichen Wissenschaft kaum in reiner Form angewandt. Daher verlangt Karl Popper: «Wann immer wir glauben, die Lösung eines Problems gefunden zu haben, sollten wir unsere Lösung nicht verteidigen, sondern mit allen Mitteln versuchen, sie selber umzustossen.» Nach Popper muss eine Theorie, um dem Anspruch der Wissenschaftlichkeit zu genügen, von vornherein so gebaut sein, dass sie falsifizierbar ist. Die Bestätigung einer Theorie stützt sie (ohne sie zu beweisen), die Falsifizierung einer These würde (nach Popper) die ganze Theorie widerlegen, da die These ja aus der Theorie hergeleitet wurde.
Paul Feyerabend hinterfragt Poppers Falsifikationsprinzip in seiner Darstellung «Wider den Methodenzwang». Feyerabend zeigt an vielen Beispielen (etwa an Newtons Farbenlehre oder an Einsteins Allgemeiner Relativitätstheorie), dass es keine einzige Theorie gibt, die mit allen bekannten Tatsachen auf ihrem Gebiet übereinstimmt. Schwierigkeiten entstünden gerade durch Experimente und Messungen von höchster Genauigkeit und Zuverlässigkeit. Gemäss Feyerabend wäre es fatal, wenn sich Wissenschaftler ausschliesslich entsprechend des Popperschen Falsifikationsprinzips verhalten und ihre Theorien als widerlegt betrachten würden, falls sie anerkannten empirischen Tatsachen widersprechen. Manchmal könne man solche Tatsachen auch nutzen, um Theorien zu verbessern. Das heisst, man sucht nach zusätzlichen, bisher nicht berücksichtigten Mechanismen oder Parametern, welche die Abweichung zwischen theoretischer Vorhersage und empirischem Befund erklären. Nach Feyerabend sei es oft schwer, Annahmen von spontan eingeführten Hypothesen zu unterscheiden, die benötigt werden, um eine bestehende Theorie aufrecht zu halten. Ein typisches Beispiel ist die Modellierung des Treibhauseffekts. Dort werden die eingesetzten Theorien gebildet, laufend überprüft, ergänzt, verfeinert und mit empirisch gewonnenen Daten kalibriert. Dennoch lassen die heutigen Klimamodelle – trotz komplexer Modellierung – keine zukünftigen Klimaschwankungen über Tausende von Jahren zu; der heutige Prognosezeitraum beträgt wenige Jahrzehnte bis Jahrhunderte.
Auch bei der Suche nach einem geologischen Tiefenlager werden Modelle (z.B. Transfer von Radionukliden in die Biosphäre, Verdünnung von Konzentrationen in Fliessgewässern, Wanderung von Ionen durch den Opalinuston) eingesetzt. Erkenntnisse daraus sind nur so gut, wie die eingesetzte Theorie.
Aufgrund der Wissenschaftstheorie stellen sich daher verschiedene Fragen:
- Welche Bedeutung haben Modelle und Szenarien in der Erarbeitung des Sicherheitsnachweises? – Auf welchen Grundannahmen basieren diese? – Welche unterschiedlichen Typen von Modellen und Szenarien werden eingesetzt?
- Nach welchen Kriterien werden die eingesetzten wissenschaftlichen Modelle überprüft? – Wird versucht, Erkenntnisse aus Modellen im Sinne von Karl Popper umzustossen, um ihren Erklärungsgehalt zu verifizieren oder zu falsifizieren?
- Modelle sind nur so gut, wie der momentane Forschungsstand es zulässt. Werden Modelle verfeinert oder auch abgelehnt, wenn sich neuere, bessere Erkenntnisse ergeben? – Falls ja, nach welchen Kriterien? – Wie wird die Sensitivität der Modelle festgelegt? – Gibt es dazu anschauliche Beispiele aus dem Sachplanverfahren bzw. der Forschung der Nagra?
- Wie fliessen neue Erkenntnisse in die Modelle ein, zum Beispiel die in der Trüllikoner Bohrung gefundenen Risse im Opalinuston, welche den «selbstheilenden» Effekt des Opalinuston in Frage stellen?
- Die Sicherheit verlangt, dass Vorhersagen über hunderttausende von Jahren zu treffen sind. Aufgrund welcher Tatsachen und Modelle werden langfristige Aussagen (über Tausende bis Millionen von Jahren) gewonnen? – Wie werden diese wissenschaftlich verifiziert bzw. falsifiziert? – Oder basiert alles auf Charles Lyells Aussage: «The past is the key to the present» und somit auch für die Zukunft? – Was wenn die einem Modell zugrunde liegenden Parameter sich in Zukunft unvorhergesehen ändern? (Z. B. könnten sich die Hebungsraten aufgrund der nordwärts driftenden afrikanischen Kontinentalscholle erhöhen.)
Thema | Sicherheitstechnische Bewertung | Bereich | Geologische Tiefenlager |
---|---|---|---|
Eingegangen am | 7. Februar 2022 | Fragende Instanz | FG Si ZNO |
Status | beantwortet | ||
Beantwortet am | 9. August 2022 | Beantwortet von | ENSI, Nagra |