Über Wissenschaft, (Pseudo-)Medizin, Aufklärung, Humanismus und den Irrsinn des Alltags

Kategorie: Wissenschaftstheorie Seite 1 von 2

Judith Butlers Performativität: Die Ontologie aller Ontologien? Ein Schwerpunktartikel

Die Singularität der performativen Sprache verschlingt das Reich des Objektiven und Rationalen (Microsoft Copilot)
Hinweis (Juli 2025): Dieser Artikel wurde im Rückblick noch einmal überarbeitet und sprachlich präzisiert. Einige zu absolute Formulierungen wurden entschärft, um den kritischen Gehalt des Textes besser mit der komplexen Denkfigur Judith Butlers in Einklang zu bringen. Die grundsätzliche Kritik bleibt bestehen – aber sie soll nun klarer zwischen theoretischer Analyse und politischer Rezeption unterscheiden. Einzelne Formulierungen zur „ontologischen Setzung“ wurden abgeschwächt oder präzisiert, da sich Butlers Ansatz eher als sprach- und gesellschaftstheoretische Modellbildung denn als systematische Ontologie begreifen lässt. Die überarbeitete Fassung berücksichtigt diese Differenzierungen.

Die neue Macht der Sprache

Judith Butler radikalisiert den sprachzentrierten Ansatz der Postmoderne, indem sie Sprache nicht mehr nur als Medium der Welterschließung versteht, sondern als konstitutive Kraft sozialer Wirklichkeit. In ihren Schriften wird Realität nicht vorausgesetzt, sondern erscheint als Effekt diskursiver Praktiken – vor allem jener Performanzen, die sich in Wiederholungen sozialer Normen verfestigen. Was daraus entsteht, ist keine Ontologie im klassischen Sinne, sondern ein Modell von Realität, das die Vorstellung stabiler Identitäten und körperlicher Gegebenheiten zugunsten einer situativ erzeugten und sprachlich codierten Wirklichkeit auflöst.

Butlers Theorie der Performativität will nicht bloß beschreiben, wie Geschlechtsidentitäten gesellschaftlich entstehen, sondern zugleich die epistemologischen und politischen Voraussetzungen dieser Prozesse offenlegen. In diesem Sinne ist ihre Theorie sowohl erkenntniskritisch als auch emanzipatorisch motiviert. Doch je stärker die performative Konstitution von Wirklichkeit als alleinige Erklärung beansprucht wird, desto näher rückt sie an das, was sie selbst nicht sein will: eine neue Ontologie – allerdings ohne deren klassisch-philosophische Fundierung. Hier liegt ein innerer Widerspruch, der die politische Wirkungskraft ihrer Theorie in eine dogmatische Richtung verschieben kann.

Denn wer Performativität als alleinigen Schlüssel zur Wirklichkeit versteht, setzt faktisch doch wieder eine neue Wirklichkeitsstruktur – nur dass diese nicht mehr naturhaft oder metaphysisch begründet ist, sondern diskursiv erzeugt und sprachlich kontrolliert. Die Folge ist ein Denken, das sich jeder übergeordneten Normativität entzieht, zugleich aber eine neue, schwer kritisierbare Praxisnorm etabliert: Wer sich dieser Logik widersetzt, gilt als Teil eines repressiven Diskurses und wird moralisch delegitimiert.

Gerade darin liegt das Risiko: Aus einer dekonstruktiven Theorie wird eine neue Form epistemischer Orthodoxie. Die einst kritische Haltung gegenüber normativen Zuschreibungen kippt um in eine neue normative Erwartung, die nicht mehr diskutiert, sondern sanktioniert. Damit wird aus einem emanzipatorischen Ansatz eine epistemologisch instabile Ideologie – eine „Ontologie aller Ontologien“, nicht im philosophischen, sondern im politischen Sinne.

Diese Entwicklung zu reflektieren und zu kritisieren heißt nicht, die berechtigten Anliegen der Queer-Theorie oder die analytische Schärfe Butlers zurückzuweisen. Es heißt, zwischen erkenntnistheoretischem Zweifel und dogmatischem Absolutheitsanspruch zu unterscheiden – und zu verhindern, dass eine Theorie, die das Feste in Frage stellen wollte, selbst zum neuen Dogma wird.

„Performativität“ – kurz erklärt:

Wenn etwas performativ ist, bedeutet das: Es passiert nicht nur etwas im Sprechen, sondern durch das Sprechen. Sprache ist dann nicht bloß Beschreibung, sondern Handlung.
Ein berühmtes Beispiel: Wenn jemand sagt „Ich erkläre euch zu Mann und Frau“, dann geschieht durch diesen Satz etwas Reales – es ist eine Handlung in sprachlicher Form.
Judith Butler hat dieses Prinzip auf Geschlecht und Identität übertragen: Auch sie entstehen (mit), weil sie immer wieder sprachlich und sozial „vollzogen“ werden.

Butlers Sprachtheorie: Bedingung der Realität

Judith Butler treibt den sprachzentrierten Ansatz der Postmoderne dabei auf die Spitze – nicht, indem sie eine neue Ontologie entwirft, sondern indem sie die Geltung des Realen selbst an sprachlich vermittelte Praktiken koppelt. Was als kritische Analyse sozialer Zuschreibungen beginnt, wird zur These, dass Identität überhaupt erst durch sprachlich wiederholte Performanz entsteht. Der Körper ist dann nicht mehr vorausgesetzter Träger von Geschlecht, sondern Resultat diskursiver Codierungen. Sprache wird so nicht bloß Medium der Bedeutungszuschreibung, sondern Bedingung der Sichtbarkeit, der Anerkennung und letztlich der Realität selbst. Ohne dies je ontologisch durchzubuchstabieren, entsteht ein Denken, das das Soziale zur einzigen Bühne des Wirklichen macht – und auf dieser Bühne wird Identität nicht entdeckt, sondern inszeniert.

Doch Sprache ist kein geschlossener Erkenntnisraum. Sie ist Werkzeug, nicht Welt. Eine Voraussetzung des Realen, die sich aus Sprache allein ableitet, bleibt zwangsläufig zirkulär – und läuft Gefahr, jede außersprachliche Wirklichkeit zu negieren oder unter Generalverdacht zu stellen. Das aber ist nicht fortschrittlich, sondern erkenntnistheoretisch regressiv: Ein Rückfall in eine Weltdeutung, in der am Ende nicht mehr zählt, was ist – sondern nur noch, was sagbar erscheint.

Hier fällt die postmoderne Kritik in einen Regress:

Was ursprünglich als Befreiung von hegemonialen Wahrheiten gedacht war,
führt zur Ersetzung des Wahrheitsbegriffs durch diskursive Geltung. Wohlgemerkt: Die Relevanz von Wahrheit wird nicht widerlegt, sondern ersetzt – durch Deutungshegemonie, durch Betroffenheit, durch Sprechpositionen.
Und genau das ist eine neue Machtordnung, nur nicht mehr epistemisch, sondern sozial kodiert.

Was nicht sagbar ist, gilt nicht.
Was nicht performativ anerkannt wird, existiert nicht
.

Das ist nicht Dekonstruktion von Macht – das ist Reproduktion von Macht durch Diskursbarrieren.

Dies markiert den erkenntnistheoretischen Nullpunkt der Postmoderne, an dem Wahrheit durch Diskurs ersetzt und Diskurs durch Macht strukturiert wird – oft unter dem Vorwand, genau das zu verhindern.

Die postmoderne Kritik wollte Wahrheit entmachten – und hat dabei vergessen, dass auch das Sagbare eine Herrschaft kennt.-

Zur Redlichkeit im philosophischen Sinne

Daraus ergibt sich eine sehr berechtigte Frage, die sich bei der Lektüre von Butlers Werk – insbesondere Gender Trouble und Bodies That Matter – vielen früher oder später aufdrängt. Man könnte sie so formulieren:

Ist Judith Butler eine radikale Denkerin mit hoher Konsequenz – oder eine brillante Konstrukteurin intellektueller Nebelmaschinen, die eine ideologisch anschlussfähige Lehre geschaffen hat, deren Popularität auf performativer Unangreifbarkeit beruht?

Philosophisch redlich ist, wer seine Prämissen offenlegt, seine Begriffe klärt, Gegenpositionen ernsthaft reflektiert und zu zeigen versucht, wie und warum er zu einer bestimmten These gelangt ist. Genau das wird Butler häufig abgesprochen – und das nicht nur von „kritischen Konservativen“, sondern auch von namhaften Philosophen wie:

  • Martha Nussbaum, die Butler in The Professor of Parody (1999) vorwirft, Sprache zur Ausübung intellektueller Macht zu missbrauchen, statt zu klären.
  • John Searle, der Butlers Sprachverwendung als „bewusst obskur“ kritisiert und sie beschuldigt, Wittgenstein und Austin zu verfälschen.
  • Noam Chomsky, der – sinngemäß – sagt, dass es sich bei solchen Texten um „Hochstapelei mit französischer Lizenz“ handele.

Diese Kritiker sprechen Butler nicht ab, dass sie etwas denkt – wohl aber, wie sie es darstellt, nämlich als ein absichtsvoll undurchsichtiges Konstrukt, das sich dem rationalen Diskurs systematisch entzieht.

Performativität: Sprechen als Wirklichkeitsvollzug

Es liegt eine gewisse Ironie darin, dass Butlers zentraler Begriff – Performativität – selbst performativ wirkt: Ihre Texte sind oft derart formuliert, dass der Eindruck entsteht, sie vollziehen bereits jene Komplexität, die sie behaupten. Das wirkt intellektuell souverän, ist aber schwer überprüfbar – und genau das schützt vor Kritik. Was man nicht nachvollziehen kann, kann man schwerlich falsifizieren.

Diese Undurchdringlichkeit ist Teil des Phänomens Butler. Viele Anhänger nehmen ihre Texte nicht als nachvollziehbare Theorie, sondern als intellektuelle Stimulanz – sie wirken, statt erklärt zu werden. Die Folge: Es entsteht eine Art Deutungselite, eine hermeneutische Priesterschaft, die den Text auslegt. So entstehen religiöse Bewegungen.

Manipulation oder Ausdruck intellektueller Konsequenz?

Hier scheiden sich die Geister. Es wäre voreilig, Butler absichtsvoll manipulative Absichten zu unterstellen. Vielmehr lässt sich ihr Zugang als konsequente Fortführung eines erkenntnistheoretischen Strangs verstehen, der tief in der französischen Postmoderne wurzelt. Aber sie verzichtet – und das kann man ihr vorwerfen – weitgehend auf metatheoretische Reflexion, auf die Auseinandersetzung mit den methodischen und erkenntnistheoretischen Voraussetzungen ihrer eigenen Theorie. Auch kühne und konsequente Theorien bedürfen einer selbstkritischen metatheoretischen Prüfung, die Butler nicht leistet. Das ist unredlich im wissenschaftlichen Sinne – auch wenn es wohl aus einem radikalen Anspruch an Kritik als Dekonstruktion motiviert ist.

Butler als Autorin eines Dogmas mit Charisma

Butler ist zu einer Art Wahrheitsinstanz geworden – nicht durch Verständlichkeit, sondern durch die Verbindung von:

  • moralischem Anspruch,
  • sprachlicher Abstraktion,
  • institutioneller Rückendeckung.

Man könnte sagen: Sie hat nicht die Wahrheit geschrieben, aber den Mythos eines neuen Wahrheitsbegriffs geschaffen – und das mit erheblichem charismatischem Kapital. Das wiederum wirft die Frage auf, ob und wie in der Wissenschaft charismatische Autorität wirken darf – ein Thema, das wieder an Foucaults Machttheorie anschließt.


Fazit

Judith Butler bleibt eine faszinierende Figur – weniger wegen der theoretischen Tiefe ihrer Werke als wegen der Wirkungsmacht, die sie durch eine Mischung aus sprachlicher Undurchdringlichkeit, moralischem Anspruch und philosophischer Anschlussfähigkeit entfaltet hat. Ob sie intellektuell redlich ist, darüber kann man streiten. Was aber sicher ist: Sie hat die Grenzen zwischen Erkenntnis und Deutung, zwischen Philosophie und Performanz, zwischen Wissenschaft und Weltanschauung bewusst verwischt – und genau darin liegt ihr Einfluss. Man kann Butlers Performativität eine „dekonstruierende Hermeneutik“ nennen, wenn man betonen will, dass Sinn in ihr nie stabil, sondern immer unter Verdacht steht.

Anders als Hans-Georg Gadamers Hermeneutik, die sich ausdrücklich auf die Geisteswissenschaften beschränkt und dort Verstehen und Verständigung als Ziel verfolgt, kennt Butlers sprachzentrierte Ontologie der Performativität keine solche Selbstbegrenzung.

Zwar reklamiert sie nicht explizit Geltung im naturwissenschaftlichen Bereich, schließt diesen aber – etwa in der Gendertheorie – auch nicht aus. Mehr noch: Sie entzieht sich der Verantwortung, dort, wo ihre Theorie als Deutungsmacht in Realwissenschaften eingreift, Korrekturen oder Differenzierungen einzufordern. Gadamers Hermeneutik bleibt trotz ihres anti-naturwissenschaftlichen Gestus epistemisch bescheiden, während Butlers sprachzentrierte Performativität sich implizit zur universalen Weltdeutungsform aufschwingt – ohne Begrenzung, ohne Selbstrelativierung. Das ist kein Zufall, sondern ein offenes Fluchttor für jegliche Art von identitärer Weltumdeutung, bis hinein in medizinische, biologische, physikalische Diskurse – dort, wo es eben nicht um Deutung, sondern um Struktur und Replizierbarkeit geht.

Judith Butler bleibt einflussreich – weniger durch die Klarheit ihrer Theorie als durch ihre Wirkungsmacht. Diese gründet nicht auf Verständlichkeit, sondern auf einer Mischung aus moralischem Anspruch, sprachlicher Abstraktion und institutioneller Resonanz. Ihr Werk verwischt bewusst die Grenzen zwischen Erkenntnis und Deutung, zwischen Philosophie und Performanz. Genau darin liegt seine Kraft – und seine Problematik.


Kleiner Hinweis in eigener Sache:

Ich habe diesen Text mit großem Respekt, aber auch mit kritischer Distanz geschrieben. Judith Butlers Werk hat ohne Zweifel eine immense Wirkung entfaltet – nicht nur in der akademischen Welt, sondern weit darüber hinaus. Gerade deshalb war es mir wichtig, nicht vorschnell zu urteilen, sondern ihre Überlegungen ernsthaft zu rekonstruieren und die eigentümliche Rezeptionsgeschichte in den Blick zu nehmen.

Meine kritischen Anmerkungen richten sich daher nicht auf eine Person oder ein Lebenswerk, sondern auf bestimmte theoretische Zuspitzungen und auf die Folgen, die sich aus ihrer Deutung und Weiterverwendung ergeben haben. Wer pauschale Ablehnung oder persönliche Abrechnung erwartet, wird in diesem Text nicht fündig.


Sprache als Realitätssurrogat? (Ein Schwerpunktartikel)

Sprache als Realitätssurrogat (Microsoft Copilot)

Der zweite der Schwerpunktartikel in der Nachfolge meiner Artikelserie zur Erkenntnisrelativieriung widmet sich einem zentralen Missverständnis der postmodernen Theorieentwicklung – nämlich der Vorstellung, Sprache sei nicht nur Medium, sondern Ursprung von Wirklichkeit. Eine Annahme, die weitreichende – und vielfach verheerende – Auswirkungen auf unser heutiges Verständnis von Erkenntnis, Kommunikation und Realität hat.

Der Hebel fehlt – oder: Warum Sprache allein die Welt nicht aus den Angeln hebt

Wenn Archimedes wirklich gesagt hat, er brauche nur einen festen Punkt und einen ausreichend langen Hebel, um die Welt aus den Angeln zu heben, dann lässt sich das Verhältnis der französischen Postmoderne zur Sprache mit einem leichten Kopfschütteln kommentieren: Sie glaubten, diesen Hebel bereits in Händen zu halten – und merkten nicht, dass ihnen der feste Punkt fehlte.

Derrida, Butler und andere Apostel einer radikal sprachzentrierten Weltsicht wollten das Denken befreien – und verwechselten dabei das Werkzeug mit dem Universum. In ihrer Lesart wird Sprache nicht länger als Medium der Beschreibung verstanden, sondern als Ursprung von Wirklichkeit selbst: Realität wird zur grammatikalischen Option, Bedeutung zum Spiel der Zeichen. Doch wer Sprache zur Gottheit erhebt, braucht sich nicht zu wundern, wenn er auf dem Marktplatz der Begriffe nur noch Priester und Gläubige antrifft – aber keine Analytiker mehr.

Was dabei übersehen wird: Sprache ist keine Allmacht, sondern ein Werkzeug. Sie hilft, Welt zu ordnen – sie ersetzt sie nicht. Der Gedanke, dass ein System von Zeichen, so brillant es sich selbst dekonstruiert, die Wirklichkeit konstituieren könne, ist nicht nur ein erkenntnistheoretischer Kurzschluss – er steht auch im offenen Widerspruch zu allem, was die Sprachwissenschaft seit einem Jahrhundert herausgearbeitet hat.Die extreme Sprachzentriertheit der Postmodernen – insbesondere bei Derrida und Butler – operiert erstaunlich oft im luftleeren Raum, als gäbe es keine historische, anthropologische oder strukturelle Realität von Sprache jenseits ihrer Rolle als Trägerin von Macht und Bedeutung.

In der Rezeption postmoderner Theorien – besonders bei Butler – zeigt sich ein oft unbeachteter Übergang: Was ursprünglich als methodischer Zugriff gedacht war, wird zunehmend ontologisiert.
Sprache ist dann nicht mehr Mittel der Beschreibung oder Intervention, sondern Quelle von Realität selbst – ein Missverständnis, das der Theorie mehr zuschreibt, als sie offen zugibt, und mehr Wirkung entfaltet, als ihr viele ihrer Verteidiger zuschreiben wollen.

Was sagt die „klassische“ Sprachwissenschaft?

Sprachwissenschaft im engeren Sinne – also Linguistik, vergleichende Sprachforschung, Kognitionslinguistik oder Semantik – hat mit poststrukturalistischer Sprachphilosophie oft nur wenig zu tun. Viele Sprachwissenschaftler sehen die Postmodernen daher mit einer gewissen Skepsis:

  • Sprachentwicklung ist kein dekonstruktives Spiel, sondern ein evolutionärer, oft funktionaler Prozess. Strukturen entstehen aus Gebrauch, aus kognitiver Effizienz, aus sozialen Interaktionen – nicht primär aus Machtdiskursen.
  • Semantische Stabilität ist real, zumindest funktional: Worte mögen kulturell kodiert sein, aber sie funktionieren innerhalb von Sprachgemeinschaften ziemlich zuverlässig – sonst wäre Kommunikation nicht möglich. Für Butler hingegen ist selbst das ein Problem, weil Stabilität „Normierung“ impliziert.
  • Die Pluralität der Sprachen widerlegt stillschweigend das universalistische Geltungsbedürfnis vieler postmoderner Sprachmodelle. Denn die These, dass etwa „Sprache Realität erschafft“, kann nur metaphorisch gemeint sein – denn welche Realität genau? Die französischsprachige? Die sinotibetische? Die arabische? Die mit 4 Kasui oder die mit 15?
  • Sprachursprungsforschung, etwa in der Evolutionsbiologie oder der Archäolinguistik, betrachtet Sprache als eine adaptive Fähigkeit – nicht als Textstruktur oder Diskursraum. Das ist für postmoderne Theorien kaum anschlussfähig.

Es gibt gewichtige kritische Stimmen:

  • Steven Pinker, selbst Sprachforscher, hat in The Language Instinct (1994) und The Blank Slate (2002) die postmoderne Sprachtheorie ziemlich scharf kritisiert. Für ihn ignorieren Butler & Co. völlig, dass Sprache in unserem Gehirn verankert ist – als kognitive Fähigkeit, nicht bloß als kulturelle Konstruktion.
  • John Searle (u.a. Speech Acts und seine Debatten mit Derrida) hat sehr pointiert erklärt, dass Dekonstruktion kein sprachphilosophisch tragfähiges Konzept sei, weil sie die Pragmatik der Sprache, ihre Konventionalität und Funktionalität ignoriert.
  • Noam Chomsky hat zwar selbst politische Kritik geübt, aber die französischen Intellektuellen als erkenntnistheoretisch „unernst“ bezeichnet. Für ihn war der Mangel an empirischer Fundierung schlicht inakzeptabel.

Interessant: Chomsky war – wie Pinker – davon überzeugt, dass es eine angeborene Sprachfähigkeit gibt. Das passt überhaupt nicht zu der Idee, dass Sprache vollständig sozial erzeugt oder beliebig konstruierbar sei.

Die Welt ist kein Text – und Sprache kein Ersatz für Erkenntnis

Wer meint, die Welt sei ein Text, wird am Ende wohl auch glauben, dass ein Wörterbuch eine Landkarte ersetzen könne. Doch Sprache ist nicht der Ursprung der Wirklichkeit, sondern ihre Spur – ein feines, oft irreführendes Netz aus Zeichen, das uns Orientierung bietet, solange wir nicht vergessen, dass es nur ein Netz ist und kein Boden.

Die französischen Postmodernen haben vieles in Bewegung gesetzt, nicht zuletzt durch ihre sprachmächtige Skepsis gegenüber allem Festgefügten. Aber wer den Boden unter den Füßen zersägt, sollte sich nicht wundern, wenn er bald nicht mehr weiß, wo oben und unten ist.

Noam Chomsky – nicht eben bekannt für diplomatische Zurückhaltung – nannte das, was Derrida und Kollegen betrieben, schlicht „linke Obskurantismus-Tradition“. Für ihn ist Sprache kein diskursives Nebelwerk, sondern ein biologisch fundiertes, kognitives Werkzeug mit universalen Strukturen. Und es gibt für ihn keinen Zweifel daran, dass es eine objektive Realität gibt, auf die Sprache sich bezieht – ob Derrida das nun gefällt oder nicht.

Auch John Searle, ein anderer Schwergewichtsdenker der Sprachphilosophie, wies mehrfach darauf hin, dass Derridas Theorien zwar elegant klingen mögen, aber bei näherer Betrachtung schlicht nicht funktionieren. Wenn jede Bedeutung nur ein Spiel aus Differenzen ist, so Searle sinngemäß, dann bleibt von Bedeutung am Ende nichts übrig – außer bedeutungsvoller Beliebigkeit.

Und Steven Pinker, mit seinem ganzen Elan als Sprachpsychologe und Aufklärer, ließ ohnehin nie einen Zweifel daran, dass postmoderne Sprachtheorien in erster Linie eines sind: empirisch unhaltbar. Für ihn ist Sprache evolutionär entstanden, ein mentales Organ, das sich entlang universeller kognitiver Muster entfaltet hat – nicht eine politische Waffe in einem endlosen Spiel der Diskurse.

Kurz: Die Sprachwissenschaft hat längst gezeigt, dass Sprache nicht alles ist – sondern etwas. Ein Teil unseres Zugriffs auf die Welt, aber eben nicht die Welt selbst. Wer das verwechselt, mag sich für radikal halten – verliert aber aus dem Blick, was die Aufklärung stets zu retten versuchte: die Unterscheidung zwischen Wort und Wirklichkeit, zwischen Beschreibung und Wahrheit.

In einem Zeitalter, das dringend auf Orientierung, Verständigung und überprüfbares Wissen angewiesen ist, ist es Zeit, die Sprache wieder als das zu begreifen, was sie ist: ein Werkzeug der Kommunikation, nicht der Ontologie. Ohne ein Außen zur Sprache, ohne ein Bezugssystem jenseits von Zeichen und Diskurs, bleibt uns nur ein endloser Dialog im Spiegelsaal – und das war, mit Verlaub, nie der Sinn von Erkenntnis.


Wer wissen möchte, was geschieht, wenn der Glaube an sprachlich konstruierte Wirklichkeit zur letzten Wahrheit wird, sollte weiterlesen: Der nächste Beitrag widmet sich Judith Butlers Versuch, Sprache zur Ontologie aller Ontologien zu machen.

Kuhn und Feyerabend: Epistemologischer Relativismus in der Wissenschaft? (Ein Schwerpunktartikel)

In einer Gesamtbetrachtung zum epistemologischen Relativismus ist es angezeigt, sich auch mit zwei Wissenschaftsphilosophen zu befassen, deren Arbeiten gemeinhin – oder allzu leichtfertig – mit einer Relativierung strenger erkenntnistheoretischer Prinzipien in Verbindung gebracht werden.

Dieser Beitrag ist Teil einer kleinen Reihe von Ergänzungen zur neunteiligen Serie über epistemologischen Relativismus. In diesen „Schwerpunktartikeln“ greife ich einzelne Themenaspekte auf, die in der Hauptreihe bereits angeklungen sind, dort aber nicht in der nötigen Tiefe behandelt werden konnten – sei es aus Gründen der Stringenz, der Dramaturgie oder des Umfangs. Die nun folgenden Texte sind als eigenständige Vertiefungen gedacht und sollen helfen, die erkenntnistheoretischen Zusammenhänge und Begriffsverschiebungen noch klarer herauszuarbeiten.

Thomas S. Kuhn und Paul Feyerabend haben mit ihren jeweiligen Ansätzen – dem Paradigmenwechsel (Kuhn) und dem methodologischen Anarchismus (Feyerabend) – die Wahrnehmung von Wissenschaft tiefgreifend beeinflusst. Ihr Einfluss auf den epistemologischen Relativismus ist jedoch unterschiedlich ausgeprägt und bedarf einer differenzierten Betrachtung. Diese ist umso bedeutungsvoller, als beide insbesondere im pseudomedizinischen Spektrum immer wieder als Kronzeugen für einen angeblich beliebigen Wahrheitsbegriff bemüht werden – zu Unrecht. Besonders Paul Feyerabends „anything goes“ wird gern als Beleg dafür genommen, dass er außerhalb der Idee vom objektiven Wissen zu verorten sei.


Thomas S. Kuhn: Paradigmen als erkenntnistheoretische Rahmen

Kuhns „The Structure of Scientific Revolutions“ (1962) gehört zu den einflussreichsten wissenschaftstheoretischen Werken des 20. Jahrhunderts. Seine zentrale These ist, dass Wissenschaft nicht linear-kumulativ verläuft, sondern durch diskontinuierliche Paradigmenwechsel geprägt ist. Ein Paradigma umfasst dabei nicht nur Theorien und Methoden, sondern eine spezifische wissenschaftliche Weltsicht, innerhalb derer Forschung betrieben wird.

Kuhns Modell stellt die Vorstellung eines stetig fortschreitenden Erkenntnisgewinns infrage, da Paradigmenwechsel nicht allein durch rationale Kriterien entschieden werden, sondern häufig durch soziologische und psychologische Faktoren beeinflusst sind. Kritiker werfen Kuhn daher vor, mit seiner Betonung der Inkommensurabilität von Paradigmen eine Tür zum epistemologischen Relativismus geöffnet zu haben: Wenn Paradigmen nicht objektiv vergleichbar sind, erscheint Wissenschaft als historisch-kulturelles Produkt ohne universal gültige Kriterien.

Hier liegt eine Schwäche seines Modells: Es historisiert. Ähnlich wie Foucault betrachtet Kuhn Wissenschaft primär im Rückblick auf große Umbrüche, etwa die kopernikanische Wende, und unterschätzt die kleinteilige, kontinuierliche Akkumulation von Wissen in den „normalwissenschaftlichen“ Phasen – die er nur innerhalb bestehender Paradigmen verortet. Wissenschaftliches Wissen wird heute insgesamt inkrementeller, empirisch stringenter und universalistischer produziert als in den historischen Brüchen, auf die Kuhn fokussiert. Das macht seine Vorstellung eines radikalen Paradigmenwechsels zunehmend unplausibel.

Wissenschaft ist heute so modular und interdisziplinär, dass selbst größere theoretische Umbrüche bestehende Erkenntnisse integrieren müssen. Selbst Einstein hat Newton nicht „gestürzt“, sondern dessen Theorie in einem präziseren Rahmen verortet. Der heutige Wissensstand ist so stark verflochten, dass Paradigmenwechsel im Kuhnschen Sinne kaum mehr als realistische Beschreibung wissenschaftlicher Entwicklung gelten können. Wenn überhaupt, erleben wir eher „Paradigmenverdichtungen“: Theorien werden erweitert, präzisiert und methodisch besser abgesichert.

Allerdings wollte Kuhn selbst nie als Relativist verstanden werden. In späteren Schriften betonte er, dass Wissenschaft trotz Paradigmenwechsel progressiv sei und spätere Theorien größere Erklärungskraft besäßen. Dennoch bleibt sein Werk eine der am häufigsten missverstandenen Quellen für erkenntnistheoretischen Relativismus.

Kuhn hat eher eine narrative Rekonstruktion vergangener Wissenschaftsdynamiken geliefert als eine methodologische Anleitung. Sein Modell wirkt fast geologisch: stille Akkumulation von Spannungskräften, gefolgt von tektonischen Verschiebungen. Doch dies ist eine post hoc-Erzählung – keine vorausblickende oder steuerbare Erkenntnistheorie.

Dass Kuhns Theorie dennoch so wirkmächtig wurde, liegt vor allem an drei Faktoren:

  1. Narrative Kraft: Sein Modell der wissenschaftlichen Revolutionen ist eingängig, erzählbar und intuitiv anschlussfähig – vor allem für die Geisteswissenschaften.
  2. Anschlussfähigkeit an postmoderne Kritik: Auch wenn Kuhn kein Relativist war, wurde er so gelesen. Seine Theorie wurde zur Projektionsfläche für soziale Konstruktionismen.
  3. Wissenschaftshistorische Plausibilität: Für große historische Brüche bietet Kuhn ein durchaus brauchbares Deutungsmodell.

Ironischerweise hat Kuhn also selbst ein Paradigma geschaffen – das des nicht-linearen Wissenschaftsfortschritts –, das bis heute nachwirkt, auch wenn es epistemologisch überholt ist.


Paul Feyerabend: „Anything Goes“ als Provokation

Anders als Kuhn, der eher unfreiwillig relativistisch gelesen wurde, war Paul Feyerabend ein offener Kritiker normativer Wissenschaftstheorie. In „Against Method“ (1975) formulierte er seinen berühmten methodologischen Anarchismus: Es gebe keine universell gültige wissenschaftliche Methode. Erkenntnisfortschritt sei oft nur möglich, wenn man bestehende Methoden durchbricht.

Feyerabends Duktus war provokativ, ironisch, polemisch – seine Formulierungen bewusst zugespitzt. „Anything goes“ war aber keine Einladung zur Beliebigkeit, sondern eine Kritik an dogmatischer Methodengläubigkeit. Seine Sichtweise war eine radikale Antwort auf den Logischen Positivismus des Wiener Kreises, dessen formalistische Engführung von Wissenschaft ihm ebenso suspekt war wie autoritäre Deutungsmacht.

Gegen Methodenpluralismus ist wissenschaftlich nichts einzuwenden – im Gegenteil: Unterschiedliche Fragestellungen erfordern unterschiedliche methodische Zugänge. Aber: Methodenpluralismus ist kein erkenntnistheoretischer Freibrief. Jede Methode muss sich messen lassen an den Grundsätzen wissenschaftlicher Rationalität: Nachvollziehbarkeit, Prüfbarkeit, Replizierbarkeit, Transparenz.

Feyerabends Kritik wurde häufig vereinnahmt – von Pseudowissenschaften, Esoterikern und postmodernen Relativisten. Doch er war kein Gegner von Erkenntnis. Sein Briefwechsel mit Hans Albert zeigt deutlich: Beide teilten die Sorge um Offenheit, Rationalität und Erkenntnisfähigkeit der Wissenschaft. Sie stritten über Wege, nicht über Ziele.

Albert und Feyerabend diskutieren auf einer gemeinsamen Bühne, uneins über Dramaturgie: Der eine fürchtet Erstarrung, der andere Beliebigkeit. Beide aber wollten das Erkenntnisprojekt erhalten – gegen die Zumutungen von Dogma, Macht und Diskurskult.


Fazit: Zwischen Inspiration und Gefahr

Kuhn und Feyerabend sind keine epistemologischen Relativisten. Sie fordern Zweifel, Offenheit und Pluralität – nicht Beliebigkeit. Ihre Ideen wurden häufig missverstanden oder ideologisch überhöht. Aber sie waren keine Wegbereiter des erkenntnistheoretischen Nihilismus. Beide anerkannten die Möglichkeit von Erkenntnis – auch wenn sie deren Wege unterschiedlich sahen.

Dass ihre Theorien zur Relativierung von Rationalität instrumentalisiert wurden, ist eher ein Symptom der Rezeptionsgeschichte als ihrer Intention. Gerade in Zeiten alternativer Fakten und Wissenschaftsskepsis ist eine präzise Einordnung ihres Werks daher wichtiger denn je.


Relativismus in der Moderne – ein Überblick – (Erkenntnisrelativismus Teil 2)

Der moderne epistemologische Relativismus als zentrales Problem des 20. und 21. Jahrhunderts

Die Relativistenwerkstatt (Copilot nach Prompt des Autors)

In der Geschichte der Philosophie war der Relativismus immer eine herausfordernde und präsente, aber meist randständige Position. Während der Antike und des Mittelalters blieb er eine marginale Strömung, oft als skeptische Provokation verstanden oder als Denkfigur, die vor allem dazu diente, Argumente gegen einen absoluten Wahrheitsbegriff zu testen. Doch mit dem 20. Jahrhundert änderte sich dies grundlegend: Der epistemologische Relativismus entwickelte sich von einer philosophischen Randerscheinung zu einer einflussreichen Strömung, die in vielen geistes- und sozialwissenschaftlichen Disziplinen prägend wurde.

Dabei ist die heutige Bedeutung des Relativismus weniger eine singuläre Denkrichtung als vielmehr ein komplexes Geflecht von Ansätzen, die unterschiedliche Ursprünge haben, aber alle auf eine radikale Infragestellung von objektiver Wahrheit, universalem Wissen und wissenschaftlicher Rationalität hinauslaufen. Er ist keine isolierte philosophische Theorie, sondern durchzieht verschiedenste Felder – von der Postmoderne in der Literatur- und Sozialwissenschaft über den Wissenschaftstheoretischen Konstruktivismus bis hin zur Identitäts- und Gender-Theorie.

Das 20. Jahrhundert bot dafür den Nährboden: Die Erschütterung der Aufklärungsideale durch zwei Weltkriege, die Verbrechen totalitärer Regime und das Scheitern von Fortschrittsnarrativen führten zu einem tiefen Misstrauen gegenüber den traditionellen Wahrheitsansprüchen westlicher Rationalität. Philosophen wie Michel Foucault, Jean-François Lyotard, Jacques Derrida oder Paul Feyerabend griffen dieses Misstrauen auf und entwickelten eigene Ansätze, die den Begriff von objektivem Wissen radikal problematisierten. Ihr Einfluss reichte weit über die akademische Welt hinaus und prägte politische, gesellschaftliche und kulturelle Debatten.

Diese Entwicklung im 20. und 21. Jahrhundert ist so tiefgreifend, dass eine klassische, chronologische Darstellung ihrer Geschichte zu kurz greifen würde. Vielmehr ist es notwendig und sinnvoll, zunächst die zentralen Strömungen und wichtigsten Vertreter von aktueller Bedeutung vorzustellen – nicht nur, um ihre Konzepte zu verstehen, sondern auch, um ihre Wirkungen auf den heutigen Diskurs zu erfassen. Erst danach werde ich den historischen Hintergrund beleuchten, der zeigt, dass der Relativismus zwar eine lange Vorgeschichte hat, aber erst im 20. Jahrhundert zu einer machtvollen Herausforderung für die Wissenschaft und das rationale Denken wurde.

In den folgenden Abschnitten werden deshalb die einflussreichsten Denker des modernen epistemologischen Relativismus vorgestellt, bevor der historische Kontext und die philosophischen Wurzeln dieser Denkrichtungen in einzelnen Kapiteln näher beleuchtet werden.

Als kleine Vorschau auf die kommenden Beiträge in Kürze:

1. Foucault (1960er–1980er – Macht-Wissen, epistemische Konstruktion)

Er ist zwar nicht der Älteste, aber sein Ansatz zur „Archäologie des Wissens“ und zur Macht-Wissens-Relation legt eine Grundlage für spätere Entwicklungen des Relativismus. Seine These, dass Wissen immer von Machtstrukturen durchzogen ist und keine objektiven Wahrheitskriterien existieren, ist essenziell für die postmoderne Epistemologiekritik. Außerdem beeinflusste er sowohl Lyotard als auch Derrida.

2. Lyotard (1979: Das postmoderne Wissen, Postmoderne, Ende der „Großen Erzählungen“)

Er greift Foucaults Ideen auf und formuliert die zentrale These der Postmoderne: das Ende der „Großen Erzählungen“. Das betrifft insbesondere wissenschaftliche Wahrheitsansprüche, die er als machtgestützte Narrative betrachtet. Seine Theorie der „Sprachspiele“ macht deutlich, warum er wissenschaftliche Rationalität nicht als privilegierte Form von Wissen ansieht.

3. Derrida (1960er–1990er – Dekonstruktion als epistemologischer Relativismus)

Seine Dekonstruktion ist weniger eine explizite epistemologische Position als eine Methode, die alle festen Bedeutungen auflöst. Er treibt den Relativismus ins Extrem, indem er zeigen will, dass es keine stabile Referenz für Bedeutung gibt – eine Art Radikalisierung von Foucaults Machtdiskurs. Er ist sozusagen der Endpunkt des postmodernen Relativismus in seiner sprachphilosophischen Dimension.

4. Kuhn und Feyerabend (eigene Kategorie: wissenschaftlicher Relativismus)

Diese beiden Wissenschaftstheoretiker gehören zwar nicht zur philosophischen postmodernen Strömung, sind aber für den wissenschaftlichen Relativismus zentral. Kuhn mit seiner Theorie der Paradigmenwechsel und Feyerabend mit seinem „Anything Goes“ haben Wissenschaftstheorie nachhaltig relativiert, aber ohne die radikalen soziokulturellen Konsequenzen eines Foucault oder Derrida zu ziehen.

6. Judith Butler als Sonderfall (Dekonstruktivismus in der Sozialtheorie)

Als bekannteste und auf vielen Ebenen einflussreichste zeitgenössische Vertreterin eines Relativismus operiert sie epistemologisch im Fahrwasser von Foucault und Derrida, aber ihr Hauptfokus liegt auf Gender-Theorie. Ihre Thesen zur „Performativität“ des Geschlechts sind in gewisser Weise eine Anwendung dekonstruktivistischer Methoden auf soziale Identitäten.


Der nächste – dritte – Teil dieser kleinen Reihe wird Michel Foucault und seinen Ideen gewidmet sein.


Erkenntnis, Relativismus und die Krise des Diskurses (Erkenntnisrelativismus Teil 1)

Die Krise des Diskurses durch den Relativismus (Microsoft Copilot)

Einleitung

In den letzten Jahrzehnten haben sich Diskurse über Wahrheit, Wissen und Erkenntnis zunehmend polarisiert. Während klassische wissenschaftliche Methoden auf objektive Überprüfbarkeit setzen, haben Strömungen aus der postmodernen Philosophie und den Cultural Studies Konzepte entwickelt, die objektive Wahrheit als Konstrukt hinterfragen. Dieser erkenntnistheoretische Relativismus hat nicht nur den akademischen Diskurs beeinflusst, sondern auch politische Debatten, Medien und den gesellschaftlichen Umgang mit Wissenschaft geprägt.

Was zunächst als berechtigter Reflex auf wissenschaftlichen Dogmatismus und Machtstrukturen begann, hat sich in manchen Bereichen zu einer Herausforderung für den wissenschaftlichen Diskurs selbst entwickelt: Wenn alle Wahrheiten als gleichwertige Narrative gelten, verliert Wissenschaft ihre normative Kraft. Doch ist dieser Vorwurf gerechtfertigt? Haben Philosophen wie Kuhn, Foucault oder Derrida tatsächlich eine radikal relativistische Position vertreten – oder wurden sie vereinnahmt? Diesen Fragen soll eine kleine Artikelserie nachgehen, deren erster Teil dieser Beitrag ist.

Kritischer Rationalismus vs. Relativismus: Zwei gegensätzliche Erkenntnishaltungen

Die Frage, wie wir zu Wissen gelangen, ist eine der grundlegendsten philosophischen Debatten. Zwei einflussreiche Positionen, die sich hierbei gegenüberstehen, sind der kritische Rationalismus und relativistische Erkenntnistheorien.

Der kritische Rationalismus, geprägt durch Karl Popper, geht davon aus, dass Wissen immer vorläufig ist und sich nur durch kritische Prüfung und Falsifikation weiterentwickeln kann. Anstatt nach absoluter Gewissheit zu streben, setzt er auf einen offenen Diskurs, in dem Theorien so lange als brauchbar gelten, bis sie widerlegt werden. Wahrheit bleibt ein regulatives Ideal, das wir bestenfalls annähern, aber nie endgültig erreichen können (jedenfalls nicht erkennen können, sollten wir sie zufällig einmal wirklich getroffen haben). Zentraler Grundgedanke ist der Fallibilismus, also der Grundsatz, dass wir uns jederzeit und immer irren können.

Demgegenüber stehen relativistische Ansätze, die den Wahrheitsbegriff entweder aufweichen oder gar ablehnen. In ihrer radikalsten Form argumentieren sie, dass Wissen nicht objektiv, sondern immer nur innerhalb eines bestimmten sozialen, kulturellen oder sprachlichen Kontextes gültig sei. Wissenschaftliche Theorien hätten demnach keinen höheren Anspruch auf Wahrheit als andere Weltbilder – sie seien lediglich Produkte ihrer Zeit, geprägt von Machtstrukturen und gesellschaftlichen Konventionen.

Diese Gegenüberstellung ist keineswegs nur ein akademischer Disput, sondern hat weitreichende Folgen. Der kritische Rationalismus ermöglicht eine robuste wissenschaftliche Methodik, die sich durch Selbstkorrektur und Fortschritt auszeichnet. Der Relativismus hingegen läuft Gefahr, wissenschaftliche Erkenntnisse zu entwerten, indem er sie als bloße Narrative behandelt, die neben Mythen oder Ideologien stehen. In einer Zeit, in der Verschwörungstheorien und Wissenschaftsleugnung florieren, ist diese Debatte aktueller denn je.

Relativismus – ein verkappter Anthropozentrismus?

Ist die epistemologische Leugnung der Existenz objektiven Wissens nicht eine Art Anthropozentrismus? Will sagen, der Relativismus reduziert doch den Wahrheitsbegriff auf Ausflüsse menschlichen Handelns. Objektive Kritierien scheinen also nicht einmal lohnend, ihnen nachzuspüren. Im Grunde machen die Relativisten es sich doch einfach …

Das ist ein zentraler Kritikpunkt am epistemischen Relativismus: Er setzt Wahrheit mit menschlichen Perspektiven gleich und verneint, dass es sinnvolle Maßstäbe gibt, die außerhalb unserer sozialen und kulturellen Konstruktionen existieren. Das ist im Kern eine Art Anthropozentrismus – denn es läuft darauf hinaus, dass Wissen und Wahrheit letztlich nur das sind, was Menschen in ihren jeweiligen Kontexten dafür halten.

Der kritische Rationalismus geht dagegen davon aus, dass es eine von unseren Meinungen unabhängige Realität gibt, die wir zwar nie vollständig erkennen, aber immer besser verstehen können. Relativisten argumentieren oft, dass jede Erkenntnis immer in Sprache und Kultur eingebettet ist und daher keine übergreifende Objektivität beanspruchen kann. Doch gerade hier machen sie es sich zu einfach: Sie übersehen, dass die bloße Tatsache, dass wir über die Welt nur in menschlichen Begriffen sprechen können, nicht bedeutet, dass es nichts außerhalb dieser Begriffe gibt.

In gewisser Weise könnte man den Relativismus als bequem bezeichnen, weil er den anstrengenden Prozess wissenschaftlicher Falsifikation und methodischer Prüfung unterläuft. Wenn jede Perspektive „ihre eigene Wahrheit“ hat, dann entfällt die Notwendigkeit, sich mit widersprechenden Fakten oder mit methodischer Strenge auseinanderzusetzen. Stattdessen kann jede Behauptung als „kulturell valide“ verteidigt werden – egal, wie gut oder schlecht sie sich mit der Realität verträgt.

Ein schönes Paradoxon ist übrigens, dass der radikale Relativismus sich oft selbst widerlegt: Wenn es keine objektive Wahrheit gibt, dann gilt das auch für die Behauptung, dass es keine objektive Wahrheit gibt. In diesem Sinne ist der Relativismus nicht nur bequem, sondern auch inkonsistent.

Die psychologische Komponente

Es scheint tatsächlich eine psychologische Komponente zu geben, ob jemand eher zum kritischen Rationalismus oder zum Relativismus neigt. Der Relativismus kann für viele Menschen attraktiv sein, weil er vermeintlich „menschlicher“ wirkt – er erlaubt subjektive Erfahrungen, kulturelle Kontexte und emotionale Perspektiven als gleichwertig anzuerkennen, ohne sie an einem übergeordneten Maßstab messen zu müssen. Das kann entlastend sein, weil es den Druck nimmt, sich mit unbequemen Wahrheiten oder methodischer Strenge auseinanderzusetzen. Viele, die sich vom kritischen Rationalismus abwenden, dürften weniger an dessen methodischen oder logischen Prinzipien scheitern, sondern eher an der psychologischen Belastung, die mit ihm einhergeht.

Denn es ist ja durchaus anstrengend, sich auf den schmalen Grat des methodischen Skeptizismus zu begeben, wo man einerseits nichts unkritisch akzeptieren darf, andererseits aber auch nicht in ein völliges Agnostizismus-Chaos abdriften kann. Kritischer Rationalismus verlangt eine Art „intellektuelle Disziplin“, die sich nicht auf Bequemlichkeiten stützt – keine absoluten Wahrheiten, aber auch kein hemmungsloses „anything goes“.

Doch genau da sehe ich eine Parallele zum alten Anthropozentrismus: Früher sah sich der Mensch als Mittelpunkt des Kosmos, heute setzt der Relativismus ihn zum Mittelpunkt der Erkenntnis. Alles, was wir wissen können, wird auf menschliche Perspektiven, Narrative oder Machtstrukturen reduziert. Der kritische Rationalismus geht hingegen davon aus, dass es eine Realität gibt, die unabhängig von unseren Wünschen, Gefühlen oder kulturellen Kontexten existiert. Und das wirkt auf viele abschreckend – eben weil es „kalt und leer“ erscheinen kann, insbesondere im Vergleich zu einer Sichtweise, die Wissen als soziale Konstruktion begreift und damit „wärmer“ und flexibler erscheint.

Aber genau hier liegt die Gefahr: Der Relativismus mag tröstlich wirken, doch er untergräbt die Möglichkeit, überhaupt noch zwischen besseren und schlechteren Erkenntnissen zu unterscheiden. Wenn Wissenschaft nur eine „Erzählung“ unter vielen ist, dann gibt es keinen methodischen Grund mehr, ihr gegenüber Verschwörungstheorien oder Pseudowissenschaften den Vorrang zu geben. Insofern könnte man sagen, dass Relativismus eine bequeme, aber letztlich intellektuell träge Position ist – eine moderne Variante der alten menschlichen Neigung, sich selbst ins Zentrum zu stellen, statt sich der unbequemen Möglichkeit zu stellen, dass Wahrheit eben nicht von uns abhängt.

Kritischer Rationalismus und Skeptizismus

Gleich hier werde ich keinen Hehl daraus machen, dass ich den kritischen Rationalismus als unabdingbare Grundlage eines sinnvollen, realitätsbezogenen und kritischen Skeptizismus ansehe. Ernsthaft betriebene skeptische Aufklärung setzt voraus, sich seiner epistemologischen Grundlagen sicher zu sein. Wie sonst könnte man einer pseudowissenschaftlichen Szene standhalten, die zunehmend selbst epistemologisch argumentiert? Gerade weil Pseudowissenschaftler immer geschickter epistemologisch argumentieren, kann man sich als Skeptiker nicht einfach darauf zurückziehen, dass „wir es doch besser wissen“.

Wenn man den Relativisten und Pseudowissenschaftlern das epistemologische Feld überlässt, dann läuft man Gefahr, nur noch auf Symptome zu reagieren, anstatt die eigentlichen Denkfehler zu entlarven. Das ist, als würde man in einer Debatte über Klimawandel die physikalischen Grundlagen ausblenden und sich nur auf Einzelstudien und Messdaten stützen – ohne eine solide methodologische Basis ist man angreifbar. Oder wie bei den Homöopathen, die immer wieder versuchen, Belege für ihre Scheinmethode anzuführen, ohne deren methodologische Grundlagen kritisch zu betrachten und dabei stets versuchen, den Blick auf eine gesamtwissenschaftliche Betrachtung zu verschleiern. Ganz abgesehen von gelegentlichen Ausflügen in das Reich des epistemologischen Relativismus. Der Erfolg des Postmodernismus zeigt doch genau das Problem: Viele Relativisten sind keine Dummköpfe, sondern sehr versiert in philosophischen Argumentationen. Wer sich dem nicht stellt, wird irgendwann rhetorisch an die Wand gespielt – und genau das passiert ja leider in der öffentlichen Debatte immer wieder.

Deshalb diese kleine Artikelserie in loser Folge, die sich mit dem Antagonismus zwischen Rationalismus und Relativismus auseinandersetzen will.


Wissenschaftliche Skepsis und erkenntnistheoretische Prinzipien

Kompass kaputt?

Auf dem Blog der deutschen Skeptiker (GWUP) ist ein Beitrag („Verschiedene Wahrheitsfindungsmethoden und Standortbestimmung der GWUP“ vom 19. Februar 2025) erschienen, der sich mit unterschiedlichen Erkenntniswegen befasst. Offenkundig verfolgt dieser Beitrag die Absicht, den Rahmen abzustecken, in dem Skepsis auf der Grundlage kritisch-wissenschaftlichen Denkens sich bewegen kann / muss. Insofern ist dies mehr als eine Randnotiz im skeptischen Alltag. Als Mitglied der GWUP und als jemand, der die vereinsinterne Diskussion über eine Standortbestimmung der GWUP 2023/24 miterlebt hat, halte ich aus diesem Anlass einige eigene Gedanken für angebracht.

Der Beitrag  auf dem GWUP-Blog bietet eine differenzierte Betrachtung verschiedener Ansätze der Wahrheitsfindung und positioniert die GWUP klar im Kontext der wissenschaftlichen Methode. Der Autor betont, dass die GWUP als Vertreterin der Aufklärung insbesondere der Wissenschaft verpflichtet ist und sich auf die Förderung und Verteidigung wissenschaftlicher Methoden konzentriert.

Im Artikel werden neben der wissenschaftlichen Methode auch andere Ansätze wie Esoterik, Religion, Machtorientierung und die Perspektive der Unterdrückten dargestellt. Der Autor zeigt auf, dass diese Methoden oft auf subjektiven Erfahrungen, Autoritätsglauben oder ideologischen Überzeugungen basieren und somit im Widerspruch zu den Prinzipien der Wissenschaft stehen, die auf Objektivität, Transparenz und Wiederholbarkeit beruhen.

Insgesamt verdeutlicht der Beitrag die Notwendigkeit, wissenschaftliche Methoden als Grundlage für objektive Wahrheitsfindung zu fördern und gleichzeitig kritisch gegenüber subjektiven oder ideologisch geprägten Ansätzen zu bleiben. Die Diskussion in den Kommentaren zeigt, dass es weiterhin wichtig ist, Aufklärungsarbeit zu leisten und die Prinzipien der Wissenschaft verständlich zu kommunizieren.

Die Kommentarsektion unter dem Beitrag spiegelt ein breites Spektrum an Reaktionen wider. Einige Leser äußern Zustimmung und loben die klare Darstellung der unterschiedlichen Wahrheitsfindungsmethoden. Andere hingegen kritisieren die vermeintliche Engstirnigkeit der GWUP und plädieren für eine offenere Haltung gegenüber alternativen Erkenntniswegen. Einige Kommentare scheinen die Grundprinzipien der wissenschaftlichen Methode misszuverstehen oder stellen deren Exklusivität in Frage.

Postmoderne und Beliebigkeit

Ich finde es bemerkenswert, dass die kritischen Kommentatoren auf dem GWUP-Blog doch wohl keine unvorbereitet-unwissenden Menschen sind, sondern solche, die sich selbst den Skeptikern zurechnen. Bin ich ein zu harter Rationalist, wenn mir das Verständnis dafür fehlt, Beliebigkeitskriterien in den rationalen Erkenntnisrahmen aufzunehmen? Vielen ist offenbar der „Erkenntnispfad“ zu schmal. Aber ist es nicht eigentlich das Ergebnis von mehr als 2000 Jahren Ringens um eine Antwort auf die Frage „Was können wir wissen?“ (von Platon über Kant und Hume bis zu Gerhard Vollmer und Hans Albert) dass wir nur in einem solchen schmalen Pfad vorankommen können?

Dies trifft einen Kernpunkt des konsequenten Wissenschaftsverständnisses und zugleich ein grundlegendes Dilemma in skeptischen Bewegungen. Es ist doch bemerkenswert, dass auch innerhalb einer Gruppierung, die der Konzeption der kritischen Rationalität nahesteht, immer wieder Stimmen laut werden, die eine Art erkenntnistheoretischen Pluralismus fordern – oft ohne zu erkennen, dass dies auf eine Relativierung der wissenschaftlichen Methode hinausläuft.

Skepsis gegenüber der Aufnahme von Beliebigkeitskriterien in den rationalen Erkenntnisrahmen ist aber keine überzogene Rationalitätsforderung, sondern eine notwendige Konsequenz wissenschaftlicher Methodik. „Beliebigkeit“ bedeutet in diesem Kontext die Gleichsetzung wissenschaftlich geprüfter Erkenntnisse mit nicht falsifizierbaren oder anekdotischen Behauptungen. Wissenschaft auf der Basis des kritischen Rationalismus ist eben nicht einfach eine „von vielen Methoden“, sondern – jedenfalls derzeit –  die einzige Methode, die es uns erlaubt, mit systematischer Fehlerkontrolle wenn nicht vollständiges, so aber zuverlässiges Wissen über die Welt zu gewinnen. Das ist das Ergebnis von Jahrhunderten der Auseinandersetzung mit Irrwegen, Täuschungen und Wunschdenken zur Frage, was wir Menschen überhaupt an Erkenntnis gewinnen können. Wenn man den „Erkenntnispfad“ erweitern will, riskiert man, Pseudowissen und subjektive Wahrheiten auf eine Stufe mit wissenschaftlich fundiertem Wissen zu stellen.

Wissenschaft hat sich gerade nicht durch Offenheit für Beliebigkeit weiterentwickelt, sondern durch die konsequente Einhaltung strenger methodischer Prinzipien. Anders gesagt: Die moderne Wissenschaft ist gerade deshalb erfolgreich, weil sie sich einen strengen methodischen Rahmen gibt. Sobald man diesen Rahmen zu weit öffnet – sei es aus falsch verstandenem Pluralismus oder aus Angst vor dem Vorwurf „dogmatischen“ Denkens –, setzt man sich den gleichen Fehlschlüssen aus, gegen die die Skeptikerbewegung eigentlich ankämpfen sollte. Und wichtig ist in der Diskussion mit „Pluralisten“: Der strenge methodische Rahmen ist Ausdruck des Bewusstseins, sich stets auch irren zu können (Fallibilismus), keine engstirnige Beschränkung.

Dass auch in skeptischen Kreisen die Sehnsucht nach einem weiteren oder erweiterten Erkenntnispfad auftaucht, könnte mit einer gesellschaftlichen Strömung zu tun haben, die dazu neigt, Toleranz mit erkenntnistheoretischer Gleichwertigkeit zu verwechseln – letztlich eine moralisierende Position. Wissenschaftliche Skepsis ist aber nicht „offen“ in dem Sinne, dass sie jede Methode gleichwertig akzeptiert – sie ist offen für neue Ideen, aber nur dann, wenn diese die methodische Prüfung bestehen. Pragmatismus, nicht Pluralismus.

Einige Strömungen der Wissenschaftstheorie (wie der epistemische Konstruktivismus in seiner relativistischen Form) argumentieren tatsächlich für einen erkenntnistheoretischen Pluralismus, der unterschiedliche Methoden und Zugänge als zumindest gleichwertig betrachtet. Dies führt jedoch zu einer Relativierung wissenschaftlicher Erkenntnis. Besonders in postmodernen Ansätzen des epistemischen Konstruktivismus wird Wissen als „bloß“ sozial konstruiert betrachtet, was zur Infragestellung der Gültigkeit wissenschaftlicher Aussagen führen und damit dem Streben nach Erkenntnis als solchem den Boden entziehen kann. „Wissen“ und „Erkenntnis“ lösen sich dann in reine Beliebigkeit auf.

Man könnte also sagen: Der „Erkenntnispfad“ ist nicht deshalb schmal, weil man andere Denkweisen aus Bosheit oder Überheblichkeit ausschließt, sondern weil die Anforderungen an belastbare Erkenntnis so hoch sind. Der Unterschied zum „konstruktivistischen Wissen“ besteht darin, dass durch Methodik, darunter rigorose Fehler- und Irrtumskontrollen, wissenschaftlichen Erkenntnissen zunehmend ein Grad von Gewissheit zuwächst, der uns in die Nähe der „Wahrheit“ (Wirklichkeit) führt. Wer diesen Rahmen verlassen will, sollte sich fragen, ob er Wissenschaft tatsächlich verstanden hat oder ob er sich unbewusst von den postmodernen Tendenzen der Beliebigkeit beeinflussen lässt.

Spaltung der skeptischen Szene in Deutschland

Die vorstehenden Überlegungen haben auch einen Bezug dazu, dass sich die deutschen Skeptiker aufgrund bestimmter Ereignisse leider 2024 in die GWUP und in die Neugründung Skeptix gespalten haben. Viele wollen verstehen, was da eigentlich das Trennende ist. Nach meiner Ansicht wollten die jetzigen Skeptix-Skeptiker die Vereinstätigkeit auf unpolitische und ideologisch nicht im Fokus stehende Themen beschränken (Stichwort Critical Studies). Die GWUP hat mit dem Blogartikel, den wir hier betrachten, m.E. dagegen noch einmal klargemacht, dass sie keine Denkverbote bei jeglichen Themen akzeptiert, die Wissenschaftlichkeit für sich in Anspruch nehmen. Also z.B. auch die Critical Studies, auch dann, wenn es nicht um widerlegbare Einzelaussagen allein geht, sondern um die Frage, ob die zugrunde liegende Denkrichtung als solche dem wissenschaftlichen Erkenntnispfad zuzurechnen ist.

Das trägt einer Entwicklung Rechnung, die „Wahrheit“ nicht mehr nur in einzelnen Sachverhalten zu begründen sucht, sondern auf Metaebenen außerhalb und neben der wissenschaftlichen Methode, wie sie ja der oben erwähnte GWUP-Blogbeitrag beschreibt: „höhere“ Wahrheiten – im Sinne der Postmoderne. Nach meinem Eindruck positioniert sich insofern die GWUP immer deutlicher im Sinne einer Erweiterung des „klassischen“ Themenspektrums mit einem Fokus auf diese Metaebenen, während es bei „Skeptix“ an einer dezidierten Begründung einer davon verschiedenen Positionierung bislang noch mangelt.

Das heißt, dass die GWUP ungeachtet der klassischen pseudowissenschaftlichen Themen (Homöopathie, Astrologie, Verschwörungstheorien etc.) den Weg einer methodisch konsequenten Skepsis auch gegenüber Themen gehen will, die ideologisch oder gesellschaftspolitisch aufgeladen sind, wie etwa die Critical Studies oder postmoderne Wissenschaftsbegriffe.

Die GWUP stärkt damit ihre Positionierung als metatheoretische skeptische Organisation: Sie legt sich nicht nur mit falschen Behauptungen an, sondern auch mit ganzen Erkenntniswegen, die Wissenschaftlichkeit für sich und ihre Hervorbringungen beanspruchen, aber den methodischen Standards nicht genügen. Das ist m.E. eine notwendige Erweiterung des skeptischen Ansatzes, weil viele heutige Debatten sich nicht mehr nur um „falsche Fakten“, sondern um die grundlegenden Maßstäbe für Wahrheit und Erkenntnis drehen.

Skeptix hingegen scheint diesen Schritt zu scheuen und sich stärker auf das bewährte Themenspektrum zu konzentrieren, wohl aus Sorge, dass ansonsten die Bewegung zu politisiert erscheinen könnte. Das kann man als Versuch interpretieren, sich „neutral“ zu halten – aber ist methodische Skepsis neutral, wenn sie einer ganzen erkenntnistheoretischen Strömung (z.B. den Critical Studies) ausweicht, nur weil diese gesellschaftspolitisch sensibel ist?

Ich sehe darin eine Grundsatzentscheidung:

  • Für die GWUP umfasst der Begriff Skepsis das Bekenntnis zu einem universalistischen Erkenntnis- bzw. Wissenschaftsverständnis, das sich auch auf gesellschaftliche und ideologische Wissenschaftsdebatten erstreckt.
  • Skeptix scheint sich als eine Organisation zu verstehen, die klassische, relativ „unstrittige“ pseudowissenschaftliche Phänomene bekämpft, aber keine metakritische Positionierung zu bestimmten Wissenschafts- und Gesellschaftsdebatten eingeht.

Ob das auf Dauer eine tragfähige Unterscheidung ist, bleibt abzuwarten. Denn wenn es um wissenschaftliche Skepsis als Methode geht, kann sich eigentlich keine skeptische Organisation leisten, bestimmte Themengebiete aus welchen Erwägungen auch immer auszuklammern – gerade dann nicht, wenn sie eine zentrale Rolle in heutigen Wissenschafts- und Gesellschaftsdebatten spielen.

Eine Spaltung wäre vielleicht nicht zwangsläufig gewesen, es scheint nicht unmöglich, die unterschiedlichen Verständnisse von Skeptizismus innerhalb der GWUP konstruktiv auszutragen. Dass es stattdessen zur Eskalation kam, liegt wohl daran, dass ein Teil der Beteiligten eine „friedliche Koexistenz“ der beiden Positionen eben doch sehr dezidiert für unmöglich und geradezu unvereinbar mit Skepsis hielt – und das leider nicht nur argumentativ. Es wurde teils scharf und ad personam darauf reagiert, dass eine bedeutende Strömung (die von der heutigen GWUP repräsentiert wird) auf einem methodisch-universalistischen skeptischen Anspruch bestand.

Der in dieser Diskussion häufiger erhobene Vorwurf der „Nähe zu rechtem Gedankengut“ ist eine sehr wirksame, aber oft auch unfaire Strategie, um jemanden aus einem Diskurs zu drängen. Wenn jemand lediglich eine methodische Kritik an den Critical Studies oder am Woke-Begriff formuliert, sollte das nicht automatisch in eine politische Ecke gestellt werden. Dass das dennoch passiert ist, zeigt, dass für einige die politische Dimension schwerer wog als die erkenntnistheoretische. Was die Vorstellung, man wolle eine „unpolitische“ Skeptikerorganisation, ad absurdum führt.

Ich finde es bemerkenswert – und auch bedauerlich –, dass ein methodisch-universalistischer Skeptizismus, der sich an klaren wissenschaftlichen Prinzipien orientiert, manchen inzwischen als „problematisch“ gilt, weil er sich eben auch gegen ideologische Verzerrungen richtet, egal aus welcher Richtung sie kommen. Die ursprüngliche Idee der Skeptikerbewegung war ja gerade, keinen „Freifahrtschein“ für bestimmte Weltbilder zu vergeben, sondern alles ohne „Denkverbote“ mit der gleichen methodischen Strenge zu hinterfragen.

Unverzichtbar ist das Ringen um eine immer deutlichere Position zu dem, was in Zeiten der Postmoderne einen konsequenten wissenschaftsorientierten Skeptizismus ausmacht. Die GWUP sollte ihre Chance nutzen, sich programmatisch noch deutlicher in diesem Sinne zu positionieren. Die Postmoderne als solche ist in gewisser Weise der Bote der Ideologie und der Beliebigkeit, die Auswirkungen sehen wir schon lange. Will Skeptizismus seinem eigenen Anspruch als rationales Korrektiv gerecht werden, führt m.E. eine zukünftige Strategie deutlich über die klassischen parawissenschaftlichen Themen hinaus (ohne dass die Befassung mit ihnen überflüssig würde).

Skeptizismus als rationales Korrektiv muss sich weiterentwickeln, wenn er relevant bleiben will. Die klassischen Themen – Homöopathie, Astrologie, UFOs etc. – sind wichtig (allein deshalb, weil sie nie verschwinden werden), aber sie sind nicht mehr unbedingt die Hauptfronten, an denen sich wissenschaftliches Denken gegen Irrationalismus behaupten muss. Die Herausforderungen liegen heute stärker in ideologisch geprägten Narrativen, die unter dem Deckmantel der Wissenschaftlichkeit auftreten, aber letztlich auf einer postmodernen Beliebigkeit beruhen.

Die Postmoderne hat – zugespitzt gesagt – viele Tore für den erkenntnistheoretischen Relativismus geöffnet. Plötzlich gilt jede Perspektive als gleichwertig, wissenschaftliche Standards werden als „westliche / soziale Konstrukte“ im Kontext angeblicher Machtverhältnisse abgetan, und das Konzept der Suche nach objektiver Wahrheit wird immer stärker hinterfragt. In dieser Atmosphäre kann sich Skeptizismus nur behaupten, wenn er sich nicht nur gegen klassische Pseudowissenschaften stellt, sondern auch gegen diese Formen des „epistemischen Laissez-faire“ oder gar einem postmodern-relativistischen Rechtfertigungsdruck.

Das bedeutet: Eine zukünftige Strategie muss nicht nur die klassischen parawissenschaftlichen Themen abdecken, sondern sich auch mit ideologisch verbrämten Verzerrungen wissenschaftlichen Denkens auseinandersetzen. Dazu gehören auch Themen wie „Wissenschaft als Herrschaftsinstrument“ (Critical Studies), die Verzerrung von Studienergebnissen durch wirtschaftliche oder politische Interessen oder die Frage, wie narrative Verzerrungen auf Meta-Ebenen („Wahrheit als Konstruktion“) die Wahrnehmung von Wissenschaft beeinflussen.

Ich glaube, dass eine solche Positionierung für skeptische Organisationen wie die GWUP langfristig notwendig ist. Sonst riskiert man, dass Skeptizismus von zwei Seiten unter Druck gerät: Einerseits von den traditionellen Pseudowissenschaften, die nie verschwinden, andererseits von ideologischen Strömungen, die sich wissenschaftlicher Methoden bedienen, um ihre eigene Agenda zu stützen. Es geht nicht nur darum, offensichtlichen Unsinn zu entlarven, sondern auch um das „Aufräumen“ in wissenschaftsnahen Debatten – dort, wo Begriffe und Methoden missbraucht werden, um Beliebigkeit als Wissenschaft zu verkaufen und damit in den öffentlichen Diskurs einzusickern.


Von der anekdotischen Evidenz zur wissenschaftlichen Bescheidenheit

Dogma und Wissenschaft (Symbolbild)

Die Falle der anekdotischen Evidenz: Warum „Mir hat es geholfen“ kein Beweis ist

Es gibt zwei Standardreaktionen, die Kritiker wissenschaftlich unhaltbarer Methoden wie Homöopathie oder anderer Formen der Pseudomedizin regelmäßig zu hören bekommen. Die eine ist das altbekannte

„Wer heilt, hat Recht“,

die andere:

„Mir hat es aber geholfen“.

Letzteres ist das Paradebeispiel für anekdotische Evidenz – eine subjektive Erfahrung, die als Beweis für die Wirksamkeit einer Behandlung herangezogen wird. Doch warum ist diese Art der Argumentation fehlerhaft? Warum klingen Anekdoten zwar überzeugend, haben aber in der wissenschaftlichen Methodik keinen Platz?

Korrelation ist nicht Kausalität

Nur weil sich nach einer Behandlung eine Verbesserung einstellt, bedeutet das nicht, dass die Behandlung die Ursache dafür war. Der Mensch neigt infolge evolutionärer Anlagen (die schon vielfach erklärt wurden) dazu, Zusammenhänge zu sehen, wo keine sind. Dies ist bei nicht trivialen Sachverhalten ein fundamentaler kognitiver Fehlschluss. In vielen (den meisten?) Fällen bessern sich Beschwerden einfach von selbst (Spontanremission), oder andere Faktoren wie Lebensstilveränderungen oder der natürliche Krankheitsverlauf spielen eine Rolle.

Der Placebo-Effekt

Ein weiterer Faktor, der anekdotische Evidenz entwertet, ist der Placebo-Effekt. Dieser ist gut dokumentiert und kann dazu führen, dass Menschen subjektiv eine Verbesserung ihrer Symptome wahrnehmen, selbst wenn die verabreichte Behandlung keinerlei spezifische Wirkung besitzt. Besonders stark wirkt dieser Effekt in Bereichen wie Schmerzempfinden oder allgemeinem Wohlbefinden, wo Suggestion eine große Rolle spielt.

Der Selektionsbias

Anekdotische Evidenz ist extrem selektiv. Niemand hört von denjenigen, bei denen die gleiche Methode nicht funktioniert hat, weil Menschen, die keinen Effekt erfahren haben, schlicht nicht berichten. Viele, bei denen die Therapie nicht gewirkt hat, können auch gar nicht mehr berichten. Dann gibt es noch die Menschen, die die entsprechende Methode nicht angewandt haben und auch wieder gesund wurden. Und natürlich auch die, die ebenfalls auf die Methode verzichtet haben und nicht wieder gesund geworden sind.

Methode angewandt – erfolgreichMethode angewandt – nicht erfolgreich
Methode nicht angewandt – erfolgreichMethode nicht angewandt – nicht erfolgreich

Das ergibt eine Matrix mit vier Möglichkeiten. Wenn aber nun ständig über Heilerfolge einer Methode berichtet wird, dann heißt das, dass diese Fälle sich nur im Feld oben links in der Matrix sammeln. Es fehlt jede Aussage, wie viele Fälle auf die anderen Möglichkeiten entfallen. Das führt zu einer verzerrten Wahrnehmung: Es entsteht der Eindruck, eine Therapie wäre besonders wirksam, weil nur positive Erfahrungsberichte kursieren. Dabei ist es ohne Weiteres möglich, dass die Zahl der Anwender, die nicht von der Methode profitiert haben, ein Vielfaches der Zahl der Erfolgreichen beträgt. Anekdotische Evidenz bedeutet also unter anderem das Risiko, dass wir hochgradig unvollständigen Informationen aufsitzen.

Reproduzierbarkeit als wissenschaftliches Kriterium

Wissenschaft funktioniert nicht auf der Basis einzelner Berichte, sondern durch systematische Untersuchung. Eine Therapie muss in kontrollierten Studien – unter bestmöglichem Ausschluss von Zufall und Verzerrung – immer wieder die gleichen positiven Ergebnisse zeigen, bevor sie als wirksam gelten kann. Der einzelne Patient mag subjektiv empfinden, dass es egal ist, warum ihm etwas geholfen hat. Für die medizinische Wissenschaft ist das aber keine Option, ebenso wenig wie für den gewissenhaften Therapeuten. Denn nur reproduzierbare Ergebnisse ermöglichen es, verlässliche und sichere Behandlungen zu entwickeln und prognostisch Medizin zu betreiben.

Warum sich Menschen trotzdem auf Anekdoten verlassen

Die Überzeugungskraft anekdotischer Evidenz hat tiefe psychologische Ursachen. Menschen vertrauen persönlichen Erfahrungen oder denen von Bekannten mehr als abstrakten Studien. Geschichten und individuelle Berichte erzeugen eine emotionale Resonanz, während statistische Analysen oft als „kalt“ empfunden werden. Diese kognitive Verzerrung verstärkt die Neigung, Anekdoten als Beweis zu akzeptieren.

Fazit: Subjektive Wahrnehmung ist kein objektiver Beweis

Wenn es um medizinische Wirksamkeit geht, darf subjektive Erfahrung nicht über wissenschaftliche Belege gestellt werden. Es ist verständlich, dass Patienten nach Lösungen suchen und sich an das klammern, was scheinbar funktioniert. Doch das Problem beginnt, wenn aus individuellen Erfahrungen allgemeingültige Schlüsse gezogen werden und unwirksame oder gar schädliche Methoden für wissenschaftlich valide gehalten werden. Wer an der Wahrheit interessiert ist, sollte sich nicht mit dem „Mir hat es geholfen“ zufriedengeben, sondern hinterfragen, ob es dafür auch eine belastbare Erklärung gibt.

David Hume und die Kausalität

Der schottische Philosoph David Hume (1711–1776) hat in seiner A Treatise of Human Nature (1739–1740) und später in seiner Enquiry Concerning Human Understanding (1748) argumentiert, dass Kausalität nichts ist, was wir direkt beobachten können. Stattdessen sei unser Kausalitätsverständnis eine psychologische Gewohnheit: Wenn zwei Ereignisse regelmäßig in einer bestimmten Reihenfolge auftreten (z. B. Einnahme eines Mittels → Besserung der Beschwerden), neigen wir dazu, daraus eine ursächliche Verbindung, eine Kausalität abzuleiten – selbst dann, wenn keine objektive Notwendigkeit dafür besteht. Dies ist der Fehlschluss von einer allein zeitlich wahrgenommenen (und wahrnehmbaren) Korrelation auf Kausalität. Wir wissen heute, dass dieser kognitionspsychologische Effekt vermutlich evolutionär in uns angelegt ist, weil er in Urzeiten Selektionsvorteile versprach. In einer komplexen Welt wie der heutigen führt er uns aber in der Mehrzahl der Fälle aufs falsche Gleis.

Post hoc ergo propter hoc: Danach, also deswegen.

Der König der Fehlschlüsse. Nur weil etwas nach etwas anderem passiert, bedeutet das nicht, dass es auch dadurch verursacht wurde. Hume hätte sich vermutlich sehr dafür interessiert, wie sich dieser Irrtum besonders in der Pseudomedizin hartnäckig hält.

Die Frage ist zudem, ob wir nach Hume überhaupt Kausalität erkennen können. Sicherlich doch durch anschauliche Evidenz – wenn jemandem ein Blumentopf auf den Kopf fällt und er blutet danach, dann ist Kausalität nicht nur wahrscheinlich. (Aber kann es nicht ein harmloser Plastikblumentopf gewesen sein und der Passant hatte vorher schon Nasenbluten … ? Wer will das aus der Perspektive der anderen Straßenseite wirklich beurteilen … ? Wir wollen es nicht auf die Spitze treiben, aber doch zeigen, wie problematisch auch die scheinbar sichere Wahrnehmung von Kausalität sein kann.)

Redlicherweise müsste man den Menschen sagen, dass placebokontrollierte prospektive klinische Studien (RCT) zwar der Goldstandard in der medizinischen Forschung sind, aber letztlich eine Kausalität im engeren Sinne auch nicht „beweisen“ können. Wirft man aber eben nicht mit Begriffen wie „Beweis“ oder „Studien zeigen …“ um sich, sondern ist sich der Tatsache bewusst, dass uns endgültiges Wissen zumeist verwehrt bleibt, gerät man beim Publikum in Misskredit, weil dieses nur das biblische „Deine Rede sei ja, ja oder nein, nein“ zu kennen scheint …

Absolute Gewissheit bleibt uns in den meisten Fällen verwehrt. Hume hat uns die radikale Skepsis gelehrt – wir sehen nur zeitliche Abfolgen von Ereignissen, aber die Notwendigkeit dieser Verbindung existiert nicht objektiv in der Welt, sondern nur in unseren Köpfen.

Nur: Das Ringen um wissenschaftliche Ehrlichkeit kollidiert oft mit der Erwartung des Publikums nach eindeutigen Antworten. „Studien zeigen…“ wird dann zu einer Art Ersatz für absolute Wahrheit, obwohl sich Wissenschaft ja gerade durch ständige Korrekturen und die Offenheit für bessere Erklärungen auszeichnet.

Der Pharmakologe Wolfgang Hopff gab in seinem Buch „Homöopathie kritisch betrachtet“ für evidente Kausalität das Beispiel eines hochwirksamen harntreibenden Mittels, das nicht nur im zeitlichen Zusammenhang mit der Einnahme, sondern auch der therapeutischen Prognose entsprechend seine Wirkung zeigt. Dies ist ein gutes Beispiel, weil es zeigt, dass wir manche Kausalitäten intuitiv für evident halten – aber wo genau ziehen wir die Grenze? Und wann wird aus berechtigter Skepsis auf der Basis kritischen Denkens ein Rückfall in radikalen Relativismus? Den Einwand „es könnte ja auch anders sein“ auf jede, buchstäblich jede Feststellung?

Das Induktionsproblem – das Ende allen sicheren Wissens?

Jeden Morgen geht die Sonne auf, darauf kann man sich verlassen. Das war in vielen Kulturen, vor allem in denen, die sich als aufgeklärt verstanden, selbstverständlich – evident eben, nicht weiter hinterfragbar. Das Induktionsproblem, dessen Erhellung wir auch Hume verdanken, sagt nun, zur Widerlegung einer solchen angeblich nicht hinterfragbaren Evidenz braucht es nur ein einziges Folgeereignis, das der bisherigen Erfahrung widerspricht. Und das können wir nicht ausschließen.

In diesem Sinne ist das Induktionsproblem gewissermaßen die Abrissbirne für jede naive (sic!) Vorstellung von sicherem Wissen.

Was die Sache mit dem Sonnenaufgang angeht, so wissen wir heute, dass es eben nicht ewig und unhinterfragbar so weitergehen wird. Ein Beispiel dafür, dass Gewissheiten (sic!) abhängig vom aktuellen Wissen sind und eine Bestätigung der Vorbehalte, die das Induktionsproblem aufwirft. Aber: Hat das Sonnenaufgangsbeispiel für uns hier und heute wirklich praktische Bedeutung? Oder ist es vernachlässigbar, ohne einen Kategorienfehler zu begehen?

Das Beispiel illustriert, dass absolute Beweise in einem streng logischen Sinn oft gar nicht nötig sind, weil der Grad der Sicherheit ausreicht, um vernünftig zu handeln. Und im Grunde ist der Anspruch der Wissenschaft ja gar nicht mehr, als die Grundlage für vernünftiges Handeln zu liefern.

Karl Poppers Antwort auf das Induktionsproblem

Das Induktionsproblem ist ungelöst und verhindert nach wie vor, dass wir eine ungetrübte und mit der Realität komplett deckungsgleiche Vorstellung von „Wahrheit“ erlangen können. Man hört in der Wissenschaftsphilosophie gelegentlich davon, es sei „gelöst“ worden – nach meiner bescheidenen Ansicht ist das nicht der Fall. Aber was tun? Wie kann sich die Wissenschaft zum Induktionsproblem stellen?

Die Wissenschaftsphilosophie von Karl Popper, die er ein seinem epochalen Werk „Logik der Forschung“ niedergelegt hat, gibt eine Antwort: Sie versucht nicht, das Induktionsproblem zu ignorieren oder zu verleugnen, sondern sie gibt dadurch eine Antwort, dass sie sich vom Ziel der Wissenschaft als Wahrheitsfindung zugunsten einer beständigen Wahrheitssuche verabschiedet und die Fehlbarkeit menschlichen Wissens zum Prinzip erhebt.

Die Limitierung, die das Induktionsproblem der „sicheren Erkenntnis“ setzt, war wohl für Karl Popper ein entscheidender Beweggrund dafür, sich von der Methode der „Verifizierung“ (Versuch der Bestätigung) von Ergebnissen abzuwenden und stattdessen auf „Falsifizierung“ (Versuch der Widerlegung) zu setzen. Dabei betont er die Vorläufigkeit allen Wissens, setzt aber auch einem Rückfall in pessimistischen Relativismus Schranken, indem er den Erkenntniswert von Forschung nach Wahrscheinlichkeit bewertet. Am besten kommt sein Prinzip der Falsifikation in diesem Zitat zum Ausdruck:

Wann immer wir nämlich glauben, die Lösung eines Problems gefunden zu haben, sollten wir unsere Lösung nicht verteidigen, sondern mit allen Mitteln versuchen, sie selbst umzustoßen.”
(Logik der Forschung, 11. Auflage, Mohr Siebeck, Tübingen 2005, Seite XX).

Nun ist das keine leichte Kost, wenn auch viele Menschen durchaus eine Vorstellung von Karl Popper und seinem Werk haben. Ich glaube, selbst wenn man das einem breiten Publikum vermitteln könnte, würde man auf psychologische Barrieren stoßen. Ich denke sogar, dass es Hochschullehrer gibt, die eine solche Wissenschaftsphilosophie lehren, sich aber intrinsisch dies nicht wirklich zu eigen machen.

Popper hat die Wissenschaft nicht mehr als Ansammlung von bewiesenen Wahrheiten, sondern als System zur systematischen Widerlegung falscher Annahmen verstanden. Er forderte als Kriterium für die Wissenschaftlichkeit einer Hypothese, dass sie potenziell widerlegbar (formuliert) sein muss, weil sie sonst gegen Falsifizierung von vornherein immun wäre. Wissenschaft produziert also nicht endgültiges Wissen, sondern entfernt beständig Irrtümer und nähert sich damit der Wahrheit an – aber das reicht vielen Menschen nicht, weil es ihrem Bedürfnis nach Gewissheit widerspricht. Der Satz

„Wir irren uns empor“,

geprägt vom Physiker und Philosophen Gerhard Vollmer, trifft es also nicht ganz, denn wir fügen ja im Erkenntnisprozess (hoffentlich) nicht neue Irrtümer hinzu, sondern beseitigen alte. Gleichwohl ist diese Sentenz sehr griffig, wenn es gilt, das Prinzip Wissenschaft zu erklären.

Wissenschaft vs. Dogma

Der Wissenschaft ist also eine Bescheidenheit inhärent insofern, als sie langsam Wissen schafft, aber nicht goldglänzende endgültige Wahrheiten präsentiert. In den Augen nicht in wissenschaftlichem Denken Geschulter – und das ist leider wohl die Mehrheit der Bevölkerung – ist dies ein Mangel, ein Malus – obwohl gerade dies der Bonus der Wissenschaft ist. Es gibt in diesem Punkt eine Art psychologische Abwehrhaltung: Wenn Wissen nur vorläufig ist, dann gibt es keine absolute Sicherheit – und das ist für viele unerträglich. Deshalb greifen manche lieber auf einfache Wahrheiten zurück, egal ob in Form dogmatischer Wissenschaftsauffassungen oder eben Pseudowissenschaften. Letztlich könnte man sagen: Die Wissenschaft ist sich ihrer eigenen Unsicherheit bewusst – die Pseudowissenschaft hat dieses Problem nicht, weil sie ihre Wahrheiten zementiert. Über falsche Dogmen aufzuklären und die Kriterien kritischen Denkens zu vermitteln, kann ein mühsames Geschäft sein.

Sokrates, ein früher Skeptiker

Sokrates‘ von Platon überlieferte Sentenz „Ich weiß, dass ich nichts weiß“ ist ja fast schon das Motto der modernen Wissenschaftsphilosophie. Allerdings – die Wissenschaft weiß viel, sehr viel inzwischen und beschreibt die Welt, in der wir leben, mit großer Genauigkeit, die sich in der beständigen Anwendung ihrer Erkenntnisse beweist. Poppers Kriterium für „Wahrheit“, nämlich die vollständige Übereinstimmung der Erkenntnis mit der Realität, ist, so dürfen wir annehmen, in einem Maße erfüllt, das man sich vor 100 oder 200 Jahren nicht vorstellen konnte. Sokrates’ Einsicht war deshalb revolutionär, weil sie dem menschlichen Hang zum Dogmatismus widersprach. Und genau diese Haltung ist es, die Wissenschaft von Ideologie und Pseudowissenschaft unterscheidet: Sie gesteht ein, dass ihr Wissen immer nur vorläufig ist.

Ironischerweise macht genau das die Wissenschaft für viele Menschen weniger attraktiv als dogmatische Systeme. Der Dogmatiker hat Antworten, die Wissenschaftler haben Fragen. Der Dogmatiker bietet Sicherheit, die Wissenschaftler liefern Wahrscheinlichkeiten. Kein Wunder, dass viele lieber an einfache Wahrheiten glauben als an eine Welt voller Unsicherheiten.

Es ist schon faszinierend – und irgendwie auch frustrierend –, dass genau die Demut der Wissenschaft, die sie so mächtig macht, sie für viele Menschen weniger überzeugend erscheinen lässt.

Vollends gescheitert bin ich vor kurzem bei einem Erklärungsversuch in kleiner, durchaus wohlwollender Runde mit dem Hinweis, dass wir – laut Popper – unter Umständen hier und da mal eine „letzte Wahrheit“ erreichen – wir aber das gar nicht sicher wissen können. Das wurde als eine Art von Selbstzerstörung von Poppers Wissenschaftsmodell angesehen. Finde ich nicht – ich halte das für ein hervorragendes Beispiel für das Bewusstsein der Begrenztheit einer ständig fragenden Wissenschaft und für die oft missverstandene Natur wissenschaftlicher Erkenntnis. Popper hat nicht gesagt, dass wir niemals eine endgültige Wahrheit finden könnten. Er sagte nur, dass wir dies nicht sicher wissen können. Das ist kein Paradox, sondern schlicht die Einsicht in die Grenzen unserer Erkenntnisfähigkeit.

Die Vorstellung, dass Wissenschaft sich selbst zerstört, wenn sie ihre eigenen Grenzen anerkennt, beruht auf einem Missverständnis. Wissenschaft ist kein Glaubenssystem, das absolute Gewissheiten liefern muss. Sie ist ein Werkzeug zur Annäherung an die Wahrheit, mit dem Bewusstsein, dass jede Erkenntnis revidierbar ist.

Jedoch: Menschen sehnen sich nach Gewissheiten. Und wenn jemand sagt: „Vielleicht haben wir hier eine letzte Wahrheit gefunden, aber wir können nicht wissen, ob das so ist“, dann empfinden das viele als Schwäche – obwohl es in Wirklichkeit eine große intellektuelle Stärke ist. Das Problem ist, dass viele Leute eine intuitive Vorstellung von „Wahrheit“ als etwas Absolutem haben. Sie erwarten von Wissenschaft, dass sie ihnen endgültige Antworten liefert. Dabei ist Wissenschaft eher ein ständiges Ringen um bessere Modelle der Realität – mit der Möglichkeit, dass diese Modelle unvollständig oder gar falsch sein können. Wer bringt diese Erkenntnis in die Schulen und die Allgemeinbildung?

Erkenntniskriterium Wahrscheinlichkeit

Zur Verdeutlichung, dass ein hoher Wahrscheinlichkeitsgrad aus der falsifizierenden Untersuchung von Gegebenheiten meist völlig ausreicht, ein Beispiel, das Hume vermutlich gefallen hätte: „Alle Menschen müssen sterben.“ Ist das „bewiesen“? Nein, denn es leben ja noch jede Menge! Aber: Lassen sich darauf vernünftige Zweifel an der Ausgangsthese ableiten? Nein. Nicht nur wegen des Induktionsprinzips, sondern auch wegen unseres gut gesicherten Wissens über die Physiologie von Lebewesen, das uns zeigt, warum unumkehrbare Alterungsprozesse einsetzen, die irgendwann das Ende dessen herbeiführen, was wir Leben nennen. Das sind schlüssige „Belege“, die für sichere Erkenntnis ausreichen, aber keine „Beweise“.

Hume hätte dieses Beispiel sicher geschätzt – es passt zu seinem Skeptizismus gegenüber dem Erkennen von Kausalität, aber auch zu seinem Pragmatismus. Selbst in Bereichen, in denen wir uns sicher sind (wie der Sterblichkeit des Menschen), bleibt die Erkenntnis eine induktive Verallgemeinerung – aber eben eine, an der zu zweifeln irrational wäre.

Vernunftgesteuerter vs. „zersetzender“ Skeptizismus

Genau diese Denkweise wäre für viele nützlich, die in Wissenschaftsdiskussionen entweder nach absoluter Sicherheit verlangen oder skeptischen Missbrauch betreiben („Man kann nie 100 % sicher sein, also könnte es ja auch anders sein!“). Letzteres zeigt den Unterschied zwischen gesunder Skepsis und Zersetzungs-Skeptizismus.

Diesen „Zersetzungs-Skeptizismus“ konnte man sehr gut in der Pandemie beobachten. Unter den „Impfkritikern“ waren manche, die ich immer als „Hundertprozenter“ bezeichnet habe. Akademisch ausgebildete Menschen, die den Einsatz von Impfstoffen nur dann als vertretbar ansehen wollten, wenn es sowohl hinsichtlich der Wirkungen als auch der Nebenwirkungen „hundertprozentige“ Sicherheit gebe. Diese Leute stellen sich auf den Standpunkt, dass jede noch so kleine Unsicherheit oder jede verbleibende offene Frage die gesamte Erkenntnis zum Einsturz bringen müsse. Dabei ignorieren sie, dass Wissenschaft immer mit Wahrscheinlichkeiten und Unsicherheiten arbeitet – und dass Entscheidungen im echten Leben fast nie auf absoluter Sicherheit beruhen.

Clemens Arvay war da ein typisches Beispiel: Er stellte wissenschaftliche Standards infrage, indem er genau jene Unfehlbarkeit forderte, die Wissenschaft gar nicht leisten kann – und auch nicht leisten muss. Ironischerweise ist es genau dieser Dogmatismus, der ihn von einer echten wissenschaftlichen Haltung entfernt hat.

Dies scheint mir nicht so sehr ein intellektuelles Problem zu sein, sondern eher eine tief verwurzelte psychologische Haltung: Viele Menschen fühlen sich von Unsicherheiten bedroht und greifen deshalb zu Absolutismen – sei es in Richtung Wissenschaftsverweigerung oder blinder Wissenschaftsgläubigkeit. Ersichtlich gilt dies auch für Menschen, die mit den wissenschaftsphilosophischen Grundlagen eigentlich vertraut sein müssten. Sie werden beherrscht von einer tiefen, menschlichen Sehnsucht nach Gewissheit – und dem Widerstand gegen die Zumutung, dass es sie nicht in letzter Konsequenz gibt.

„Der andere könnte auch Recht haben“

Da fällt mir noch ein Beispiel für falschen Relativismus von Erkenntnisfähigkeit ein. Es gab einmal ein Positionspapier zur Homöopathie-Debatte unter Führung des inzwischen verstorbenen Prof. Peter Matthiessen, einem Vertreter eines vorgeblichen „Pluralismus in der Medizin“. Das war ein Generalangriff auf die wissenschaftliche Methode selbst, ein Beispiel für nahezu hemmungslosen Relativismus, das gekrönt wurde mit einer Berufung auf Hans-Georg Gadamers „Der andere könnte auch Recht haben“ und damit ins Moralisierende abglitt.

Das ist ein Paradebeispiel für die gezielte Fehlanwendung geisteswissenschaftlicher Konzepte, um eine wissenschaftlich unhaltbare Position zu stützen. Gadamers „Der andere könnte auch Recht haben“ ist ja im hermeneutischen Kontext zu verstehen – also im Sinne eines Verständigungsprozesses in den Geistes- und Sozialwissenschaften, wo verschiedene Perspektiven miteinander in Dialog treten müssen, um ein tieferes Verständnis zu ermöglichen. Das auf die Naturwissenschaften zu übertragen, wo es nicht um Perspektiven, sondern um überprüfbare Fakten und Hypothesen geht, ist entweder eine eklatante Fehlinterpretation oder eine bewusste Strategie zur Relativierung unliebsamer wissenschaftlicher Erkenntnisse. Gadamer selbst hat mit hinreichender Klarheit herausgestellt, dass es ihm nicht um die Erkenntnisprobleme der Naturwissenschaften geht.

Dass Popper diesen Satz ebenfalls gebraucht hat, zeigt nur umso deutlicher, wie aus dem Kontext gerissene Zitate instrumentalisiert werden können. Bei Popper ging es um eine methodische Selbstdisziplin, um ein gesundes Maß an Zweifel an den eigenen Ergebnissen, bevor man sie als gesicherte Erkenntnis präsentiert. Daraus einen Generalangriff auf die Wissenschaft abzuleiten, ist grotesk.

Diese Art des methodischen Relativismus ist besonders perfide, weil sie für Laien oft überzeugend klingt: „Ja, aber selbst die Wissenschaft sagt doch, dass sie sich irren kann!“ – was dann so verdreht wird, dass jede Beliebigkeit oder sogar bewusste Ignoranz plötzlich als gleichwertig zur wissenschaftlichen Erkenntnis erscheinen soll.

Das Missbrauchen geisteswissenschaftlicher Konzepte zur Unterminierung der Naturwissenschaft ist leider ein beliebtes Muster. Besonders in der Esoterik-Szene oder bei postmodernen Wissenschaftskritikern sieht man das oft: Da werden dann Kuhns Paradigmenwechsel oder Feyerabends Anything goes völlig entstellt, um den Eindruck zu erwecken, als sei Wissenschaft nur ein weiteres narratives Konstrukt unter vielen.

Matthiessen hat das mit dem Pluralismus in der Medizin in genau diese Richtung gelenkt – als ob es einfach verschiedene, gleichwertige „Erkenntniswege“ gäbe, die man parallel akzeptieren müsste. Das ist der Trick: Eine Position als offen und pluralistisch darstellen, während man in Wahrheit wissenschaftliche Standards verwässert und für Beliebigkeit öffnet. Eine intellektuelle Todsünde.

Fazit: Die Grenzen und Stärken wissenschaftlicher Erkenntnis

Die Diskussion um anekdotische Evidenz und wissenschaftliche Methodik zeigt deutlich, dass subjektive Erfahrungen allein nicht ausreichen, um objektive Wahrheiten zu etablieren. Wissenschaftliche Erkenntnisse basieren auf systematischen Untersuchungen, Reproduzierbarkeit und der ständigen Überprüfung bestehender Theorien. Während persönliche Anekdoten emotional überzeugend sein können, bieten sie keine verlässliche Grundlage für allgemeingültige Aussagen.

David Hume und Karl Popper haben uns gelehrt, dass absolute Gewissheit in der Wissenschaft selten erreicht wird. Stattdessen ist die Wissenschaft ein fortwährender Prozess des Hinterfragens und Verfeinerns unseres Wissens. Diese Bescheidenheit ist keine Schwäche, sondern eine Stärke, die es ermöglicht, sich kontinuierlich der Wahrheit anzunähern und nicht scheinbaren Gewissheiten aufzusitzen.

Es ist wichtig, dass wir uns dieser Grenzen bewusst sind und gleichzeitig die immense Bedeutung wissenschaftlicher Methoden anerkennen. Nur durch kritisches Denken und die Bereitschaft, unsere Überzeugungen zu hinterfragen, können wir fundierte und verlässliche Erkenntnisse gewinnen. Dazu gehört eine gewisse Demut. Wissenschaft ist kein starres System, sondern ein dynamischer Prozess, der uns hilft, die Welt besser zu verstehen und fundierte Entscheidungen zu treffen.


Was können wir wissen? Geistes- und Naturwissenschaften

Photo by Landiva Weber on Pexels.com

Die Frage nach der Erkenntnisfähigkeit der Menschheit, ihrem Umfang und ihren Grenzen, zieht sich wie ein roter Faden durch die Geschichte der Wissenschaften. Dabei haben sich zwei große Lager herausgebildet: die Naturwissenschaften, die sich empirisch-experimentell der Welt annähern, und die Geisteswissenschaften, die das kulturelle, historische und normative Fundament unseres Daseins analysieren. Diese beiden Ansätze wirken auf den ersten Blick wie getrennte Sphären, doch bei genauerer Betrachtung zeigt sich, dass sie nicht nur in einem Boot sitzen, sondern auch voneinander lernen könnten – wären sie bereit, ihre jeweiligen „Navigationsweisen“ gegenseitig zu verstehen.

Empirismus und Plausibilität: Die Gefahr der „reinen Empirie“

Ein Schlüsselproblem moderner Wissenschaftspraxis ist die Überbewertung der Empirie, wohl immer noch ein Echo der ungeheuren Erfolge der empirischen Wissenschaften in den frühen Zeiten der Aufklärung. Die naturwissenschaftliche Methode, mit ihrem Fokus auf experimenteller Reproduzierbarkeit und empirischer Messbarkeit, hat unbestreitbare Erfolge erzielt. Doch sie hat auch eine Art methodologischen Tunnelblick hervorgebracht. Dies zeigt sich besonders deutlich in Bereichen wie der Homöopathieforschung oder den Psi-Experimenten von Daryl Bem, wo empirische Studien scheinbar „Beweise“ für wissenschaftlich unplausible Hypothesen liefern.

Die Arbeiten von John Ioannidis, insbesondere Why Most Published Research Findings Are False, haben offengelegt, wie systematische Verzerrungen die wissenschaftliche Literatur prägen. Kleine Stichproben, selektive Publikation signifikanter Ergebnisse (Publication Bias) und das Missverstehen des p-Wertes (statistische Signifikanz) als Wahrheitskriterium sind nur einige der Probleme. Der Fall Bem zeigt ebenso wie die „zahlreichen positiven Studien zur Homöopathie“, dass selbst methodologisch solide durchgeführte Studien zu falschen Schlussfolgerungen führen können, wenn die Ausgangshypothesen jeglicher Plausibilität entbehren. Hier wäre eine „gesamtheitliche“ Betrachtung gefragt, die empirische Daten in den Kontext theoretischer und ontologischer Plausibilität stellt.

Ontologischer Naturalismus: Eine Brücke zwischen den Disziplinen?

Bems Versuche, eine naturwissenschaftlich unplausible Hypothese (die Existenz präkognitiver Fähigkeiten) mit empirischen Methoden zu überprüfen, illustrieren einen zentralen Konflikt: den zwischen wissenschaftlicher Methodologie und ontologischer Plausibilität. Dieser Konflikt weist auf den sogenannten schwachen ontologischen Naturalismus hin – die Idee, dass wissenschaftliche Methodik auch dann angewandt werden darf, wenn die Hypothese nicht in das etablierte naturwissenschaftliche Weltbild passt.

Dieser Ansatz hat unbestreitbare Vorzüge: Er bewahrt die Offenheit der Wissenschaft gegenüber neuen, unerwarteten Erkenntnissen. Gleichzeitig birgt er die Gefahr, dass wissenschaftliche Ressourcen für Studien verschwendet werden, die von vornherein keine Aussicht auf valide Ergebnisse haben. Hier könnte die geisteswissenschaftliche Reflexion zur Klärung beitragen: Was macht eine Hypothese plausibel? Was macht sie in hohem Maße unplausibel? Welche ontologischen Annahmen sollten vorab geklärt werden? Der schwache ontologische Naturalismus ist ja kein Freibrief für freischwebende Forschungsthemen, im Gegenteil. Die Geisteswissenschaften könnten so helfen, die Naturwissenschaften vor methodischem Leerlauf zu bewahren.

Im Falle der Homöopathieforschung fällt die ontologische Betrachtung nicht schwer: Der erhebliche Umfang bisheriger Forschung hat bei kritischer Betrachtung bisher gar keinen Beleg für die Existenz eines realen Effekts homöopathischer Therapien (über Kontexteffekte hinaus) erbracht. Das stärkt die Grundannahme, dass Homöopathie per se unplausibel ist, ganz ungemein – und stellt die Homöopathie außerhalb des Bereichs sinnvoller ontologisch begründeter Forschung.

Die Replikationskrise: Ein Weckruf?

Die sogenannte Replikationskrise, die in der Psychologie und anderen Disziplinen auch als Folge der genauen Analyse von Daryl Bems Publikationen offenbar wurde, ist ein weiteres Beispiel dafür, wie wichtig eine Besinnung auf die Grundlagen der Wissenschaft ist. Die Krise hat gezeigt, dass empirische Ergebnisse oft nicht reproduzierbar sind und somit die wissenschaftliche Aussagekraft vieler Studien infrage steht. Sie ist jedoch nicht nur ein methodisches Problem, sondern auch ein erkenntnistheoretisches: Wie gehen wir mit Unsicherheiten in der Wissenschaft um? Welche Rolle spielen Plausibilität und Theorie in der Bewertung empirischer Ergebnisse? Wie verwerflich ist es, fehlgehende Replikationen in der Schublade verschwinden zu lassen, statt sie offen zu publizieren (Publikationsbias)? Wie sehr fördert die wissenschaftliche Publikationspraxis, die auf Neues und „Sensation“ erpicht ist, solche Fehlentwicklungen?

Hier zeigt sich erneut die Notwendigkeit einer gesamtwissenschaftlichen Betrachtung. Die Geisteswissenschaften, insbesondere die Wissenschaftsphilosophie, können helfen, die methodologischen Schwächen der empirischen Wissenschaften zu reflektieren und zu beheben. Gleichzeitig sollten die Geisteswissenschaften die Strenge der naturwissenschaftlichen Methodologie als Ansporn nehmen, ihre eigenen Ansätze zu schärfen und empirische Methoden dort einzusetzen, wo sie sinnvoll sind.

Was tun? Ein Plädoyer für die Interdisziplinarität

Die Frage „Was können wir wissen?“ kann weder von den Geistes- noch von den Naturwissenschaften allein beantwortet werden. Beide Disziplinen müssen erkennen, dass sie aufeinander angewiesen sind. Die Naturwissenschaften brauchen die geisteswissenschaftliche Reflexion, um die Plausibilität und Relevanz ihrer Hypothesen zu prüfen. Die Geisteswissenschaften wiederum können von der Strenge und empirischen Validierung der Naturwissenschaften lernen.

Ein erster Schritt könnte sein, die Ausbildung in beiden Bereichen interdisziplinärer zu gestalten. Naturwissenschaftler sollten fundierte Kenntnisse in Wissenschaftsphilosophie und Statistik erwerben, um die methodologischen Grenzen ihrer Disziplin besser zu verstehen. Geisteswissenschaftler wiederum könnten verstärkt empirische Methoden einsetzen und ihre Ergebnisse in engerem Austausch mit den Naturwissenschaften interpretieren.

Darüber hinaus sollten Wissenschaftsjournale und -institutionen Anreize für interdisziplinäre Forschung schaffen. Studien, die empirische und theoretische Ansätze kombinieren, könnten priorisiert werden. Gleichzeitig müssen Replikationsstudien und theoretische Arbeiten mehr Anerkennung erfahren, um die wissenschaftliche Basis zu stärken. Letzteres gilt auch und gerade für die wissenschaftliche Publikationspraxis.

Fazit

Die Trennung von Geistes- und Naturwissenschaften ist weniger eine ontologische Notwendigkeit als eine historische Entwicklung. Beide Disziplinen teilen das Ziel, die Welt besser zu verstehen, auch wenn ihre Methoden und Perspektiven unterschiedlich sind. Die großen Herausforderungen der modernen Wissenschaft – von der Replikationskrise bis zur Überbewertung der Empirie – zeigen, dass wir eine gesamtwissenschaftliche Perspektive brauchen, die Empirie, Theorie und Reflexion vereint. Nur so können wir dem Ideal der Wissenschaft gerecht werden: der Suche nach Wahrheit in einer komplexen Welt. Für eine Konkurrenz oder gar eine Prioritätendebatte zwischen Natur- und Geisteswissenschaften ist bei dieser Betrachtungsweise kein Raum. Wo sie aufscheint oder gar ausgetragen werden soll, stimmt etwas nicht.

Maskentragen und die Empirie

Spiegel online - Teaser

SPIEGEL online berichtet über eine systematische Arbeit von Cochrane zum Effekt des Maskentragens. Kurz gesagt, kommt Cochrane zu dem Ergebnis, dass weder für noch gegen Effekte des Maskentragens bei Infektionsereignissen solide Evidenz vorliegt.

Es handelt sich um eine statistische Metaanalyse, die die Daten aus verschiedenen Einzeluntersuchungen aggregiert und insgesamt auswertet. Neben den systematischen Review ist dies eine der Methodiken für zusammenfassende Arbeiten im Bereich der Empirie.

Für beide Methoden gilt, dass sie prinzipiell nur so gut sein können wie die zugrunde liegenden Einzelstudien. Bei Metaanalysen kommt hinzu, dass diese – anders als bei systematischen Reviews – für das Gesamtergebnis nicht weiter qualitativ bewertet werden. Es wird „nur“ nach der methodischen Eignung der Datenbestände für eine Zusammenführung zum Zweck gemeinsamer statistischer Auswertungen geschaut.

Hier lagen Cochranes Analyse (die eine Ergänzung früherer Arbeiten zum Thema darstellt) keine klinischen randomisierten placebokontrollierten Studien zugrunde – natürlich nicht. Dies ist bei der Aufgabenstellung, Effekte des Maskentragens zu eruieren, wohl auch kaum möglich. Problem: „Goldstandard“ sind die sogenannten RCT deshalb, weil sie die maximalen Möglichkeiten bieten, Störeinflüsse verschiedenster Art (v.a. verzerrte und subjektive Wahrnehmungen) auszuschließen und damit einen möglichst unverzerrten Blick auf die zu untersuchenden Effekte zu ermöglichen. Cochranes eigene Bewertungskriterien helfen dabei, in Reviews qualitative Bewertungen der Einzelstudien einfließen zu lassen („Critical appraisal“). Metaanalysen sind ein rein mengenstatistisches Instrument.

Im vorliegenden Fall wurden die Daten im Wesentlichen dadurch erhoben, dass lokal Masken mit der Empfehlung zum Tragen an die Bevölkerung verteilt wurden und im Nachgang das dortige Infektionsgeschehen mit Regionen verglichen wurde. bei denen es keine solchen gezielten Aktionen gab. Man kann sich leicht vorstellen, wie „weak“ solche Vergleichsergebnisse sind und sehr weit entfernt von den Standards, die gut gemachte RCT zu liefern imstande sind. Das ist kein Vorwurf. Man kann eben nur die Standards erreichen, die die konkrete Untersuchungssituation zulässt und muss seine Methodik an dem ausrichten, was diese eben hergibt. Nur hat das eben Folgen für die Einordnung der Ergebnisse, was den meisten Menschen nicht bewusst ist, die vielmehr „Studien“ entweder für die wahre Wahrheit oder aber für interessengeleitet halten – je nach eigener Einstellung zum Thema …

Es gibt jede Menge Einflussfaktoren, die den statistischen Vergleich verzerren und zu einem Zufallsergebnis machen können. Das liegt auf der Hand. Sowohl auf der Seite der Ausbreitung des Virus als auch auf der Seite von Verhaltensmerkmalen. Es ist nicht einmal bekannt, ob tatsächlich viele Menschen aufgrund der Empfehlung und des kostenlosen Verteilens ihr Verhalten geändert haben oder – umgekehrt – ohnehin Maskentragen als angemessenes Verhalten angesehen wird und insofern eine Verhaltensänderung obsolet war (z.B. in den asiatischen Ländern).

Leider wird hier ein von Cochrane völlig zutreffend beschriebenes Ergebnis einer Analyse in der Öffentlichkeit (z.B. in der Kommentarspalte von SPON) sofort tendenziell bewertet, was wohl keineswegs Cochranes Absicht war. Die Maskengegner schließen sofort darauf, dass ja der Nutzen nicht „bewiesen“ sei, ohne zu wissen, was im wissenschaftlichen Sinne „bewiesen“ heißt und ohne zu berücksichtigen, dass Cochrane eine rein medizinstatistische Bewertung vorgenommen hat, die Aspekte wie Plausibilität in keiner Weise berücksichtigt. Insofern habe ich bei SPIEGEL Online diesen Kommentar hinterlassen (SPON selbst berichtete durchaus korrekt, vielleicht mit etwas zu wenig Erklärungspotenzial):

In die Analyse sind vor allem Studien eingeflossen, deren Methodiken mit randomisierten kontrollierten klinischen Studien (dem „Goldstandard“) wenig zu tun haben. Es sind im Wesentlichen Feldbeobachtungen, die so vielen Einflussfaktoren unterliegen, dass die Feststellung von Kausalitäten nahezu unmöglich ist. Analysiert wurde deshalb eine wenig valide Datenbasis.

Dass dabei weder ein Ja noch ein Nein herauskommt, verwundert nicht. Ebenfalls verwundert nicht, dass daraus in der Öffentlichkeit gleich wieder der Zweifel am Maskentragen (aka die Maskenpflicht war falsch einsdrölf!!!) erwächst.

Die Endaussage von Cochrane geht völlig in Ordnung. Dieses „belegt scheint weder das eine noch das andere“ muss mit nüchternen Augen gesehen werden und ist keine Wertung. Cochrane ist knochentrocken in seinen Analysen. Plausibilitäten berücksichtigt Cochrane NICHT; sie sind die Hohepriester der empirischen Evidenz, die nur und ausschließlich auf Medizinstatistik schaut. Deshalb kommt sie auch bei Absurditäten wie Homöopathie gelegentlich zu dem Ergebnis, es gebe „positive Effekte. die aber für eine Erstlinienempfehlung nicht ausreichten“ (so zum homöopathischen Fantasiepräparat Oscillococcinum, dessen a-priori-Plausibilität bei Null liegt). Um das richtig einzuordnen, muss man den Ansatz von Cochrane richtig verstehen (den ich insgesamt persönlich durchaus für zu kurz gegriffen halte).

Wissenschaftliche Erkenntnisse sind Wahrscheinlichkeitsaussagen, deren „Wertigkeit“ sich aus den Gesamtkriterien der jeweiligen Untersuchung ergibt. Das gilt auch – wenn auch im besten Falle in deutlich geringer4em Maße – für systematische Zusammenfassungen. Man muss einiges über Cochranes Ansatz, Medizinstatistik, Studienmethodik und überhaupt über Wissenschaft wissen, um Schlüsse aus solchen Untersuchungen zu ziehen – oder auch nicht. In diesem Fall muss man, wegen der „methodischen Schwäche“ der Empirie, zwingend die physikalische Plausibilität des Maskentragens „hinzurechnen“.


Man wird Rezeptionen von „Studien“ als jeweilige Bestätigung eigener Vorannahmen nie verhindern können. Aber dieser Vorgang ruft einmal wieder mein ceterum censeo auf den Plan:

Wissenschaftslehre und Wissenschaftsmethodik auf die Lehrpläne der Schulen! Ich weiß noch genau, dass wir ganze zwei Schuljahre im Biologieunterricht mit Anatomie und Funktion des Tiefseeschwamms verbracht haben (in anderen naturwissenschaftlichen Fächern wäre vergleichbares zu berichten, der Tiefseeschwamm ist mir nur nachhaltig im Gedächtnis geblieben). Von wissenschaftlichen Erkenntnisgrundlagen kein Wort.


Ebenfalls zum Thema:

MedWatch:
Von Kirschenpflückern und verkomplizierten Zusammenhängen

Medscape:
Maskengegner sehen sich durch Cochrane Review bestätigt


Bildnachweise: Spiegel online (Screenshot) / Cochrane

Wissenschaft – zwischen Dogma und Toleranz?

    Dieser Beitrag erschien zuerst auf dem Blog „Die Erde ist keine Scheibe“
    und wird hier in leicht überarbeiteter Form wiederveröffentlicht.

    ZUM DEMARKATIONSPROBLEM AM BEISPIEL HOMÖOPATHIE

    Die Grenzziehung von Pseudowissenschaft und Wissenschaft, im speziellen Falle von Pseudomedizin und Medizin, ist ein ernsthaft behandeltes Problem der Wissenschaftstheorie. Man beschreibt es mit dem Begriff des „Demarkationsproblems“, auch Abgrenzungsproblem genannt.

    Es geht um die scheinbar schlichte Fragestellung, was die kritisch-rational orientierte Wissenschaft von der Pseudowissenschaft trennt und unterscheidet. Karl Popper selbst war einer der ersten, die dieses Thema aufwarfen. Das war vor dem Hintergrund seiner auf Falsifikation (Falschbeweisung) beruhenden Wissenschaftsprinzips wohl zwangsläufig. Nach manchen Wegen der Diskussion in die eine wie in die andere Richtung verfestigte sich gegen Ende der 1980er Jahre eine Tendenz, das Abgrenzungsproblem als letztlich unlösbar und möglicherweise sogar sinnlos zu betrachten. Die praktischen Folgen einer solchen Kapitulation haben jedoch wieder das dringend notwendige Umdenken befördert. Heute wird von vielen Erkenntnistheoretikern die Bedeutung der wissenschaftlichen Auseinandersetzung über die Trennung zwischen Pseudowissenschaft und kritisch-rational begründeter Wissenschaft wieder betont und diskutiert.

    In der Tat ist das Demarkationsproblem keineswegs theoretisch-akademischer Natur. Das führt uns die „Ära des Postfaktischen“ ja nun deutlich genug vor Augen. Ob zur längst nach den Kriterien belastbarer Erkenntnis komplett widerlegten Homöopathie, bei der Unsicherheit von Eltern in der Impffrage, die nach wissenschaftlichen Kriterien auch klar entscheidbar ist oder auch bei der offensichtlichen Erstarrung bei der Frage verantwortlichen Handelns in Sachen Klimaschutz wegen offenbar unzulänglicher Rezeption der Fakten – überall sehen wir ein Hinein- und Hinüberwirken von Pseudowissenschaft in Bereiche, denen nach strengen Erkenntniskriterien längst hohe bis höchstmögliche Evidenz, also hohe Gewissheit der gültigen Erkenntnis, zugeschrieben wird. Selbst dort, wo die Abgrenzung in großer Eindeutigkeit möglich ist, zeigt sie sich praktisch eben nicht als deutliche Grenzlinie, sondern verschwimmt zu einer breiten Grauzone. Die Ursachen sind vielfältig – ihren Ursprung haben sie durchweg in pseudowissenschaftlich „begründeten“ Gegenpositionen.

    Selbst wissenschaftsaffine Teile der Öffentlichkeit werden durch diese breite Grauzone zu einer falschen Wahrnehmung verführt. Bekanntlich ist es eine Methode der Pseudowissenschaften, sich mit einem wissenschaftlichen Duktus zu umgeben, sei es in der Diktion der Kommunikation selbst, sei es durch die Berufung auf – systemisch oder individuell – ungeeignete Belege (z.B. einzelne Studien) und ebensolche Autoritäten, ohne die in einer solchen Argumentationsweise liegenden vielfältigen Unsicherheiten und Probleme auch nur im Ansatz zu kommunizieren.  Im Bereich der Pseudomedizin erlebt der Autor buchstäblich täglich, manchmal geradezu im Stundentakt, wie wissenschaftlich unbelegte (vielfach widerlegte) Behauptungen mit solider Wissenschaft in den Medien konkurrieren – und oft die „Story“ auf ihrer Seite haben. Selbst der Wettlauf um Forschungsgelder und der Publikationsdruck in den Wissenschaften sind der „Flut der Pseudowissenschaft“ (Prof. David Gorski) ausgesetzt. Wir brauchen also Maßstäbe, alltagstaugliche Kriterien, die uns alle in die Lage versetzten, wissenschaftliche Erkenntnisse von Mimikry zu trennen, Entscheidungen darüber zu treffen, was Wissenschaft, was gültige Erkenntnis ist oder nicht.


    Weit entfernt sind nun aber die Pseudowissenschaftler und -mediziner selbst, im speziellen Falle die Homöopathen, davon, das Demarkationsproblem als ernsthafte Problematik wissenschaftlicher Natur zu begreifen. Sie ersetzen vielmehr eine solche tiefgehende Auseinandersetzung durch erstaunliche Postulate:

    • Mit dem Vorwurf einer „Wissenschaftsdogmatik“ gegenüber der kritisch-rationalen Methode, umschrieben mit Scheinbegriffen wie „monoparadigmatischer Reduktionismus“ oder auch „reduktionistischer Materialismus“; als ein Weg, der zu einem wissenschaftlichen, im Ergebnis gar politischen und gesellschaftlichen „Totalitarismus“ führen soll,
    • daraus folgend einen Intoleranzvorwurf gegenüber der als gegnerische Position verstandenen „Mainstream-Wissenschaft“, die allein als solcher unter Generalverdacht gestellt wird, und der pseudomedizinkritischen Position,
    • daraus wiederum folgend die Forderung nach „Pluralismus“ in Wissenschaft und Medizin, was meint, dass die Aussage „Der andere könnte auch Recht haben“ zum wissenschaftlichen Kriterium erklärt werden soll.

    So macht man es den um Abgrenzungskriterien zwischen Pseudowissenschaft und Wissenschaft Bemühten ja eigentlich leicht, wäre da nur eben nicht wieder der Impact, die Auswirkung solcher Äußerungen auf das – oft allzu geneigte Publikum. Ein Publikum, das sozusagen auch auf der (erkenntnistheoretischen) Metaebene nicht über die Kriterien verfügt, die eine Einordnung all dessen möglich machen. So schlimm sich das für Kritiker der Pseudowissenschaft anhört, so wohltönend mag dies in den Ohren derer klingen, die sich gern mit der Forderung nach „Toleranz“ einverstanden erklären – wer sähe darin nicht zunächst etwas Positives? Aber diese „pluralistische“ Position ist nicht mehr als eine krude Mischung aus Rechthabenwollen, offenbar echtem Unverständnis von Wissenschafts- und Erkenntnistheorie (oder doch wider besseres Wissen?) und dem seltsam anmutenden Versuch, Selbstkritik (nach Popper Grundvoraussetzung für eine wissenschaftliche Haltung) durch Behauptungen zu ersetzen. Letztlich ist sie eine Verunglimpfung ehrlich bemühter Wissenschaft und des jahrtausendelangen ernsthaften Ringens um die Möglichkeiten menschlicher Erkenntnis.


    Jedoch sei dies entgegengehalten:

    • Wie kann man einem metaphysischen Überbau rationaler Erkenntnis, der dazu dient, die Erkenntnisfähigkeit des Menschen auf den Raum der realen Welt zu beschränken und damit Spekulationen von Erkenntnis abgrenzt (der ontologische Naturalismus in seiner schwachen Form) so missverstehen, dass man aus ihm einen unangemessenen Dogmatismus ableitet?
    • Wie kann eine Methodik wie der kritische Rationalismus, das auf der ständigen Infragestellung bestehenden Wissens beruht und aus dem Verwerfen von Irrtümern Fortschritt gewinnt, dogmatisch sein? Wie kann man ein Erkenntnissystem, das sich durch eine niemals zuvor in der Geistesgeschichte dagewesene Form der Bescheidenheit durch den Verzicht auf „Wahrheitsansprüche“ auszeichnet, als „reduktionistischen Materialismus“ oder mit ähnlichen Diktionen bezeichnen?
    • Wie kann ich Toleranz zum Kriterium erheben, wenn es um Annäherung an die Wirklichkeit geht? Über bessere Methoden dazu als die heutigen, in langen Jahrhunderten mühsam gefundenen verfügen wir nicht. Seien wir froh, dass wir über die kritisch-rationalen Methode verfügen – wie nichts Menschliches sind sie nicht in Stein gemeißelt, sind aber in der weltweiten Wissenschaftsgemeinde als gültig durchgängig anerkannt. Auch, weil seit Popper, auch nach vielfältigen Betrachtungen und teils auch Modifikationen, im Grundsatz weit und breit nichts in Sicht ist, das Aussicht auf eine bessere Bewährung beim menschlichen Erkenntnisstreben bieten würde. Was den Prüfsteinen des kritischen Rationalismus nicht standhält, mag als Glaubensvorstellung Toleranz beanspruchen. Aber nicht als Erkenntnis.
    • Die Forderung nach „Pragmatismus“ in der Wissenschaft ist nichts anderes als die Forderung nach der Anerkennung von Beliebigkeit. Mit diesem Begriff wird ein scheinbares Defizit der rationalen Methode suggeriert – dies geht fehl. Wissenschaft nach der kritischen Methode ist ebenso quellen- wie methodenpragmatisch, aber nicht „pluralistisch“. (Selbst der immer wieder als Zeuge für den „Wissenschaftspluralismus“ herangezogene Paul Feyerabend war erklärtermaßen methoden- und nicht „wissenschafts“pluralistisch.) Forderung nach „Pluralismus in der Wissenschaft“ geht noch über die Forderung nach Toleranz hinaus, denn ein solcher Pluralismus würde die Poppersche Definition der „wissenschaftlichen Erkenntnis“ aushebeln: dass wissenschaftliche Ergebnisse belegbare Erkenntnisse sind. Nicht mehr, nicht weniger. Dazu passt ein treffender aktueller Tweet von Dr. Natalie Grams, der weitere Ausführungen überflüssig macht:

    Aktuell hat der Zentralverein homöopathischer Ärzte auf seiner Webseite („Homöopathie online“) eine „Homöopathie-Deklaration“ veröffentlicht, wiederum in „Zusammenarbeit“ mit dem „Dialogforum Pluralismus in der Medizin“ und unter Beteiligung weiterer üblicher Verdächtiger, die in bestürzender Weise die Verächtlichmachung seriöser Wissenschaftlichkeit durch pseudowissenschaftliche Verbrämungen betreibt. Dies wird sicher nicht die Wirkung haben, die Homöopathie durch Worte plötzlich zu einer wirksamen Medizin werden zu lassen. Allerdings ist dies ein wunderbares Beispiel dafür, wie die Grauzone zwischen Erkenntnis (Wissenschaft) und Behauptung (Pseudowissenschaft) ein weiteres Mal verbreitert und mit zusätzlichem Nebel angereichert wird.

    Man könnte über diesen Vorgang hinweggehen, der sich von ähnlichen. früheren Statements eigentlich kaum unterscheidet. Aber er wird seinen „Impact“ haben, und sei es nur, der Selbstvergewisserung der pseudomedizinischen Szene und als Steinbruch in allfälligen Diskussionen zu dienen. Und hier ist kein Sandkastenverein unterwegs – hier äußert sich eine Vielzahl von Akademikern.


    Nutzen wir die Gelegenheit, noch einmal kurz über die menschliche Erkenntnisfähigkeit und das, was wir darüber mühsam herausdestilliert haben, zu reflektieren.

    So schwierig ist das gar nicht, und die Homöopathie eignet sich gut als Exempel:

    • Nach Karl Popper gibt es nur eine Theorie der Wahrheit, die ernsthaft vertreten werden kann: die Korrespondenztheorie, die These, dass die Wahrheit (der Wahrheitsgrad) einer Aussage in ihrer Übereinstimmung mit den Fakten besteht. Nicht in der Übereinstimmung mit einer Anhäufung von Worten. Und da sieht es für die Homöopathie ganz schlecht aus, wie schon vielfach ausgeführt und belegt wurde.
    • Die Wissenschaft ist die Suche nach der Wahrheit, eine Annäherung an sie, nicht der Besitz „der“ Wahrheit. Die Vorstellung von Wahrheit als ebenso existentes wie erkennbares Absolutum ist leider weit verbreitet (das ist die Wahrheitsannahme Francis Bacons („If truth is manifest, thruth is there to be seen“), die seit David Hume und Immanuel Kant ins Wanken geriet und spätestens seit Karl Popper obsolet für wissenschaftliche Erkenntnisgewinnung ist).
    • Das aber ist kein Freibrief für Beliebigkeit – ganz im Gegenteil verlangt diese Grunderkenntnis einen verantwortlichen Umgang mit Erkenntnisfähigkeit. Es scheint, als würden die „Pluralisten“ glauben, im Verzicht auf den absoluten Wahrheitsbegriff im kritischen Rationalismus eine „Schwachstelle“, ein „Einfallstor“ für ihre kruden Wissenschaftlichkeitsbegriffe gefunden zu haben – ein Missverständnis epischen Ausmaßes?
    • Insofern ist die kritische Methode dadurch gekennzeichnet, dass man nicht versucht, Hypothesen zu überprüfen (zu verifizieren – letztlich zu bestätigen), sondern zu widerlegen (zu falsifizieren). Das sollte nach den Regeln wissenschaftlicher Arbeit vom Urheber der Hypothese so weit wie möglich selbst getan werden, bevor man sich ernsthafter Kritik stellt.
    • Reine Erfahrung (Empirie) führt wegen des Induktionsproblems (jede noch so große Sammlung von reinen Erfahrungen kann durch die nächste Erfahrung widerlegt werden) nicht zu gesicherter Erkenntnis. Wie David Hume als erster verdeutlichte, halten wir Ereignisse fälschlich für Ursachen und deren Wirkungen, wenn wir sie wiederholt aufeinanderfolgen sehen, da wir dann automatisch (aufgrund des Menschen immanenter Eigenschaften) glauben, diese Folge sei auch in Zukunft so zu erwarten. Das beste Beispiel dafür ist der post hoc ergo propter hoc-Fehlschluss, gerade in der Homöopathie – wie trügerisch er speziell dort ist, ist auch dadurch belegt, dass die scheinbar beobachteten „Wirkungen“ zwanglos durch schlüssigere, einfachere, widerspruchsfreie Erklärungen ersetzt werden konnten.
    • Und eben hieran, an der fehlenden empirischen Belegbarkeit, wird die Widerlegung des hypothetischen Grundgebäudes von Hahnemanns Methode evident. Genau deswegen, weil die Behauptung der spezifischen „Wirkung“ der Homöopathie lange nur durch Fehlschlüsse und Irrtümer aufrechterhalten bleiben konnte und längst widerlegt ist und deshalb nur scheinbar eine Stütze der hypothetischen Grundlagen darstellte („wir wissen nicht, wie sie wirkt, wir sehen aber, dass sie wirkt“).  Der Falschbeweis ist geführt, die Hypothetik der Homöopathie am Experiment gescheitert. Der empirische, induktive Teil, die „Summe der Erfahrungen“, hat sich als Luftschloss aus Selbsttäuschungen und Fehlannahmen entpuppt – und widerlegt damit auch den axiomatisch-hypothetischen Part von Hahnemanns Gedankenkonstrukt durch die Prüfung an der Realität. Ein geradezu klassisches Beispiel „Kant’scher Wissenschaft“, der Bewährung oder eben Nichtbewährung logisch-deduktiv (oder auch spekulativ) gewonnener Hypothesen durch experimentelle Überprüfung.

    Lassen wir es dabei bewenden.

    Nun, auf eine gewisse Weise trägt das Gezeter der Homöopathen ja auch zur weiteren Klärung des Demarkationsproblems bei – es zeigt, dass jedes Problembewusstsein, jede Selbstkritik, jede strenge Prüfmethode dort dem Absolutheitsanspruch der eigenen Position geopfert wird. Das ist immerhin auch eine Form klarer Grenzziehung.

    Nein, der Auftritt auf dem Feld der Wissenschafts- und Erkenntnistheorie wird der Pseudomedizin auch diesmal nicht zu mehr „Wahrheit“ verhelfen.


    Zum Weiterlesen:

    Pigliucci M, Bourdry M (Hrsg.), Philosophy of Pseudoscience: Reconsidering the Demarcation Problem, University of Chicago Press, 2013

    Popper K, Gesammelte Werke: Band 3: Logik der Forschung, 11. Auflage, 2005

    Popper K, Gesammelte Werke: Band 7: Realismus und das Ziel der Wissenschaft (Postscript zur „Logik der Forschung“), 1, Auflage 2002

    Popper K, Gesammelte Werke: Band 10: Vermutungen und Widerlegungen. Das Wachstum der wissenschaftlichen Erkenntnis, 2. Auflage, 2009

    Baum W (Hrsg), Paul Feyerabend – Hans Albert: Briefwechsel, Band 1: (1958-1971), veränd. Neuauflage, 2008

    Albert H, Plädoyer für den kritischen Rationalismus, Piper (1975)


    Seite 1 von 2

    Präsentiert von WordPress & Theme erstellt von Anders Norén