Dogma und Wissenschaft (Symbolbild)

Die Falle der anekdotischen Evidenz: Warum „Mir hat es geholfen“ kein Beweis ist

Es gibt zwei Standardreaktionen, die Kritiker wissenschaftlich unhaltbarer Methoden wie Homöopathie oder anderer Formen der Pseudomedizin regelmäßig zu hören bekommen. Die eine ist das altbekannte

„Wer heilt, hat Recht“,

die andere:

„Mir hat es aber geholfen“.

Letzteres ist das Paradebeispiel für anekdotische Evidenz – eine subjektive Erfahrung, die als Beweis für die Wirksamkeit einer Behandlung herangezogen wird. Doch warum ist diese Art der Argumentation fehlerhaft? Warum klingen Anekdoten zwar überzeugend, haben aber in der wissenschaftlichen Methodik keinen Platz?

Korrelation ist nicht Kausalität

Nur weil sich nach einer Behandlung eine Verbesserung einstellt, bedeutet das nicht, dass die Behandlung die Ursache dafür war. Der Mensch neigt infolge evolutionärer Anlagen (die schon vielfach erklärt wurden) dazu, Zusammenhänge zu sehen, wo keine sind. Dies ist bei nicht trivialen Sachverhalten ein fundamentaler kognitiver Fehlschluss. In vielen (den meisten?) Fällen bessern sich Beschwerden einfach von selbst (Spontanremission), oder andere Faktoren wie Lebensstilveränderungen oder der natürliche Krankheitsverlauf spielen eine Rolle.

Der Placebo-Effekt

Ein weiterer Faktor, der anekdotische Evidenz entwertet, ist der Placebo-Effekt. Dieser ist gut dokumentiert und kann dazu führen, dass Menschen subjektiv eine Verbesserung ihrer Symptome wahrnehmen, selbst wenn die verabreichte Behandlung keinerlei spezifische Wirkung besitzt. Besonders stark wirkt dieser Effekt in Bereichen wie Schmerzempfinden oder allgemeinem Wohlbefinden, wo Suggestion eine große Rolle spielt.

Der Selektionsbias

Anekdotische Evidenz ist extrem selektiv. Niemand hört von denjenigen, bei denen die gleiche Methode nicht funktioniert hat, weil Menschen, die keinen Effekt erfahren haben, schlicht nicht berichten. Viele, bei denen die Therapie nicht gewirkt hat, können auch gar nicht mehr berichten. Dann gibt es noch die Menschen, die die entsprechende Methode nicht angewandt haben und auch wieder gesund wurden. Und natürlich auch die, die ebenfalls auf die Methode verzichtet haben und nicht wieder gesund geworden sind.

Methode angewandt – erfolgreichMethode angewandt – nicht erfolgreich
Methode nicht angewandt – erfolgreichMethode nicht angewandt – nicht erfolgreich

Das ergibt eine Matrix mit vier Möglichkeiten. Wenn aber nun ständig über Heilerfolge einer Methode berichtet wird, dann heißt das, dass diese Fälle sich nur im Feld oben links in der Matrix sammeln. Es fehlt jede Aussage, wie viele Fälle auf die anderen Möglichkeiten entfallen. Das führt zu einer verzerrten Wahrnehmung: Es entsteht der Eindruck, eine Therapie wäre besonders wirksam, weil nur positive Erfahrungsberichte kursieren. Dabei ist es ohne Weiteres möglich, dass die Zahl der Anwender, die nicht von der Methode profitiert haben, ein Vielfaches der Zahl der Erfolgreichen beträgt. Anekdotische Evidenz bedeutet also unter anderem das Risiko, dass wir hochgradig unvollständigen Informationen aufsitzen.

Reproduzierbarkeit als wissenschaftliches Kriterium

Wissenschaft funktioniert nicht auf der Basis einzelner Berichte, sondern durch systematische Untersuchung. Eine Therapie muss in kontrollierten Studien – unter bestmöglichem Ausschluss von Zufall und Verzerrung – immer wieder die gleichen positiven Ergebnisse zeigen, bevor sie als wirksam gelten kann. Der einzelne Patient mag subjektiv empfinden, dass es egal ist, warum ihm etwas geholfen hat. Für die medizinische Wissenschaft ist das aber keine Option, ebenso wenig wie für den gewissenhaften Therapeuten. Denn nur reproduzierbare Ergebnisse ermöglichen es, verlässliche und sichere Behandlungen zu entwickeln und prognostisch Medizin zu betreiben.

Warum sich Menschen trotzdem auf Anekdoten verlassen

Die Überzeugungskraft anekdotischer Evidenz hat tiefe psychologische Ursachen. Menschen vertrauen persönlichen Erfahrungen oder denen von Bekannten mehr als abstrakten Studien. Geschichten und individuelle Berichte erzeugen eine emotionale Resonanz, während statistische Analysen oft als „kalt“ empfunden werden. Diese kognitive Verzerrung verstärkt die Neigung, Anekdoten als Beweis zu akzeptieren.

Fazit: Subjektive Wahrnehmung ist kein objektiver Beweis

Wenn es um medizinische Wirksamkeit geht, darf subjektive Erfahrung nicht über wissenschaftliche Belege gestellt werden. Es ist verständlich, dass Patienten nach Lösungen suchen und sich an das klammern, was scheinbar funktioniert. Doch das Problem beginnt, wenn aus individuellen Erfahrungen allgemeingültige Schlüsse gezogen werden und unwirksame oder gar schädliche Methoden für wissenschaftlich valide gehalten werden. Wer an der Wahrheit interessiert ist, sollte sich nicht mit dem „Mir hat es geholfen“ zufriedengeben, sondern hinterfragen, ob es dafür auch eine belastbare Erklärung gibt.

David Hume und die Kausalität

Der schottische Philosoph David Hume (1711–1776) hat in seiner A Treatise of Human Nature (1739–1740) und später in seiner Enquiry Concerning Human Understanding (1748) argumentiert, dass Kausalität nichts ist, was wir direkt beobachten können. Stattdessen sei unser Kausalitätsverständnis eine psychologische Gewohnheit: Wenn zwei Ereignisse regelmäßig in einer bestimmten Reihenfolge auftreten (z. B. Einnahme eines Mittels → Besserung der Beschwerden), neigen wir dazu, daraus eine ursächliche Verbindung, eine Kausalität abzuleiten – selbst dann, wenn keine objektive Notwendigkeit dafür besteht. Dies ist der Fehlschluss von einer allein zeitlich wahrgenommenen (und wahrnehmbaren) Korrelation auf Kausalität. Wir wissen heute, dass dieser kognitionspsychologische Effekt vermutlich evolutionär in uns angelegt ist, weil er in Urzeiten Selektionsvorteile versprach. In einer komplexen Welt wie der heutigen führt er uns aber in der Mehrzahl der Fälle aufs falsche Gleis.

Post hoc ergo propter hoc: Danach, also deswegen.

Der König der Fehlschlüsse. Nur weil etwas nach etwas anderem passiert, bedeutet das nicht, dass es auch dadurch verursacht wurde. Hume hätte sich vermutlich sehr dafür interessiert, wie sich dieser Irrtum besonders in der Pseudomedizin hartnäckig hält.

Die Frage ist zudem, ob wir nach Hume überhaupt Kausalität erkennen können. Sicherlich doch durch anschauliche Evidenz – wenn jemandem ein Blumentopf auf den Kopf fällt und er blutet danach, dann ist Kausalität nicht nur wahrscheinlich. (Aber kann es nicht ein harmloser Plastikblumentopf gewesen sein und der Passant hatte vorher schon Nasenbluten … ? Wer will das aus der Perspektive der anderen Straßenseite wirklich beurteilen … ? Wir wollen es nicht auf die Spitze treiben, aber doch zeigen, wie problematisch auch die scheinbar sichere Wahrnehmung von Kausalität sein kann.)

Redlicherweise müsste man den Menschen sagen, dass placebokontrollierte prospektive klinische Studien (RCT) zwar der Goldstandard in der medizinischen Forschung sind, aber letztlich eine Kausalität im engeren Sinne auch nicht „beweisen“ können. Wirft man aber eben nicht mit Begriffen wie „Beweis“ oder „Studien zeigen …“ um sich, sondern ist sich der Tatsache bewusst, dass uns endgültiges Wissen zumeist verwehrt bleibt, gerät man beim Publikum in Misskredit, weil dieses nur das biblische „Deine Rede sei ja, ja oder nein, nein“ zu kennen scheint …

Absolute Gewissheit bleibt uns in den meisten Fällen verwehrt. Hume hat uns die radikale Skepsis gelehrt – wir sehen nur zeitliche Abfolgen von Ereignissen, aber die Notwendigkeit dieser Verbindung existiert nicht objektiv in der Welt, sondern nur in unseren Köpfen.

Nur: Das Ringen um wissenschaftliche Ehrlichkeit kollidiert oft mit der Erwartung des Publikums nach eindeutigen Antworten. „Studien zeigen…“ wird dann zu einer Art Ersatz für absolute Wahrheit, obwohl sich Wissenschaft ja gerade durch ständige Korrekturen und die Offenheit für bessere Erklärungen auszeichnet.

Der Pharmakologe Wolfgang Hopff gab in seinem Buch „Homöopathie kritisch betrachtet“ für evidente Kausalität das Beispiel eines hochwirksamen harntreibenden Mittels, das nicht nur im zeitlichen Zusammenhang mit der Einnahme, sondern auch der therapeutischen Prognose entsprechend seine Wirkung zeigt. Dies ist ein gutes Beispiel, weil es zeigt, dass wir manche Kausalitäten intuitiv für evident halten – aber wo genau ziehen wir die Grenze? Und wann wird aus berechtigter Skepsis auf der Basis kritischen Denkens ein Rückfall in radikalen Relativismus? Den Einwand „es könnte ja auch anders sein“ auf jede, buchstäblich jede Feststellung?

Das Induktionsproblem – das Ende allen sicheren Wissens?

Jeden Morgen geht die Sonne auf, darauf kann man sich verlassen. Das war in vielen Kulturen, vor allem in denen, die sich als aufgeklärt verstanden, selbstverständlich – evident eben, nicht weiter hinterfragbar. Das Induktionsproblem, dessen Erhellung wir auch Hume verdanken, sagt nun, zur Widerlegung einer solchen angeblich nicht hinterfragbaren Evidenz braucht es nur ein einziges Folgeereignis, das der bisherigen Erfahrung widerspricht. Und das können wir nicht ausschließen.

In diesem Sinne ist das Induktionsproblem gewissermaßen die Abrissbirne für jede naive (sic!) Vorstellung von sicherem Wissen.

Was die Sache mit dem Sonnenaufgang angeht, so wissen wir heute, dass es eben nicht ewig und unhinterfragbar so weitergehen wird. Ein Beispiel dafür, dass Gewissheiten (sic!) abhängig vom aktuellen Wissen sind und eine Bestätigung der Vorbehalte, die das Induktionsproblem aufwirft. Aber: Hat das Sonnenaufgangsbeispiel für uns hier und heute wirklich praktische Bedeutung? Oder ist es vernachlässigbar, ohne einen Kategorienfehler zu begehen?

Das Beispiel illustriert, dass absolute Beweise in einem streng logischen Sinn oft gar nicht nötig sind, weil der Grad der Sicherheit ausreicht, um vernünftig zu handeln. Und im Grunde ist der Anspruch der Wissenschaft ja gar nicht mehr, als die Grundlage für vernünftiges Handeln zu liefern.

Karl Poppers Antwort auf das Induktionsproblem

Das Induktionsproblem ist ungelöst und verhindert nach wie vor, dass wir eine ungetrübte und mit der Realität komplett deckungsgleiche Vorstellung von „Wahrheit“ erlangen können. Man hört in der Wissenschaftsphilosophie gelegentlich davon, es sei „gelöst“ worden – nach meiner bescheidenen Ansicht ist das nicht der Fall. Aber was tun? Wie kann sich die Wissenschaft zum Induktionsproblem stellen?

Die Wissenschaftsphilosophie von Karl Popper, die er ein seinem epochalen Werk „Logik der Forschung“ niedergelegt hat, gibt eine Antwort: Sie versucht nicht, das Induktionsproblem zu ignorieren oder zu verleugnen, sondern sie gibt dadurch eine Antwort, dass sie sich vom Ziel der Wissenschaft als Wahrheitsfindung zugunsten einer beständigen Wahrheitssuche verabschiedet und die Fehlbarkeit menschlichen Wissens zum Prinzip erhebt.

Die Limitierung, die das Induktionsproblem der „sicheren Erkenntnis“ setzt, war wohl für Karl Popper ein entscheidender Beweggrund dafür, sich von der Methode der „Verifizierung“ (Versuch der Bestätigung) von Ergebnissen abzuwenden und stattdessen auf „Falsifizierung“ (Versuch der Widerlegung) zu setzen. Dabei betont er die Vorläufigkeit allen Wissens, setzt aber auch einem Rückfall in pessimistischen Relativismus Schranken, indem er den Erkenntniswert von Forschung nach Wahrscheinlichkeit bewertet. Am besten kommt sein Prinzip der Falsifikation in diesem Zitat zum Ausdruck:

Wann immer wir nämlich glauben, die Lösung eines Problems gefunden zu haben, sollten wir unsere Lösung nicht verteidigen, sondern mit allen Mitteln versuchen, sie selbst umzustoßen.”
(Logik der Forschung, 11. Auflage, Mohr Siebeck, Tübingen 2005, Seite XX).

Nun ist das keine leichte Kost, wenn auch viele Menschen durchaus eine Vorstellung von Karl Popper und seinem Werk haben. Ich glaube, selbst wenn man das einem breiten Publikum vermitteln könnte, würde man auf psychologische Barrieren stoßen. Ich denke sogar, dass es Hochschullehrer gibt, die eine solche Wissenschaftsphilosophie lehren, sich aber intrinsisch dies nicht wirklich zu eigen machen.

Popper hat die Wissenschaft nicht mehr als Ansammlung von bewiesenen Wahrheiten, sondern als System zur systematischen Widerlegung falscher Annahmen verstanden. Er forderte als Kriterium für die Wissenschaftlichkeit einer Hypothese, dass sie potenziell widerlegbar (formuliert) sein muss, weil sie sonst gegen Falsifizierung von vornherein immun wäre. Wissenschaft produziert also nicht endgültiges Wissen, sondern entfernt beständig Irrtümer und nähert sich damit der Wahrheit an – aber das reicht vielen Menschen nicht, weil es ihrem Bedürfnis nach Gewissheit widerspricht. Der Satz

„Wir irren uns empor“,

geprägt vom Physiker und Philosophen Gerhard Vollmer, trifft es also nicht ganz, denn wir fügen ja im Erkenntnisprozess (hoffentlich) nicht neue Irrtümer hinzu, sondern beseitigen alte. Gleichwohl ist diese Sentenz sehr griffig, wenn es gilt, das Prinzip Wissenschaft zu erklären.

Wissenschaft vs. Dogma

Der Wissenschaft ist also eine Bescheidenheit inhärent insofern, als sie langsam Wissen schafft, aber nicht goldglänzende endgültige Wahrheiten präsentiert. In den Augen nicht in wissenschaftlichem Denken Geschulter – und das ist leider wohl die Mehrheit der Bevölkerung – ist dies ein Mangel, ein Malus – obwohl gerade dies der Bonus der Wissenschaft ist. Es gibt in diesem Punkt eine Art psychologische Abwehrhaltung: Wenn Wissen nur vorläufig ist, dann gibt es keine absolute Sicherheit – und das ist für viele unerträglich. Deshalb greifen manche lieber auf einfache Wahrheiten zurück, egal ob in Form dogmatischer Wissenschaftsauffassungen oder eben Pseudowissenschaften. Letztlich könnte man sagen: Die Wissenschaft ist sich ihrer eigenen Unsicherheit bewusst – die Pseudowissenschaft hat dieses Problem nicht, weil sie ihre Wahrheiten zementiert. Über falsche Dogmen aufzuklären und die Kriterien kritischen Denkens zu vermitteln, kann ein mühsames Geschäft sein.

Sokrates, ein früher Skeptiker

Sokrates‘ von Platon überlieferte Sentenz „Ich weiß, dass ich nichts weiß“ ist ja fast schon das Motto der modernen Wissenschaftsphilosophie. Allerdings – die Wissenschaft weiß viel, sehr viel inzwischen und beschreibt die Welt, in der wir leben, mit großer Genauigkeit, die sich in der beständigen Anwendung ihrer Erkenntnisse beweist. Poppers Kriterium für „Wahrheit“, nämlich die vollständige Übereinstimmung der Erkenntnis mit der Realität, ist, so dürfen wir annehmen, in einem Maße erfüllt, das man sich vor 100 oder 200 Jahren nicht vorstellen konnte. Sokrates’ Einsicht war deshalb revolutionär, weil sie dem menschlichen Hang zum Dogmatismus widersprach. Und genau diese Haltung ist es, die Wissenschaft von Ideologie und Pseudowissenschaft unterscheidet: Sie gesteht ein, dass ihr Wissen immer nur vorläufig ist.

Ironischerweise macht genau das die Wissenschaft für viele Menschen weniger attraktiv als dogmatische Systeme. Der Dogmatiker hat Antworten, die Wissenschaftler haben Fragen. Der Dogmatiker bietet Sicherheit, die Wissenschaftler liefern Wahrscheinlichkeiten. Kein Wunder, dass viele lieber an einfache Wahrheiten glauben als an eine Welt voller Unsicherheiten.

Es ist schon faszinierend – und irgendwie auch frustrierend –, dass genau die Demut der Wissenschaft, die sie so mächtig macht, sie für viele Menschen weniger überzeugend erscheinen lässt.

Vollends gescheitert bin ich vor kurzem bei einem Erklärungsversuch in kleiner, durchaus wohlwollender Runde mit dem Hinweis, dass wir – laut Popper – unter Umständen hier und da mal eine „letzte Wahrheit“ erreichen – wir aber das gar nicht sicher wissen können. Das wurde als eine Art von Selbstzerstörung von Poppers Wissenschaftsmodell angesehen. Finde ich nicht – ich halte das für ein hervorragendes Beispiel für das Bewusstsein der Begrenztheit einer ständig fragenden Wissenschaft und für die oft missverstandene Natur wissenschaftlicher Erkenntnis. Popper hat nicht gesagt, dass wir niemals eine endgültige Wahrheit finden könnten. Er sagte nur, dass wir dies nicht sicher wissen können. Das ist kein Paradox, sondern schlicht die Einsicht in die Grenzen unserer Erkenntnisfähigkeit.

Die Vorstellung, dass Wissenschaft sich selbst zerstört, wenn sie ihre eigenen Grenzen anerkennt, beruht auf einem Missverständnis. Wissenschaft ist kein Glaubenssystem, das absolute Gewissheiten liefern muss. Sie ist ein Werkzeug zur Annäherung an die Wahrheit, mit dem Bewusstsein, dass jede Erkenntnis revidierbar ist.

Jedoch: Menschen sehnen sich nach Gewissheiten. Und wenn jemand sagt: „Vielleicht haben wir hier eine letzte Wahrheit gefunden, aber wir können nicht wissen, ob das so ist“, dann empfinden das viele als Schwäche – obwohl es in Wirklichkeit eine große intellektuelle Stärke ist. Das Problem ist, dass viele Leute eine intuitive Vorstellung von „Wahrheit“ als etwas Absolutem haben. Sie erwarten von Wissenschaft, dass sie ihnen endgültige Antworten liefert. Dabei ist Wissenschaft eher ein ständiges Ringen um bessere Modelle der Realität – mit der Möglichkeit, dass diese Modelle unvollständig oder gar falsch sein können. Wer bringt diese Erkenntnis in die Schulen und die Allgemeinbildung?

Erkenntniskriterium Wahrscheinlichkeit

Zur Verdeutlichung, dass ein hoher Wahrscheinlichkeitsgrad aus der falsifizierenden Untersuchung von Gegebenheiten meist völlig ausreicht, ein Beispiel, das Hume vermutlich gefallen hätte: „Alle Menschen müssen sterben.“ Ist das „bewiesen“? Nein, denn es leben ja noch jede Menge! Aber: Lassen sich darauf vernünftige Zweifel an der Ausgangsthese ableiten? Nein. Nicht nur wegen des Induktionsprinzips, sondern auch wegen unseres gut gesicherten Wissens über die Physiologie von Lebewesen, das uns zeigt, warum unumkehrbare Alterungsprozesse einsetzen, die irgendwann das Ende dessen herbeiführen, was wir Leben nennen. Das sind schlüssige „Belege“, die für sichere Erkenntnis ausreichen, aber keine „Beweise“.

Hume hätte dieses Beispiel sicher geschätzt – es passt zu seinem Skeptizismus gegenüber dem Erkennen von Kausalität, aber auch zu seinem Pragmatismus. Selbst in Bereichen, in denen wir uns sicher sind (wie der Sterblichkeit des Menschen), bleibt die Erkenntnis eine induktive Verallgemeinerung – aber eben eine, an der zu zweifeln irrational wäre.

Vernunftgesteuerter vs. „zersetzender“ Skeptizismus

Genau diese Denkweise wäre für viele nützlich, die in Wissenschaftsdiskussionen entweder nach absoluter Sicherheit verlangen oder skeptischen Missbrauch betreiben („Man kann nie 100 % sicher sein, also könnte es ja auch anders sein!“). Letzteres zeigt den Unterschied zwischen gesunder Skepsis und Zersetzungs-Skeptizismus.

Diesen „Zersetzungs-Skeptizismus“ konnte man sehr gut in der Pandemie beobachten. Unter den „Impfkritikern“ waren manche, die ich immer als „Hundertprozenter“ bezeichnet habe. Akademisch ausgebildete Menschen, die den Einsatz von Impfstoffen nur dann als vertretbar ansehen wollten, wenn es sowohl hinsichtlich der Wirkungen als auch der Nebenwirkungen „hundertprozentige“ Sicherheit gebe. Diese Leute stellen sich auf den Standpunkt, dass jede noch so kleine Unsicherheit oder jede verbleibende offene Frage die gesamte Erkenntnis zum Einsturz bringen müsse. Dabei ignorieren sie, dass Wissenschaft immer mit Wahrscheinlichkeiten und Unsicherheiten arbeitet – und dass Entscheidungen im echten Leben fast nie auf absoluter Sicherheit beruhen.

Clemens Arvay war da ein typisches Beispiel: Er stellte wissenschaftliche Standards infrage, indem er genau jene Unfehlbarkeit forderte, die Wissenschaft gar nicht leisten kann – und auch nicht leisten muss. Ironischerweise ist es genau dieser Dogmatismus, der ihn von einer echten wissenschaftlichen Haltung entfernt hat.

Dies scheint mir nicht so sehr ein intellektuelles Problem zu sein, sondern eher eine tief verwurzelte psychologische Haltung: Viele Menschen fühlen sich von Unsicherheiten bedroht und greifen deshalb zu Absolutismen – sei es in Richtung Wissenschaftsverweigerung oder blinder Wissenschaftsgläubigkeit. Ersichtlich gilt dies auch für Menschen, die mit den wissenschaftsphilosophischen Grundlagen eigentlich vertraut sein müssten. Sie werden beherrscht von einer tiefen, menschlichen Sehnsucht nach Gewissheit – und dem Widerstand gegen die Zumutung, dass es sie nicht in letzter Konsequenz gibt.

„Der andere könnte auch Recht haben“

Da fällt mir noch ein Beispiel für falschen Relativismus von Erkenntnisfähigkeit ein. Es gab einmal ein Positionspapier zur Homöopathie-Debatte unter Führung des inzwischen verstorbenen Prof. Peter Matthiessen, einem Vertreter eines vorgeblichen „Pluralismus in der Medizin“. Das war ein Generalangriff auf die wissenschaftliche Methode selbst, ein Beispiel für nahezu hemmungslosen Relativismus, das gekrönt wurde mit einer Berufung auf Hans-Georg Gadamers „Der andere könnte auch Recht haben“ und damit ins Moralisierende abglitt.

Das ist ein Paradebeispiel für die gezielte Fehlanwendung geisteswissenschaftlicher Konzepte, um eine wissenschaftlich unhaltbare Position zu stützen. Gadamers „Der andere könnte auch Recht haben“ ist ja im hermeneutischen Kontext zu verstehen – also im Sinne eines Verständigungsprozesses in den Geistes- und Sozialwissenschaften, wo verschiedene Perspektiven miteinander in Dialog treten müssen, um ein tieferes Verständnis zu ermöglichen. Das auf die Naturwissenschaften zu übertragen, wo es nicht um Perspektiven, sondern um überprüfbare Fakten und Hypothesen geht, ist entweder eine eklatante Fehlinterpretation oder eine bewusste Strategie zur Relativierung unliebsamer wissenschaftlicher Erkenntnisse. Gadamer selbst hat mit hinreichender Klarheit herausgestellt, dass es ihm nicht um die Erkenntnisprobleme der Naturwissenschaften geht.

Dass Popper diesen Satz ebenfalls gebraucht hat, zeigt nur umso deutlicher, wie aus dem Kontext gerissene Zitate instrumentalisiert werden können. Bei Popper ging es um eine methodische Selbstdisziplin, um ein gesundes Maß an Zweifel an den eigenen Ergebnissen, bevor man sie als gesicherte Erkenntnis präsentiert. Daraus einen Generalangriff auf die Wissenschaft abzuleiten, ist grotesk.

Diese Art des methodischen Relativismus ist besonders perfide, weil sie für Laien oft überzeugend klingt: „Ja, aber selbst die Wissenschaft sagt doch, dass sie sich irren kann!“ – was dann so verdreht wird, dass jede Beliebigkeit oder sogar bewusste Ignoranz plötzlich als gleichwertig zur wissenschaftlichen Erkenntnis erscheinen soll.

Das Missbrauchen geisteswissenschaftlicher Konzepte zur Unterminierung der Naturwissenschaft ist leider ein beliebtes Muster. Besonders in der Esoterik-Szene oder bei postmodernen Wissenschaftskritikern sieht man das oft: Da werden dann Kuhns Paradigmenwechsel oder Feyerabends Anything goes völlig entstellt, um den Eindruck zu erwecken, als sei Wissenschaft nur ein weiteres narratives Konstrukt unter vielen.

Matthiessen hat das mit dem Pluralismus in der Medizin in genau diese Richtung gelenkt – als ob es einfach verschiedene, gleichwertige „Erkenntniswege“ gäbe, die man parallel akzeptieren müsste. Das ist der Trick: Eine Position als offen und pluralistisch darstellen, während man in Wahrheit wissenschaftliche Standards verwässert und für Beliebigkeit öffnet. Eine intellektuelle Todsünde.

Fazit: Die Grenzen und Stärken wissenschaftlicher Erkenntnis

Die Diskussion um anekdotische Evidenz und wissenschaftliche Methodik zeigt deutlich, dass subjektive Erfahrungen allein nicht ausreichen, um objektive Wahrheiten zu etablieren. Wissenschaftliche Erkenntnisse basieren auf systematischen Untersuchungen, Reproduzierbarkeit und der ständigen Überprüfung bestehender Theorien. Während persönliche Anekdoten emotional überzeugend sein können, bieten sie keine verlässliche Grundlage für allgemeingültige Aussagen.

David Hume und Karl Popper haben uns gelehrt, dass absolute Gewissheit in der Wissenschaft selten erreicht wird. Stattdessen ist die Wissenschaft ein fortwährender Prozess des Hinterfragens und Verfeinerns unseres Wissens. Diese Bescheidenheit ist keine Schwäche, sondern eine Stärke, die es ermöglicht, sich kontinuierlich der Wahrheit anzunähern und nicht scheinbaren Gewissheiten aufzusitzen.

Es ist wichtig, dass wir uns dieser Grenzen bewusst sind und gleichzeitig die immense Bedeutung wissenschaftlicher Methoden anerkennen. Nur durch kritisches Denken und die Bereitschaft, unsere Überzeugungen zu hinterfragen, können wir fundierte und verlässliche Erkenntnisse gewinnen. Dazu gehört eine gewisse Demut. Wissenschaft ist kein starres System, sondern ein dynamischer Prozess, der uns hilft, die Welt besser zu verstehen und fundierte Entscheidungen zu treffen.