Über Wissenschaft, (Pseudo-)Medizin, Aufklärung, Humanismus und den Irrsinn des Alltags

Kategorie: Forschung Seite 1 von 3

Von Akupunkturmeridianen und Biophotonen

Wie wissenschaftliche Zombies in den Bibliothekskatalog wandern

Neulich erreichte mich über die GWUP eine Anfrage, die – wäre man nicht so abgehärtet – für ungläubiges Kopfschütteln gesorgt hätte.
Ein Leser war im Wissensportal „Primo“ der TU Berlin auf einen peer-reviewed article gestoßen, der Akupunkturmeridiane als „Interferenzmuster des kohärent ausgesendeten Zellichts“ – also der sogenannten Biophotonen – erklärte. „Wie kann so etwas peer-reviewed sein?“, wollte er wissen.

Klar ist gleich auf den ersten Blick: Akupunkturmeridiane sind medizinische Fiktion, Biophotonen in der Form, wie ihre Protagonisten sie darstellen, ebenso. Ein „wissenschaftlicher“ Ansatz, der das eine mit irgendwelchen Auswirkungen des anderen zu erklären sucht, ist daher per se obsolet – ex falso quodlibet, aus Falschem folgt Beliebiges, wie der Formallogiker weiß. Der zweite Blick führt mitten hinein in ein Grundproblem der heutigen Publikationspraxis – und in den Plot eines wissenschaftlichen Zombies.

Der Artikel stammt aus dem Jahr 2013, erschienen im Journal Frontiers in Optoelectronics, verfasst von einer chinesischen Autorengruppe an einer chinesischen Universität. Obwohl die Prämissen nicht haltbar sind und die Folgerungen aus der Kombination beider zwangsläufig falsch, trägt der Artikel das Siegel „peer-reviewed“.

Wie kann das passieren?
Es gibt zwei Erklärungen. Die freundlichere lautet: Gutgläubige Reviewer und Editorial Boards nehmen exotische Grundannahmen der Autoren als gesetzt hin (Fail der unterschobenen Prämisse), prüfen dann nur auf innere Konsistenz der Schlussfolgerungen oder gar nur auf formale Kriterien, nicht auf die Validität des Fundaments.
Die weniger freundliche: Manche Journals – zumal aus dem weiten „Open Access“-Kosmos – haben geringere methodische Hürden, wenn das Thema ins eigene Profil passt oder aus bestimmten akademischen Netzwerken kommt. Peer-Review ist nicht unfehlbar, und formale Kriterien lassen sich auch mit inhaltlich schwachen Thesen erfüllen.

Das Problem liegt aber nicht bloß beim Erscheinen – sondern vielleicht noch mehr beim Fortleben. Einmal publiziert, bleibt ein solcher Text im wissenschaftlichen Ökosystem: in Zitationsketten, in Suchmaschinen, in Bibliothekskatalogen. Er wird nicht „entsorgt“, auch wenn er längst widerlegt oder inhaltlich wertlos ist. Selbst renommierte Institutionen wie die TU Berlin können nicht verhindern, dass fragwürdige Inhalte in ihren Beständen landen – die reine Herkunft aus einem „anerkannten“ Journal genügt für die Aufnahme. Q.e.d.

Und selbst wenn ein Artikel zurückgezogen wird, ist sein Zombiedasein nicht beendet. Retraction Watch dokumentiert seit Jahren Fälle, in denen längst revidierte oder zurückgezogene Arbeiten weiter zitiert werden, als sei nichts geschehen – und so das Erkenntnismaterial ganzer Fachgebiete kontaminieren. Eine technische Lösung dafür gibt es bislang nicht. Umso größer ist die Verantwortung der Journale, von vornherein keine unhaltbaren Publikationen durch das Peer-Review zu lassen. Ein frommer Wunsch – aber einer, ohne den das Problem nicht kleiner wird.

Hier entsteht der „Zombie“-Effekt: Solche Arbeiten sterben nicht. Sie wandern still und leise weiter, und für Laien – oder auch für Studierende – kann die bloße Präsenz in einer Universitätsdatenbank wie ein Gütesiegel wirken. Wer ohnehin geneigt ist, an Meridiane oder Biophotonen zu glauben, findet hier eine scheinbar wissenschaftliche, gar zitierfähige Bestätigung.

Genau das macht diese Altlasten gefährlich. Es geht nicht nur um aktuelle Fake News oder frische Pseudostudien. Wissenschaftskommunikation muss auch den Bestand kritisch im Blick behalten – gerade die Veröffentlichungen, die schon lange im Umlauf sind und sich unbemerkt festgesetzt haben.
Denn wie bei Zombies gilt: Sie sind schwer totzukriegen. Aber ignorieren darf man sie nicht.


Recent progress of traditional Chinese medical science based on theory of biophoton
Front. Optoelectron. 2014, 7(1): 28–36
DOI 10.1007/s12200-013-0367-1
https://www.researchgate.net/publication/271631415_Recent_progress_of_traditional_Chinese_medical_science_based_on_theory_of_biophoton


Wenn Skepsis zur Verweigerung wird – eine Replik auf Psirams ME/CFS-Serie

Vom Zweifel zur Auflösung – Microsoft Copilot

Wer sich das Etikett des Skeptikers zu eigen macht, verpflichtet sich – so sollte man meinen – zu intellektueller Redlichkeit, methodischer Strenge und erkenntnisoffener Kritik. Doch was, wenn aus Skepsis eine Rhetorik des Nichtwissens wird? Wenn der Zweifel nicht mehr fragt, sondern nur noch zersetzt? Wenn jede Hoffnung als Naivität erscheint – und jeder Forschungsansatz als übergriffig?

Die anonyme Reihe auf dem Psiram-Blog zum Thema ME/CFS, mittlerweile vier Artikel lang (hier der vierte Teil, der den Anstoß zu diesem Kommentar gab), zeigt exemplarisch, wie sich skeptischer Anspruch in erkenntnistheoretischen Nihilismus verkehren kann. Die Texte sind sprachlich versiert, bemüht analytisch – und doch durchzieht sie ein Grundton distanzierter Überlegenheitsattitüde, der an keiner Stelle fragt: Was wäre, wenn hier tatsächlich etwas in Bewegung gerät? Was wäre, wenn ernsthafte Forschung endlich möglich wird, nach vier Jahrzehnten strukturellen Desinteresses?

Stattdessen: Alles wird kleingeredet. Wir wissen nichts. Wir haben nichts. Wir dürfen nichts hoffen. Eine Misstrauensästhetik, verkleidet als Wissenschaftskritik. Der Psiram-Autor präsentiert sich als wohlmeinend abgeklärt – doch unter der Oberfläche wirkt sein Text wie ein intellektuelles Nein-Sagen – elegant formuliert, aber letztlich ohne Perspektive.

Was in dieser Serie völlig ausgeblendet bleibt: Dass es sich bei ME/CFS um eine Erkrankung handelt, die über Jahrzehnte marginalisiert, missverstanden und psychologisiert wurde. Dass das jetzige Forschungsinteresse nicht Ausdruck einer Mode ist, sondern einer überfälligen Korrektur. Dass viele der wissenschaftlichen Sackgassen, die der Autor betont, eben deshalb entstanden sind, weil man sich zuvor weigerte, systematisch und unvoreingenommen zu forschen.

Das ist bedauerlich. Denn ME/CFS ist nicht nur ein medizinisches Thema, sondern auch ein Prüfstein für den Zustand unserer wissenschaftlichen Kultur: Wie gehen wir mit Unsicherheit um? Mit Betroffenen, die lange ignoriert wurden? Mit Forschung, die tastet statt triumphiert? Wer hier reflexhaft abwinkt, entzieht sich einer moralischen wie erkenntnistheoretischen Herausforderung.

ME/CFS betrifft Millionen weltweit, hunderttausende hierzulande – viele davon leben seit Jahren in einem Zustand körperlicher und materieller Not, gesellschaftlicher Unsichtbarkeit und medizinischer Vernachlässigung. Es steht mehr auf dem Spiel als akademischer Diskurs.

Der menschliche Faktor: Forschung und Fürsorge

ME/CFS betrifft Menschen – keine Abstrakta, keine bloßen Forschungsobjekte. Es geht um Lebenswirklichkeit, Leid, verlorene (Lebens-)Zeit. Dass die wissenschaftliche Kultur Jahrzehnte gebraucht hat, um diese Krankheit ernst zu nehmen, ist nicht nur ein medizinischer Fehler, sondern ein humanistisches Versäumnis. Die Autorin Margarete Stokowski, selbst betroffen, brachte es auf den Punkt: Forschung braucht nicht nur Methodik – sondern Haltung. Eine, die auch die Würde der Kranken im Blick behält.
„Wer für Menschenrechte und Empathie eine Speichelprobe braucht, bei dem läuft etwas grundlegend falsch.“
– Margarete Stokowski, Die letzten Tage des Patriarchats

Im gesamten Psiram-Text bleibt dieser Aspekt seltsam ausgespart, als wäre Wissenschaft ein rein kognitives Spiel, losgelöst von Verantwortung. Wenn man den Grundton des Textes nicht als regelrechten Kulturpessimismus liest, bleibt zumindest der Eindruck einer intellektuellen Weltabgewandtheit, die ihre skeptische Pose für Tiefe hält – und dabei das Menschliche aus dem Blick verliert.

Skepsis ist kein Freibrief für Weltabgewandtheit. Und schon gar kein Alibi für Spott, Zynismus oder hohle Rhetorik. Wer Kritik übt, muss auch zeigen, wie es besser geht – oder zumindest anerkennen, dass andere es versuchen.

Denn das Gegenteil von Aufklärung ist nicht Irrationalität – es ist der Zynismus einer scheinbar überlegenen Perspektive. Und dieser tarnt sich gern als Skepsis. Was wir brauchen, ist aber eine aufgeklärte Skepsis, die sich nicht im Zweifel erschöpft, sondern verantwortungsvoll fragt, wohin der Zweifel führen soll.


Ein Peptid gegen alles? Ein kurioser Einblick in die Welt der Heilsversprechen

Photo by RF._.studio _ on Pexels.com

Vor wenigen Tagen fand ich in meinem Blogpostfach eine bemerkenswerte E-Mail. Der Absender: ein offenbar engagierter Mensch aus dem Ausland, der sich selbst als Mittler einer kleinen, vielversprechenden therapeutischen Entdeckung versteht, offenbar im Agentursinne auf der Suche nach einem Geschäftsmodell. Die Botschaft war klar: Ein niedersächsischer Arzt behandle Long Covid und Post-Vac erfolgreich – mit einem „altbekannten, sicheren Peptid“ an nicht mal einer Handvoll Patienten. Ganz ohne Studien, aber angeblich mit verblüffenden Erfolgen. Und mit großem Unverständnis dafür, dass sich niemand dafür interessiere: keine Universitätsklinik, keine Krankenkasse, keine Fachgesellschaft. Stattdessen angeblich Misstrauen, Trägheit, Ignoranz.

Was folgte, war eine Tirade gegen die „Paranoia“ der Patienten, die Inkompetenz der Forschungsstiftungen und die Mutlosigkeit der Ärzteschaft. Und natürlich: gegen die großen Pharmakonzerne, die angeblich verhindern, dass kleine Entdeckungen groß werden. Alles, was fehlte, war das Stichwort „Big Pharma“. (Es fiel aber quasi implizit.)

Das Ganze kulminierte in der Frage, ob ich nicht helfen könne, „drei oder vier weitere Patienten“ für die Behandlung zu gewinnen. Am besten in der Region Göttingen oder Paderborn. Oder notfalls auch anderswo.


Was soll man darauf antworten?

Vielleicht dies: Dass individuelle Heilversuche zwar unter der Voraussetzung lückenloser und dokumentierter Patientenaufklärung durch die ärztliche Therapiefreiheit gedeckt sind – aber noch lange keinen Erkenntnisgewinn darstellen. Dass niemandem geholfen ist, wenn anekdotische Beobachtungen als Beleg für Wirksamkeit verkauft werden. Dass selbst das beste Peptid keine komplexe Multisystemerkrankung wie ME/CFS oder Long Covid „lösen“ kann – jedenfalls nicht ohne eine klare Pathophysiologie, nachvollziehbare Mechanismen und systematisch gewonnene Daten.

Und vor allem gäbe es durchaus Wege, solche Beobachtungen ernsthaft zu prüfen. Es gibt Fachzeitschriften für Fallberichte (Case Reports), es gibt Register für individuelle Heilversuche beim BfArM, es gibt ethisch tragfähige Vorgehensweisen. Wer das alles umgeht – und sich stattdessen beklagt, dass die Welt nicht auf ihn hört –, der darf sich nicht wundern, wenn seine Entdeckung im Schatten bleibt, allenfalls irgendwann dubiosen Geschäftsmodellen in die Hände fällt und vom „dritten Gesundheitsmarkt“ aufgesogen wird, der sich auf Werbeseiten von unterklassigen Periodika abspielt . Es ist nicht die Schuld der Medizin, wenn jemand sich dem wissenschaftlichen Diskurs verweigert.


Fazit: Die Legende vom verkannten Heilsbringer lebt weiter.

Was bleibt, ist die immer gleiche Geschichte: Ein Einzelner mit einer Idee. Eine Welt, die nicht zuhört. Und eine implizite Verschwörung der „offiziellen Stellen“. Das alles klingt heroisch – ist aber meist das Gegenteil von verantwortungsvoll. Denn wer glaubt, allein die Wahrheit gepachtet zu haben, verkennt, wie wichtig belastbare Belege, reproduzierbare Ergebnisse und kollektive Überprüfung für den medizinischen Fortschritt sind.

Der Mailschreiber insistierte noch mehrfach auf seinem Standpunkt. Dabei artikulierte er immer mehr sein Unverständnis, es handele sich doch um einen approbierten Arzt und man habe sich doch mit den Versuchen beim BfArM registrieren lassen!!! Nun, weder das eine noch das andere führt zu Erkenntnisgewinnen im wissenschaftlichen Sinne. Leider war der gute Mann zum Schluss, trotz (oder wegen?) meiner Erklärungsversuche – beleidigt …


Zum Weiterlesen auf diesem Blog – hätte der Anfrager diesen Beitrag gelesen, hätte er vielleicht gemerkt, dass er ausgerechnet bei mir mit seinem Anliegen an der falschen Adresse war:

Immunisierung statt Information – zum ME/CFS-Statement der DGN

Die Deutsche Gesellschaft für Neurologie (DGN) hat eine Stellungnahme zu ME/CFS veröffentlicht, die sich dem Titel nach als sachliche Information über den Forschungsstand ausgibt. Doch wer den Text mit aufmerksamem Blick liest – insbesondere vor dem Hintergrund der seit Jahren bestehenden systematischen Fehlwahrnehmungen in Teilen der neurologischen Fachwelt –, erkennt schnell: Hier wird nicht informiert, sondern verteidigt. Nämlich eine Position, die den ME/CFS-Betroffenen schon viel Unbill und Leid gebracht hat: dass es sich bei der Krankheit jedenfalls ganz überwiegend, wenn nicht ganz um eine psychosomatische Störung handelt.

Es ist ein wenig atemberaubend, wenn genau dies mit einem „Überblick über den Forschungsstand“ begründet werden soll. Denn im Grunde zeigt die Entwicklung der letzten Jahre, dass die psychosomatische Deutung von ME/CFS immer obsoleter wird.

Was als Forschungsüberblick daherkommt, ist in Wahrheit ein rhetorischer Schutzschild. Ein Text, der durch seine Wortwahl, Struktur und selektive Darstellung signalisiert: „Wir halten an unserem Deutungsrahmen fest.“ Der Verweis auf die fehlenden Biomarker – eine immer brüchiger werdende Argumentationsfigur – und die Betonung der unspezifischen Symptomvielfalt dienen nicht der Differenzierung, sondern der Relativierung. Es ist ein bekanntes Muster: Wenn etwas komplex ist, kann es ja nur psychogen sein. Was nicht berichtet wird: Inzwischen 116 Blutmarker (Stand Juni 2025) zeigen klare Unterschiede zwischen Gesunden und Erkrankten (interessanterweise gleichermaßen bei Männern und Frauen, ungeachtet der geschlechterunterschiedlichen Inzidenz von ME/CFS), Darunter finden sich Indikatoren für chronische Entzündung und Stoffwechselstörungen, sie sprechen eine deutliche Sprache – ME/CFS ist somatisch zu erfassen, nicht psychisch (siehe Quellenabschnitt).

Diese Haltung der DGN ist nicht neu – sie wiederholt vielmehr einen historischen Fehler. Auch bei Parkinson wich die psychosomatische Lesart erst, als die Neurologie sich dem Druck harter Befunde nicht länger entziehen konnte. Und wo beispielsweise sind die Biomarker für Migräne?

Heute zeigt sich: Viele pathophysiologische Parallelen zwischen ME/CFS und Parkinson sind unübersehbar – etwa bei der zellulären Energieverwertung, mitochondrialer Dysfunktion oder neuroinflammatorischen Prozessen. Doch statt die eigenen Irrtümer zu reflektieren, ist das DGN-Statement völlig unbelastet von jeder kritischen Rückschau auf die eigene Historie.

So fordert der Text eine interdisziplinäre Zusammenarbeit „von Neurologie, Rheumatologie, Kardiologie und Psychosomatik“ – als stünden alle Disziplinen gleichwertig nebeneinander. Dabei ist es gerade die Psychosomatik, die bislang keinerlei empirisch tragfähige Erklärungs- oder Behandlungsmodelle für ME/CFS vorzuweisen hat. Dass sie trotzdem selbstverständlich auf Augenhöhe benannt wird, ist bezeichnend – und verräterisch. Hier geht es nicht um Erkenntnisfortschritt, sondern um disziplinäre Besitzstandswahrung.

Erschreckend auch: Die DGN würdigt das Selbsterleben der Betroffenen nicht einmal im Ansatz. Dabei ist gerade bei ME/CFS zentral, dass ME/CFS-Patient:innen sehr wohl dauerhaft über intakte psychische Antriebe verfügen – aber von ihrem eigenen Körper buchstäblich ausgebremst werden. „Mein größter Wunsch ist, in mein aktives Leben zurückzukehren“ ist dabei ein von Betroffenen oft gehörter Satz. Diese Diskrepanz zwischen Willen und Können ist das eigentliche Kerntrauma der Erkrankung. Das ist aber das genaue Gegenteil einer psychischen Störung, die mit Fehlverhalten, Vermeidung, Rückzug assoziiert ist. Wer das ignoriert, ignoriert die Lebensrealität von hunderttausenden Erkrankten – und fördert indirekt die fortgesetzte Psychologisierung eines körperlich bedingten Leidens.

Besonders irritierend ist der fast beiläufige Verweis auf erhöhte Suizidrisiken. Hier bleibt offen, wie dieser Befund gelesen werden soll: Ist das ein Ruf nach Hilfe – oder lediglich ein weiterer Versuch, psychische Ursachen zu insinuieren? Die Frage drängt sich auf, ob es nicht gerade die therapeutisch ausweglose Abwertung durch das Gesundheitssystem und die materielle durch das Sozialsystem sind, die Verzweiflung erzeugen – und nicht etwa eine psychische Grunderkrankung. Wer in dieser Situation eine rein psychosomatische Deutung nahelegt, ohne den institutionellen Anteil am Leid zu reflektieren, bewegt sich gefährlich nah an ethischer Fahrlässigkeit.

Im Hintergrund steht vielleicht ein strukturelles Problem: die zu enge, therapeutisch unreflektierte Verklammerung von Neurologie und Psychologie in vielen Versorgungsrealitäten. Denn dort, wo Diagnosen nicht eindeutig sind, wird häufig nicht geforscht, sondern „umgedeutet“. Die Grenzen zwischen Beobachtung und Erklärung verschwimmen – zulasten der Betroffenen.

Die Wahrheit ist: Ausgerechnet jene Fachrichtungen, die ME/CFS hartnäckig psychologisieren, haben bislang keine tragfähigen Therapieansätze vorzuweisen. Weder Kognitive Verhaltenstherapie noch Graded Exercise Therapy haben die versprochene Wirkung gezeigt – im Gegenteil (in neueren Leitlinien, z. B. NICE 2021, wird GET für ME/CFS nicht mehr empfohlen, da die Evidenzlage unzureichend und die Intervention potenziell schädlich ist. siehe Quellenabschnitt). Die internationale Kritik an diesen Konzepten wächst, nicht zuletzt auf Basis massiver methodischer Mängel in den zugrundeliegenden Studien. Gleichzeitig mehren sich Hinweise auf immunologische, metabolische und zelluläre Auffälligkeiten – Hinweise, die eine rein psychosomatische Einordnung immer weniger plausibel erscheinen lassen.

Doch bei der DGN scheint man nicht willens, aus dem eigenen Schatten zu treten. Statt selbstkritisch innezuhalten und anzuerkennen, dass man einer ganzen Patientengruppe über Jahre hinweg Unrecht getan haben könnte, verfestigt man durch wohlgesetzte Formulierungen und suggestive Schwerpunktsetzung eine Haltung, die längst überholt sein sollte. Der Ton bleibt kühl, Ansätze zur Differenzierung reines Alibi, der Text bleibt hermetisch – und der Mensch dahinter verschwindet.

Es ist Zeit, diese Sprachspiele als das zu benennen, was sie sind: Mechanismen der Immunisierung. Wer sich auf fehlende Biomarker beruft, ohne die existierenden Hinweise auch nur zu würdigen, wer Komplexität als Beleg für Psychogenese verkauft und dabei reale somatische Hinweise systematisch ausblendet, handelt nicht im Sinne der Patienten – sondern im Sinne der eigenen Deutungshoheit.

Was es jetzt bräuchte, wäre ein echtes Umdenken: eine Hinwendung zur gelebten Realität der Betroffenen, eine Öffnung für neue Forschungsansätze – und ein klarer Bruch mit der Tradition vorschneller Pathologisierung. ME/CFS ist keine Einbildung. Es ist eine schwerwiegende, körperlich reale Erkrankung – und sie verdient mehr als ein Statement, das wie eine Ehrenrettung eigener Irrtümer klingt.


Ich bin kein Mediziner, sondern medizinischer Laie – gut, vielleicht am oberen Ende des Spektrums, nachdem ich über Jahre hinweg kritisch, sorgfältig und mit einem tiefen Respekt für medizinische Wissenschaft und Ethik für Aufklärung und Patientenschutz gearbeitet habe. Seit über einem Jahrzehnt befasse ich mich intensiv mit Fragen der Evidenz, mit den Grenzen ärztlicher Deutungshoheit, mit der Verantwortung von Wissenschaft im Umgang mit vulnerablen Patientengruppen. Mein besonderes Interesse an ME/CFS ist durch persönliche Erfahrungen im engeren Umfeld motiviert – durch Menschen, deren Leben durch diese Krankheit dramatisch eingeschränkt wurde, durch die Art, wie sie mit teils unglaublicher mentaler Stärke damit umgehen und durch das, was das Gesundheitssystem ihnen seither nicht zu geben vermag.

Ich habe die Entwicklung von ME/CFS in der wissenschaftlichen Literatur und in der Betroffenenrealität über Jahre hinweg verfolgt – von den frühen Versuchen, das Leiden zu bagatellisieren, bis zu den wegweisenden Studien der letzten Jahre, die die körperlichen Ursachen immer klarer herausarbeiten. Wenn ich mir als Nichtmediziner erlaube, eine so deutliche Replik auf ein offizielles DGN-Statement zu schreiben, dann nicht aus Anmaßung. Sondern aus der Hoffnung heraus, dass auch verantwortungsvolle Stimmen innerhalb der Neurologie selbst erkennen, wie viel Schaden ein solcher Text anrichtet – und dass sie Einfluss nehmen, bevor sich die Geschichte ein weiteres Mal wiederholt.

Denn was die DGN hier veröffentlicht hat, ist keine nüchterne Information, sondern ein Manifest struktureller Voreingenommenheit. Es spricht nicht mit, sondern über die Betroffenen. Und es blendet genau jene Entwicklungen aus, die einem aufgeschlossenen Fachverband Anlass zur Selbstkorrektur geben sollten. Der Schaden, den solche Sprachregelungen anrichten, ist nicht theoretisch – er betrifft reale Menschen, reale Biografien, reale medizinische Versorgung. Und genau deshalb sollten wir alle, auch als Laien, nicht schweigen.


Updatehinweis, 26.07.2025: Inzwischen auch liegt eine Stellungnahme von Fatigatio, dem Bundesverband ME/CFS, zur Publikation der DNG vor:
https://www.fatigatio.de/aktuelles/detail/forschungsstand-zu-me-cfs-fatigatio-widerspruch-zur-stellungnahme-dgn


Fundstellen, die die DGN offenbar nicht kennt:

Somatische Biomarker & immuno-metabolische Dysfunktionen


Mitochondriale Dysfunktion & Parallelen zu Parkinson


Kritik an Kognitiver Verhaltenstherapie (CBT) und Gestufter Bewegungstherapie (GET)


Hintergrundberichte & politische Kontextualisierung


Dekonstruktion ohne Kompass – Die Geschlechterfrage als epistemologisches Lehrstück

Die epistemologische Verschiebung in der öffentlichen Debatte (Microsoft Copilot)

Kontext-Hinweis:

Dieser Beitrag ist die notwendige Fortsetzung meines Artikels Judith Butlers Performativität – Die Ontologie aller Ontologien?. Dort hatte ich gezeigt, dass Butlers Theorie ursprünglich auf radikale Dekonstruktion zielte – ohne selbst einen ontologischen Wahrheitsanspruch zu erheben. Doch genau diese erkenntniskritische Offenheit ist im öffentlichen Diskurs ins Gegenteil verkehrt worden: Aus einer Theorie der Kontingenz wurde ein dogmatischer Identitätsabsolutismus. Was einst aufzeigen wollte, wie soziale Praktiken Identität konstruieren, wird nun benutzt, um moralische Unangreifbarkeit zu beanspruchen. Die epistemologische Selbstrelativierung schlägt um in moralische Unfehlbarkeit – und diese Verkehrung ist der gesellschaftlich folgenreichste Kollateralschaden einer Theorie, die nie bereit war, sich selbst als Theorie zu begreifen.


Kaum ein Thema erzeugt derzeit so viele Missverständnisse wie die Diskussion um biologische und soziale Geschlechter. Wer sagt, es gebe zwei biologische Geschlechter, riskiert inzwischen den Vorwurf, eine „absichtliche Lüge“ zu verbreiten. So geschehen jüngst auf dem SocialMedia-Kanal von Quarks, einer Wissenschaftsredaktion des WDR, die eigentlich für sachliche und evidenzbasierte Vermittlung von Wissenschaft stehen sollte. Doch wenn dort eine solche Aussage nicht mehr als beschreibende Feststellung, sondern als zu löschender Beitrag gewertet wird, ist ein Punkt erreicht, an dem man innehalten muss.

Diese Debatte ist keine bloße Streitfrage über Biologie oder Identität. Sie ist ein Symptom einer tieferliegenden epistemologischen Verschiebung. Denn im Kern geht es darum, was wir als wissensförmig anerkennen und wie wir über Wirklichkeit sprechen dürfen. Die Auflösung dieser Grundlagen ist nicht allein durch Aktivismus motiviert, sondern vielfach durch ein bestimmtes theoretisches Erbe: den poststrukturalistischen Dekonstruktivismus.

Judith Butler, deren Werk „Gender Trouble“ in vielen Teilen der Diskussion als Kronzeuge dient, entwickelte ihr Konzept der Geschlechtsidentität nicht in Abgrenzung zur Biologie, sondern als Kritik an der Selbstverständlichkeit kultureller Zuschreibungen. Ihr Ansatz war ein sprachtheoretischer, stark beeinflusst von Derrida und Foucault. Die performative Konstitution von Geschlecht sollte zeigen, dass Identität ein Effekt sozialer Praktiken ist, nicht ihr Ursprung. Doch was anfänglich als theoretischer Zugriff auf symbolische Ordnungen gedacht worden sein mag, wurde in der soziokulturellen Rezeption und in Formen des Aktionismus zunehmend zum totalen Wahrheitsersatz.

Die Folge: Ein Theoriegebäude, das selbst niemals den Anspruch erhebt, ontologische Aussagen zu machen, wird zur Grundlage moralischer Verurteilungen. Wer dann mit einer biologischen Beschreibung operiert – wie es in der Medizin, der Evolutionsbiologie oder auch der Kriminalistik täglich geschieht –, wird als rückwärtsgewandt, essentialistisch oder gar menschenfeindlich etikettiert.

So entsteht eine neue Orthodoxie, die paradoxerweise ausgerechnet das zu bekämpfen scheint, was der Skeptizismus stets als seinen Kern verstanden hat: die Kritik an dogmatischen Behauptungen. „Dekonstruktion ohne Kompass“ bedeutet hier: Die einst auch Butler selbst motivierende emanzipative Absicht, Begriffe aufzubrechen und ihre historischen Bedingungen sichtbar zu machen, verkehrt sich in ein rigides Normensystem, das keine abweichende Begrifflichkeit mehr duldet. Wer auf biologische Tatsachen verweist, wird nicht mehr als abweichende Stimme, sondern als epistemisches Risiko behandelt.

Dabei ist gerade der skeptische Diskurs darauf angewiesen, zwischen Beschreibung und Bewertung zu unterscheiden. Es ist keine normative Aussage, zu sagen, dass Homo sapiens über zwei Fortpflanzungssysteme verfügt. Es ist ein empirischer Befund. Die gesellschaftliche Anerkennung geschlechtlicher Vielfalt steht auf einem anderen Blatt – ein wichtiges, ein berechtigtes, aber eben kein epistemologisch identisches.

Vorträge wie der von Ilse Jacobsen auf der SkepKon 2025 zeugen davon, dass es möglich ist, differenziert zu argumentieren und dabei einen klaren Standpunkt einzunehmen, ohne sich demagogischer Zuspitzung zu bedienen. Und vielleicht liegt genau darin die skeptische Aufgabe unserer Zeit: nicht in der Reproduktion alter Sicherheiten, aber auch nicht in der hüftsteifen Anpassung an akademische Moden.

Sondern im Bemühen, auch in aufgeheizten Kontexten den Unterschied zwischen Beschreibung, Deutung und normativer Setzung sichtbar zu halten. Denn wer den Kompass verliert, verliert nicht nur die Richtung. Sondern auch die Möglichkeit, überhaupt noch über Wahrheit zu sprechen.


Signifikanz – und sonst nichts?

Warum Signifikanz keine Wahrheit schafft

Copilot kennt das Problem!

Die vertraute Zahl, die zu viel verspricht

Wer medizinische Studien liest, stößt immer wieder auf dieselbe Botschaft: Ein Ergebnis war „signifikant“ – meist im Sinne von p < 0,05, der üblichen „Signifikanzgrenze“ in der medizinischen Forschung. In der Laienpresse (und oft genug auch in Fachkreisen) wird daraus: Die Therapie wirkt. Für viele Studienautoren scheint der Signifikanzwert einem Wahrheitszertifikat gleichzukommen. Doch dieses Verständnis ist grundfalsch – und brandgefährlich. Denn es verleitet nicht nur Laien zu Fehlschlüssen, sondern wiegt auch Wissenschaftlerinnen und Wissenschaftler in einer falschen Sicherheit. Gerade in der evidenzbasierten Medizin (EBM), die sich einer empirisch gestützten, nachvollziehbaren Behandlung verschrieben hat, ist diese Verzerrung folgenschwer.

Was ein p-Wert wirklich bedeutet

Ein p-Wert von 0,05 bedeutet nicht: Die Hypothese ist mit 95 % Wahrscheinlichkeit wahr. Sondern: Wenn es in Wahrheit gar keinen Effekt gäbe (was in der Regel der sogenannten Nullhypothese eines Studienprojekts entspricht), wäre ein so extremes oder extremeres Ergebnis trotzdem in 5 % der Fälle zu erwarten. Es handelt sich also um eine bedingte Wahrscheinlichkeit – bedingt auf die Annahme, dass kein Effekt existiert. Andersherum: Selbst wenn es keinen realen Effekt beim Untersuchungsgegenstand gäbe, würde trotzdem eine von 20 Studien ein positives Ergebnis aufweisen, das nur auf Zufall beruht.

Das heißt: Der p-Wert misst nicht die Wahrscheinlichkeit der Hypothese, sondern die Wahrscheinlichkeit der Daten in einer konkreten Studie unter einer Annahme. Das ist ein kategorial anderer Sachverhalt. Wer das verwechselt, verkennt die Grundlagen statistischen Denkens.

Warum die Verwechslung so hartnäckig ist

Zum einen liegt es an der Alltagssprache: „signifikant“ bedeutet dort so viel wie „bedeutsam“. In der Statistik hingegen ist es eine technische Schwelle, willkürlich gesetzt und ohne Bezug zur klinischen Relevanz. Zum anderen besteht ein starker Wunsch nach Klarheit: Wirkt es oder nicht? Eine einfache p < 0,05-Grenze suggeriert genau das – ein Ergebnis ist „drin“ oder „draußen“. Doch genau diese Dichotomie führt in die Irre.

Bemerkenswert ist dabei, wie willkürlich diese Schwelle ist: Die 5-Prozent-Grenze wurde historisch eher pragmatisch als wissenschaftlich festgelegt. In Bereichen wie der Hochpräzisionsfertigung oder der chemischen Industrie gelten Toleranzen im Bereich von Tausendsteln bis Millionsteln. In der Medizin hingegen soll ein Irrtumsrisiko von 5 % als ausreichend gelten, um Therapien zu empfehlen oder abzulehnen. Die „Sicherheit“ ist also relativ – und stark kontextabhängig.

Die Pseudomedizin nutzt das aus

Gerade Anbieter von Verfahren ohne wissenschaftlich belegte Wirkprinzipien – Homöopathie, Akupunktur, Nahrungsergänzung – lieben den Signifikanzwert. Sobald irgendeine Studie ein p < 0,05 liefert (oft durch fragwürdiges Studiendesign oder statistischen Zufall), wird das als Beweis für Wirksamkeit verkauft. Das Publikum versteht: „Es ist wissenschaftlich erwiesen.“ Dass das Ergebnis vielleicht statistisch, aber nicht klinisch relevant war, bleibt unerwähnt. Ebenso die Frage, ob der Effekt reproduzierbar ist oder ob der Studienaufbau überhaupt valide Aussagen ermöglicht.

Aber auch die wissenschaftsbasierte Medizin ist nicht frei von Illusionen

In vielen klinischen Studien herrscht ein ähnlicher Schematismus. Statistik wird an spezialisierte Teammitglieder ausgelagert, deren Output kaum jemand im Team wirklich versteht. Der p-Wert wird zur Währung der Aussagekraft erhoben, obwohl er bestenfalls ein Indikator ist – und zwar einer mit erheblichen Schwächen. Effektstärken, Konfidenzintervalle, Plausibilität und Kontext treten in den Hintergrund.

Hinzu kommt: Der p-Wert bezieht sich immer nur auf die konkrete Studie mit ihren spezifischen Gegebenheiten, Limitationen und Freiheitsgraden. Bereits geringfügige Änderungen im Studiendesign, der Stichprobenwahl oder der Auswertung können den Wert stark verändern. Steven Novella spricht in diesem Zusammenhang von der hohen Empfindlichkeit des p-Werts gegenüber kleinen Änderungen der analytischen „Freiheitsgrade“ – ein Problem, das sich gerade bei Replikationen oft zeigt.

David Sackett, einer der Väter der evidenzbasierten Medizin, hat sich übrigens 1997 klar gegen eine „Kochbuchmedizin“ ausgesprochen. In seinem berühmten Essay kommt Statistik praktisch nicht vor. Sein Verständnis von EBM war: die beste verfügbare Evidenz in Verbindung mit klinischer Erfahrung und Patientenbedürfnissen. Statistik war für ihn kein Ersatz für Nachdenken, sondern ein Hilfsmittel zur Orientierung.

Fazit: Bescheidene Statistik statt großer Geste

Der p-Wert ist kein Wahrheitswert. Wer ihn so behandelt, verstellt den Blick auf das, was Medizin wirklich leisten soll: helfen, wo Hilfe notwendig ist, und unterscheiden, wo Therapie nur vortäuscht. Die Pseudomedizin nutzt den Signifikanzmythos, um sich ein wissenschaftliches Gewand zu geben. Aber auch in der konventionellen Forschung ist der Statistikfetischismus ein Problem. Es ist Zeit, das zu erkennen – und dem p-Wert seinen Platz zuzuweisen: als Werkzeug, nicht als Orakel.

Am Ende steht deshalb nicht der Ruf nach einem Ersatz für Statistik, sondern nach einer gesamtwissenschaftlichen Betrachtung medizinischer Forschungsergebnisse. Dazu gehören: die Plausibilität der zu prüfenden Hypothese, das Design der konkreten Studie, die Gründlichkeit ihrer Methodik und die Validität der Interpretation. Nur im Zusammenspiel dieser Faktoren lässt sich beurteilen, ob ein statistisch signifikantes Ergebnis auch klinisch bedeutsam und wissenschaftlich belastbar ist.

Deshalb lautet die richtige Antwort an den, der als nächster mit einer „signifikanten“ Studie zu Homöopathie, Akupunktur und Co. triumphierend um die Ecke kommt, ganz einfach: „Ja und?“.


Literatur:

Regina Nuzzo: Wenn Forscher durch den Signifikanztest fallen
https://www.spektrum.de/news/statistik-wenn-forscher-durch-den-signifikanztest-fallen/1224727

Originalveröffentlichung:
Nuzzo, R. Scientific method: Statistical errors. Nature 506, 150–152 (2014). https://doi.org/10.1038/506150a


Von der anekdotischen Evidenz zur wissenschaftlichen Bescheidenheit

Dogma und Wissenschaft (Symbolbild)

Die Falle der anekdotischen Evidenz: Warum „Mir hat es geholfen“ kein Beweis ist

Es gibt zwei Standardreaktionen, die Kritiker wissenschaftlich unhaltbarer Methoden wie Homöopathie oder anderer Formen der Pseudomedizin regelmäßig zu hören bekommen. Die eine ist das altbekannte

„Wer heilt, hat Recht“,

die andere:

„Mir hat es aber geholfen“.

Letzteres ist das Paradebeispiel für anekdotische Evidenz – eine subjektive Erfahrung, die als Beweis für die Wirksamkeit einer Behandlung herangezogen wird. Doch warum ist diese Art der Argumentation fehlerhaft? Warum klingen Anekdoten zwar überzeugend, haben aber in der wissenschaftlichen Methodik keinen Platz?

Korrelation ist nicht Kausalität

Nur weil sich nach einer Behandlung eine Verbesserung einstellt, bedeutet das nicht, dass die Behandlung die Ursache dafür war. Der Mensch neigt infolge evolutionärer Anlagen (die schon vielfach erklärt wurden) dazu, Zusammenhänge zu sehen, wo keine sind. Dies ist bei nicht trivialen Sachverhalten ein fundamentaler kognitiver Fehlschluss. In vielen (den meisten?) Fällen bessern sich Beschwerden einfach von selbst (Spontanremission), oder andere Faktoren wie Lebensstilveränderungen oder der natürliche Krankheitsverlauf spielen eine Rolle.

Der Placebo-Effekt

Ein weiterer Faktor, der anekdotische Evidenz entwertet, ist der Placebo-Effekt. Dieser ist gut dokumentiert und kann dazu führen, dass Menschen subjektiv eine Verbesserung ihrer Symptome wahrnehmen, selbst wenn die verabreichte Behandlung keinerlei spezifische Wirkung besitzt. Besonders stark wirkt dieser Effekt in Bereichen wie Schmerzempfinden oder allgemeinem Wohlbefinden, wo Suggestion eine große Rolle spielt.

Der Selektionsbias

Anekdotische Evidenz ist extrem selektiv. Niemand hört von denjenigen, bei denen die gleiche Methode nicht funktioniert hat, weil Menschen, die keinen Effekt erfahren haben, schlicht nicht berichten. Viele, bei denen die Therapie nicht gewirkt hat, können auch gar nicht mehr berichten. Dann gibt es noch die Menschen, die die entsprechende Methode nicht angewandt haben und auch wieder gesund wurden. Und natürlich auch die, die ebenfalls auf die Methode verzichtet haben und nicht wieder gesund geworden sind.

Methode angewandt – erfolgreichMethode angewandt – nicht erfolgreich
Methode nicht angewandt – erfolgreichMethode nicht angewandt – nicht erfolgreich

Das ergibt eine Matrix mit vier Möglichkeiten. Wenn aber nun ständig über Heilerfolge einer Methode berichtet wird, dann heißt das, dass diese Fälle sich nur im Feld oben links in der Matrix sammeln. Es fehlt jede Aussage, wie viele Fälle auf die anderen Möglichkeiten entfallen. Das führt zu einer verzerrten Wahrnehmung: Es entsteht der Eindruck, eine Therapie wäre besonders wirksam, weil nur positive Erfahrungsberichte kursieren. Dabei ist es ohne Weiteres möglich, dass die Zahl der Anwender, die nicht von der Methode profitiert haben, ein Vielfaches der Zahl der Erfolgreichen beträgt. Anekdotische Evidenz bedeutet also unter anderem das Risiko, dass wir hochgradig unvollständigen Informationen aufsitzen.

Reproduzierbarkeit als wissenschaftliches Kriterium

Wissenschaft funktioniert nicht auf der Basis einzelner Berichte, sondern durch systematische Untersuchung. Eine Therapie muss in kontrollierten Studien – unter bestmöglichem Ausschluss von Zufall und Verzerrung – immer wieder die gleichen positiven Ergebnisse zeigen, bevor sie als wirksam gelten kann. Der einzelne Patient mag subjektiv empfinden, dass es egal ist, warum ihm etwas geholfen hat. Für die medizinische Wissenschaft ist das aber keine Option, ebenso wenig wie für den gewissenhaften Therapeuten. Denn nur reproduzierbare Ergebnisse ermöglichen es, verlässliche und sichere Behandlungen zu entwickeln und prognostisch Medizin zu betreiben.

Warum sich Menschen trotzdem auf Anekdoten verlassen

Die Überzeugungskraft anekdotischer Evidenz hat tiefe psychologische Ursachen. Menschen vertrauen persönlichen Erfahrungen oder denen von Bekannten mehr als abstrakten Studien. Geschichten und individuelle Berichte erzeugen eine emotionale Resonanz, während statistische Analysen oft als „kalt“ empfunden werden. Diese kognitive Verzerrung verstärkt die Neigung, Anekdoten als Beweis zu akzeptieren.

Fazit: Subjektive Wahrnehmung ist kein objektiver Beweis

Wenn es um medizinische Wirksamkeit geht, darf subjektive Erfahrung nicht über wissenschaftliche Belege gestellt werden. Es ist verständlich, dass Patienten nach Lösungen suchen und sich an das klammern, was scheinbar funktioniert. Doch das Problem beginnt, wenn aus individuellen Erfahrungen allgemeingültige Schlüsse gezogen werden und unwirksame oder gar schädliche Methoden für wissenschaftlich valide gehalten werden. Wer an der Wahrheit interessiert ist, sollte sich nicht mit dem „Mir hat es geholfen“ zufriedengeben, sondern hinterfragen, ob es dafür auch eine belastbare Erklärung gibt.

David Hume und die Kausalität

Der schottische Philosoph David Hume (1711–1776) hat in seiner A Treatise of Human Nature (1739–1740) und später in seiner Enquiry Concerning Human Understanding (1748) argumentiert, dass Kausalität nichts ist, was wir direkt beobachten können. Stattdessen sei unser Kausalitätsverständnis eine psychologische Gewohnheit: Wenn zwei Ereignisse regelmäßig in einer bestimmten Reihenfolge auftreten (z. B. Einnahme eines Mittels → Besserung der Beschwerden), neigen wir dazu, daraus eine ursächliche Verbindung, eine Kausalität abzuleiten – selbst dann, wenn keine objektive Notwendigkeit dafür besteht. Dies ist der Fehlschluss von einer allein zeitlich wahrgenommenen (und wahrnehmbaren) Korrelation auf Kausalität. Wir wissen heute, dass dieser kognitionspsychologische Effekt vermutlich evolutionär in uns angelegt ist, weil er in Urzeiten Selektionsvorteile versprach. In einer komplexen Welt wie der heutigen führt er uns aber in der Mehrzahl der Fälle aufs falsche Gleis.

Post hoc ergo propter hoc: Danach, also deswegen.

Der König der Fehlschlüsse. Nur weil etwas nach etwas anderem passiert, bedeutet das nicht, dass es auch dadurch verursacht wurde. Hume hätte sich vermutlich sehr dafür interessiert, wie sich dieser Irrtum besonders in der Pseudomedizin hartnäckig hält.

Die Frage ist zudem, ob wir nach Hume überhaupt Kausalität erkennen können. Sicherlich doch durch anschauliche Evidenz – wenn jemandem ein Blumentopf auf den Kopf fällt und er blutet danach, dann ist Kausalität nicht nur wahrscheinlich. (Aber kann es nicht ein harmloser Plastikblumentopf gewesen sein und der Passant hatte vorher schon Nasenbluten … ? Wer will das aus der Perspektive der anderen Straßenseite wirklich beurteilen … ? Wir wollen es nicht auf die Spitze treiben, aber doch zeigen, wie problematisch auch die scheinbar sichere Wahrnehmung von Kausalität sein kann.)

Redlicherweise müsste man den Menschen sagen, dass placebokontrollierte prospektive klinische Studien (RCT) zwar der Goldstandard in der medizinischen Forschung sind, aber letztlich eine Kausalität im engeren Sinne auch nicht „beweisen“ können. Wirft man aber eben nicht mit Begriffen wie „Beweis“ oder „Studien zeigen …“ um sich, sondern ist sich der Tatsache bewusst, dass uns endgültiges Wissen zumeist verwehrt bleibt, gerät man beim Publikum in Misskredit, weil dieses nur das biblische „Deine Rede sei ja, ja oder nein, nein“ zu kennen scheint …

Absolute Gewissheit bleibt uns in den meisten Fällen verwehrt. Hume hat uns die radikale Skepsis gelehrt – wir sehen nur zeitliche Abfolgen von Ereignissen, aber die Notwendigkeit dieser Verbindung existiert nicht objektiv in der Welt, sondern nur in unseren Köpfen.

Nur: Das Ringen um wissenschaftliche Ehrlichkeit kollidiert oft mit der Erwartung des Publikums nach eindeutigen Antworten. „Studien zeigen…“ wird dann zu einer Art Ersatz für absolute Wahrheit, obwohl sich Wissenschaft ja gerade durch ständige Korrekturen und die Offenheit für bessere Erklärungen auszeichnet.

Der Pharmakologe Wolfgang Hopff gab in seinem Buch „Homöopathie kritisch betrachtet“ für evidente Kausalität das Beispiel eines hochwirksamen harntreibenden Mittels, das nicht nur im zeitlichen Zusammenhang mit der Einnahme, sondern auch der therapeutischen Prognose entsprechend seine Wirkung zeigt. Dies ist ein gutes Beispiel, weil es zeigt, dass wir manche Kausalitäten intuitiv für evident halten – aber wo genau ziehen wir die Grenze? Und wann wird aus berechtigter Skepsis auf der Basis kritischen Denkens ein Rückfall in radikalen Relativismus? Den Einwand „es könnte ja auch anders sein“ auf jede, buchstäblich jede Feststellung?

Das Induktionsproblem – das Ende allen sicheren Wissens?

Jeden Morgen geht die Sonne auf, darauf kann man sich verlassen. Das war in vielen Kulturen, vor allem in denen, die sich als aufgeklärt verstanden, selbstverständlich – evident eben, nicht weiter hinterfragbar. Das Induktionsproblem, dessen Erhellung wir auch Hume verdanken, sagt nun, zur Widerlegung einer solchen angeblich nicht hinterfragbaren Evidenz braucht es nur ein einziges Folgeereignis, das der bisherigen Erfahrung widerspricht. Und das können wir nicht ausschließen.

In diesem Sinne ist das Induktionsproblem gewissermaßen die Abrissbirne für jede naive (sic!) Vorstellung von sicherem Wissen.

Was die Sache mit dem Sonnenaufgang angeht, so wissen wir heute, dass es eben nicht ewig und unhinterfragbar so weitergehen wird. Ein Beispiel dafür, dass Gewissheiten (sic!) abhängig vom aktuellen Wissen sind und eine Bestätigung der Vorbehalte, die das Induktionsproblem aufwirft. Aber: Hat das Sonnenaufgangsbeispiel für uns hier und heute wirklich praktische Bedeutung? Oder ist es vernachlässigbar, ohne einen Kategorienfehler zu begehen?

Das Beispiel illustriert, dass absolute Beweise in einem streng logischen Sinn oft gar nicht nötig sind, weil der Grad der Sicherheit ausreicht, um vernünftig zu handeln. Und im Grunde ist der Anspruch der Wissenschaft ja gar nicht mehr, als die Grundlage für vernünftiges Handeln zu liefern.

Karl Poppers Antwort auf das Induktionsproblem

Das Induktionsproblem ist ungelöst und verhindert nach wie vor, dass wir eine ungetrübte und mit der Realität komplett deckungsgleiche Vorstellung von „Wahrheit“ erlangen können. Man hört in der Wissenschaftsphilosophie gelegentlich davon, es sei „gelöst“ worden – nach meiner bescheidenen Ansicht ist das nicht der Fall. Aber was tun? Wie kann sich die Wissenschaft zum Induktionsproblem stellen?

Die Wissenschaftsphilosophie von Karl Popper, die er ein seinem epochalen Werk „Logik der Forschung“ niedergelegt hat, gibt eine Antwort: Sie versucht nicht, das Induktionsproblem zu ignorieren oder zu verleugnen, sondern sie gibt dadurch eine Antwort, dass sie sich vom Ziel der Wissenschaft als Wahrheitsfindung zugunsten einer beständigen Wahrheitssuche verabschiedet und die Fehlbarkeit menschlichen Wissens zum Prinzip erhebt.

Die Limitierung, die das Induktionsproblem der „sicheren Erkenntnis“ setzt, war wohl für Karl Popper ein entscheidender Beweggrund dafür, sich von der Methode der „Verifizierung“ (Versuch der Bestätigung) von Ergebnissen abzuwenden und stattdessen auf „Falsifizierung“ (Versuch der Widerlegung) zu setzen. Dabei betont er die Vorläufigkeit allen Wissens, setzt aber auch einem Rückfall in pessimistischen Relativismus Schranken, indem er den Erkenntniswert von Forschung nach Wahrscheinlichkeit bewertet. Am besten kommt sein Prinzip der Falsifikation in diesem Zitat zum Ausdruck:

Wann immer wir nämlich glauben, die Lösung eines Problems gefunden zu haben, sollten wir unsere Lösung nicht verteidigen, sondern mit allen Mitteln versuchen, sie selbst umzustoßen.”
(Logik der Forschung, 11. Auflage, Mohr Siebeck, Tübingen 2005, Seite XX).

Nun ist das keine leichte Kost, wenn auch viele Menschen durchaus eine Vorstellung von Karl Popper und seinem Werk haben. Ich glaube, selbst wenn man das einem breiten Publikum vermitteln könnte, würde man auf psychologische Barrieren stoßen. Ich denke sogar, dass es Hochschullehrer gibt, die eine solche Wissenschaftsphilosophie lehren, sich aber intrinsisch dies nicht wirklich zu eigen machen.

Popper hat die Wissenschaft nicht mehr als Ansammlung von bewiesenen Wahrheiten, sondern als System zur systematischen Widerlegung falscher Annahmen verstanden. Er forderte als Kriterium für die Wissenschaftlichkeit einer Hypothese, dass sie potenziell widerlegbar (formuliert) sein muss, weil sie sonst gegen Falsifizierung von vornherein immun wäre. Wissenschaft produziert also nicht endgültiges Wissen, sondern entfernt beständig Irrtümer und nähert sich damit der Wahrheit an – aber das reicht vielen Menschen nicht, weil es ihrem Bedürfnis nach Gewissheit widerspricht. Der Satz

„Wir irren uns empor“,

geprägt vom Physiker und Philosophen Gerhard Vollmer, trifft es also nicht ganz, denn wir fügen ja im Erkenntnisprozess (hoffentlich) nicht neue Irrtümer hinzu, sondern beseitigen alte. Gleichwohl ist diese Sentenz sehr griffig, wenn es gilt, das Prinzip Wissenschaft zu erklären.

Wissenschaft vs. Dogma

Der Wissenschaft ist also eine Bescheidenheit inhärent insofern, als sie langsam Wissen schafft, aber nicht goldglänzende endgültige Wahrheiten präsentiert. In den Augen nicht in wissenschaftlichem Denken Geschulter – und das ist leider wohl die Mehrheit der Bevölkerung – ist dies ein Mangel, ein Malus – obwohl gerade dies der Bonus der Wissenschaft ist. Es gibt in diesem Punkt eine Art psychologische Abwehrhaltung: Wenn Wissen nur vorläufig ist, dann gibt es keine absolute Sicherheit – und das ist für viele unerträglich. Deshalb greifen manche lieber auf einfache Wahrheiten zurück, egal ob in Form dogmatischer Wissenschaftsauffassungen oder eben Pseudowissenschaften. Letztlich könnte man sagen: Die Wissenschaft ist sich ihrer eigenen Unsicherheit bewusst – die Pseudowissenschaft hat dieses Problem nicht, weil sie ihre Wahrheiten zementiert. Über falsche Dogmen aufzuklären und die Kriterien kritischen Denkens zu vermitteln, kann ein mühsames Geschäft sein.

Sokrates, ein früher Skeptiker

Sokrates‘ von Platon überlieferte Sentenz „Ich weiß, dass ich nichts weiß“ ist ja fast schon das Motto der modernen Wissenschaftsphilosophie. Allerdings – die Wissenschaft weiß viel, sehr viel inzwischen und beschreibt die Welt, in der wir leben, mit großer Genauigkeit, die sich in der beständigen Anwendung ihrer Erkenntnisse beweist. Poppers Kriterium für „Wahrheit“, nämlich die vollständige Übereinstimmung der Erkenntnis mit der Realität, ist, so dürfen wir annehmen, in einem Maße erfüllt, das man sich vor 100 oder 200 Jahren nicht vorstellen konnte. Sokrates’ Einsicht war deshalb revolutionär, weil sie dem menschlichen Hang zum Dogmatismus widersprach. Und genau diese Haltung ist es, die Wissenschaft von Ideologie und Pseudowissenschaft unterscheidet: Sie gesteht ein, dass ihr Wissen immer nur vorläufig ist.

Ironischerweise macht genau das die Wissenschaft für viele Menschen weniger attraktiv als dogmatische Systeme. Der Dogmatiker hat Antworten, die Wissenschaftler haben Fragen. Der Dogmatiker bietet Sicherheit, die Wissenschaftler liefern Wahrscheinlichkeiten. Kein Wunder, dass viele lieber an einfache Wahrheiten glauben als an eine Welt voller Unsicherheiten.

Es ist schon faszinierend – und irgendwie auch frustrierend –, dass genau die Demut der Wissenschaft, die sie so mächtig macht, sie für viele Menschen weniger überzeugend erscheinen lässt.

Vollends gescheitert bin ich vor kurzem bei einem Erklärungsversuch in kleiner, durchaus wohlwollender Runde mit dem Hinweis, dass wir – laut Popper – unter Umständen hier und da mal eine „letzte Wahrheit“ erreichen – wir aber das gar nicht sicher wissen können. Das wurde als eine Art von Selbstzerstörung von Poppers Wissenschaftsmodell angesehen. Finde ich nicht – ich halte das für ein hervorragendes Beispiel für das Bewusstsein der Begrenztheit einer ständig fragenden Wissenschaft und für die oft missverstandene Natur wissenschaftlicher Erkenntnis. Popper hat nicht gesagt, dass wir niemals eine endgültige Wahrheit finden könnten. Er sagte nur, dass wir dies nicht sicher wissen können. Das ist kein Paradox, sondern schlicht die Einsicht in die Grenzen unserer Erkenntnisfähigkeit.

Die Vorstellung, dass Wissenschaft sich selbst zerstört, wenn sie ihre eigenen Grenzen anerkennt, beruht auf einem Missverständnis. Wissenschaft ist kein Glaubenssystem, das absolute Gewissheiten liefern muss. Sie ist ein Werkzeug zur Annäherung an die Wahrheit, mit dem Bewusstsein, dass jede Erkenntnis revidierbar ist.

Jedoch: Menschen sehnen sich nach Gewissheiten. Und wenn jemand sagt: „Vielleicht haben wir hier eine letzte Wahrheit gefunden, aber wir können nicht wissen, ob das so ist“, dann empfinden das viele als Schwäche – obwohl es in Wirklichkeit eine große intellektuelle Stärke ist. Das Problem ist, dass viele Leute eine intuitive Vorstellung von „Wahrheit“ als etwas Absolutem haben. Sie erwarten von Wissenschaft, dass sie ihnen endgültige Antworten liefert. Dabei ist Wissenschaft eher ein ständiges Ringen um bessere Modelle der Realität – mit der Möglichkeit, dass diese Modelle unvollständig oder gar falsch sein können. Wer bringt diese Erkenntnis in die Schulen und die Allgemeinbildung?

Erkenntniskriterium Wahrscheinlichkeit

Zur Verdeutlichung, dass ein hoher Wahrscheinlichkeitsgrad aus der falsifizierenden Untersuchung von Gegebenheiten meist völlig ausreicht, ein Beispiel, das Hume vermutlich gefallen hätte: „Alle Menschen müssen sterben.“ Ist das „bewiesen“? Nein, denn es leben ja noch jede Menge! Aber: Lassen sich darauf vernünftige Zweifel an der Ausgangsthese ableiten? Nein. Nicht nur wegen des Induktionsprinzips, sondern auch wegen unseres gut gesicherten Wissens über die Physiologie von Lebewesen, das uns zeigt, warum unumkehrbare Alterungsprozesse einsetzen, die irgendwann das Ende dessen herbeiführen, was wir Leben nennen. Das sind schlüssige „Belege“, die für sichere Erkenntnis ausreichen, aber keine „Beweise“.

Hume hätte dieses Beispiel sicher geschätzt – es passt zu seinem Skeptizismus gegenüber dem Erkennen von Kausalität, aber auch zu seinem Pragmatismus. Selbst in Bereichen, in denen wir uns sicher sind (wie der Sterblichkeit des Menschen), bleibt die Erkenntnis eine induktive Verallgemeinerung – aber eben eine, an der zu zweifeln irrational wäre.

Vernunftgesteuerter vs. „zersetzender“ Skeptizismus

Genau diese Denkweise wäre für viele nützlich, die in Wissenschaftsdiskussionen entweder nach absoluter Sicherheit verlangen oder skeptischen Missbrauch betreiben („Man kann nie 100 % sicher sein, also könnte es ja auch anders sein!“). Letzteres zeigt den Unterschied zwischen gesunder Skepsis und Zersetzungs-Skeptizismus.

Diesen „Zersetzungs-Skeptizismus“ konnte man sehr gut in der Pandemie beobachten. Unter den „Impfkritikern“ waren manche, die ich immer als „Hundertprozenter“ bezeichnet habe. Akademisch ausgebildete Menschen, die den Einsatz von Impfstoffen nur dann als vertretbar ansehen wollten, wenn es sowohl hinsichtlich der Wirkungen als auch der Nebenwirkungen „hundertprozentige“ Sicherheit gebe. Diese Leute stellen sich auf den Standpunkt, dass jede noch so kleine Unsicherheit oder jede verbleibende offene Frage die gesamte Erkenntnis zum Einsturz bringen müsse. Dabei ignorieren sie, dass Wissenschaft immer mit Wahrscheinlichkeiten und Unsicherheiten arbeitet – und dass Entscheidungen im echten Leben fast nie auf absoluter Sicherheit beruhen.

Clemens Arvay war da ein typisches Beispiel: Er stellte wissenschaftliche Standards infrage, indem er genau jene Unfehlbarkeit forderte, die Wissenschaft gar nicht leisten kann – und auch nicht leisten muss. Ironischerweise ist es genau dieser Dogmatismus, der ihn von einer echten wissenschaftlichen Haltung entfernt hat.

Dies scheint mir nicht so sehr ein intellektuelles Problem zu sein, sondern eher eine tief verwurzelte psychologische Haltung: Viele Menschen fühlen sich von Unsicherheiten bedroht und greifen deshalb zu Absolutismen – sei es in Richtung Wissenschaftsverweigerung oder blinder Wissenschaftsgläubigkeit. Ersichtlich gilt dies auch für Menschen, die mit den wissenschaftsphilosophischen Grundlagen eigentlich vertraut sein müssten. Sie werden beherrscht von einer tiefen, menschlichen Sehnsucht nach Gewissheit – und dem Widerstand gegen die Zumutung, dass es sie nicht in letzter Konsequenz gibt.

„Der andere könnte auch Recht haben“

Da fällt mir noch ein Beispiel für falschen Relativismus von Erkenntnisfähigkeit ein. Es gab einmal ein Positionspapier zur Homöopathie-Debatte unter Führung des inzwischen verstorbenen Prof. Peter Matthiessen, einem Vertreter eines vorgeblichen „Pluralismus in der Medizin“. Das war ein Generalangriff auf die wissenschaftliche Methode selbst, ein Beispiel für nahezu hemmungslosen Relativismus, das gekrönt wurde mit einer Berufung auf Hans-Georg Gadamers „Der andere könnte auch Recht haben“ und damit ins Moralisierende abglitt.

Das ist ein Paradebeispiel für die gezielte Fehlanwendung geisteswissenschaftlicher Konzepte, um eine wissenschaftlich unhaltbare Position zu stützen. Gadamers „Der andere könnte auch Recht haben“ ist ja im hermeneutischen Kontext zu verstehen – also im Sinne eines Verständigungsprozesses in den Geistes- und Sozialwissenschaften, wo verschiedene Perspektiven miteinander in Dialog treten müssen, um ein tieferes Verständnis zu ermöglichen. Das auf die Naturwissenschaften zu übertragen, wo es nicht um Perspektiven, sondern um überprüfbare Fakten und Hypothesen geht, ist entweder eine eklatante Fehlinterpretation oder eine bewusste Strategie zur Relativierung unliebsamer wissenschaftlicher Erkenntnisse. Gadamer selbst hat mit hinreichender Klarheit herausgestellt, dass es ihm nicht um die Erkenntnisprobleme der Naturwissenschaften geht.

Dass Popper diesen Satz ebenfalls gebraucht hat, zeigt nur umso deutlicher, wie aus dem Kontext gerissene Zitate instrumentalisiert werden können. Bei Popper ging es um eine methodische Selbstdisziplin, um ein gesundes Maß an Zweifel an den eigenen Ergebnissen, bevor man sie als gesicherte Erkenntnis präsentiert. Daraus einen Generalangriff auf die Wissenschaft abzuleiten, ist grotesk.

Diese Art des methodischen Relativismus ist besonders perfide, weil sie für Laien oft überzeugend klingt: „Ja, aber selbst die Wissenschaft sagt doch, dass sie sich irren kann!“ – was dann so verdreht wird, dass jede Beliebigkeit oder sogar bewusste Ignoranz plötzlich als gleichwertig zur wissenschaftlichen Erkenntnis erscheinen soll.

Das Missbrauchen geisteswissenschaftlicher Konzepte zur Unterminierung der Naturwissenschaft ist leider ein beliebtes Muster. Besonders in der Esoterik-Szene oder bei postmodernen Wissenschaftskritikern sieht man das oft: Da werden dann Kuhns Paradigmenwechsel oder Feyerabends Anything goes völlig entstellt, um den Eindruck zu erwecken, als sei Wissenschaft nur ein weiteres narratives Konstrukt unter vielen.

Matthiessen hat das mit dem Pluralismus in der Medizin in genau diese Richtung gelenkt – als ob es einfach verschiedene, gleichwertige „Erkenntniswege“ gäbe, die man parallel akzeptieren müsste. Das ist der Trick: Eine Position als offen und pluralistisch darstellen, während man in Wahrheit wissenschaftliche Standards verwässert und für Beliebigkeit öffnet. Eine intellektuelle Todsünde.

Fazit: Die Grenzen und Stärken wissenschaftlicher Erkenntnis

Die Diskussion um anekdotische Evidenz und wissenschaftliche Methodik zeigt deutlich, dass subjektive Erfahrungen allein nicht ausreichen, um objektive Wahrheiten zu etablieren. Wissenschaftliche Erkenntnisse basieren auf systematischen Untersuchungen, Reproduzierbarkeit und der ständigen Überprüfung bestehender Theorien. Während persönliche Anekdoten emotional überzeugend sein können, bieten sie keine verlässliche Grundlage für allgemeingültige Aussagen.

David Hume und Karl Popper haben uns gelehrt, dass absolute Gewissheit in der Wissenschaft selten erreicht wird. Stattdessen ist die Wissenschaft ein fortwährender Prozess des Hinterfragens und Verfeinerns unseres Wissens. Diese Bescheidenheit ist keine Schwäche, sondern eine Stärke, die es ermöglicht, sich kontinuierlich der Wahrheit anzunähern und nicht scheinbaren Gewissheiten aufzusitzen.

Es ist wichtig, dass wir uns dieser Grenzen bewusst sind und gleichzeitig die immense Bedeutung wissenschaftlicher Methoden anerkennen. Nur durch kritisches Denken und die Bereitschaft, unsere Überzeugungen zu hinterfragen, können wir fundierte und verlässliche Erkenntnisse gewinnen. Dazu gehört eine gewisse Demut. Wissenschaft ist kein starres System, sondern ein dynamischer Prozess, der uns hilft, die Welt besser zu verstehen und fundierte Entscheidungen zu treffen.


Vertrauen in die Wissenschaft – und das heißt?

Die Wissenschaft ist in der Vertrauenskrise – so könnte man meinen, wenn man sich die Diskussionen um Pandemien, Klimawandel oder alternative Heilmethoden ansieht. Gleichzeitig gibt es zahlreiche Umfragen und Studien, die das „Vertrauen in die Wissenschaft“ messen. Die jüngste dieser Untersuchungen, erschienen in Nature Human Behaviour1, hat mit großem Aufwand das Vertrauen in Wissenschaft und Wissenschaftler in 68 Ländern erhoben. Deutschland rangiert dabei mit einem Wert von 3,49 unterhalb des gewichteten Medians von 3,62 (bei einer gemessenen Bandbreite von 4,2 bis 3,5 mit einer Standardabweichung zwischen 0.008 and 0.133) – ein Befund, der dem eher pessimistisch eingestellten Skeptiker spontan akzeptabel erscheint – bis man sich ansieht, welche Länder deutlich höhere Werte auch über dem Median erreichen. Deutschland wird dabei von Nationen glatt in den Schatten gestellt, denen man es beim besten Willen und ganz unvoreingenommen nicht zutrauen würde – ganz zu schweigen von den beiden führenden Nationen, die auch noch statistische „Ausreißer“ nach oben sind: Ägypten und Indien. Hier stellen sich Fragen nach der Repräsentativität und vor allem der Aussagekraft der Studie (Link zur Studiengrafik).

Stellen wir uns deshalb doch einmal die Frage: Was genau bedeutet „Vertrauen in die Wissenschaft“ denn eigentlich? Und was lässt sich aus einer solchen Zahl ableiten?

Eine Zahl ohne Kontext bleibt inhaltsleer

Eine auf diesem Blog früher schon einmal erörterte Untersuchung (Leseempfehlung), veröffentlicht im Journal of Experimental Social Psychology2, wirft erhebliche Zweifel an der isolierten Aussagekraft solcher Vertrauensmessungen auf. Die Studie zeigte, dass ein blindes Vertrauen in Wissenschaft ohne zumindest grundlegendes Verständnis der wissenschaftlichen Methodik oder ein Mindestmaß an Reflexionsfähigkeit eher problematisch als hilfreich ist. Menschen, die ein hohes Vertrauen in „die Wissenschaft“ angaben, waren paradoxerweise oft anfälliger für Pseudowissenschaften und Desinformation. Das klingt kontraintuitiv, macht aber Sinn: Wer ohne kritisches Hinterfragen alles glaubt, was im Namen und unter dem Anschein von Wissenschaft daherkommt, kann genauso leicht falschen oder verzerrten wissenschaftlichen Aussagen aufsitzen wie seriöser Forschung folgen.

Der begleitende Kommentar zur Studie auf Journalist’s Resource3 beschreibt dieses Phänomen anschaulich: Vertrauen ohne Wissen sei wie ein Auto ohne Bremsen. Es fehle an einer reflektierenden Instanz, die zwischen solider Wissenschaft und Pseudowissenschaft unterscheidet.

Die neue Vertrauensstudie: Mehr Umfang, aber auch mehr Erkenntnis?

Die Nature-Studie liefert nun eine beeindruckende Datenmenge. Doch stellt sich die Frage: Was genau sagen diese Zahlen aus? Wenn etwa ein Land ein besonders hohes Vertrauen in die Wissenschaft zeigt – bedeutet das, dass dort wissenschaftliche Erkenntnisse besonders gut verstanden und reflektiert werden? Oder ist es schlicht ein Ausdruck von sozioökonomischen Faktoren, Bildungsstrukturen oder gar politischer Propaganda?

Ein hohes Vertrauen in Wissenschaft ist nur dann ein Fortschritt, wenn es mit einem gewissen Maß an Urteilskompetenz einhergeht. Fehlt diese, bleibt es eine leere Größe – oder schlimmer: Es öffnet Tür und Tor für Missbrauch. Wenn Menschen zwar „der Wissenschaft“ vertrauen, aber gleichzeitig nicht zwischen fundierter Forschung und ideologisch motivierter Verzerrung unterscheiden können, dann wird Wissenschaftsvertrauen zur leichten Beute für Populismus und Manipulation.

Wissenschaftsvertrauen braucht Wissenschaftskompetenz

Anstatt nur zu messen, wie viele Menschen „der Wissenschaft“ vertrauen, sollten künftige Studien untersuchen, wie dieses Vertrauen sich mit Verständnis wissenschaftlicher Methoden, Skepsis gegenüber unhaltbaren Behauptungen und der Fähigkeit zur kritischen Reflexion verbindet. Vertrauen allein kann ebenso gut ein Zeichen von unkritischer Autoritätshörigkeit sein wie von fundiertem Wissen.

Der wahre Schlüssel liegt also nicht in einem abstrakten Vertrauensindex, sondern in der Fähigkeit zur informierten Urteilsbildung. Und die lässt sich nicht einfach per Umfrage messen.

Wieder mal die Sache mit dem kritischen Denken.


1 Cologna, V., Mede, N.G., Berger, S. et al. Trust in scientists and their role in society across 68 countries. Nat Hum Behav (2025). https://doi.org/10.1038/s41562-024-02090-5
https://www.nature.com/articles/s41562-024-02090-5

2 Thomas C. O’Brien, Ryan Palmer, Dolores Albarracin: Misplaced trust: When trust in science fosters belief in pseudoscience and the benefits of critical evaluation. Journal of Experimental Social Psychology, Vol. 96/2021, 104184, ISSN 0022-1031.

3 The Journalist’s Resource: Trusting science leaves people vulnerable to believing pseudoscience, new research finds.

Was können wir wissen? Geistes- und Naturwissenschaften

Photo by Landiva Weber on Pexels.com

Die Frage nach der Erkenntnisfähigkeit der Menschheit, ihrem Umfang und ihren Grenzen, zieht sich wie ein roter Faden durch die Geschichte der Wissenschaften. Dabei haben sich zwei große Lager herausgebildet: die Naturwissenschaften, die sich empirisch-experimentell der Welt annähern, und die Geisteswissenschaften, die das kulturelle, historische und normative Fundament unseres Daseins analysieren. Diese beiden Ansätze wirken auf den ersten Blick wie getrennte Sphären, doch bei genauerer Betrachtung zeigt sich, dass sie nicht nur in einem Boot sitzen, sondern auch voneinander lernen könnten – wären sie bereit, ihre jeweiligen „Navigationsweisen“ gegenseitig zu verstehen.

Empirismus und Plausibilität: Die Gefahr der „reinen Empirie“

Ein Schlüsselproblem moderner Wissenschaftspraxis ist die Überbewertung der Empirie, wohl immer noch ein Echo der ungeheuren Erfolge der empirischen Wissenschaften in den frühen Zeiten der Aufklärung. Die naturwissenschaftliche Methode, mit ihrem Fokus auf experimenteller Reproduzierbarkeit und empirischer Messbarkeit, hat unbestreitbare Erfolge erzielt. Doch sie hat auch eine Art methodologischen Tunnelblick hervorgebracht. Dies zeigt sich besonders deutlich in Bereichen wie der Homöopathieforschung oder den Psi-Experimenten von Daryl Bem, wo empirische Studien scheinbar „Beweise“ für wissenschaftlich unplausible Hypothesen liefern.

Die Arbeiten von John Ioannidis, insbesondere Why Most Published Research Findings Are False, haben offengelegt, wie systematische Verzerrungen die wissenschaftliche Literatur prägen. Kleine Stichproben, selektive Publikation signifikanter Ergebnisse (Publication Bias) und das Missverstehen des p-Wertes (statistische Signifikanz) als Wahrheitskriterium sind nur einige der Probleme. Der Fall Bem zeigt ebenso wie die „zahlreichen positiven Studien zur Homöopathie“, dass selbst methodologisch solide durchgeführte Studien zu falschen Schlussfolgerungen führen können, wenn die Ausgangshypothesen jeglicher Plausibilität entbehren. Hier wäre eine „gesamtheitliche“ Betrachtung gefragt, die empirische Daten in den Kontext theoretischer und ontologischer Plausibilität stellt.

Ontologischer Naturalismus: Eine Brücke zwischen den Disziplinen?

Bems Versuche, eine naturwissenschaftlich unplausible Hypothese (die Existenz präkognitiver Fähigkeiten) mit empirischen Methoden zu überprüfen, illustrieren einen zentralen Konflikt: den zwischen wissenschaftlicher Methodologie und ontologischer Plausibilität. Dieser Konflikt weist auf den sogenannten schwachen ontologischen Naturalismus hin – die Idee, dass wissenschaftliche Methodik auch dann angewandt werden darf, wenn die Hypothese nicht in das etablierte naturwissenschaftliche Weltbild passt.

Dieser Ansatz hat unbestreitbare Vorzüge: Er bewahrt die Offenheit der Wissenschaft gegenüber neuen, unerwarteten Erkenntnissen. Gleichzeitig birgt er die Gefahr, dass wissenschaftliche Ressourcen für Studien verschwendet werden, die von vornherein keine Aussicht auf valide Ergebnisse haben. Hier könnte die geisteswissenschaftliche Reflexion zur Klärung beitragen: Was macht eine Hypothese plausibel? Was macht sie in hohem Maße unplausibel? Welche ontologischen Annahmen sollten vorab geklärt werden? Der schwache ontologische Naturalismus ist ja kein Freibrief für freischwebende Forschungsthemen, im Gegenteil. Die Geisteswissenschaften könnten so helfen, die Naturwissenschaften vor methodischem Leerlauf zu bewahren.

Im Falle der Homöopathieforschung fällt die ontologische Betrachtung nicht schwer: Der erhebliche Umfang bisheriger Forschung hat bei kritischer Betrachtung bisher gar keinen Beleg für die Existenz eines realen Effekts homöopathischer Therapien (über Kontexteffekte hinaus) erbracht. Das stärkt die Grundannahme, dass Homöopathie per se unplausibel ist, ganz ungemein – und stellt die Homöopathie außerhalb des Bereichs sinnvoller ontologisch begründeter Forschung.

Die Replikationskrise: Ein Weckruf?

Die sogenannte Replikationskrise, die in der Psychologie und anderen Disziplinen auch als Folge der genauen Analyse von Daryl Bems Publikationen offenbar wurde, ist ein weiteres Beispiel dafür, wie wichtig eine Besinnung auf die Grundlagen der Wissenschaft ist. Die Krise hat gezeigt, dass empirische Ergebnisse oft nicht reproduzierbar sind und somit die wissenschaftliche Aussagekraft vieler Studien infrage steht. Sie ist jedoch nicht nur ein methodisches Problem, sondern auch ein erkenntnistheoretisches: Wie gehen wir mit Unsicherheiten in der Wissenschaft um? Welche Rolle spielen Plausibilität und Theorie in der Bewertung empirischer Ergebnisse? Wie verwerflich ist es, fehlgehende Replikationen in der Schublade verschwinden zu lassen, statt sie offen zu publizieren (Publikationsbias)? Wie sehr fördert die wissenschaftliche Publikationspraxis, die auf Neues und „Sensation“ erpicht ist, solche Fehlentwicklungen?

Hier zeigt sich erneut die Notwendigkeit einer gesamtwissenschaftlichen Betrachtung. Die Geisteswissenschaften, insbesondere die Wissenschaftsphilosophie, können helfen, die methodologischen Schwächen der empirischen Wissenschaften zu reflektieren und zu beheben. Gleichzeitig sollten die Geisteswissenschaften die Strenge der naturwissenschaftlichen Methodologie als Ansporn nehmen, ihre eigenen Ansätze zu schärfen und empirische Methoden dort einzusetzen, wo sie sinnvoll sind.

Was tun? Ein Plädoyer für die Interdisziplinarität

Die Frage „Was können wir wissen?“ kann weder von den Geistes- noch von den Naturwissenschaften allein beantwortet werden. Beide Disziplinen müssen erkennen, dass sie aufeinander angewiesen sind. Die Naturwissenschaften brauchen die geisteswissenschaftliche Reflexion, um die Plausibilität und Relevanz ihrer Hypothesen zu prüfen. Die Geisteswissenschaften wiederum können von der Strenge und empirischen Validierung der Naturwissenschaften lernen.

Ein erster Schritt könnte sein, die Ausbildung in beiden Bereichen interdisziplinärer zu gestalten. Naturwissenschaftler sollten fundierte Kenntnisse in Wissenschaftsphilosophie und Statistik erwerben, um die methodologischen Grenzen ihrer Disziplin besser zu verstehen. Geisteswissenschaftler wiederum könnten verstärkt empirische Methoden einsetzen und ihre Ergebnisse in engerem Austausch mit den Naturwissenschaften interpretieren.

Darüber hinaus sollten Wissenschaftsjournale und -institutionen Anreize für interdisziplinäre Forschung schaffen. Studien, die empirische und theoretische Ansätze kombinieren, könnten priorisiert werden. Gleichzeitig müssen Replikationsstudien und theoretische Arbeiten mehr Anerkennung erfahren, um die wissenschaftliche Basis zu stärken. Letzteres gilt auch und gerade für die wissenschaftliche Publikationspraxis.

Fazit

Die Trennung von Geistes- und Naturwissenschaften ist weniger eine ontologische Notwendigkeit als eine historische Entwicklung. Beide Disziplinen teilen das Ziel, die Welt besser zu verstehen, auch wenn ihre Methoden und Perspektiven unterschiedlich sind. Die großen Herausforderungen der modernen Wissenschaft – von der Replikationskrise bis zur Überbewertung der Empirie – zeigen, dass wir eine gesamtwissenschaftliche Perspektive brauchen, die Empirie, Theorie und Reflexion vereint. Nur so können wir dem Ideal der Wissenschaft gerecht werden: der Suche nach Wahrheit in einer komplexen Welt. Für eine Konkurrenz oder gar eine Prioritätendebatte zwischen Natur- und Geisteswissenschaften ist bei dieser Betrachtungsweise kein Raum. Wo sie aufscheint oder gar ausgetragen werden soll, stimmt etwas nicht.

Maskentragen und die Empirie

Spiegel online - Teaser

SPIEGEL online berichtet über eine systematische Arbeit von Cochrane zum Effekt des Maskentragens. Kurz gesagt, kommt Cochrane zu dem Ergebnis, dass weder für noch gegen Effekte des Maskentragens bei Infektionsereignissen solide Evidenz vorliegt.

Es handelt sich um eine statistische Metaanalyse, die die Daten aus verschiedenen Einzeluntersuchungen aggregiert und insgesamt auswertet. Neben den systematischen Review ist dies eine der Methodiken für zusammenfassende Arbeiten im Bereich der Empirie.

Für beide Methoden gilt, dass sie prinzipiell nur so gut sein können wie die zugrunde liegenden Einzelstudien. Bei Metaanalysen kommt hinzu, dass diese – anders als bei systematischen Reviews – für das Gesamtergebnis nicht weiter qualitativ bewertet werden. Es wird „nur“ nach der methodischen Eignung der Datenbestände für eine Zusammenführung zum Zweck gemeinsamer statistischer Auswertungen geschaut.

Hier lagen Cochranes Analyse (die eine Ergänzung früherer Arbeiten zum Thema darstellt) keine klinischen randomisierten placebokontrollierten Studien zugrunde – natürlich nicht. Dies ist bei der Aufgabenstellung, Effekte des Maskentragens zu eruieren, wohl auch kaum möglich. Problem: „Goldstandard“ sind die sogenannten RCT deshalb, weil sie die maximalen Möglichkeiten bieten, Störeinflüsse verschiedenster Art (v.a. verzerrte und subjektive Wahrnehmungen) auszuschließen und damit einen möglichst unverzerrten Blick auf die zu untersuchenden Effekte zu ermöglichen. Cochranes eigene Bewertungskriterien helfen dabei, in Reviews qualitative Bewertungen der Einzelstudien einfließen zu lassen („Critical appraisal“). Metaanalysen sind ein rein mengenstatistisches Instrument.

Im vorliegenden Fall wurden die Daten im Wesentlichen dadurch erhoben, dass lokal Masken mit der Empfehlung zum Tragen an die Bevölkerung verteilt wurden und im Nachgang das dortige Infektionsgeschehen mit Regionen verglichen wurde. bei denen es keine solchen gezielten Aktionen gab. Man kann sich leicht vorstellen, wie „weak“ solche Vergleichsergebnisse sind und sehr weit entfernt von den Standards, die gut gemachte RCT zu liefern imstande sind. Das ist kein Vorwurf. Man kann eben nur die Standards erreichen, die die konkrete Untersuchungssituation zulässt und muss seine Methodik an dem ausrichten, was diese eben hergibt. Nur hat das eben Folgen für die Einordnung der Ergebnisse, was den meisten Menschen nicht bewusst ist, die vielmehr „Studien“ entweder für die wahre Wahrheit oder aber für interessengeleitet halten – je nach eigener Einstellung zum Thema …

Es gibt jede Menge Einflussfaktoren, die den statistischen Vergleich verzerren und zu einem Zufallsergebnis machen können. Das liegt auf der Hand. Sowohl auf der Seite der Ausbreitung des Virus als auch auf der Seite von Verhaltensmerkmalen. Es ist nicht einmal bekannt, ob tatsächlich viele Menschen aufgrund der Empfehlung und des kostenlosen Verteilens ihr Verhalten geändert haben oder – umgekehrt – ohnehin Maskentragen als angemessenes Verhalten angesehen wird und insofern eine Verhaltensänderung obsolet war (z.B. in den asiatischen Ländern).

Leider wird hier ein von Cochrane völlig zutreffend beschriebenes Ergebnis einer Analyse in der Öffentlichkeit (z.B. in der Kommentarspalte von SPON) sofort tendenziell bewertet, was wohl keineswegs Cochranes Absicht war. Die Maskengegner schließen sofort darauf, dass ja der Nutzen nicht „bewiesen“ sei, ohne zu wissen, was im wissenschaftlichen Sinne „bewiesen“ heißt und ohne zu berücksichtigen, dass Cochrane eine rein medizinstatistische Bewertung vorgenommen hat, die Aspekte wie Plausibilität in keiner Weise berücksichtigt. Insofern habe ich bei SPIEGEL Online diesen Kommentar hinterlassen (SPON selbst berichtete durchaus korrekt, vielleicht mit etwas zu wenig Erklärungspotenzial):

In die Analyse sind vor allem Studien eingeflossen, deren Methodiken mit randomisierten kontrollierten klinischen Studien (dem „Goldstandard“) wenig zu tun haben. Es sind im Wesentlichen Feldbeobachtungen, die so vielen Einflussfaktoren unterliegen, dass die Feststellung von Kausalitäten nahezu unmöglich ist. Analysiert wurde deshalb eine wenig valide Datenbasis.

Dass dabei weder ein Ja noch ein Nein herauskommt, verwundert nicht. Ebenfalls verwundert nicht, dass daraus in der Öffentlichkeit gleich wieder der Zweifel am Maskentragen (aka die Maskenpflicht war falsch einsdrölf!!!) erwächst.

Die Endaussage von Cochrane geht völlig in Ordnung. Dieses „belegt scheint weder das eine noch das andere“ muss mit nüchternen Augen gesehen werden und ist keine Wertung. Cochrane ist knochentrocken in seinen Analysen. Plausibilitäten berücksichtigt Cochrane NICHT; sie sind die Hohepriester der empirischen Evidenz, die nur und ausschließlich auf Medizinstatistik schaut. Deshalb kommt sie auch bei Absurditäten wie Homöopathie gelegentlich zu dem Ergebnis, es gebe „positive Effekte. die aber für eine Erstlinienempfehlung nicht ausreichten“ (so zum homöopathischen Fantasiepräparat Oscillococcinum, dessen a-priori-Plausibilität bei Null liegt). Um das richtig einzuordnen, muss man den Ansatz von Cochrane richtig verstehen (den ich insgesamt persönlich durchaus für zu kurz gegriffen halte).

Wissenschaftliche Erkenntnisse sind Wahrscheinlichkeitsaussagen, deren „Wertigkeit“ sich aus den Gesamtkriterien der jeweiligen Untersuchung ergibt. Das gilt auch – wenn auch im besten Falle in deutlich geringer4em Maße – für systematische Zusammenfassungen. Man muss einiges über Cochranes Ansatz, Medizinstatistik, Studienmethodik und überhaupt über Wissenschaft wissen, um Schlüsse aus solchen Untersuchungen zu ziehen – oder auch nicht. In diesem Fall muss man, wegen der „methodischen Schwäche“ der Empirie, zwingend die physikalische Plausibilität des Maskentragens „hinzurechnen“.


Man wird Rezeptionen von „Studien“ als jeweilige Bestätigung eigener Vorannahmen nie verhindern können. Aber dieser Vorgang ruft einmal wieder mein ceterum censeo auf den Plan:

Wissenschaftslehre und Wissenschaftsmethodik auf die Lehrpläne der Schulen! Ich weiß noch genau, dass wir ganze zwei Schuljahre im Biologieunterricht mit Anatomie und Funktion des Tiefseeschwamms verbracht haben (in anderen naturwissenschaftlichen Fächern wäre vergleichbares zu berichten, der Tiefseeschwamm ist mir nur nachhaltig im Gedächtnis geblieben). Von wissenschaftlichen Erkenntnisgrundlagen kein Wort.


Ebenfalls zum Thema:

MedWatch:
Von Kirschenpflückern und verkomplizierten Zusammenhängen

Medscape:
Maskengegner sehen sich durch Cochrane Review bestätigt


Bildnachweise: Spiegel online (Screenshot) / Cochrane

Seite 1 von 3

Präsentiert von WordPress & Theme erstellt von Anders Norén