Direkt zum Hauptbereich

Kritik an dem Science-Artikel der Priesemann-Gruppe „Inferring change points in the spread of COVID-19 reveals the effectiveness of interventions“

Der Science-Artikel von Dehning et al. (2020) gilt als Beleg für die Effektivität der Corona-Maßnahmen in Deutschland im März 2020. Wir glauben, dass der Artikel gravierende Fehler enthält und daher nichts darüber aussagt, ob insbesondere das Kontaktverbot vom 23.03.2020, irgendeinen Effekt hatte. Unsere Kritik haben wir bei Science eingereicht und sie ist hier zu finden:

https://science.sciencemag.org/content/369/6500/eabb9789/tab-e-letters

Im folgenden übersetze ich unseren Beitrag und gehe anschließend auf die Frage ein, wie Wissenschaft unter COVID-19-Bedingungen funktioniert und was daran bedenklich ist.

Eine Kritik an ‘Inferring change points in the spread of COVID-19 reveals the effectiveness of interventions’

Wir haben den Artikel ‘Inferring change points in the spread of COVID-19 reveals the effectiveness of interventions’ analysiert und dabei gravierende Unstimmigkeiten im Design der Studie festgestellt: Anstatt das Datum der Wendepunkte (wann sich die COVID-19-Entwicklung in Deutschland verändert hat) aus den Daten herzuleiten, wird das Modell durch das Setzen der Anfangsparameter dazu gebracht, die a priori Annahmen zu bestätigen. 

Die Autorinnen verwenden Bayesische Inferernz basierend auf Markov Chain Monta Carlo Sampling um ein epidemiologisches SIR-Modell zu schätzen. Dafür stehen 52 Datenpunkte der täglichen Infektionszahlen in Deutschland (1.03.2020 – 21.04.2020) zur Verfügung und es werden insgesamt 14 Parameter durch die Simulation geschätzt, darunter die Wendepunkte. Das Datum der drei angenommenen Wendepunkte wird a priori als Normalverteilung mit den bekannten Daten der politischen Intervention (9.03.2020, 16.03.2020 und 23.03.2020) als Mittelwert gesetzt. Die Standardabweichung des ersten Wendepunkts beträgt 3, die des zweiten und dritten 1. Warum die Priori-Verteilung für den zweiten und dritten Wendepunkt modifiziert wurde, wird im Artikel nicht begründet. Wir haben das Modell neu berechnet mit einer Standardabweichung von 3 für alle Wendepunkte. Diese geringfügige Veränderung reicht aus, um die Ergebnisse des Modells bedeutend zu verändern: Die Daten für die Wendepunkte sind dann der 8.03.2020, der 18.03.2020 und der 27.03.2020. Damit weichen die vom Modell abgeleiteten Daten stark von den echten Interventionsdaten ab. Besonders der dritte Wendepunkt, der die Wirkung der „Kontaktsperre“ zeigen sollte, liegt nun deutlich hinter dem wirklichen Ereignis. Warum es zu diesem Effekt kommt kann man deutlich in Abbildung 3 der Veröffentlichung sehen. 

In dem Hauptmodell der Autorinnen ist die a-posteriori-Wahrscheinlichkeit (grünes Integral) sichtbar durch die a-priori-Wahrscheinlichkeit (graue Linie) bestimmt, was bedeutet, dass die Daten der Wendepunkte, wie sie im Artikel angeben sind, eben nicht durch das Modell hervorgebracht wurden, sondern aus den vorgefassten Annahmen entspringen. Die Autorinnen geben aber als ein zentrales Resultat an, dass es eine starke Korrelation zwischen den durch das Modell ermittelten Daten der Wendepunkte und den Daten der echten politischen Intervention gäbe (“We detected change points in the effective growth rate that correlate well with the times of publicly announced interventions” (Dehning et al., p1)). Dieses Ergebnis ist damit nichtig.

Im Anhang zu dem Artikel (Abbildung S 6) präsentieren die Autorinnen selbst ein alternatives Modell, bei dem die Standardabweichung der Wendepunkte auf 7 gesetzt ist. Die Daten der Wendepunkte, die aus diesem Modell abgeleitet werden, sind nicht durch die a-priori-Wahrscheinlichkeit determiniert. Allerdings ist die Abweichung von den wirklichen Daten noch größer: Das Modell identifiziert den 9.03.2020, den 19.03.2020 und den 28.03.2020 als wahrscheinlichsten Zeitpunkt der Interventionen. Nach den eigenen Maßstäben der Autorinnen hätten sie eigentlich dieses Modell bevorzugen müssen. Denn es hat in den gleichen LOO-Score wie das Hauptmodell und die Autorinnen geben an, dass sie die a-priori-Wahrscheinlichkeiten möglichst breit wählen wollen, um zu Ergebnissen zu kommen, die durch die Daten und nicht durch das Modell begründet sind (“We keep the informative priors as broad as possible so that the data would constrain the parameters” (Dehning et al. 2020, p2)). Dieses alternative Modell (das zu bevorzugen wäre) widerspricht aber der Behauptung, dass es eine gute Korrelation zwischen den inferierten Daten und den Daten der politischen Intervention gäbe.

Warum ist es so wichtig, dass die Wendepunkte nicht durch die a-priori-Wahrscheinlichkeit determiniert sind? Die Autorinnen geben selbst an, dass schon die zwei Parameter Genesungsrate (recovery rate) und Meldeverzug (reporting delay) durch die a-priori-Wahrscheinlichkeiten determiniert sind (Dehning et al. 2020, p2). Wenn jetzt noch die Daten der Wendepunkte durch das Modell und nicht durch die Daten bestimmt sind, dann ist die einzige verbleibende Dynamik, die das Modell überhaupt schätzt, die wöchentliche Oszillation. Das Bedeutet: Wenn man davon ausgeht, dass es genau drei Wendepunkte gegeben hat, die an den bekannten Daten stattfanden und dann auch noch das Modell zwingt, von diesen Daten nicht oder nur gering abzuweichen (und auch noch Genesungsrate und Meldeverzug a-priori vorgegeben sind), dann ist die Ausbreitungsrate (spreading rate), die das Modell ermittelt, nichts weiter als die Reduzierung der täglichen Fallzahlen im Wochendurchschnitt (also der bekannte R-Wert, der auch ganz ohne aufwendige Simulationen berechnet werden kann).

Resultat dieser Kritik ist, dass entweder eingestanden werden müsste, dass das Modell keine Wendepunkte in den Daten identifiziert hat, oder dass die Wendepunkte, die das zu bevorzugende Modell (Abbildung S6) identifiziert nicht gut mit den Daten der echten Interventionen korrelieren. In beiden Fällen müssen wir festhalten, dass das Modell, wie es im Artikel dargestellt wird, keinen Beweis für die Effektivität der politischen Maßnahmen in Deutschland liefert und deshalb auch nicht für die Politikberatung verwendet werden sollte. Da die Pandemie noch nicht vorbei ist, sollten Wissenschaftlerinnen und Wissenschaftler dringend die bisherigen Ergebnisse überprüfen, insbesondere bei Veröffentlichungen, die so direkt den Anspruch formulieren, als Instrument der Politikberatung zu fungieren. Durch das Festhalten an falschen Modellen stehen Leben auf dem Spiel.

Prolog: 

Es ist das Privileg der Wissenschaft, Fehler machen zu dürfen, weil wissenschaftlicher Fortschritt eben unterstellt, dass jemand auch falsch liegt. Die Priesemann-Gruppe war in einer Zeit, in der wissenschaftlicher Rat dringend benötigt wurde und die Datenlage noch sehr dünn war, in der Lage, sehr schnell ein solides Modell zu entwickeln und der wissenschaftlichen Gemeinschaft als Erkenntnis anzubieten. Insbesondere haben sie dabei sehr hohe Standards der Reproduzierbarkeit verfolgt (die Modelle sind alle über Github verfügbar und jede und jeder kann sie nachrechnen). Diese Leistung verdient definitiv Respekt.

Ich glaube, dass den Wissenschaftlerinnen dabei ein Fehler unterlaufen ist, und dass dieses Modell und der dazugehörende Artikel sogar zurückgezogen werden sollte. Zu dieser Erkenntnis bin ich aber auch erst nach mehreren Wochen intensiver Beschäftigung mit dem Modell gekommen. Insofern kann man noch nicht einmal von einem Versagen des Begutachtungsprozesses sprechen. Ich glaube einfach, dass unsere Analyse des Priesemann-Papers neues Wissen hervorgebracht hat, was bis dato nicht verfügbar war. 

Wir sind mit der Priesemann-Gruppe in Austausch getreten und haben in diversen Emails und in einem Videocall versucht, uns gegenseitig zu überzeugen, was jedoch keiner der beiden Seiten gelungen ist. Normalerweise gibt es bei Science für diese Situation das Instrument des „Technical Comments“, ein Kommentar, der auf methodische Schwachstellen in publizierten Artikeln hinweist, selbst noch einmal durch einen Begutachtungsprozess geht und dann veröffentlicht wird mit der Möglichkeit für die Autorinnen, dazu Stellung zu nehmen. Leider – und das halte ich für geradezu gefährlich – hat Science entschieden, dass bei COVID-19-Artikeln dieser Weg der Klärung generell nicht zur Verfügung steht. Anstelle von technischen Kommentaren mit Begutachtung gibt es nur e-Letter, die nicht begutachtet sind und auch nicht dazu führen werden, dass falsche Erkenntnisse revidiert werden. 

Beliebte Posts aus diesem Blog

Neue Veröffentlichung: Der Aufstieg der #AfD in den Sozialen Netzwerken

Das Political Data Science Team hat eine neue Veröffentlichung zum Thema " The Rise of Germanys AfD: A Social Media Analysis " vorzuweisen. Erstautor ist der fabelhafte Juan Carlos Medina Serrano und der Artikel ist als open access erschienen als: Serrano, Juan Carlos Medina, Morteza Shahrezaye, Orestis Papakyriakopoulos, and Simon Hegelich. "The Rise of Germany's AfD: A Social Media Analysis." In Proceedings of the 10th International Conference on Social Media and Society, pp. 214-223. ACM, 2019. URL:  https://dl.acm.org/citation.cfm?id=3328562 Cross-platform-analysis Ein großes Problem in der aktuellen Social Media Forschung ist, dass meistens nur einzelne Plattformen (und häufig nur Twitter) betrachtet werden. Wir untersuchen in dem Artikel Twitter, Facebook, Instagram und YouTube und schauen auf die Beiträge der deutschen Parteien. Der Vergleich von unterschiedlichen Plattformen ist nicht nur deshalb wichtig, weil ansonsten ein sehr verzerrtes Bild en

Von der evidenzbasierten #CoronaPolitik zur Glaubensfrage

Um einzuschätzen, wie es so um Deutschland steht, schaut man auf die Zahlen und leitet daraus politische Maßnahmen ab. Zahlen gibt es genug: Die tägliche Anzahl der Neuinfektionen, die Anzahl der Verstorbenen, die Anzahl der durchgeführten Tests, alles heruntergebrochen auf demographische oder geografische Subgruppen, als absolute Zahlen oder als Verhältnis. An Daten mangelt es nicht. Eigentlich ein schönes Beispiel für evidenzbasierte Politik, sollte man meinen. Oder eben auch nicht, denn bei näherer Betrachtung zeigt sich, dass sich aus Daten alleine gar nichts ableiten lässt. Erst im Kontext einer Geschichte ergeben Daten einen Sinn. Wenn aber die Daten der Geschichte immer mehr widersprechen, dann sollte eine neue Erklärung gefunden werden anstatt zu versuchen, die alte Geschichte mit immer mehr Hilfsannahmen zu retten. Letzteres passiert leider derzeit in Deutschland und die scheinbare Objektivität einer datenbasierten Politik schlägt um in ihr Gegenteil. Die Abstraktionen, die a