Training

Ihre Kompetenzen in evidenzbasierter Praxis können Sie mit diesen Tutorials verbessern:

  1. Wie formuliere ich klinische Fragestellungen
  2. Ist die Studie valide?
  3. Ist die Therapie klinisch/praktisch sinnvoll?

1. Wie formuliere ich klinische Fragestellungen

Bevor Sie mit Ihrer Suche nach klinisch relevanter Literatur beginnen, ist es wichtig, dass Sie sich Gedanken darüber machen, welche konkrete Frage Sie beantwortet haben möchten. Eine konkrete und präzise Fragestellung erleichtert Ihnen später die Suche nach relevanten Forschungsergebnissen. In diesem Video-Tutorial wird erklärt, wie klinische Fragen im PICO-Format (Patient – Intervention – Comparison (Vergleich) – Outcome) formuliert werden können.

2. Ist die Studie valide?

Ist Niedrigenergie-Laser eine effektive Behandlung lateraler Epicondylitis? Verhindern Dehnprogramme die Entwicklung von Kontrakturen nach Schlaganfall? Verringert die Anwendung des Flutters das Risiko postoperativer respiratorischer Komplikationen? Klare Antworten auf diese Fragen können nur durch gründlich geplante und “sauber” durchgeführte klinische Studien gegeben werden. Bedauerlicherweise besteht die Literatur sowohl aus nach den Regeln der Kunst durchgeführten Studien, die valide Schlussfolgerungen aufweisen, als auch aus schlecht durchgeführten Studien mit nicht validen Schlussfolgerungen. Leser der Fachliteratur müssen in der Lage sein, zwischen beiden zu unterscheiden. Dieser Schnellkurs beschreibt Schlüsselmerkmale (oder “methodologische Filter”) von klinischen Studien, die auf Validität schließen lassen.

Manche Studien, die vorgeben, die Effektivität von Physiotherapie zu belegen, stellen einfach eine Gruppe von Probanden mit einer bestimmten gesundheitlichen Störung oder Erkrankung zusammen, und messen dann die Schwere der Störung bzw. der Erkrankung vor und nach der Behandlung. Wenn die Probanden sich im Laufe der Behandlung verbessert haben, wird die Behandlung als wirksam eingeschätzt. Studien, die diese Methode anwenden, bieten kaum befriedigende Evidenz für die Wirksamkeit der Behandlungen; denn es ist selten sicher, dass die beobachteten Verbesserungen auf die Behandlung zurückzuführen sind, und nicht etwa auf unbeobachtete oder “Störvariablen”, wie z.B. den natürlichen Heilungsverlauf, “Regression zur Mitte” (der Ausdruck bezeichnet das statistische Phänomen, dass extreme Werte bei einer Messung in der Folgemessung zu einer weniger extremen Ausprägung neigen; mithin Verbesserungen gerade bei “schlechten” Patienten oftmals auf natürliche Schwankungen einer gesundheitlichen Störung zurückzuführen sind), ferner Placebo – oder “Hawthorne” Effekte (hierbei verbessern sich die Ergebnisse, weil die Probanden wissen, dass sie an einer Studie teilnehmen). Die einzige befriedigende Methode, mit solchen Bedrohungen der Validität einer Studie umzugehen, besteht darin, mit einer Kontrollgruppe zu arbeiten. Dann werden die Ergebnisse der Probanden, die die Behandlung bekommen haben, mit denen der Probanden, die die zu evaluierende Behandlung nicht bekommen haben, verglichen.

Die Logik kontrollierter Studien besteht darin, dass sich nicht erfasste bzw nicht erwünschte Variablen (also nicht erfasste oder erwünschte Einflüsse auf die Ergebnisse) auf Behandlungsgruppe und Kontrollgruppe ungefähr gleich auswirken, so dass Unterschiede zwischen den Gruppen, die am Ende der Studie festzustellen sind, auf die Behandlung zurückzuführen sind. Beispielsweise ist weithin bekannt, dass in den meisten Fällen akute lumbale Beschwerden schnell und spontan auch dann weg gehen, wenn keinerlei Behandlung stattfindet. Dies zeigt auf sehr einleuchtende Weise, warum es kein Beleg für die Wirksamkeit von Behandlungen ist, wenn die Symptomatik beiPprobanden mit akuten Lumbalbeschwerden im Verlauf der Behandlung nachlässt. Eine kontrollierte Studie, die zeigen würde, dass die behandelten Probanden (in der Experimentalgruppe) bessere Ergebnisse erzielen als die Unbehandelten in der Kontrollgruppe, würde stärkere Evidenz dafür erbringen, dass die Unterschiede in der Verbesserung auf die Behandlung zurückzuführen sind. Zwar würde man in beiden Gruppen Besserung erwarten, aber die Beobachtung, dass die behandelten Personen bessere Ergebnisse aufweisen, legt nahe, dass hier etwas geschehen ist, was über den spontanen Heilungsprozess hinaus ging. Zu beachten ist, dass die Probanden in der Kontrollgruppe nicht unbedingt gar keine Behandlung bekommen müssen. In kontrollierten Studien wird oft eine Kontrollgruppe, die eine herkömmliche (Routine-) Therapie erhält, verglichen mit einer Experimentalgruppe, die die konventionelle Therapie und zusätzlich eine weitere Behandlung erhält. Andere Studien vergleichen die Ergebnisse einer Kontrollgruppe, die die herkömmliche Behandlung erhält, mit den Ergebnissen einer Experimentalgruppe, die eine neue Therapie erhält.

Es ist wichtig zu wissen, dass Kontrollgruppen vor dem verfälschenden Effekt von nicht erfassten Einflüssen (nicht erfassten Variablen) nur insoweit Schutz bieten, wie die Kontroll- und die Experimentalgruppe einander gleichen. Nur wenn die Experimental- und die Kontrollgruppe in Bezug auf jeden die Ergebnisse (mit-)bestimmenden Faktor gleich sind (außer in bezug auf die zu evaluierende Behandlung, die natürlich nur die Experimentalgruppe bekommt), kann der Forscher sicher sein, dass Unterschiede in den Ergebnissen zwischen den Gruppen zum Ende der Studie ihre Ursache in der Behandlung haben. Man spricht in diesem Zusammenhang von der “Vergleichbarkeit der Gruppen”. In der Praxis wird diese Vergleichbarkeit der Gruppen erreicht, indem die zur Verfügung stehenden Probanden nach dem Zufallsprinzip entweder der Kontroll- oder der Experimentalgruppe zugeordnet werden. Diesen Vorgang nennt man Randomisierung oder randomisierte Zuordnung. Diese Methode stellt sicher, dass nicht erfasste Faktoren (Variablen, Einflüsse) wie z.B. das Ausmaß der spontanen Erholung auf die Experimental- und auf die Kontrollgruppe in etwa den gleichen Effekt haben. Wenn eine randomisierte Zuordnung der Probanden auf Kontroll- und Experimentalgruppe stattgefunden hat, können Unterschiede zwischen den Gruppen tatsächlich entweder nur auf den Zufall oder auf die Behandlung zurückgeführt werden. Und es ist möglich, den Zufall als Verursacher der Unterschiede mit hinreichender Sicherheit auszuschließen, wenn die Unterschiede zwischen den Gruppen groß genug sind. Hierfür verwendet man statistische Tests. Beachten sie, dass dies praktisch die einzige Möglichkeit ist, um die Vergleichbarkeit zwischen den Gruppen herzustellen. Es gibt keine wirklich befriedigende Alternative zur randomisierten Zuordnung.

Sogar wenn die Probanden randomisiert zugeteilt wurden, ist es erforderlich sicher zu stellen, dass die Wirksamkeit (oder die Unwirksamkeit) einer Behandlung nicht durch den Beobachter verzerrt wird (man spricht dann von einem Beobachter-Bias; bias = verzerrung). Gemeint ist die Möglichkeit, dass des Forschers Glauben in die Wirksamkeit der Behandlung unbewusst seine Messung der Behandlungsergebnisse beeinflusst. Der beste Schutz hiervor ist die Blindung der Untersucher – also dafür zu sorgen, dass die Person, die die Behandlungsergebnisse misst, nicht weiß, ob der Proband in der Kontroll- oder der Experimentalgruppe war. Es ist allgemein wünschenswert, dass auch die Probanden (die Patienten) und die Therapeuten geblindet sind. Wenn die Patienten geblindet waren, kann man sagen, dass die offensichtliche Wirkung der Therapie kein Placebo- oder Hawthorneeffekt war. Blindung von Therapeuten oder Patienten ist oft schwierig oder unmöglich, aber bei Studien, in denen die Therapeuten geblindet waren (z.B. in Studien mit Niedrig-Energie-Lasern als Therapeutikum, bei denen die Geräte entweder Laser oder nur farbiges Licht emittierten, der Therapeut aber nicht wusste, welches Gerät er gerade benutzte), kann man davon ausgehen, dass die Wirkungen nicht durch die Begeisterung des Therapeuten für die Therapie, sondern durch die Therapie selbst bewirkt wurden.

Es ist auch wichtig, dass nur wenige Probanden aus der Studie ausscheiden (dass also der “drop-out” gering bleibt). Eine zu hohe Quote von “Aussteigern” kann die Studienergebnisse entscheidend verzerren. Ein tatsächlicher Behandlungseffekt kann verborgen bleiben, wenn Probanden der Kontrollgruppe, deren zustand sich während der Studie verschlechtert, aus der Studie ausscheiden, um eine (andere) Behandlung in Anspruch zu nehmen. Hierdurch werden die Ergebnisse der Eontrollgruppe im Durchschnitt besser, als sie es geworden wären, wenn alle Probanden in der Kontrollgruppe geblieben wären. Umgekehrt würde die zu evaluierende Behandlung, also die Experimentalgruppe, bessere Ergebnisse erzielen als der Realität entspräche, wenn sich unter der Behandlung der Zustand von Probanden verschlechterte und infolgedessen diese Probanden aus der Studie ausschieden. Aus diesen Gründen verursachen “drop-outs” immer Unsicherheit bezüglich der Validität einer klinischen Studie. Natürlich wird diese Unsicherheit größer, je mehr Probanden aussteigen. Eine Faustregel lautet, dass eine Studie ernsthafte Mängel haben kann, wenn mehr als 15% der Probanden die Studie vorzeitig verlassen. Einige Veröffentlichungen geben die Aussteigerquote einfach nicht an. Im Einklang mit dem bewährten wissenschaftlichen Prinzips des “schuldig, bis die Unschuld bewiesen ist”, sollten diese Studien als potenziell nicht valide angesehen werden.

Zusammengefasst kann man sagen, dass valide klinische Studien:

  • Probanden randomisiert den Kontroll- und Behandlungsgruppen zuordnen
  • geblindete Untersucher, und idealerweise auch geblindete Probanden und Therapeuten sowie
  • nur wenige Studienabbrecher haben.

Wenn Sie das nächste mal eine Veröffentlichung über eine klinische Studie zu einer physiotherapeutischen Behandlung lesen, fragen sie sich, ob die Studie diesen Kriterien gerecht wird. Als allgemeine Regel gilt, dass Studien, die diese Kriterien nicht erfüllen, nicht valide sein könnten und deshalb nicht als starke Evidenz für die Wirksamkeit (oder Unwirksamkeit) einer Behandlung angesehen werden können. Diejenigen Studien, die diese Kriterien aber erfüllen, sollte man sorgfältig lesen und ihre Ergebnisse in Erinnerung behalten.

Wenn sie vertiefende Literatur zur Beurteilung der Validität von Studien lesen möchten, hier eine Empfehlung:
Guyatt GH, Sackett DL, Cook DJ, et al. Users’ guide to the medical literature: II. How to use an article about therapy or prevention: A. Are the results of this study valid? JAMA 1993;270:2598-601.

3. Ist die Therapie klinisch/praktisch sinnvoll?

Der vorangegangene Abschnitt stellte eine Reihe von Kriterien (methodologischen Filtern) auf, die Leser von Fachliteratur nutzen können, um Studien, die wahrscheinlich valide sind, von denen, die es eventuell nicht sind, zu unterscheiden. Studien, die den meisten methodologischen Filtern nicht gerecht werden, sollte man im Allgemeinen am besten ignorieren. Dieser Abschnitt befasst sich damit, wie Therapeutinnen und Therapeuten diejenigen Studien interpretieren sollten, die die methodologischen Filter passieren. Die Botschaft dabei ist, dass es nicht ausreicht, einfach nur nach Belegen für einen statistisch signifikanten Effekt der Therapie zu suchen. Sie müssen davon überzeugt sein, dass die Studienergebnisse therapeutische Bedeutung haben, und dass die positiven Effekte der Therapie groß genug sind, also auch klinische Signifikanz haben, so dass sich ihre Anwendung “lohnt”. Schädliche Effekte der Therapie müssen entweder selten oder gering sein, so dass die Therapie mehr nützt als schadet. Und schließlich muss die Therapie kosten-effizient sein.

Um für die therapeutische Praxis von Nutzen zu sein, muss eine Studie selbstverständlich therapeutisch bedeutsame Ergebnisse (Outcomes) untersuchen, was auch bedeutet, dass diese valide gemessen werden. Im Allgemeinen sollten dies Outcomes sein, die für die Patienten bedeutsam sind, weil wir normalerweise den primären wert einer Behandlung daran festmachen, ob sie den Bedürfnissen der Patienten gerecht wird. Folglich ist z.B. eine Studie, die belegt, dass Niedrig-Energie Laserbehandlungen den Serotoninspiegel senken, viel weniger hilfreich als eine, die zeigt, dass hierdurch Schmerzen verringert werden; und eine Studie, die zeigt, dass motorisches Training die Spastizität senkt, ist viel weniger hilfreich als eine die zeigt, dass hierdurch die funktionelle Unabhängigkeit vergrößert wird.

Die Größe des Behandlungseffekts ist offensichtlich wichtig, wird aber oft übersehen. Das liegt vielleicht daran, dass viele Leser von klinischen studien den Unterschied zwischen “statistischer Signifikanz” und “klinischer Signifikanz” nicht richtig einzuschätzen wissen. Es kann aber auch sein, dass viele Autoren von klinischen Studien zu sehr mit der Frage beschäftigt sind, ob für ihre Ergebnisse “p < 0.05” ist oder nicht. Statistische Signifikanz (“p < 0.05”) sagt etwas darüber aus, ob der Unterschied zwischen den Gruppen (also der Therapieerfolg) zu groß ist, um ihn noch vernünftigerweise dem Zufall zuschreiben zu können. Das ist wichtig (wir müssen wissen, ob beobachtete Behandlungseffekte vielleicht nicht einfach Zufallsbefunde sind), aber für sich genommen sagt uns dies nichts darüber, wie groß die Effekte tatsächlich waren. Die beste Schätzung des Behandlungseffektes ist die Differenz zwischen den Gruppen, also der Unterschied zwischen der durchschnittlichen Veränderung in der Kontroll- zu der der Experimentalgruppe. Angenommen, eine Studie ergäbe, dass eine Mobilisationsbehandlung der Schulter eine durchschnittliche Reduktion der Schmerzangaben um 4 cm auf einer visuellen Analogskala erreicht, und eine durchschnittliche Verringerung um 1 cm in der Kontrollgruppe, dann ist unsere beste Schätzung des Behandlungseffektes eine Verringerung um 3 cm auf der VAS (da 4 minus 1 = 3). Oder angenommen, eine Studie zu Muskeldehnungen vor sportlichen Aktivitäten ergäbe, dass 2% der Sportler in der Dehnungs- (Experimental-) gruppe in einem bestimmten Folgezeitraum Verletzungen erlitten, wohingegen in einer Kontrollgruppe (ohne Dehnung) 4% Verletzungen im gleichen Zeitraum davontrügen; dann wäre unsere beste Evidenz, dass Dehnungen das Verletzungsrisiko um 2% verringern (da 4% minus 2% = 2%). Leser von klinischen Studien müssen den berichteten Behandlungseffekt beachten, um entscheiden zu können, ob dieser groß genug ist, um klinisch signifikant zu sein. Die meisten Patienten kommen zur Therapie, weil sie Abhilfe erwarten (zugegeben, eine Verallgemeinerung, die nicht auf alle Bereiche klinischer Praxis zutrifft); die wenigsten haben Interesse an einer Therapie, die nur kleine Veränderung erwarten lässt.

Es gibt eine wichtige Feinheit, wenn man Therapieeffekte betrachtet. Das betrifft Studien, deren Outcomes (Ergebnisse) dichotom gemessen werden (dichotom bedeutet, dass eine Variable (ein Merkmal, ein interessierendes Ergebnis) nur zwei Ausprägungen haben kann, z.B . “tot” oder “lebendig”, “verletzt” oder “nicht verletzt”, “in Pflegeheim eingewiesen” oder “nicht in Pflegeheim eingewiesen”; solche Variablen unterscheiden sich von Variablen wie z.B . Schmerzangabe, wenn diese auf einer VAS gemessen wird, auf der sie fast jeden Wert von 0 bis 10 annehmen kann. Viele Studien, die dichotome Ergebnisse messen, drücken Behandlungseffekte nicht als Unterschied zwischen den Gruppen, sondern in Verhältniszahlen, also als Quotient aus. Ein solcher Quotient wird z.B. “relatives risiko”, “odds ratio” oder “hazard ratio” genannt, aber sie kommen auch unter weiteren Namen daher. Würde man die Ergebnisse unserer hypothetischen Dehnungsstudie mit einem solchen Quotienten ausdrücken, dann würde in der Veröffentlichung stehen, dass Dehnungen eine Verringerung des Verletzungsrisikos um 50% bewirken (da 2% halb so viel wie 4% ist). Wenn Behandlungseffekte als Quotienten ausgedrückt werden, dann hat das meist zur Folge, dass die Wirkung der Therapie groß erscheint. Das bessere Maß ist die Differenz zwischen den Gruppen. Tatsächlich wäre das beste Maß für Behandlungserfolge wohl der Kehrwert der Differenz zwischen den Gruppen [also statt 2%, was ja mathematisch nichts anderes ist als 2% dividiert durch 1, teilt man hierfür 1 durch 2%; Anm. d. Übers]. Dieses maß nennt man “Numbers Needed to Treat” (NNT: “erforderliche Anzahl von Behandlungen”), weil es uns angibt, wie viele Patienten behandelt werden müssten, um ein ungünstiges Ereignis zu verhindern. Im Beispiel mit den Dehnungen beträgt die NNT 1/0.02 = 50 [da 2% = 0.02]; mit anderen Worten: auf 50 Sportler, die sich dehnen, kommt eine vermiedene Verletzung.

Viele Studien berichten nicht über schädigende Wirkungen von Therapien (also über “Nebenwirkungen” oder “Komplikationen” einer Therapie). Das ist bedauerlich, weil die Abwesenheit von Berichten über schädigende Wirkungen oft dahingehend interpretiert wird, dass die Therapie nicht schadet, aber das muss nicht notwendigerweise der Fall sein. Glaziou und Irwig (BMJ 1995;311:1356-9) haben argumentiert, dass die Effekte von Therapie im Allgemeinen dann am deutlichsten sind, wenn sie Patienten, die sich in äußerst ernstem Zustand befinden, verabreicht werden (z.B. kann vom Absaugen der Bronchien bei Patienten mit Kopfverletzungen und reichlicher Sputumretention eine größere Verringerung des Risikos “Atemstillstand” erwartet werden als bei Patienten mit Kopfverletzungen und geringer Sputumretention. Im Gegensatz dazu tendieren die Gefahren der Therapie (in diesem Fall durch erhöhten intrakranialen Druck) unabhängig vom sonstigen Schweregrad zu relativer Konstanz. Daraus folgt: Die Therapie nützt mehr als sie schadet, wenn sie auf Patienten mit reichlicher Sputumretention angewandt wird, aber Therapeuten sollten generell zurückhaltend sein, eine Therapie zu verabreichen, die potenziell ernsthafte Nebeneffekte hat, wenn der Patient eine weniger ernsthafte Erkrankung hat.

In der Praxis ist es oft schwierig für Studien, schädigende Effekte zu entdecken, weil diese dazu neigen, selten aufzutreten und die meisten Studien zu kleine Stichproben haben, um ungünstige Ereignisse oder Effekte zu erfassen, wenn diese auftreten. Mithin besteht auch nach der Durchführung guter randomisierter kontrollierter Studien zur Evaluation von Therapien ein gewichtiger Grund für groß angelegte Beobachtungsstudien, die große Kohorten behandelter Patienten “verfolgen” und “monitoren” um zu überprüfen, ob schädliche Ereignisse nicht übermäßig auftreten. Bis solche Studien durchgeführt sind, sollten Therapeutinnen und Therapeuten sehr behutsam in der Anwendung potentiell schädigender Therapien sein, insbesondere bei Patienten, bei denen von solchen Therapien nur ein geringer Nutzen zu erwarten ist.

Ein gehobenes Niveau der kritischen Beurteilung befasst sich mit Erwägungen hinsichtlich des Grades der Ungenauigkeit von Schätzungen der Behandlungseffekte, wie sie sich durch klinische Studien ergeben. Klinische Studien werden durchgeführt an Stichproben. Von den Stichproben wird angenommen, dass sie repräsentativ für bestimmte Grundgesamtheiten (Populationen) sind. Das bedeutet, dass im besten Falle eine Studie eine (nicht perfekte) Schätzung der Größe des Behandlungseffektes, bezogen auf die Grundgesamtheit, ist. Klinische Studien mit großen Stichproben, also vielen Probanden, erlauben bessere, nämlich präzisere Schätzungen des Behandlungseffektes (bezogen auf die Grundgesamtheit) als Studien mit kleineren Stichproben. Leser sollten im Idealfall den Grad der Ungenauigkeit der Schätzung des Behandlungseffektes berücksichtigen, wenn sie die Ergebnisse einer Studie interpretieren, da dies oft den Grad der Gewissheit berührt, mit dem man den Schlussfolgerungen einer Studie begegnen kann. Das Mittel der Wahl dabei ist die Berechnung eines Konfidenzintervalls um die Schätzung des Behandlungseffekts herum, falls dieses nicht bereits in der Veröffentlichung explizit enthalten ist (eine Anleitung, wie man Konfidenzintervalle zu üblichen Maßen von Behandlungseffekten berechnet und interpretiert, findet sich u.a. hier:

Leser, die mit der Berechnung von Konfidenzintervallen schon vertraut sind, finden es vielleicht hilfreich, sich den PEDro-Konfidenzintervall-rechner, eine Exel-Datei herunterzuladen.

Der letzte Schritt im Entscheidungsprozess über die Nützlichkeit einer Therapie ist die Entscheidung darüber, ob die Therapie kosteneffizient ist. Dies ist vor allem dann relevant, wenn es sich um Leistungen im Gesundheitssystem handelt, die aus öffentlichen Kassen entweder ganz oder teilweise bezahlt wird. Es wird nie genug Ressourcen geben, um alle Innovationen zu bezahlen (wahrscheinlich noch nicht einmal, um alle guten Innovationen zu bezahlen). Folglich bestehen die Kosten einer jeden Therapie auch darin, dass das hierfür ausgegebene Geld nicht für eine andere Therapie bzw. gesundheitsbezogene Dienstleistung ausgegeben werden kann. Eine vernünftige Verteilung von begrenzten Mitteln bedeutet also auch, Geld dort einzusetzen, wo der Effekt pro Euro am größten ist. Selbstverständlich kann eine Therapie nicht kosteneffizient sein, wenn sie nicht wirkt. Aber eine wirksame Therapie kann sehr wohl kostenineffizient sein. Die Methoden, mit denen Kosteneffizienz bestimmt wird, liegen außerhalb des Fachwissens des Autors. Deswegen ist es wohl besser, wenn ich auf fundiertere Quellen verweise. Bei Interesse an dieser Thematik sei empfohlen:

  • Drummond MF, Richardson WS, O’Brien BJ, Levine M, Heyland D. Users’ guide to the medical literature: XIII. How to use an article on economic analysis of clinical practice: A. Are the results of the study valid? JAMA 1997;277:1552-7.
  • O’Brien BJ, Heyland D, Richardson WS, Levine M, Drummond MF. User’s guide to the medical literature: XIII. How to use an article on economic analysis of clinical practice: B. What are the results and will they help me in caring for my patients? JAMA 1997;277:1802-6.

Auch dieser Abschnitt soll kurz zusammengefasst werden:

Statististsche Signifikanz ist nicht gleichzusetzen mit klinischem Nutzen. Um klinisch nützlich sein, muß eine Therapie:

  • Outcomes beeinflussen, an denen die Patienten interessiert sind
  • Wirkung haben, die groß genug ist, so dass sich ihre Anwendung lohnt
  • mehr nützen als schaden
  • kosteneffizient sein.

Als vertiefende Literatur zu Effektgrößen wird empfohlen:
Guyatt GH, Sackett DL, Cook DJ, et al. Users’ guide to the medical literature: II. How to use an article about therapy or prevention: B. What were the results and will they help me in caring for my patients? JAMA 1994;271:59-63.

Registrieren Sie sich für den PEDro Newsletter, um die aktuellsten Nachrichten zu erhalten