Échelle PEDro

L’échelle PEDro a été modifiée la dernière fois le 21 juin 1999 et la traduction française a été finalisée le 1 juillet 2010.

Ces brèves informations expliquent comment chaque item a été retenu pour produire l’échelle PEDro. Des informations plus détaillées sont fournies par la formation à l’utilisation de l’échelle PEDro.

La traduction française de l’échelle PEDro a été organisée par Joëlle André-Vert, pour la Société Française de Physiothérapie, avec le soutien logistique de la Haute Autorité de Santé. La traduction a suivi les “Guidelines for the Cross-Cultural Adaptation Process” [Beaton D, Bombardier C, Guillemin F, Ferraz MB. Recommendations for the Cross-Cultural Adaptation of the DASH & QuickDASH Outcome Measures; Institute for Work & Health; Mis à jour en juin 2007]. Initialement, Joëlle André-Vert et Jean-Louis Estrade ont réalisé 2 traductions indépendantes en français de l’échelle originale, qui furent ensuite comparées entre elles. Cette comparaison a permis de réaliser une version préliminaire unique de la traduction de l’échelle en français. Dans un second temps, cette version préliminaire a été soumise pour une traduction indépendante inverse en langue anglaise à Simone Birnbaum (langue maternelle australienne) et Johanna Robertson (langue maternelle britannique). Les deux versions anglaises ont été comparées entre elles, puis tous les traducteurs se sont réunis avec un observateur indépendant (Pierre Trudelle) pour produire la version finale de la traduction française.

La validation transculturelle de la traduction franco-Canadienne de l’échelle PEDro originale, financée par le Consortium de Formation en Santé (CNFS)/Santé Canada (Gouvernement du Canada), fut organisée par Professeure Lucie Brosseau et d’autres chercheurs de la Faculté des Sciences de la Santé de l’Université d’Ottawa (Canada). La traduction fut effectuée la méthodologie de Vallerand (1989) [Vallerand RJ. Vers une méthodologie de validation transculturelle de questionnaires psychologiques: implication pour la recherche en langue française. Psychologie Canadienne 1989;30(4):662-80]. Initialement, une traduction renversée parallèle de l’échelle PEDro originale a d’abord été effectuée à la fois par des traductrices professionnelles et des chercheurs cliniciens. Ensuite, un premier comité d’experts (P1) a examiné les versions traduites et a créé la première version expérimentale de l’échelle PEDro franco-canadienne. Cette version a été évaluée par un deuxième comité d’experts (P2). Finalement, 32 chercheurs cliniques ont évalué cette deuxième version expérimentale de l’échelle PEDro franco-canadienne à l’aide une échelle de clarté (étendue de 5 points) et ont proposé les modifications. Tous les chercheurs se sont réunis pour examiner les commentaires et les résultats de l’échelle de clarté et pour produire la version finale de l’échelle PEDro franco-canadienne (Brosseau L, Laroche C, Sutton A, et al. Une version franco-canadienne de la Physiotherapy Evidence Database (PEDro) scale : l’échelle PEDro. Physiother Canada 2015;67(3):232-9).

1. les critères d’éligibilité ont été précisés

Commentaires sur l’application de l’échelle: Ce critère est respecté si l’article décrit la source de recrutement des sujets et une liste de critères utilisée pour déterminer qui était éligible pour participer à l’étude.

Explication: Ce critère influence la validité externe, mais non la validité interne ou la validité statistique de l’essai. Il a été retenu dans l’échelle PEDro comme tous les autres items de l’échelle Delphi. Cet item n’est pas utilisé pour calculer le score PEDro.

2. les sujets ont été répartis aléatoirement dans les groupes (pour un essai croisé, l’ordre des traitements reçus par les sujets a été attribué aléatoirement)

Commentaires sur l’application de l’échelle: Une étude est considérée avoir utilisé une répartition aléatoire si l’article mentionne que la répartition entre les groupes a été faite au hasard. La méthode précise de répartition aléatoire n’a pas lieu d’être détaillée. Des procédures comme pile ou face ou le lancé de dés sont considérées comme des méthodes de répartition aléatoire. Les procédures quasi-aléatoires, telles que la répartition selon le numéro de dossier hospitalier ou la date de naissance, ou le fait de répartir alternativement les sujets dans les groupes, ne remplissent pas le critère.

Explication: L’attribution aléatoire (randomisation) assure (sous réserve des contraintes produites par la chance) que le traitement et l’intervention contrôle sont comparables.

3. la répartition a respecté une assignation secrète

Commentaires sur l’application de l’échelle: Une assignation secrète signifie que la personne qui a déterminé si un sujet répondait aux critères d’inclusion de l’étude ne devait pas, lorsque cette décision a été prise, savoir dans quel groupe le sujet serait admis. Un point est attribué pour ce critère, même s’il n’est pas précisé que l’assignation est secrète, lorsque l’article mentionne que la répartition a été réalisée par enveloppes opaques cachetées ou que la répartition a été réalisée par table de tirage au sort en contactant une personne à distance.

Explication: “Secrète” signifie que la personne qui détermine si les sujets sont éligibles pour être inclus dans l’essai n’était pas au courant, au moment où il ou elle a pris la décision de l’inclure, dans quel groupe le sujet serait attribué. Si l’assignation n’est pas secrète, il y a un risque potentiel que la décision de l’inclusion de la personne dans l’essai soit influencée par la connaissance du fait qu’elle recevra ou non le traitement. Cela peut introduire des biais systématique dans le processus d’attribution et rendre invalide la répartition au hasard (randomisation). Il existe des données expérimentales sur le fait que l’attribution secrète a un impact sur la taille de l’effet (une assignation secrète est associée avec une taille de l’effet du traitement plus modeste; lisez Schulz et al, JAMA 1995;273:408-12).

4. les groupes étaient similaires au début de l’étude au regard des indicateurs pronostiques les plus importants

Commentaires sur l’application de l’échelle: Au minimum, lors d’études concernant des interventions thérapeutiques, l’article doit décrire au moins une mesure de la gravité de l’affection traitée et au moins une mesure (différente) sur l’un des critères de jugement essentiels en début d’étude. L’évaluateur de l’article doit s’assurer que les résultats des groupes n’ont pas de raison de différer de manière cliniquement significative du seul fait des différences observées au début de l’étude sur les variables pronostiques. Ce critère est respecté, même si les données au début de l’étude ne sont présentées que pour les sujets qui ont terminé l’étude.

Explication: Ce critère peut être source de différents biais qui apparaissent par hasard suite à la répartition aléatoire. Des différences importantes entre les groupes peuvent être liées à une procédure de randomisation inadéquate.

5. tous les sujets étaient “en aveugle”

Commentaires sur l’application de l’échelle: Être “en aveugle” signifie que la personne en question (sujet, thérapeute ou évaluateur) ne savait pas dans quel groupe le sujet avait été réparti. De plus, les sujets et les thérapeutes sont considérés être “en aveugle” uniquement s’il peut être attendu qu’ils ne sont pas à même de faire la distinction entre les traitements appliqués aux différents groupes. Dans les essais dans lesquels les critères de jugement essentiels sont autoévalués par le sujet (ex. échelle visuelle analogique, recueil journalier de la douleur), l’évaluateur est considéré être “en aveugle” si le sujet l’est aussi.

Explication: Dire que les sujets traités sont “en aveugle” implique l’assurance que les sujets étaient incapables de discriminer s’ils avaient reçus ou non le traitement. Quand les sujets sont “en aveugle”, le lecteur peut conclure que l’effet apparent (ou l’absence d’effet) du traitement n’était pas dû aux effets placebo ou à l’effet de Hawthorne (un artefact expérimental au cours duquel les réponses des sujets sont déformées par la manière dont les expérimentateurs souhaitent qu’ils répondent).

6. tous les thérapeutes ayant administré le traitement étaient “en aveugle”

Commentaires sur l’application de l’échelle: Être “en aveugle” signifie que la personne en question (sujet, thérapeute ou évaluateur) ne savait pas dans quel groupe le sujet avait été réparti. De plus, les sujets et les thérapeutes sont considérés être “en aveugle” uniquement s’il peut être attendu qu’ils ne sont pas à même de faire la distinction entre les traitements appliqués aux différents groupes. Dans les essais dans lesquels les critères de jugement essentiels sont autoévalués par le sujet (ex. échelle visuelle analogique, recueil journalier de la douleur), l’évaluateur est considéré être “en aveugle” si le sujet l’est aussi.

Explication: Dire que les thérapeutes sont “en aveugle” implique l’assurance que les thérapeutes étaient incapables de discriminer si chaque sujet recevait ou ne recevait pas le traitement. Quand les thérapeutes sont “en aveugle”, le lecteur peut conclure que l’effet apparent (ou l’absence d’effet) du traitement n’était pas dû à “l’enthousiasme” du thérapeute ou à son manque d’enthousiasme pour le traitement ou les interventions proposées au groupe contrôle.

7. tous les examinateurs étaient “en aveugle” pour au moins un des critères de jugement essentiels

Commentaires sur l’application de l’échelle: Être “en aveugle” signifie que la personne en question (sujet, thérapeute ou évaluateur) ne savait pas dans quel groupe le sujet avait été réparti. De plus, les sujets et les thérapeutes sont considérés être “en aveugle” uniquement s’il peut être attendu qu’ils ne sont pas à même de faire la distinction entre les traitements appliqués aux différents groupes. Dans les essais dans lesquels les critères de jugement essentiels sont autoévalués par le sujet (ex. échelle visuelle analogique, recueil journalier de la douleur), l’évaluateur est considéré être “en aveugle” si le sujet l’est aussi.

Explication: Dire que les examinateurs sont “en aveugle” implique l’assurance que les personnes réalisant les évaluations des patients étaient incapables de discriminer si chaque sujet recevait ou ne recevait pas le traitement. Quand les examinateurs sont “en aveugle”, le lecteur peut conclure que l’effet apparent (ou l’absence d’effet) du traitement n’était pas dû à des biais de l’évaluateur qui aurait affecté les mesures de résultats.

8. les mesures, pour au moins un des critères de jugement essentiels, ont été obtenues pour plus de 85% des sujets initialement répartis dans les groupes

Commentaires sur l’application de l’échelle: Ce critère est respecté uniquement si l’article mentionne explicitement à la fois le nombre de sujets initialement répartis dans les groupes et le nombre de sujets auprès de qui les mesures ont été obtenues pour les critères de jugement essentiels. Pour les essais dans lesquels les résultats sont mesurés à plusieurs reprises dans le temps, un critère de jugement essentiel doit avoir été mesuré pour plus de 85% des sujets à l’une de ces reprises.

Explication: Il est important que les mesures des résultats soient faites sur tous les sujets qui ont été randomisés dans les groupes. Les sujets qui n’ont pas pu être suivi peuvent différer de manière systématique par rapport à ceux qui ont été suivi. Cela peut entraîner un biais. L’amplitude de ce biais potentiel augmente avec la proportion de sujets qui n’ont pas pu être suivi.

9. tous les sujets pour lesquels les résultats étaient disponibles ont reçu le traitement ou ont suivi l’intervention contrôle conformément à leur répartition ou, quand cela n’a pas été le cas, les données d’au moins un des critères de jugement essentiels ont été analysées “en intention de traiter”

Commentaires sur l’application de l’échelle: Une analyse en intention de traiter signifie que, lorsque les sujets n’ont pas reçu le traitement (ou n’ont pas suivi l’intervention contrôle) qui leur avait été attribué, et lorsque leurs résultats sont disponibles, l’analyse est effectuée comme si les sujets avaient reçu le traitement (ou avaient suivi l’intervention contrôle) comme attribué. Ce critère est respecté, même sans mention d’une analyse en intention de traiter si l’article mentionne explicitement que tous les sujets ont reçu le traitement ou ont suivi l’intervention contrôle comme attribué.

Explication: Presque inévitablement, il y a des écarts au protocole dans les essais cliniques. Ces écarts peuvent aboutir au fait que certains patients n’ont pas reçu le traitement initialement planifié, ou qu’ils ont reçu le traitement qu’ils ne devaient pas recevoir. L’analyse des données en s’appuyant sur le traitement effectivement reçu par les patients (au lieu du traitement qu’ils étaient censés recevoir) peut produire des biais. C’est important d’analyser les données comme si les patients avaient reçu le traitement ou l’intervention contrôle comme initialement planifié. Cela s’appelle “l’analyse en intention de traiter”. Si vous voulez en savoir plus sur ce sujet, lisez Elkins et Moseley, J Physiother 2015;61(3):165-7.

10. les résultats des comparaisons statistiques intergroupes sont indiqués pour au moins un des critères de jugement essentiels

Commentaires sur l’application de l’échelle: Une comparaison statistique intergroupe implique une comparaison statistique d’un groupe par rapport à un autre. Selon le plan expérimental de l’étude, cela peut impliquer la comparaison de deux traitements ou plus, ou la comparaison d’un traitement avec une intervention contrôle. L’analyse peut être une simple comparaison des résultats mesurés après administration des traitements, ou une comparaison du changement dans un groupe au changement dans un autre (quand une analyse factorielle de variance a été utilisée pour analyser les données, ceci est souvent indiqué sous la forme d’une interaction groupe x temps). La comparaison peut prendre la forme d’un test sous hypothèses (qui produit une valeur “p”, décrivant la probabilité que les groupes diffèrent uniquement du fait du hasard) ou prendre la forme d’une estimation (par exemple: différence de moyennes ou de médianes, différence entre proportions, nombre nécessaire de sujets à traiter, risque relatif ou rapport de risque instantané dit “hazard ratio”) et de son intervalle de confiance.

Explication: Dans les essais cliniques, les tests statistiques sont réalisés pour déterminer si la différence observée entre les groupes est plus grande que celle que l’on pourrait attribuer au simple hasard.

11. pour au moins un des critères de jugement essentiels, l’étude indique à la fois l’estimation des effets et l’estimation de leur variabilité

Commentaires sur l’application de l’échelle: Une estimation de l’effet est une mesure de la taille de l’effet du traitement. L’effet du traitement peut être décrit soit par une différence entre les groupes, soit par le résultat au sein (de chacun) de tous les groupes. Les estimations de la variabilité incluent les écarts-types, les erreurs standards, les intervalles de confiance, les intervalles interquartiles (ou autres quantiles) et les étendues. Les estimations de l’effet et/ou de la variabilité peuvent être fournies sous forme graphique (par exemple, les écarts-types peuvent être représentés sous forme de barres d’erreurs dans une figure) à la condition expresse que le graphique soit clairement légendé (par exemple, qu’il soit explicite que ces barres d’erreurs représentent des écarts-type ou des erreurs-standard). S’il s’agit de résultats classés par catégories, ce critère est considéré respecté si le nombre de sujets de chaque catégorie est précisé pour chacun des groupes.

Explication: Les essais cliniques fournissent une estimation relativement non biaisée de la taille de l’effet du traitement. La meilleure estimation (estimation ponctuelle) de l’effet du traitement est la différence (ou un ratio) entre les résultats du groupe traité et ceux du groupe contrôle. Une mesure du degré d’incertitude associée à cette estimation peut être calculée uniquement si l’étude fournit des mesures de variabilité.

Pour tous les critères

Les points sont attribués uniquement si le critère est clairement respecté. Si, lors de la lecture de l’étude, on ne retrouve pas le critère explicitement rédigé, le point ne doit pas être attribué à ce critère.

Pour les critères 4 et 7-11

Les critères de jugement essentiels sont ceux dont les résultats fournissent la principale mesure de l’efficacité (ou du manque d’efficacité) du traitement. Dans la plupart des études, plus d’une variable est utilisée pour mesurer les résultats.

Téléchargement de l’échelle PEDro – français

Téléchargez le fichier compressé en .pdf file (PC/MAC)

Téléchargement de l’échelle PEDro – franco-canadienne

Téléchargez le fichier compressé en .pdf file (PC/MAC)

Inscrivez-vous à la lettre d'information PEDro pour recevoir les dernières nouvelles