Les données du monde réel peuvent-elles nous aider à éviter les préjugés raciaux dans les technologies médicales ?
Nous devons adopter des stratégies de développement collaboratif pour collecter des données du monde réel, puis les utiliser comme rétroaction pour éviter les préjugés raciaux dans nos technologies de dispositifs médicaux.
J’ai récemment travaillé sur la conception d’un dispositif médical utilisant un oxymètre de pouls. C’est un petit appareil qui se fixe au bout de votre doigt pour mesurer le niveau de saturation en oxygène dans le sang et la fréquence du pouls. Ce type de dispositif simple est largement utilisé pour aider à la prise de décision médicale. Il existe de nombreux fabricants et modèles disponibles. Une recherche rapide des oxymètres sur le Web fait apparaître les dernières communications de la FDA sur la précision et les limites des oxymètres.1 Un article de correspondance de 2020 dans le Journal de médecine de la Nouvelle-Angleterre suggère que les oxymètres « peuvent être moins précis avec les personnes ayant une pigmentation de la peau foncée ». 2 La correspondance originale indique que « dans deux grandes cohortes, les patients noirs avaient près de trois fois la fréquence d’hypoxémie occulte (faible niveau d’oxygène) qui n’a pas été détectée par oxymétrie de pouls que les patients blancs ». Ceci, à son tour, peut augmenter le risque d’hypoxémie chez les patients ayant la peau plus foncée.
Cette observation met en évidence le besoin de données et de preuves du monde réel qui reflètent fidèlement la diversité de la population à traiter.
Sommaire
Créer des données et des preuves du monde réel
Des données du monde réel peuvent être générées et collectées en expérimentant le dispositif médical dans des contextes réels et avec une diversité au sein de sa population cible. L’effort de collecte de données dans le monde réel peut se poursuivre tout au long du cycle de vie de l’appareil pour garantir la sécurité et l’efficacité. Ceci contraste avec un essai clinique typique qui est limité dans le temps et a une population de test limitée en nombre et en type. En raison de ces limites, les essais cliniques standard pourraient être biaisés, tandis qu’une approche réelle de la collecte de données pourrait nous aider à éviter ces biais.
Rendre juste
Des biais raciaux existent dans de nombreux algorithmes de prédiction. Prenons, par exemple, un logiciel d’aide à la décision utilisé pour allouer les soins de santé aux patients. 3 Le logiciel identifie quels patients ont besoin de soins médicaux supplémentaires en prédisant les futurs coûts de santé pour eux. Il s’avère que le coût n’est pas une mesure indépendante de la race. En conséquence, le logiciel a référé moins de patients noirs au vaste programme de soins de santé, bien qu’ils soient tout aussi malades que les patients blancs. Une étude suggère que « remédier à cette disparité augmenterait le pourcentage de patients noirs recevant une aide supplémentaire de 17,7 à 46,5 %. » 4
Avec une offre et une demande accrues de technologies médicales basées sur l’intelligence artificielle (IA), il est nécessaire de rendre nos algorithmes de prédiction équitables. Pour atteindre cet objectif, nous devons alimenter nos algorithmes avec divers ensembles de données. Cela semble être un objectif ambitieux de collecter des données auprès de dizaines et de milliers de personnes, d’hôpitaux, de médecins, etc. Mais cela semble également être une voie prometteuse vers la construction de technologies qui ne laissent personne de côté.
Quelle est la position de la FDA à ce sujet ?
Les organismes de réglementation s’intéressent de plus en plus aux données et aux preuves du monde réel. Par exemple, le règlement de l’UE sur les dispositifs médicaux (MDR) exige une approche axée sur le cycle de vie et une collecte continue de données pour la surveillance post-commercialisation. En 2017, la FDA s’est appuyée sur des données réelles pour approuver une nouvelle indication pour la valve cardiaque SAPIEN 3. 5 Ce n’était qu’un début. Pour l’avenir, en 2021, la FDA a proposé un plan d’action pour les logiciels basés sur l’IA/l’apprentissage automatique (ML) en tant que dispositif médical. Le plan d’action comprend des moyens d’éliminer les biais d’algorithme et de collecter des données du monde réel à l’appui de l’évaluation des risques et des avantages des soumissions d’appareils. Plus récemment, un rapport de la FDA fournit plusieurs exemples où des données et des preuves réelles provenant de registres, de demandes administratives et de dossiers médicaux ont été utilisées pour soutenir la prise de décision réglementaire. 6
Note finale soulignant le besoin de données réelles sur les dispositifs médicaux
S’il y a une leçon que nous pouvons tirer des mises en garde de l’oxymètre ou des disparités dans les algorithmes de prédiction, c’est que les données et les preuves du monde réel peuvent nous aider à éviter les préjugés raciaux dans les technologies médicales. Pour ce faire, il augmente la taille et la diversité des populations de test. Cependant, il existe des défis dans la création de preuves du monde réel. Par exemple, comment pouvons-nous collecter des données de bonne qualité et fiables ? Néanmoins, les fabricants de dispositifs médicaux doivent s’adapter à ces évolutions réglementaires et aux besoins du marché. Cela met également en évidence le besoin de modèles commerciaux et de stratégies de développement collaboratifs qui pourraient nous aider à collecter des données du monde réel, puis à les utiliser comme retour d’information tout au long du cycle de vie du produit.
Quelle est votre stratégie pour créer des données et des preuves du monde réel ?
Les références
1. «Pulse Oxymeter Accuracy and Limitations: FDA Safety Communication», FDA, 19 février 2021, https://www.fda.gov/medical-devices/safety-communications/pulse-oximeter-accuracy-and-limitations-fda-safety -la communication
2. « Biais racial dans la mesure de l’oxymétrie de pouls », Journal de médecine de la Nouvelle-Angleterre, 17 décembre 2020, Lettre à la rédaction, https://www.nejm.org/doi/full/10.1056/NEJMc2029240
3. « Des millions de Noirs touchés par les préjugés raciaux dans les algorithmes de soins de santé », Ledford, Heidi, La nature, 24 octobre 2019, https://www.nature.com/articles/d41586-019-03228-6
4. « Disséquer les préjugés raciaux dans un algorithme utilisé pour gérer la santé des populations », Obermeyer, Ziad et al., Science, oct. 2019, https://pubmed.ncbi.nlm.nih.gov/31649194/
5. « La FDA a utilisé des preuves du monde réel dans l’approbation des valves cardiaques », Société professionnelle des affaires réglementaires, https://www.raps.org/regulatory-focus%E2%84%A2/news-articles/2017/6/fda-used- approbation-de-valve-de-coeur-dans-le-monde-réel
6. « Exemples de preuves réelles (RWE) utilisées dans les décisions réglementaires relatives aux dispositifs médicaux », FDA, https://www.fda.gov/media/146258/download