A. NOOR / BSIP

L’intelligence artificielle au service des transplantés rénaux

Dans le cadre de la signature d'un partenariat entre Groupe Pasteur Mutualité et l’université Paris Descartes, le 25 avril dernier, le professeur Alexandre Loupy était invité à présenter l’état des lieux des connaissances en termes de transplantation rénale et un nouveau système de diagnostic et pronostication aux impacts potentiellement majeurs.

Par Cécile Menu

Cecilemenu

Temps de découverte  +/- 15 min + Vidéo : 30 min


Le Pr Alexandre Loupy, doté d’une thèse de sciences en Biologie et d’une thèse en Santé Publique, néphrologue à l’hôpital Necker et directeur du Paris Transplant Group, est l’un des rares médecins français à avoir obtenu le Clinical Science Investigator Award en 2017 des mains de  l’American Society of Transplantation (AST) et a reçu plus récemment le StrongerTogether PRO award lors du congrès ESOT 2017. Alexandre Loupy s’intéresse plus particulièrement à la classification du rejet.


Sommaire

 

Une stagnation de l’espérance de vie des greffons depuis la première transplantation rénale

La greffe de rein est le traitement de choix des défaillances terminales rénales. Elle surpasse la dialyse en termes de qualité de vie, de quantité de vie et de coût. Aujourd’hui, plus de 1 700 000 personnes dans le monde sont porteuses d’un organe greffé.
De 1952, date de la première transplantation rénale par Jean HAMBURGER à l’hôpital Necker, à nos jours, le rejet reste encore au niveau mondial l’une des principales causes de perte de greffon.
Malgré d’énormes progrès réalisés, on assiste, depuis 15 ans, à une stagnation de l’espérance de vie des greffons. Les cliniciens de transplantation ne disposent pas, en effet, de suffisamment d’outils pour mieux appréhender les états du patient, prédire, et stratifier le risque.

"Les cliniciens de transplantation ne disposent pas, en effet, de suffisamment d’outils pour mieux appréhender les états du patient, prédire, et stratifier le risque."


La médecine a toujours cherché à pallier les propres déficiences de nos sens. Cette quête a abouti entre autres à la naissance du stéthoscope, du microscope, de la radiographie… aujourd’hui, elle se trouve confrontée à des tonnes de données, toutes digitalisées : biomarqueurs, données démographiques, données génétiques, données transcriptomiques*, données de biopsie, multiples marquages pour typer quels types de cellules vont infiltrer les greffons. Or, nos propres capacités de calcul ne sont pas capables d’intégrer ces informations pour en définir des archétypes de patients ou des profils de patients différents nécessitant un traitement immunosuppresseur différent.
L’équipe d’Alexandre Loupy a tenté de répondre à la question qui occupe l’ensemble des agences de santé : comment améliorer notre système de diagnostic, d’activité, de stadification des maladies, de stratification du risque, avant d’adopter une médecine de précision et plus personnalisée ?

* Le transcriptome est l'ensemble des ARN messagers transcrits à partir du génome (Réseau GENET).

L’intelligence artificielle, un outil compagnon pour améliorer la démarche diagnostique

Peu de temps après la première transplantation rénale, John McCarthy à Stanford inventait le concept d’intelligence artificielle. Conformément à la loi de Moore relative au progrès des connaissances, l’intelligence artificielle ne suit pas une démarche linéaire, mais exponentielle. Pour l’illustrer, Alexandre Loupy rappelait qu’entre le premier homme sur la lune et l’invention du Web, 25 ans se sont écoulés alors que seulement 12 années était nécessaires entre l’invention du Web et le décryptage du génome humain. Ainsi, on a pu observer ces dernières années une augmentation accrue de la puissance de calcul des machines, de la capacité de stockage et de leur capacité analytique.
Pour remédier à l’insuffisance de nos propres capacités cognitives, il fallait un outil compagnon, apte à transformer cette énorme quantité de données en informations médicales utiles.
En 2010, une équipe d’entrepreneurs spécialisés dans les technologies créaient DeepMind* aujourd’hui leader mondial de l’Intelligence Artificielle. Racheté par Google en 2014, les équipes de chercheurs sont parvenus à développer un algorithme capable de dépasser l’homme au jeu de Go et au jeu d’échecs en faisant appel à des stratégies constructives à force d’entraînement. Aujourd’hui, Google s’intéresse à la santé avec DeepMind Health et parvient à dépasser certains organismes de veille sanitaire en prédisant les épidémies de grippe. De la même façon certains algorithmes de Twitter en nous « géotaggant » peuvent aujourd’hui prédire la pénétrance de l’épidémie de grippe et sa dissémination.
En 2017, un article paraissait dans la revue Nature (Esteva, A. et al. Dermatologist-level classification of skin cancer with deep neural networks - Nature. 2017 Feb 2;542(7639):115-118), mettant en évidence la capacité pour certains algorithmes et certains processus issus de l’intelligence artificielle (Architecture GoogleNet Inception) de classifier le cancer de la peau à un niveau de compétence égalant les dermatologues. Ce qui, à l’heure de l’usage intense de smartphones, et de la télémédecine, permettra d’avoir accès plus facilement à un diagnostic vital.
Ces découvertes permettent de considérer l’intelligence artificielle comme un outil pouvant décupler nos capacités à traiter les patients et à faire de la médecine plus personnalisée.

L’intelligence artificielle, les modèles et les algorithmes au service de cohortes de patients à haut niveau de détails phénotypiques

L’équipe d’Alexandre Loupy à l’hôpital Necker s’est interrogée sur la manière d’exploiter l’ensemble des données de patients transplantés rénaux. Etant donné le protocole de suivi de ces patients, ils ont de fait la particularité d’être une population captive. Ainsi, ils ont adopté un modèle dans lequel l’ensemble des données des patients et de leurs échantillons sanguins, ainsi que les biopsies étaient prospectivement collectés. Après une cartographie des greffons et un recueil de toutes les complications, des biomarqueurs ont été testés de façon prospective.
Considérant que le rejet n’appartenait pas qu’au néphrologue et à l’immunologiste, ils ont appliqué l’approche d’épidémiologie intégrative développée par Xavier JOUVEN, directeur de l’unité Epidémiologie au PAARC (Paris Cardiovascular Research Center)  HEGP, APHP, Paris, pour décloisonner la spécialité.
Pour comprendre l’hétérogénéité de la maladie et du rejet, des cohortes de patients extrêmement bien informées et phénotypées ont été constituées.
Une fois les biomarqueurs, les facteurs environnementaux et tous les déterminants pronostiques contrôlés, ces nouvelles technologies, qui permettent de faire de la transcriptomique sur tous les greffons ayant subi une biopsie, ont été appliquées prospectivement sur de larges cohortes de patients.
Partant du principe, qu’un algorithme ne peut être performant qu’avec des cohortes bien renseignées, l’équipe a donc appliqué la règle des 4 V du Big Data : Volume (10 000 patients et un nombre important de collaborations), Vélocité (rapidité avec laquelle les données sont générées et traitées), Variété des données et Véracité des données vérifiées par des approches d’audit, mais aussi par approches automatisées de la machine.

Une approche qui permet d’aller du pronostic au diagnostic et à l’efficacité du traitement

L’utilisation des réseaux de neurones artificiels et du machine learning permet d’établir un profil probabilistique. De même qu’il y a des regroupements de personnes dans les réseaux sociaux, il peut y avoir des regroupements, des prototypes et des archétypes de patients qui se ressemblent et pourront se comporter de façon homogène face à un nouveau traitement. L’équipe a donc utilisé les algorithmes comme le fait Facebook pour regrouper des « amis » ou Netflix pour nous proposer des films, grâce aux machines à vecteurs supports (SVM).
Cette approche pronostique, dans cette niche de la transplantation, est intéressante comme concept médical global car elle intéresse également le domaine de l’oncologie et des maladies cardiovasculaires. Outre les nombreuses publications auxquelles elle a donné lieu, elle est à la source de résultats concrets. Tous les résultats obtenus depuis 7 à 8 ans ont été reproduits, condition indispensable en recherche scientifique. Et fait important, par l’approche algorithmique, les règles d’allocation des greffons ont pu être changées en France, et aujourd’hui aux États-Unis.

"Par l’approche algorithmique, les règles d’allocation des greffons
ont pu être changées en France, et aujourd’hui aux États-Unis [...] De trois, nous sommes passés à douze formes de rejet qui, aujourd’hui, répondent à des traitements immunosuppresseurs"


La machine peut identifier, par la combinaison des facteurs et indépendamment de l’interprétation et des idées préconçues des médecins, différents groupes de patients. C’est donc aussi une approche diagnostique.
Cette approche diagnostique, de précision, a permis, à plusieurs reprises, de casser la classification du rejet de Banff car la machine a pu déterminer de nouveaux types de rejet. De trois, nous sommes passés à douze formes de rejet qui, aujourd’hui, répondent à des traitements immunosuppresseurs  différents, ont des check-points immunitaires et des voies de signalisation communes ou particulières sur lesquelles on peut travailler. Cette approche conduit donc à l’efficacité du traitement.

L’«Integrative box », nouvel outil de diagnostic de précision, compagnon du diagnostic classique

Jusqu’à présent, pour diagnostiquer un rejet chez un patient greffé du rein et le classifier, on procédait à une biopsie analysée au microscope classique pour observer les cellules infiltrant le greffon.
Or l’œil de l’être humain ne peut pas voir ou diagnostiquer tous les processus biologiques opérationnels et la complexité de la réponse immunologique au sein d’un organe. Pour pallier à cet inconvénient,  l’approche s’est alors faite à l’aide du microscope moléculaire : une partie de l’ARN est extraite du tissu humain puis embarquée dans une puce à ADN. L’integrative box dispose ainsi de 45 000 gènes provenant de 10 000 malades, soit un nombre de data considérable à analyser.
Pour ce faire, une nouvelle approche intégrée dans le diagnostic consiste à amener la machine à analyser des données transcriptomiques de manière multidimensionnelle et à créer des « classifiers », un algorithme génétique qui classe les patients. Chaque nouvel échantillon réinjecté dans le système, lui apporte une nouvelle information et le corrige. Après analyses, la machine va dès lors créer des algorithmes permettant une meilleure classification du rejet.

"Chaque nouvel échantillon réinjecté dans le système, lui apporte une nouvelle information
et le corrige. Après analyses, la machine va dès lors créer des algorithmes permettant
une meilleure classification du rejet."


Par cette approche multidimensionnelle, on ne peut plus raisonner à l’échelle d’un biomarqueur ou d’un gène. C’est une approche holistique avec une stratégie de réduction des data pour arriver avec le set de transcrits de gènes le plus significativement différentiellement exprimé. On s’oriente également vers une approche probabilistique : on peut déterminer la probabilité pour un rejet d’être lié à un anticorps et de répondre à tel ou tel traitement.
Enfin, ce qui est intéressant dans le machine learning, c’est qu’il est possible de créer de multiples itérations pour améliorer la machine et de résumer énormément de données en très peu d’informations sur deux axes. Dans la classification internationale du rejet, en l’espace de 5 ans, tout a changé. Avec l’utilisation de ces équations mathématiques ainsi générées par le système, Il est possible de donner des recommandations aux centres ayant accès aux techniques moléculaires.

Une nouvelle approche pour améliorer les performances des essais cliniques

Un des problèmes en transplantation est le nombre important de candidats, de cibles et de molécules développées. Or quasiment aucune de ces molécules n’est aujourd’hui approuvée par la FDA.  L’équipe d’Alexandre Loupy a montré que la majorité de ces études cliniques, avec des candidats potentiels pour traiter le rejet, ont rapporté des résultats négatifs faute d’outils statistiques et méthodologiques, et de mise à disposition d’une technologie pour inclure correctement leurs patients et pouvoir les évaluer avec des critères objectifs. Elle a alors utilisé cette nouvelle approche intégrative dans des essais cliniques randomisés, publiés négatifs en transplantation, puis réalisé des analyses rétrospectives à partir de ces cohortes-là. Il s’est avéré que les patients avaient été mal inclus dans l’étude et n’étaient pas comparables. La combinaison d’un phénotype à une dimension qui est l’histologie classique, à un phénotype intégré immuno-histomoléculaire et pronostique, a permis de reclasser quasiment 30 % des patients dans les essais cliniques. Il a ainsi été démontré qu’il y avait des répondeurs aux médicaments, jusqu’alors non identifié par les études précédentes. Il est donc possible de repositionner l’intérêt d’une molécule en utilisant une approche « mechanistically driven ». Par conséquent, l’optimisation des essais cliniques passe aussi par des approches d’Intelligence Artificielle.

De l’expérience du médecin à la contextualisation du patient

Les patients greffés expriment à leur médecin, leurs préoccupations sur la durée de vie de leur rein, le risque de rejet, la probabilité d’être à nouveau greffé et leur espérance de vie. Le médecin répondra en fonction de son expérience, de sa pratique et de ses connaissances, avec ses idées préconçues, son oubli, l’humeur du moment et ses propres biais. D’où l’intérêt d’une nouvelle approche basée sur la contextualisation du patient et non centrée sur la propre expérience du médecin. Cette contextualisation du patient n’est possible qu’avec un référent de sets, soit une base de données bien informée, dont la machine, forte de 170 000 années cumulées d’expérience aujourd’hui en transplantation, dispose. Cette machine de la connaissance (Machine knowledge) a intégré 14 400 biopsies, des milliers de pertes de greffons, tous déjà analysés. Elle va alors rechercher dans le référent de sets les patients les plus proches. Cette démarche permet de valider ce qui a été trouvé dans d’autres cohortes et de donner une information plus précise.
Cette contextualisation peut s’appliquer aux industriels du médicament. En entrant les critères d’inclusion des patients, la machine peut identifier les patients à partir du référent de sets avec des probabilités conditionnelles d’occurrence de la maladie, et définir le nombre de groupes de patients aux archétypes différents et probabilités de survie différente et ainsi contribuer à appréhender le design d’un essai clinique.

Les data peuvent informer la stratification du risque pour permettre d’appréhender les pronostics des patients

Le diagnostic de précision offre au médecin un rapport dans lequel toutes ces données seront présentes ainsi que la projection du patient. Il suffira de consulter les données des patients les plus proches identifiés par l’algorithme afin d’avoir une idée du pronostic et du profil de réponse au traitement de chacun de ces patients-là.
Toutes ces données ont été interfacées dans une black box, incluant le référent de sets, que le médecin peut interroger en entrant les paramètres relatifs à son patient : durée de la greffe, reprise de fonction, DFG, protéinurie, anticorps, biopsie, inflammation, fibrose… Il en ressort une probabilité prédite individuelle du risque de perte de greffon à 3, 5, 7 ans.

Durant les 5 prochaines années, l’équipe d’Alexandre Loupy évaluera, dans des études randomisées, l’amélioration de la survie des greffons grâce à l’« Integrative Box ».

"La machine ne s’oppose pas à l’homme. C’est un compagnon du diagnostic
et du système de pronostication."


La machine ne s’oppose pas à l’homme. C’est un compagnon du diagnostic et du système de pronostication. Fort heureusement, la France développe un effort considérable sur ces approches de Machine Learning et d’intelligence artificielle ce qui laisse présager de nouvelles avancées révolutionnaires dans le domaine de la santé. Preuve en est le récent rapport sur l’Intelligence artificielle du Député Cédric Villani, dévoilé en mars dernier.

Le Professeur Alexandre Loupy concluait ainsi : « les algorithmes ne remplaceront pas les docteurs, mais les docteurs qui n’utiliseront pas les algorithmes seront remplacés par ceux qui les utiliseront ».

par Cécile Menu