L’intelligence artificielle transforme profondément le secteur de la santé, ouvrant des perspectives inédites en matière de diagnostic, de traitement, et de prévention. Mais cette révolution technologique soulève aussi des questions majeures, notamment autour de l’éthique, de la protection des données personnelles et des cadres réglementaires.
Peut-on innover sans compromettre l’éthique ? Peut-on encadrer sans freiner l’innovation ? Ces questions ont guidé toute la conférence organisée chez Future4care avec notre partenaire TNP Consultants, autour d’un sujet clé : l’intelligence artificielle en santé, et les conditions de son déploiement éthique et responsable.
Parler d’éthique, ce n’est pas parler uniquement de droit. C’est parler de principes universels :bienfaisance, justice, autonomie, transparence, qui doivent guider l’usage des technologies de santé. Et dans le cas de l’IA, les enjeux sont réels: éviter les biais, garantir la transparence, maintenir une place centrale à l’humain.
Ségolène Aymé (INSERM), Léa Rizzuto (Health Data Hub) et Frédéric Lesaulnier (Institut du Cerveau) ont ouvert le débat sur un sujet sensible : l’usage des données secondaires de santé. Si leur potentiel est énorme pour la recherche, leur exploitation reste freinée par une réglementation jugée parfois trop rigide, notamment en France.
Pourtant, tous s’accordent : la balance bénéfice-risque penche en faveur de leur usage, à condition que la protection des données primaires soit irréprochable. Il y a des blocages culturels, des résistances institutionnelles, mais surtout un appel à évoluer vers une gouvernance plus harmonisée au niveau européen.
Florence Bonnet a exposé les grands principes du cadre réglementaire encadrant l’IA et les données de santé.
Elle a rappelé que la gestion des risques est au cœur des textes récents comme l’AI Act européen, avec une approche structurée visant à anticiper les risques liés à la discrimination, la vie privée ou encore la manipulation des données. Une vigilance particulière est nécessaire sur toute la chaîne de valeur des systèmes d’IA.
Acceptabilité, explicabilité, interopérabilité… Les mots-clés fusent, mais les idées sont précises. Sarah Amrani, Clément Gakuba, Thierry Dart, Eric Théa et Florence Tagger s’accordent : pour être adoptée, l’IA doit être comprise, maîtrisée et sécurisée.
L’interopérabilité des systèmes revient comme un enjeu fondamental : pas d’IA sans données, et pas de données sans collaboration. L’IA doit aussi s’accompagner de formation, pour les soignants comme pour les patients, et intégrer une vraie gouvernance humaine. Il ne s’agit pas de remplacer, mais de renforcer l’action humaine.
La conférence s’est achevée par l’exploration de cas concrets : Jennifer Gangnard, Franck Guillerot et Malo Louvigné partagent leurs expériences, de la réalité virtuelle au transfert de savoir médical. Ce sont des usages déjà en place, qui montrent que l’IA en santé n’est plus une perspective lointaine, mais une réalité qui exige lucidité et responsabilité.
Ce que cette conférence a mis en lumière, c’est qu’il ne suffit pas de parler d’IA : il faut parler de comment on la conçoit, comment on l’intègre, et avec qui on la construit. Loin des discours théoriques, les échanges ont permis d’ancrer la réflexion dans le réel, entre tensions, exigences et volontés communes.
Et c’est précisément à cet endroit que Future4care veut continuer à se situer : au croisement du débat, de la pratique et de l’innovation.