La prévention personnalisée générée par l’IA : opportunités et limites
L’IA peut favoriser un mode de vie sain et améliorer les traitements grâce à des approches personnalisées. Mais elle ne saurait remplacer les décisions ou l’expertise humaines. Souvent pertinente en apparence, elle peut aussi se révéler très peu fiable. Dans un entretien, Jan Smeddinck, chercheur en interactions humain-machine, explique les opportunités et les limites de cette approche, comment l’IA fait évoluer la promotion de la santé et pourquoi les professionnels devraient s’y intéresser.

Détails de l'article
Comment l’intelligence artificielle (IA) peut-elle favoriser un style de vie sain ?
Le fait qu’une personne décide d’adopter ou non un style de vie sain dépend en premier lieu d’elle-même, de son environnement immédiat et des professionnels de la santé qui la suivent. À cet égard, je tiens à souligner que l’IA ne peut pas remplacer les décisions et les actions de l’être humain. Dans le meilleur des cas, elle peut apporter un soutien. Et dans ce domaine, des possibilités intéressantes sont apparues récemment.
Quel soutien l’IA peut-elle apporter ?
Il existe un vaste éventail de possibilités pour personnaliser les applications numériques de santé. Je traite cette thématique depuis très longtemps. Par exemple, j’ai participé à des projets permettant d’adapter des programmes d’activité physique aux besoins des personnes atteintes de la maladie de Parkinson. Les êtres humains ont des besoins, des capacités et des intérêts très différents. Pour cette raison, les programmes numériques peuvent les épauler de diverses manières : ils peuvent les aider à s’organiser, les motiver, tout en s’adaptant de manière ciblée à leur âge biologique ou à l’évolution de leur maladie. Dans cette optique, les applications doivent être conçues de manière suffisamment flexible pour répondre aux besoins de chaque utilisateur. C’est une bonne approche, mais qui est difficile à mettre en œuvre dans la pratique, car personne n’a le temps de procéder en permanence à ces adaptations manuelles. Il faut mesurer, programmer, calibrer, ce qui demande énormément de travail. C’est là que l’IA entre en jeu : elle permet d’automatiser ces processus de manière intelligente. Elle offre de nombreuses possibilités, mais risque aussi de mener à des conclusions erronées si les données sont interprétées de manière fausse ou incomplète.
Les opportunités résident-elles donc surtout dans la prévention personnalisée ?
Les êtres humains sont tous différents. Même l’état de santé d’une seule et même personne peut fortement varier d’un jour à l’autre. Tantôt, c’est l’âge qui joue un rôle, tantôt, une maladie chronique, tantôt, un refroidissement, tantôt, un médicament oublié. Un bon médecin peut réagir à ces situations s’il dispose de l’expérience et de la sensibilité nécessaires. Mais cela ne peut se faire que de manière ponctuelle, et non pendant toute la vie. Dans ce cas, les technologies numériques de la santé peuvent représenter un bon complément, à condition qu’elles soient adaptées au contexte actuel et à l’individu. Elles deviennent particulièrement intéressantes lorsqu’on les combine avec des données générées par les objets connectés des patients ou des questionnaires en ligne. Cette combinaison permet d’ajuster encore plus efficacement les applications de santé à chaque individu. Jusqu’ici, ces systèmes numériques avaient des difficultés à répondre à cette complexité, car leurs paramètres n’étaient pas assez clairement définis et ne reflétaient souvent pas à la réalité.
Et l’IA arrive-t-elle maintenant à gérer cette complexité ?
Ces dernières années, l’IA a considérablement évolué. Les possibilités qu’elle offre vont des premières approches basées sur des règles aux systèmes actuels d’IA générative, en passant par les procédés d’imagerie médicale avec apprentissage en profondeur (p. ex. pour le dépistage du cancer du sein). Ces systèmes n’apprennent plus seulement en se fondant sur des données et des résultats clairement attribués, comme pour l’apprentissage supervisé classique, mais ils traitent de grandes quantités d’informations de manière autonome, en identifiant eux-mêmes les corrélations. Ils n’ont plus besoin d’objectifs prédictifs explicites, préétablis et vérifiés. Aujourd’hui, nous disposons donc de nouveaux systèmes capables de gérer une grande variété de données et de réagir de manière pertinente la plupart du temps. Cependant, même si ces nouveaux modèles gèrent bien les informations floues et proches de la réalité, le défi consiste toujours à rendre leurs décisions sûres et compréhensibles. C’est une approche prometteuse, mais qui nécessitera toujours l’expertise, la compétence décisionnelle et la responsabilité de l’être humain.
Le contrôle par les êtres humains reste donc nécessaire ?
Oui. L’IA offre des possibilités entièrement nouvelles, mais pose aussi de nouveaux défis liés à la transparence, à la sécurité et à la responsabilité. Dans le système de santé justement, il est essentiel que l’on puisse attester clairement la fiabilité et la sécurité de ces systèmes. Car malgré tous les progrès accomplis, de nombreuses questions restent en suspens.
Quel impact l’IA a-t-elle déjà eu sur la promotion de la santé ?
Pendant longtemps, l’IA a été utilisée de manière invisible, de sorte que les patients n’en avaient même pas conscience. Il y a encore quelques années, on s’en servait surtout pour les diagnostics, par exemple pour analyser des échographies. Aujourd’hui, les patients et les personnes soucieuses de leur santé font partie des utilisateurs finaux. On peut citer, par exemple, les coachs de santé basés sur l’IA, capables d’émettre des recommandations personnalisées en se fondant sur de nombreux paramètres.
Vous menez aussi des recherches dans ce domaine…
Dans notre domaine de recherche, nous travaillons avec des « interventions adaptatives juste à temps ». Ces systèmes analysent le quotidien et le contexte de l’utilisateur afin de détecter le bon moment pour lui envoyer une notification ou une recommandation destinée à l’encourager (p. ex. intégrer plus d’activité physique dans sa journée). À cet effet, il est important de ne pas déranger l’utilisateur sans arrêt, mais de lui donner une impulsion exactement au moment opportun. Dans la réalité, les professionnels de la santé ne peuvent pas suivre leurs patients aussi étroitement. Aujourd’hui, l’IA offre donc au quotidien un soutien qui n’était pas envisageable sous cette forme auparavant.
Un nombre croissant de personnes font de l’IA leur conseiller personnel (aussi en matière de santé), voire leur thérapeute. Comment s’assurer que les informations sont correctes ?
Ce n’est pas du tout possible. Ou alors il faut procéder à une vérification manuelle complexe si l’on veut en avoir la certitude. Mais c’est un domaine extrêmement passionnant, car c’est exactement ce qui se passe : les gens consultent les applications d’IA. La loi européenne sur l’intelligence artificielle et la législation sur les dispositifs médicaux ne permettent pas aux fabricants de dire que l’IA fait maintenant office de coach de santé. Mais parallèlement, les gens l’utilisent dans ce but précis, tout simplement. Sans que l’on puisse l’interdire. C’est pourquoi nous devons adopter une approche réglementaire prudente et différenciée. Mais dès lors qu’il s’agit de domaines sensibles, comme la santé, de nombreux prestataires font un pas en arrière en indiquant qu’il faut s’adresser à son médecin ou professionnel de la santé. Il reste donc à savoir comment gérer de manière responsable les possibilités fondamentalement très positives des IA dans le contexte de la santé, sans pour autant trop réglementer ou prendre trop peu de responsabilités.
On ne saurait faire aveuglément confiance à l’IA…
Il est extrêmement important de ne pas faire confiance aveuglément aux réponses que l’IA nous donne. Il faut le répéter. Les informations fournies doivent être vérifiées. Et pourtant, la précision des réponses est très élevée. Un nombre croissant de travaux montre que les modèles modernes d’IA fournissent de meilleures réponses que des spécialistes du domaine, en tous cas pour les tâches clairement définies. L’IA peut facilement traiter une énorme quantité de données de base, ce qu’un individu n’est pas capable de faire.
Comment peut-on vérifier les réponses ?
Aujourd’hui, la plupart des outils indiquent leurs sources en ligne. Ainsi, il est au moins possible de voir si l’information émane d’une revue scientifique ou d’un article médical sérieux. Mais une telle évaluation reste difficile pour les non-spécialistes.
Je pense qu’il n’est ni réaliste ni pertinent de rejeter complètement l’utilisation de l’IA dans le domaine de la santé. Ces systèmes peuvent, par exemple, fournir des pistes de solution extrêmement utiles. Des rapports de cas font également état de précieux diagnostics posés, qui n’auraient pas été possibles dans le système de santé classique. Toutefois, le personnel médical devrait toujours participer aux décisions importantes.
L’IA change-t-elle le rôle des patients ?
On peut le supposer. Internet a déjà fait que les gens arrivent à une consultation avec beaucoup d’informations, souvent très détaillées, notamment en cas de maladie chronique plutôt rare. D’un côté, on peut le voir comme un avantage. D’un autre, cette situation peut conduire à de la mésinformation ou à des malentendus. Tout le monde connaît le phénomène du « Dr Google » : après trois clics, certaines personnes sont persuadées d’avoir le cancer. Aujourd’hui, il est intéressant de voir à quel point les nouveaux systèmes d’IA sont différents des anciens robots conversationnels (chatbots) ou autres moteurs de recherche. Lorsque l’on interagit avec eux, ils se présentent comme des agents indépendants, comme des « interlocuteurs intelligents », et non plus comme de simples outils. La dynamique s’en trouve modifiée – au lieu de faire leurs propres recherches, les utilisateurs affirment : « ChatGPT a dit que j’avais cette maladie. » En raison de leur apparence et de leur façon d’interagir avec nous, nous « humanisons » toujours plus ces systèmes, souvent de manière inconsciente. Ce n’est pas sans risques, car nous avons tendance à trop faire confiance à ces systèmes par rapport à leurs performances réelles. Et c’est justement dans le domaine de la santé que ce comportement peut être dangereux. L’IA paraît brillante et a souvent raison, mais dans certaines situations, elle se trompe de manière surprenante. Il est donc crucial de comprendre le fonctionnement de ces systèmes et leurs rôles, et comment nous pouvons les intégrer dans la prise en charge de manière responsable. Pour nous, dans la recherche, c’est un développement extrêmement intéressant.
Souvent, les systèmes d’IA utilisés en cas d’addiction ou de troubles psychiques récoltent des données sensibles. Peut-on garantir que ces données sont traitées de manière responsable ?
On peut en avoir la certitude absolue uniquement si l’on n’alimente pas les systèmes des grands fournisseurs de services cloud. Bien qu’il existe un cadre transatlantique prévoyant des exigences élevées pour la protection des données échangées avec les États-Unis, il est souvent difficile de comprendre ce qu’il advient des données. Sont-elles utilisées pour entraîner la prochaine génération de modèles ? Est-il possible que le système diffuse quelque part notre conversation sur mes angoisses nocturnes, dans laquelle des vrais noms de personnes sont mentionnés ? En principe, il est déconseillé de saisir des informations personnelles sur sa santé dans des systèmes d’IA basés sur le cloud.
Veut-on vraiment exploiter ce qui est techniquement faisable, ou veut-on mettre l’accent sur la protection des données et la sphère privée ? C’est l’une des principales questions liées à l’utilisation de l’IA. À l’heure actuelle, il est difficile d’avoir les deux. Car si l’on veut avoir la performance maximale, on se heurte rapidement aux limites de ce que l’on peut mettre en œuvre en respectant la protection des données. Toutefois, l’approche open source fait de grands progrès ; il en existe des exemples positifs en Suisse. Des modèles qui, selon les mesures de performance, n’ont que quelques mois de retards sur les grands systèmes de fournisseurs commerciaux sont désormais disponibles. Il existe donc un motif d’espoir : dans un avenir proche, des systèmes d’IA exploités localement ou sécurisés, basés sur le cloud, pourraient également offrir de nombreuses capacités jusqu’ici réservées aux grands prestataires, sans pour autant divulguer de données sensibles.
Comment éviter que l’IA ne reproduise les préjugés existants à l’égard des personnes présentant un trouble psychique ou une addiction ?
Aujourd’hui, il est possible d’entraîner les systèmes d’IA de manière beaucoup plus ciblée pour éviter certains biais. Mais cela ne permet pas de résoudre l’ensemble du problème. La principale difficulté vient du fait que ces modèles apprennent à partir des données dont ils disposent. Et c’est tout là le cœur du problème : la disponibilité des données dépend de facteurs culturels et géographiques très aléatoires. Par exemple, la fondation Mozilla a clairement montré que les données issues de l’Afrique sont sous-représentées dans les jeux de données habituellement utilisés par les modèles d’IA.
Ceux-ci apprennent et ont tendance à reproduire des schémas et des probabilités en se fondant sur les données disponibles (y c. tous les biais). Entre-temps, des mécanismes ont été développés pour éviter des tendances problématiques. C’est le cas, par exemple, de l’apprentissage renforcé, qui permet à l’être humain ou à des automatismes d’affiner après-coup le comportement de l’IA. Mais il s’agit de phénomènes complexes, qui ne sont pas à l’abri d’erreurs. Ils peuvent provoquer des tensions, par exemple quand des faits historiques doivent être traités de manière sensible dans des contextes culturels modernes. Ou quand les mécanismes de correction prennent le dessus.
C’est précisément pour cette raison qu’il est si important de ne pas avoir recours uniquement à l’IA dans le domaine de la santé. Dans nos projets, nous utilisons cette technologie comme une aide, par exemple pour établir des plans visant à modifier les comportements (activité physique et prévention). Mais la décision finale revient aux professionnels de la santé, qui doivent pouvoir examiner, ajuster et vérifier les propositions. Car plus les systèmes sont automatisés, moins ils risquent d’être remis en question. Il s’agit là d’un défi majeur. Non seulement du point de vue technique, mais aussi dans l’organisation des processus et des responsabilités.
Que souhaitez-vous transmettre aux professionnels de la promotion de la santé qui n’ont pas beaucoup affaire à l’IA ?
Je leur conseillerais de suivre des formations continues pour se faire une idée précise de l’IA, car nous sommes tous concernés. Dans de très nombreux domaines, mais aussi justement dans la santé. Un nombre croissant de personnes ont recours à des systèmes d’IA pour s’informer ou se faire conseiller sur leur santé, souvent sans le communiquer de manière transparente. C’est pourquoi il est important de suivre ces évolutions non pas en lisant sporadiquement quelques articles dans les médias, mais en se penchant activement sur la question. C’est la seule façon de se familiariser avec ce que ces systèmes sont capables de faire ou non. Tout professionnel souhaitant vraiment comprendre les membres de son groupe-cible doit pouvoir comprendre quel rôle ces technologies jouent déjà pour eux et comment elles influencent leurs attentes, leur façon de penser et d’agir.
De nouvelles activités manquent?
Si vous travaillez dans une administration / une organisation à but non lucratif / une autre organisation dans le domaine de la prévention, vous avez ici ...
- Écrire des articles
- Télécharger des images
- Utiliser le répertoire d'adresses
Vous avez déjà un compte? Se connecter maintenant