Free cookie consent management tool by TermsFeed
C'est pas mon idée !

vendredi 9 janvier 2026

ChatGPT se lance dans la médecine

OpenAI
Selon les estimations d'OpenAI, quelques 230 millions de personnes à travers le monde interrogent ChatGPT chaque semaine sur des problématiques de santé. Afin de leur apporter de meilleures réponses dans un contexte de sécurité renforcée, l'entreprise lance, initialement avec quelques cobayes, une version spécialisée de sa plate-forme.

L'accès aux soins représente évidemment un enjeu important pour tous les citoyens… qui a malheureusement tendance à se dégrader peu à peu dans beaucoup de pays. Entre les difficultés à trouver un médecin à proximité, puis à obtenir un rendez-vous, la surcharge de tâches administratives des professionnels et la dispersion des données médicales, nombreux sont ceux qui comptent désormais sur les nouvelles technologies pour leur apporter des solutions rapidement et sans complications inutiles.

Dans une démarche qui, au premier abord, semble raisonnable, OpenAI veut essentiellement isoler les conversations relatives à la santé dans un espace indépendant de son tchat générique. Dans celui-ci, les utilisateurs pourront transmettre, avec toutes les garanties de protection nécessaires, des informations confidentielles, telles que leur dossier médical ou les enregistrements conservés par des applications de bien-être, qui pourront être prises en compte pour des échanges personnalisés.

Les contenus partagés dans cette zone privée sont confinés : il ne seront jamais reportés d'une quelconque manière dans les conversations usuelles ou dans les systèmes d'entraînement des modèles d'IA. En revanche, les éléments potentiellement utiles à une analyse médicale dans la partie classique de ChatGPT peuvent l'alimenter (par exemple un changement de mode de vie). Toute évocation d'un sujet de santé déclenchera en outre une suggestion de basculer vers l'environnement dédié.

ChatGPT Santé

Naturellement, OpenAI se défend de vouloir remplacer les praticiens et insiste sur le fait qu'il est hors de question que son outil établisse un diagnostic ou prescrive un traitement. Connaissant les limites de l'IA générative – qui n'est, rappelons-le, qu'une machine statistique incapable de distinguer le vrai du faux – et notamment sa propension aux hallucinations, ces réserves sont légitimes. Mais empêcheront-elles les adeptes de ChatGPT de solliciter des conseils qui pourront s'avérer dangereux ?

Que le fournisseur investisse dans une plus forte sécurisation des échanges concernant des thématiques sensibles est certainement une bonne chose (et peut-être y en aurait-il d'autres à considérer en dehors de l'univers médical). Mais qu'il encourage les consommateurs à recourir à l'intelligence artificielle pour leur questions de santé – entre autres en les invitant à transmettre des données personnelles à un spécialiste virtuel – paraît plus discutable : ne vaudrait-il pas mieux commencer par mettre en place des garde-fous limitant la possibilité d'engager des interactions sur un terrain miné ?

En attendant l'ouverture de la boîte de Pandore, les assureurs devraient probablement entamer les réflexions sur les couvertures à proposer contre les risques de dérives et d'accidents liés à l'abus de consultations médicales avec ChatGPT Santé…

Aucun commentaire:

Enregistrer un commentaire

Afin de lutter contre le spam, les commentaires ne sont ouverts qu'aux personnes identifiées et sont soumis à modération (je suis sincèrement désolé pour le désagrément causé…)