Les créateurs de cette intelligence artificielle, qui totalise 800 millions d’utilisateurs hebdomadaires dans le monde, vantent de plus en plus ses performances pour donner des conseils médicaux. Mais existe-t-il des risques à l’interroger sur notre santé ?
Pour sauvegarder cet article, connectez-vous ou créez un compte franceinfo
Sans paiement. Sans abonnement.
Fermer la fenêtre d’activation des notifications France Info
Fermer la fenêtre de présentation
Publié le 15/09/2025 07:11
Mis à jour le 15/09/2025 12:27
Temps de lecture : 5min
Une personne utilise ChatGPT sur son téléphone portable. Image d’illustration. (IMAGEBROKER / MD MAMUN MIAH / IMAGEBROKER.COM)
Parler santé avec ChatGPT est une habitude que les Français prennent de plus en plus. Olivier par exemple, un quinquagénaire parisien curieux des nouvelles technologies, utilise l’IA pour ça. Dans son bureau de production vidéo, il raconte avoir déjà testé plusieurs fois les conseils médicaux de ChatGPT. “Il m’est arrivé d’avoir très mal au dos donc je suis allé faire des radios, explique-t-il. J’ai eu les résultats du radiologue, mais j’étais dans l’incapacité de les traduire ou de les comprendre par moi-même. Et je n’avais rendez-vous avec un médecin qu’une semaine après.”
Pour éviter l’attente, Olivier s’est alors tourné vers l’IA pour avoir une première réponse. “Je n’avais pas envie d’attendre parce que j’ai un tempérament anxieux, explique-t-il. J’ai intégré les résultats dans ChatGPT en lui disant : ‘Fais-moi une analyse de ce rendu médical et des préconisations.'” Et d’un seul coup, l’attente est passée d’une semaine à quelques secondes. “De là, j’ai eu un résultat qui m’a rassuré, raconte Olivier. J’ai eu mon rendez-vous une semaine après avec le médecin qui m’a confirmé, exactement, la même analyse. Bien sûr, je ne lui avais pas dit que j’avais fait ça dans ChatGPT avant. J’ai gardé mon petit secret. Mais j’étais assez étonné de voir que son analyse et ses préconisations étaient rigoureusement identiques.”
L’exemple d’Olivier est loin d’être isolé. Franceinfo a aussi rencontré un médecin hospitalier dont certains patients suivis pour un cancer, utilisent ChatGPT. Dans ce cas, l’IA les éclaire sur de potentiels effets secondaires de leur traitement, c’est le constat du professeur Jean-Emmanuel Bibault, oncologue à l’hôpital européen Georges Pompidou, à Paris. Il ne décourage pas systématiquement cette nouvelle habitude chez ses patients. “On peut se servir de l’IA mais derrière, il est encore nécessaire de discuter avec son médecin pour vraiment être certain que ce qui a été dit ou compris, n’est pas faux, assure-t-il. Se servir de ChatGPT pour ces patients, c’est beaucoup mieux qu’une simple recherche Google, parce que l’information qu’ils en tirent est plus interactive, plus dynamique et plus personnalisée.
“C’est aussi beaucoup moins anxiogène que quand ils pouvaient lire sur Google des choses qui n’étaient pas exactement pertinentes pour leur cas.”
Jean-Emmanuel Bibault, oncologue à l’hôpital européen Georges Pompidou à Paris.
à franceinfo
L’oncologue affirme voir un “bénéfice chez les patients qui ont de l’information H24 tout en rappelant que le rôle du médecin va plus loin que celui de l’IA. “Un bon médecin doit être capable de vous contredire ou de vous poser des questions qui peuvent vous ‘chagriner’. Les chatbots ne sont clairement pas faits pour ça. Le chatbot ne pourra pas vous poser des questions contradictoires ou vous dire que : ‘Cette réponse semble incohérente avec le reste des réponses. On peut se servir de l’IA, mais derrière, il y a, pour l’instant, toujours besoin de discuter avec son médecin pour vraiment être certain que ce qui a été dit ou compris, n’est pas faux.”
À l’avenir, il sera impossible de se passer de cet outil estime Jean-Emmanuel Bibault. De plus en plus d’études scientifiques prouvent qu’un médecin aidé de l’IA est plus efficace qu’un médecin seul. En revanche, l’ordinateur n’ayant ni corps, ni essenti ni vécu médical, il ne sera jamais capable de poser un diagnostic individuel. Il ne peut donner que des réponses statistiques.
Que deviennent les données médicales personnelles postées sur ces robots conversationnels ? Est-il risqué de leur faire analyser un bilan sanguin, par exemple ? Ces données sont a minima utilisées pour entraîner les futures versions du robot conversationnel. Mais elles peuvent aussi être revendues. “Quand on envoie des données sur sa santé personnelle, sur des maladies, sur des résultats médicaux, oui, ça peut poser problème. Aujourd’hui, ça n’en pose pas, mais ça peut quand même fuiter après”, rappelle Gilles Moyse, docteur en intelligence artificielle.
“Aujourd’hui, évidemment, personne ne sait avec précision dans quelle mesure Open AI, qui édite ChatGPT, les revend déjà ou pas, souligne le chercheur. En tout cas, il n’y a pas de secret médical au sens de celui qu’on peut avoir avec un médecin. On pourrait imaginer des usages, je dirais financiers, de ces données, c’est-à-dire des assureurs qui demandent à Open AI si Monsieur Untel est vraiment en bonne santé. Et si son assurance santé ne devait pas coûter un peu plus cher.”
Il n’y a pas de secret médical, donc il n’y a pas de responsabilité juridique non plus, rappelle cet expert. Si ChatGPT donne de mauvais conseils médicaux, à ce jour, il n’a de comptes à rendre à personne.