IA de santé : la riposte française aux ambitions de ChatGPT
Demain, parlerons-nous à nos IA comme à un médecin ou à une infirmière ? Doctolib le pense. Depuis octobre 2025, l’entreprise française spécialisée dans la prise de rendez-vous et dans la gestion des données médicales teste discrètement un tout nouveau service d’intelligence artificielle. Un "compagnon" virtuel bardé d'algorithmes capable, une fois gonflé d’informations, de converser avec les utilisateurs sur leurs problèmes de santé. Conçu au siège de la société, dans les bureaux avec vue sur la Seine, à Levallois-Perret, cet outil grimé d’une blouse blanche numérique devrait arriver d’ici quelques mois dans les ordinateurs et les smartphones du Vieux Continent. Le plus tôt sera le mieux, laisse-t-on entendre, en interne, dossiers sous le bras. L’entreprise sait que le temps presse. Surtout depuis le 7 janvier 2026. Le géant américain OpenAI inaugurait à cette date, "Health", la petite sœur dédiée à la santé de ChatGPT, aux Etats-Unis. Même si sa date de lancement de ce côté de l'Atlantique reste inconnue, de nombreux acteurs européens s'y préparent déjà.
Doctolib, par exemple, est dans les starting-blocks. Tout comme la start-up tricolore, PaperDoc, qui vient de lancer son IA de santé baptisée "Gustave". Pêle-mêle, l’application Ada Health, venue d'Allemagne, occupe également le terrain. Idem pour "Symptoma", en Autriche ou encore "Bearable" au Royaume-Uni. Tous ont en tête de rattraper l’ogre par qui arrive la révolution. Une mission périlleuse : plus de 250 millions d’utilisateurs se servent déjà de ChatGPT comme d’un assistant médical à travers le monde. Sans compter les chiffres de ses concurrents Anthropic (Claude) ou Google (Gemini). Pour éviter un report durable du marché sur ces outils venus d’Amérique, les entrepreneurs de la tech européenne entendent bien faire mieux.
Risques sanitaires
L’enjeu est immense : contrairement à l’Internet d’avant, dominé par les moteurs de recherche, ces engins ne s’arrêtent pas à de simples liens vers des articles mais entendent bien guider les utilisateurs dans un langage naturel. Or, mal configurées, ces solutions numériques peuvent aiguiller les patients vers de mauvaises pratiques. "De nombreux patients arrivent avec en tête des folies venant de leur IA", glisse un médecin, en bout de chaîne, qui s’est retrouvé une fois face à un parent lui demandant si l’huile d’olive était une réponse aux otites. La prudence devrait être d'autant plus de mise qu'une récente étude menée par l’Université d’Oxford et publiée dans Nature Medicine a conclu que des modèles comme celui ChatGPT ne font, à ce jour, pas mieux qu’une simple recherche web pour aider des patients à identifier un diagnostic à partir de symptômes, avec environ seulement un tiers de diagnostics corrects dans une simulation.
L’IA de santé est aussi un fort enjeu de souveraineté, un terme en vogue à l’ère Trump. "Les systèmes et les recommandations sont différents d’un pays à l’autre. Pour des outils adaptés à nos pratiques, il nous faut des outils conçus à destination du marché français, exhorte Clément Goehrs, directeur exécutif de Synapse Medecine, une entreprise qui déploie un assistant IA auprès des professionnels de santé. Les deux à trois prochaines années sont décisives. On comprend tous le besoin, en France, qu’à l’Assurance maladie de dialoguer avec les industriels. Et il n’est pas certain qu’OpenAI collabore."
Le président de la République, Emmanuel Macron, interpellé à ce sujet lors d’un récent dîner avec des entrepreneurs du monde de l’IA, a jugé le chantier prioritaire. Autant pour le grand public que pour les professionnels de santé, donc, où l’adoption est tout aussi massive, et parfois hors cadre. Toujours d’après Synapse Medecine, un CHU français de taille moyenne aurait enregistré en août dernier 500 000 questions posées à une IA (majoritairement ChatGPT), dont 85 000 par des internes. Avec en prime des copier-coller d’examens biologiques ou radiologiques, pourtant interdits par la loi.
Beaucoup dénoncent d’ailleurs la zone grise dont profite actuellement le géant de l’intelligence artificielle, déjà utilisable pour des questions de santé, malgré l’absence de configuration dédiée pour le moment. Pour Merav Griguer, avocate au cabinet Franklin, la "verticale santé" ChatGPT Health ne servirait qu’à "blanchir" des usages sur ChatGPT. "Le consentement n’est pas valide, les précautions mises en œuvre ne sont pas suffisantes non plus". Aux Etats-Unis, une famille reproche déjà à l’outil d’avoir contribué au suicide d’un adolescent. Seuls les juges disposant de l’historique complet de la conversation pourront déterminer la responsabilité réelle de l’agent artificiel. Le recours aux IA pour des questions de santé promet la multiplication de ce type de dilemmes.
"Pas de diagnostic, ni d’ordonnance"
Prudemment, Doctolib, 80 millions d’utilisateurs en Europe dont 50 en France, teste d’abord son compagnon sur un petit échantillon : 10 000 parents volontaires. Et l’outil est pour l'instant réservé aux parents d’enfants de moins de 4 ans, cible à la fois très connectée et avide d’informations de santé. Le but : répondre aux questionnements des jeunes parents, sur le sommeil ou la nutrition de leur bébé, à la demande. Toutes les conversations sont relues, et le robot ferme à 22h. Demain, si tout se passe bien, l’outil sera ouvert à tous, et pourra prendre le rôle d’un secrétaire de cabinet virtuel, capable d’expliquer quoi faire ou qui contacter en cas de problème. Les abonnés titulaires d’un accès illimité, une formule dont le prix n’a pas été communiqué, pourront alors le solliciter 24 heures sur 24, sept jours sur sept. Rappelons que ChatGPT, en illimité, est lui aussi payant.
L’Express a pu tester le service de Doctolib en avant-première. Côté interface, rien de dépaysant : une fenêtre de conversation et un espace permettent de taper ses questions directement sur le site de l’entreprise française. La mécanique, elle, diffère radicalement des IA disponibles sur le marché. L’assistant de Doctolib questionne, reformule, cadre, et rappelle très vite qu’il n’est pas médecin, chose quasiment impossible avec une IA généraliste. Sur un cas test, celui d’un nourrisson avec des symptômes pouvant évoquer une possible allergie, l’outil demande des précisions sur la respiration du bébé, renvoie rapidement vers le 15 et les urgences, et rappelle les gestes de prudence à adopter.
Une aide cruciale, surtout pour des parents inexpérimentés, et d’autant plus rassurante qu’elle n’essaye jamais de supplanter l’expertise médicale. "On propose simplement un accompagnement et une orientation dans le parcours de soins, recommandé par le système de santé français. Pas de diagnostic, ni d’ordonnance ou de traitement", résume Mathilde Jaïs, directrice de l’offre Compagnon de santé chez Doctolib. Une question d'éthique, mais surtout légale, afin de ne pas être apparenté à un dispositif médical, très réglementé.
Côté sécurité, la licorne française assure tout mettre en œuvre pour éviter les surprises. L’outil est complètement verrouillé, de sorte qu’il ne soit pas possible de le détourner. L’Express a testé plusieurs commandes réputées pour faire dérailler la machine, sans succès. Celle-ci s’alimente uniquement selon une approche appelée RAG (retrieval-augmented generation), consistant à sélectionner des informations précises au sein d’une base de données. En parallèle, plusieurs "agents" informatiques collaborent entre eux et s’assurent de la bonne couverture des sujets, du ton, et d’éventuels dérapages. Plusieurs centaines d’expériences seraient menées chaque semaine pour traquer l’hallucination crédible, ce moment où la machine se trompe avec l’aplomb d’un menteur chevronné. Et, au moindre doute, Doctolib promet qu’un vrai médecin sera alerté. De fait, lors de notre test, un véritable médecin a interrompu notre conversation en quelques minutes afin de vérifier que l’alerte du compagnon a été prise au sérieux, et que le numéro du 15 a été composé.
Sur le papier, cette riposte tricolore a tout d’une initiative prometteuse, d’autant que Doctolib est un acteur central en Europe. Reste que, côté souveraineté, cette solution sonne encore très "yankee". Si Doctolib discute avec Mistral AI, elle s’appuie surtout sur des modèles venus d’outre-Atlantique comme OpenAI et ses rivaux. Oui, l’engin est alimenté uniquement par des sources et données hexagonales qualifiées et vérifiées, provenant notamment des institutions de santé, mais il n’est pas possible de dire, pour le moment, qu’il s’agit d’une réponse totalement française.
L’IA a du potentiel
A ce jeu, deux autres solutions s'en tirent mieux. Comme "EBiM" (Evidence based artificial intelligence medicine), dans le public, développée par le Collège de médecine générale pour les professionnels de santé, et qui pourrait à terme également s’ouvrir au grand public, selon la Dr Fabienne Yvon du syndicat de généralistes MG France. Il est alimenté grâce aux modèles de Mistral AI. Côté privé, on retrouve "Gustave", de la start-up Paperdoc. Si comme Doctolib, ce chat de santé à destination des patients est entraîné sur des données médicales et institutionnelles, il se targue, lui aussi, d'avoir sous le capot le modèle développé par la "décacorne" tricolore. Là encore, le pari est d'être plus fiable que le grand frère américain. "Si on détecte ne serait-ce qu’une probabilité moyenne de se tromper, Gustave préférera ne rien dire", explique le Dr Nicolas Gatulle, anesthésiste et cofondateur de PaperDoc. L’entreprise qui promet un système qui "n’hallucine jamais, ou presque", dit avoir déjà séduit des milliers d’utilisateurs. Et démarche désormais cabinets et hôpitaux, pour en faire leur application de référence pour le suivi des documents de santé ou l'aide à la lecture de comptes rendus médicaux.
Cette effervescence révèle une vérité plus profonde : malgré les risques et les contraintes actuelles, l’IA possède un potentiel extraordinaire. Certains médecins s’en amusent, à l’instar d’Andreas Werner, président de l’association de pédiatrie ambulatoire : "Les réponses du 15 s’avèrent parfois plus discutables que les réponses de ChatGPT". Avec sa société savante, Andreas Werner a veillé à la scientificité de l’outil de Doctolib, convaincu qu’il y avait là une solution d’avenir. Même chose à l’Inserm, où des chercheurs se disent impressionnés par la pertinence de l’outil pour rendre la connaissance accessible. Pour les soignants, le bénéfice potentiel est clair : soulager les "bobos" du quotidien, fluidifier l’orientation, répondre à des patients qui, de toute façon, s’informeront autrement. "On ne peut pas lutter, il va falloir s’adapter", résume le Dr Paul Frappé, président sortant du Collège de médecine générale, en martelant l’essentiel : ne pas donner d'informations erronnées.
Le débat est enfin celui de l’innovation. Dans les bureaux de Doctolib, certains réfléchissent déjà à la suite : faut-il envoyer un historique de conversation au médecin traitant ? Faut-il connecter ces assistants à Mon espace santé, le coffre-fort numérique de l’Assurance maladie, aujourd’hui sous-exploité ? En prévision d’un tsunami, la Haute autorité de santé (HAS) a annoncé la publication prochaine d’une fiche de bon usage pour apprendre à interroger l’IA et repérer quand elle improvise. L’institution devrait alerter les patients sur le risque de fuite de leurs données, mais sur ce point, la digue semble bien basse : rien n’est prévu pour empêcher techniquement les patients de téléverser des documents de santé dans les compagnons virtuels de santé sur ChatGPT. Seule l'anonymisation est préconnisée. Alors même qu’on ignore comment sont traitées les informations fournies au mastodonte américain, leader du marché et véritable boîte noire. Et que ces outils, surtout ceux venus de l’autre côté de l'Atlantique, évoluent de plus en plus vers un modèle d’affaires basé sur la publicité personnalisée, qui devrait logiquement piocher dans les conversations des utilisateurs. Dans cette jungle, la question ne sera bientôt plus de savoir si un jour l’IA deviendra notre secrétaire de santé, mais plutôt à quelle machine se confier.