nutrition hôpital chatGPT
Competence Readtime4 min
10. octobre 2023

Intelligence artificielle

Diététique

Interview: «À l’heure actuelle, ChatGPT n’est pas opérationnel pour la nutrition»

Angéline Chatelan, diététicienne et professeure assistante à la Haute école de santé de Genève, s’est beaucoup intéressée à ChatGPT et à ses répercussions pour les diététicien∙ne∙s. Elle partage avec nous ses constatations et ses pistes d’utilisation.
Competence Muriel Chavaillaz

auteur

Muriel Chavaillaz

Journaliste de Competence pour la Suisse romande et le Tessin

muriel.chavaillaz@hplus.ch

ChatGPT a-t-il bousculé le métier de diététicien∙ne dans les hôpitaux?

Non. Dans le domaine de la nutrition, à l’heure actuelle, ChatGPT n’est clairement pas opérationnel: il ne maîtrise pas le vocabulaire spécifique des diététicien∙ne∙s, ne comprend pas bien les requêtes, fait parfois des contresens, etc. L’usage, pour l’instant, est très limité pour les professionnel∙le∙s qui travaillent dans les hôpitaux. Incapable de poser un diagnostic nutritionnel fiable, cet outil peut toutefois nous aider à répondre à des e-mails, à rédiger des lettres de sortie. Mais il faut toujours relire attentivement ce qu’il propose. Cela crée un premier brouillon, mais une vérification attentive est dans tous les cas absolument nécessaire.

Angéline Chatelan, diététicienne et professeure assistante HES

Dans quels cas faut-il particulièrement se méfier avec ChatGPT?

Il serait erroné de penser que ChatGPT soit capable de remplacer un∙e professionnel∙le de santé. Des erreurs surviennent  même lorsqu’on lui adresse des requêtes basiques pour planifier des menus. Il a par exemple été démontré dans une étude que lorsqu’on demande à ChatGPT de fournir des menus pour un régime sans fruits à coque, ChatGPT propose du lait d’amande au petit-déjeuner, ce qui n’est pas du tout recommandé dans ce cas de figure. Dans nos tests pour les diabétiques de type 2, les menus étaient plutôt pauvres en hydrates de carbone et monotones.

L’IA se basait surtout sur des ingrédients qui sont «à la mode» en ce moment, comme les avocats, le saumon ou le blanc de poulet grillé. Plus ça devient complexe et spécifique, plus il y a des erreurs.

ChatGPT permet-il tout de même d’optimiser les ressources, notamment en l’utilisant pour traiter des données?

Avant d’utiliser ChatGPT, tout doit être anonymisé pour des raisons de protection des données. Cela prend déjà beaucoup de temps et n’est, pour l’heure, pas d’une grande aide pour une structure hospitalière. Mais dans des usages en santé publique, par exemple si l’on doit concevoir une fiche d’informations sur l’intolérance au gluten ou sur certaines maladies, ChatGPT pourrait aider à créer un document de conseil vulgarisé. Dans le futur, on pourrait imaginer y avoir recours de manière plus systématique.

Remplacera-t-elle, à terme, le rôle des diététicien∙ne∙s?

Non. Si on veut un diagnostic de qualité, cela n’est pas possible. Le lien avec la∙e patient∙e est essentiel, l’IA ne remplacera jamais le contact humain. ChatGPT est conçu pour prédire le mot suivant, pas pour réfléchir ni ressentir à proprement parler. Il ne comprend pas en soi la différence entre une insuffisance rénale chronique ou aigue comme un professionnel de santé, par exemple.

D’un point de vue clinique, les enjeux le dépassent. ChatGPT ne met pas assez de mises en garde, notamment lorsqu’on lui demande un régime très restrictif au niveau des calories alors que l’on souffre peut-être d’un trouble du comportement alimentaire.

Un∙e diététicien∙ne évaluerait le ou la patient.e de manière globale, et elle ou il l’orientera probablement vers un∙e psychiatre ou un∙e psychologue. ChatGPT n’a pas été conçu pour mener des réflexions cliniques holistiques et n’a pas de compréhension éthique des enjeux, ce qui va de fait à l’encontre du bien-être et de la santé des patient∙e∙s.

De plus, ChatGPT se trompe lorsqu’on lui demande de calculer certains apports…

Oui effectivement, les erreurs sont possibles. Nous avons fait le test, et ChatGPT n’est malheureusement pas toujours capable de compter correctement et avec précision les apports en protéines, en calcium, en phosphore, en potassium, etc. Notre méthode traditionnelle de calculs fonctionne mieux que l’IA pour ce faire.

L’IA n’est donc pas à conseiller pour gagner du temps ou optimiser les ressources?

Lorsque, fin 2022, ChatGPT est sorti, il y a eu beaucoup d’engouement, de motivation autour de cette IA. Mais le soufflé est un peu retombé: les expert∙e∙s ont rapidement expérimenté les limites du modèle. Aujourd’hui, la communauté scientifique est de plus en plus sceptique vis-à-vis des apports de ChatGPT dans la science, mais la science étudiant l’IA évolue rapidement et il est difficile de prédire l’avenir et l’usage de l’IA en médecine.

Auriez-vous des conseils, des recommandations à donner à un hôpital qui souhaiterait tout de même utiliser l’IA dans le domaine de la nutrition ?

Il est nécessaire de faire très attention à la protection des données. Il faut également être conscient∙e que ChatGPT dit des choses fausses, bien qu’elles sonnent plausibles. Il est capital d’être très vigilant sur ce point, ainsi que sur les biais qui sous-tendent les réponses de ChatGPT. Une formation des équipes est à recommander vivement avant d’utiliser le programme.

Photo de titre: via Canva.com