Désinformation nutritionnelle : l’outil qui traque les conseils dangereux en ligne
Régimes extrêmes, faux conseils et IA trompeuses, un nouvel outil développé par des chercheurs permet désormais d’identifier les contenus nutritionnels dangereux et d’en mesurer les risques pour la santé.

Face à la prolifération des conseils nutritionnels douteux sur Internet, une équipe de chercheurs de University College London propose une réponse inédite. Leur outil ne se contente pas de dire si une information est vraie ou fausse : il mesure désormais son potentiel de danger.
Car le problème est bien là. Aujourd’hui, une grande partie de la désinformation alimentaire ne repose pas sur des mensonges flagrants, mais sur des raccourcis, des omissions ou des présentations biaisées. Résultat : des contenus qui passent sous les radars… mais influencent bel et bien les comportements.
Un outil inédit pour traquer les contenus trompeurs
« En matière d’alimentation et de nutrition, la désinformation se propage souvent par une présentation sélective qui masque les risques potentiels pour la santé. Les contenus trompeurs et nuisibles passent généralement inaperçus auprès des vérificateurs de faits et échappent à un contrôle efficace jusqu’à ce que des affaires retentissantes fassent la une des journaux », alerte dans un communiqué de presse, Alex Ruani, auteur principal du projet.
Un enjeu de santé publique majeur. Selon l’Organisation mondiale de la santé, la désinformation en ligne constitue une menace directe : régimes extrêmes, jeûnes prolongés ou usage dangereux de compléments alimentaires peuvent entraîner des conséquences graves, voire mortelles. À titre d’exemple, ces derniers seraient impliqués dans 20 % des lésions hépatiques d’origine médicamenteuse aux États-Unis.
Pour répondre à cette menace diffuse, les chercheurs ont développé le Diet-MisRAT (Diet-Nutrition Misinformation Risk Assessment Tool). Son originalité : considérer les contenus en ligne comme des environnements à risque, au même titre que des expositions physiques dangereuses. Ici, le message devient un « média », et ses biais des « agents de risque ».
Concrètement, l’outil attribue un score et classe les contenus en trois catégories : vert, orange ou rouge. Mais ce classement ne repose pas uniquement sur la véracité. Il prend en compte le contexte, la manière dont l’information est présentée et la probabilité que le lecteur soit induit en erreur.
Une approche plus fine, née d’un constat simple : les évaluations binaires ne suffisent pas. Les chercheurs soulignent que l’impact des fausses informations est souvent cumulatif. Une succession de messages approximatifs peut progressivement orienter les décisions individuelles.
Les résultats ont été testés à grande échelle, avec l’appui d’une soixantaine d’experts en nutrition et santé publique. « Il est essentiel de faire appel à des spécialistes pour évaluer les risques de désinformation. Notre outil a été calibré et validé grâce aux retours d’information de près de 60 experts du domaine. Cela permet de garantir que les évaluations des préjudices potentiels reflètent un jugement professionnel approprié », explique la professeure Anastasia Kalea.
Réseaux sociaux et IA, nouveaux amplificateurs du risque
Dans la réalité, ces dérives ne sont pas théoriques. En 2025, un homme a développé des lésions cutanées après avoir suivi un régime carnivore popularisé sur les réseaux sociaux. Plus récemment, une personne a été hospitalisée après avoir remplacé le sel par du bromure de sodium, sur la base d’un conseil généré par une intelligence artificielle.
Ces cas illustrent un phénomène plus large : l’influence croissante des algorithmes, des communautés en ligne et désormais des outils d’IA dans la diffusion de conseils de santé.
« En santé publique, nous évaluons l’exposition aux facteurs de risque. Nous pensons que les informations sanitaires trompeuses devraient être traitées de la même manière. Certaines informations erronées peuvent entraîner des conséquences graves ; les stratégies d’atténuation doivent donc être proportionnées au niveau de risque. Plus le risque est important, plus la réponse doit être forte », insiste Alex Ruani.
Mieux prévenir plutôt que guérir
Au-delà du diagnostic, l’outil pourrait devenir un levier d’action pour les plateformes, les autorités et même les concepteurs d’intelligence artificielle. « Lorsque les chatbots d’IA s’expriment avec assurance, les utilisateurs peuvent supposer que leurs conseils sont fiables. Si nous parvenons à évaluer précisément le caractère trompeur d’un conseil et les dommages potentiels qu’il peut engendrer, nous pouvons intégrer des mécanismes de protection plus robustes », poursuit-il.
Dernier atout : sa dimension pédagogique. « En explicitant les schémas typiques qui faussent les informations relatives à l’alimentation, à la nutrition ou aux compléments alimentaires, les critères d’évaluation des risques de cet outil peuvent être enseignés », souligne le professeur Michael Reiss.
Autrement dit, apprendre à détecter non seulement le faux, mais aussi le dangereux. Une évolution devenue indispensable à l’heure où l’information, vraie ou trompeuse, se consomme aussi vite qu’un fil d’actualité.
Cet article vous a-t-il été utile ?
