Désinformation nutritionnelle : l’outil qui traque les conseils dangereux en ligne

Par |Publié le : 6 avril 2026|Dernière mise à jour : 3 avril 2026|4 min de lecture|

Régimes extrêmes, faux conseils et IA trompeuses, un nouvel outil développé par des chercheurs permet désormais d’identifier les contenus nutritionnels dangereux et d’en mesurer les risques pour la santé.

Un outil pour scanner les aliments.

Face à la prolifération des conseils nutritionnels douteux sur Internet, une équipe de chercheurs de University College London propose une réponse inédite. Leur outil ne se contente pas de dire si une information est vraie ou fausse : il mesure désormais son potentiel de danger.

Car le problème est bien là. Aujourd’hui, une grande partie de la désinformation alimentaire ne repose pas sur des mensonges flagrants, mais sur des raccourcis, des omissions ou des présentations biaisées. Résultat : des contenus qui passent sous les radars… mais influencent bel et bien les comportements.

Un outil inédit pour traquer les contenus trompeurs

« En matière d’alimentation et de nutrition, la désinformation se propage souvent par une présentation sélective qui masque les risques potentiels pour la santé. Les contenus trompeurs et nuisibles passent généralement inaperçus auprès des vérificateurs de faits et échappent à un contrôle efficace jusqu’à ce que des affaires retentissantes fassent la une des journaux », alerte dans un communiqué de presse, Alex Ruani, auteur principal du projet.

Un enjeu de santé publique majeur. Selon l’Organisation mondiale de la santé, la désinformation en ligne constitue une menace directe : régimes extrêmes, jeûnes prolongés ou usage dangereux de compléments alimentaires peuvent entraîner des conséquences graves, voire mortelles. À titre d’exemple, ces derniers seraient impliqués dans 20 % des lésions hépatiques d’origine médicamenteuse aux États-Unis.

Pour répondre à cette menace diffuse, les chercheurs ont développé le Diet-MisRAT (Diet-Nutrition Misinformation Risk Assessment Tool). Son originalité : considérer les contenus en ligne comme des environnements à risque, au même titre que des expositions physiques dangereuses. Ici, le message devient un « média », et ses biais des « agents de risque ».

Concrètement, l’outil attribue un score et classe les contenus en trois catégories : vert, orange ou rouge. Mais ce classement ne repose pas uniquement sur la véracité. Il prend en compte le contexte, la manière dont l’information est présentée et la probabilité que le lecteur soit induit en erreur.

Une approche plus fine, née d’un constat simple : les évaluations binaires ne suffisent pas. Les chercheurs soulignent que l’impact des fausses informations est souvent cumulatif. Une succession de messages approximatifs peut progressivement orienter les décisions individuelles.

Les résultats ont été testés à grande échelle, avec l’appui d’une soixantaine d’experts en nutrition et santé publique. « Il est essentiel de faire appel à des spécialistes pour évaluer les risques de désinformation. Notre outil a été calibré et validé grâce aux retours d’information de près de 60 experts du domaine. Cela permet de garantir que les évaluations des préjudices potentiels reflètent un jugement professionnel approprié », explique la professeure Anastasia Kalea.

Réseaux sociaux et IA, nouveaux amplificateurs du risque

Dans la réalité, ces dérives ne sont pas théoriques. En 2025, un homme a développé des lésions cutanées après avoir suivi un régime carnivore popularisé sur les réseaux sociaux. Plus récemment, une personne a été hospitalisée après avoir remplacé le sel par du bromure de sodium, sur la base d’un conseil généré par une intelligence artificielle.

Ces cas illustrent un phénomène plus large : l’influence croissante des algorithmes, des communautés en ligne et désormais des outils d’IA dans la diffusion de conseils de santé.

« En santé publique, nous évaluons l’exposition aux facteurs de risque. Nous pensons que les informations sanitaires trompeuses devraient être traitées de la même manière. Certaines informations erronées peuvent entraîner des conséquences graves ; les stratégies d’atténuation doivent donc être proportionnées au niveau de risque. Plus le risque est important, plus la réponse doit être forte », insiste Alex Ruani.

Mieux prévenir plutôt que guérir

Au-delà du diagnostic, l’outil pourrait devenir un levier d’action pour les plateformes, les autorités et même les concepteurs d’intelligence artificielle. « Lorsque les chatbots d’IA s’expriment avec assurance, les utilisateurs peuvent supposer que leurs conseils sont fiables. Si nous parvenons à évaluer précisément le caractère trompeur d’un conseil et les dommages potentiels qu’il peut engendrer, nous pouvons intégrer des mécanismes de protection plus robustes », poursuit-il.

Dernier atout : sa dimension pédagogique. « En explicitant les schémas typiques qui faussent les informations relatives à l’alimentation, à la nutrition ou aux compléments alimentaires, les critères d’évaluation des risques de cet outil peuvent être enseignés », souligne le professeur Michael Reiss.

Autrement dit, apprendre à détecter non seulement le faux, mais aussi le dangereux. Une évolution devenue indispensable à l’heure où l’information, vraie ou trompeuse, se consomme aussi vite qu’un fil d’actualité.

Sources
– Development and validation of a tool for detecting misinformation risk in diet, nutrition, and health content (Diet-MisRAT). www.nature.com. Consulté le 03 avril 2026.

Cet article vous a-t-il été utile ?

Merci pour votre avis !
Elodie Vaz
Elodie Vaz
Journaliste en santé, diplômée du CFPJ en 2023, Élodie, explore les empreintes que les maladies laissent sur les corps et, plus largement sur la vie humaine. Infirmière diplômée d’État en 2010, elle a passé douze ans au chevet des patients avant de troquer son stéthoscope contre un carnet de notes. Elle interroge depuis les liens qui unissent environnement et santé, convaincue que la vitalité du vivant ne se résume pas à celle des Hommes. Carte de presse numéro 143067