Aller au contenu principal

Les groupes patients face aux hypertrucages : 5 alertes percutantes pour le personnel infirmier

30 avril 2026

Nadia Naffi, PhD | ACESI-RQ | 29 avril 2026

Note de transparence : Ce billet a été généré par NotebookLM à partir du webinaire du 29 avril 2026, puis révisé et corrigé avec Claude Sonnet 4.6.

Ce blogue accompagne le webinaire complet : Soins infirmiers à l’ère des hypertrucages, ACESI-RQ, 29 avril 2026


Introduction : Une crise épistémique au cœur du soin

Aujourd’hui, l’illusion est devenue démocratique. Il suffit d’une simple requête sur une application grand public pour générer, en quelques secondes, une photo d’un réalisme saisissant présentant n’importe qui comme une personne professionnelle de la santé dans un hôpital universitaire. Cette accessibilité fulgurante de l’intelligence artificielle (IA) propulse les soins infirmiers dans une ère de désordre informationnel où la frontière entre le tangible et le synthétique s’efface.

Pour le personnel infirmier, il ne s’agit pas d’un simple défi technologique. C’est une véritable crise épistémique : et si ce que nous croyions « vrai » reposait désormais sur des fondations manipulables ? Ce n’est plus seulement le corps ou l’esprit du patient qui est vulnérable, c’est aussi sa capacité à naviguer dans un espace informationnel contaminé.

La santé numérique est devenue une troisième dimension du soin, au même titre que la santé physique et la santé mentale. L’information peut soigner, mais elle peut aussi tromper et nuire. Le soin ne s’arrête plus au corps et à l’esprit. Il doit aussi protéger l’humain dans l’espace informationnel.

Cinq alertes ont été au cœur du webinaire présenté le 29 avril 2026 à l’ACESI-RQ. Elles s’adressent à l’ensemble du personnel infirmier, peu importe le milieu de pratique : soins directs, communautaire, santé publique, santé mentale, recherche, formation, gestion ou politique de santé. Les hypertrucages ne frappent pas seulement au chevet du patient. Ils circulent dans les familles, les milieux scolaires, les organismes communautaires, les lieux de travail, partout où le personnel infirmier exerce son influence professionnelle et sociale.

À retenir en 20 secondes :

  • Le risque des hypertrucages n’est pas le contenu faux en lui-même, c’est la décision de santé qu’il déclenche.
  • Ni l’expertise ni le niveau de scolarité ne protègent contre une manipulation qui cible le système émotionnel, pas le raisonnement.
  • Le personnel infirmier, dans tous ses milieux de pratique, dispose d’outils concrets pour devenir un acteur de l’immunité informationnelle des personnes qu’il accompagne.

Quelques définitions pour situer le propos. La mésinformation désigne la diffusion non intentionnelle d’informations fausses ou trompeuses, souvent motivée par une volonté de bien faire. La désinformation est délibérée : elle vise à tromper, influencer ou polariser à des fins politiques, économiques ou idéologiques. La sous-information stratégique correspond à la rétention volontaire d’informations pertinentes, créant un vide cognitif propice à la manipulation. La fraude synthétique, enfin, désigne l’utilisation malveillante de contenus générés par IA, voix, images ou vidéos, pour usurper une identité ou orchestrer une fraude. Les hypertrucages (deepfakes) sont l’outil central de cette dernière catégorie.

Alerte 1 : Le danger n’est pas le contenu, c’est la décision

Il est tentant de se focaliser sur le « réalisme » d’un hypertrucage. C’est une erreur de perspective. Le véritable péril ne réside pas dans l’image, il réside dans ce qu’elle provoque : le risque n’est pas seulement le faux contenu qui est partout, c’est la décision que ce faux contenu déclenche.

Pour comprendre ce mécanisme, il faut visualiser la cascade complète qui mène de l’illusion numérique à la morbidité évitable. Elle se déroule en quatre temps. D’abord, le faux plausible : un contenu synthétique crédible, conçu pour ressembler à une source d’autorité médicale ou de santé publique. Ensuite, la confiance usurpée : l’apparence d’autorité, un ton rassurant et émotionnel, une familiarité qui désactive l’esprit critique. Puis la décision altérée : adhésion à un faux traitement, retard dans la recherche d’aide, confusion et doutes persistants. Et enfin, le dommage évitable : aggravation de l’état de santé, impact sur les proches, coût humain et sociétal.

Pour le personnel infirmier, quel que soit le contexte de pratique, cela se traduit par une charge éthique nouvelle. Que ce soit dans un suivi en santé communautaire, un programme d’éducation à la santé, une intervention en santé mentale ou un accompagnement de fin de vie, le défi est le même : déconstruire des certitudes impeccables que la personne accompagnée juge absolument fondées. Le danger survient lorsqu’une personne, exposée à la répétition de messages synthétiques, développe de faux souvenirs, une conviction ancrée d’avoir vu une preuve scientifique, et décide en conséquence de rejeter un suivi recommandé.

Plus subtil encore, la sous-information stratégique, soit l’acte de filtrer ou de taire volontairement des vérités pour créer des vides cognitifs, prépare le terrain à cette manipulation. L’hypertrucage n’est alors que l’outil final d’un contrôle narratif visant à altérer le jugement d’une personne sur sa propre santé.

Alerte 2 : L’expertise ne protège pas — le piratage du système limbique

On croit souvent, à tort, qu’un haut niveau de scolarité constitue un bouclier contre la manipulation. C’est une illusion dangereuse qui ignore le fonctionnement du cerveau humain. Les hypertrucages ne visent pas les filtres intellectuels ; ils ciblent le système limbique et ses déclencheurs émotionnels : deuil, isolement, urgence, familiarité, autorité.

Selon Hany Farid, chercheur à UC Berkeley et expert en analyse forensique numérique, les évolutions de l’IA se mesuraient généralement sur des cycles de 12 à 18 mois, mais aujourd’hui on ne parle plus en mois ou en années, plutôt en semaines, parfois même en jours. La capacité de réplication des émotions humaines en temps réel a atteint un seuil critique.

Une chercheuse en neurosciences, experte de la cognition humaine, a été victime d’une arnaque amoureuse sophistiquée alors qu’elle était fragilisée par le deuil et l’isolement durant la pandémie. Malgré un scepticisme initial, l’envoi de multiples vidéos personnalisées, des hypertrucages d’une fluidité parfaite, a court-circuité son analyse rationnelle. Elle a transféré 17 000 livres sterling à une identité entièrement synthétique avant de réaliser l’imposture.

Cette tragédie illustre que la compétence intellectuelle est impuissante face à une technologie qui exploite le besoin de connexion humaine. L’ingénierie sociale combinée à l’IA générative exploite nos biais cognitifs, ces schémas de pensée trompeurs et faussement logiques, avec une précision redoutable : urgence d’agir, autorité perçue, familiarité excessive.

Le personnel infirmier accompagne des personnes en situation de vulnérabilité dans des contextes extrêmement variés : suivi postnatal à domicile, groupe de soutien communautaire, programme scolaire de promotion de la santé, réhabilitation en santé mentale, coordination de cas en milieu rural, soins palliatifs. Dans chacun de ces contextes, les groupes les plus exposés aux hypertrucages sont souvent les mêmes que ceux accompagnés au quotidien : personnes âgées, personnes en deuil, personnes isolées, personnes vivant avec une maladie chronique ou un trouble de santé mentale. Leurs déclencheurs émotionnels sont précisément ceux que la manipulation synthétique cible en priorité. Personne n’est à l’abri, et la proximité professionnelle du personnel infirmier avec ces personnes en fait un acteur central de la protection.

Alerte 3 : La science de façade, les cas réels et l’effritement du pilier épistémique

L’érosion du savoir scientifique s’accélère avec l’émergence du workslop : du contenu généré par IA qui crée l’illusion du progrès, rapports bien structurés, articles soignés, résumés étoffés, mais qui est vide ou faux en profondeur. Le terme, issu d’une étude conjointe de BetterUp Labs et du Stanford Social Media Lab, désigne ce travail de façade qui laisse aux autres le soin de faire la vraie réflexion et le vrai nettoyage. Des analyses ont documenté sa diffusion à grande échelle dans les milieux professionnels.

Dans la littérature biomédicale, le phénomène est documenté et alarmant. Plus de 400 articles copiés-collés générés par IA ont été identifiés dans la littérature scientifique, publiés dans 112 revues entre 2021 et 2025, dont 37 % chez Springer Nature et 32 % chez Frontiers. Issus de la même base de données publique (NHANES) et réécrits avec ChatGPT et Gemini, ces textes ont passé les contrôles anti-plagiat sans être détectés. Il suffit de 2 heures de « nettoyage humain » pour rendre un manuscrit généré par IA publiable. L’explosion de ce phénomène suit directement la démocratisation de ChatGPT en 2022.

Pour le personnel infirmier engagé en recherche, en formation continue, en élaboration de politiques ou en pratiques fondées sur les données probantes, ce constat est fondamental : les sources sur lesquelles reposent les pratiques sont elles-mêmes susceptibles d’être contaminées.

Un cas particulièrement frappant, le fossile numérique, illustre la profondeur de cette contamination. L’expression « vegetative electron microscopy », un terme absurde et scientifiquement inexistant, a commencé à apparaître dans des articles publiés. Cette phrase est née d’un bug de scan d’un document des années 1950, mal traduit, repris, intégré, et aujourd’hui gravé dans les données d’entraînement de l’IA. Elle est devenue, aux yeux de certains modèles, une vérité scientifique. Ces erreurs, renforcées et disséminées par les modèles d’IA puis reprises par d’autres outils ou chercheurs, constituent un bruit de fond quasi indétectable, presque impossible à corriger, car les filtres automatiques risquent aussi d’éliminer de vraies références.

L’empoisonnement intentionnel des modèles. L’intégration de seulement 250 documents « empoisonnés » suffit à altérer durablement un modèle de langage, même parmi des milliards de données saines. Ces poisoning attacks injectent de fausses informations dans les jeux d’entraînement. Le modèle apprend alors des biais, des erreurs ou des « portes dérobées » invisibles. Contrairement aux hallucinations accidentelles, cette contamination du savoir est ici intentionnelle.

Quand l’autorité en santé est usurpée : cas réels

Le faux ne circule plus seulement dans les réseaux sociaux grand public. Il infiltre directement l’espace des soins, de la santé publique et de l’éducation à la santé à travers le vol de l’autorité professionnelle.

L’affaire Dr Jonathan Shaw. Un hypertrucage vidéo diffusé sur Facebook mettait en scène le Dr Shaw en train de critiquer l’usage de la metformine, médicament courant dans le traitement du diabète de type 2. Le vecteur était constitué du visage du médecin reconnu, recyclé par des scripts automatisés, sur un ton provocateur. L’impact a été immédiat : confusion sévère chez les personnes patientes, arrêts de traitement non supervisés, et risques légaux et réputationnels majeurs pour les professionnels concernés.

L’affaire Serge Hercberg. Des hypertrucages vidéo diffusés sur YouTube usurpaient l’identité du nutritionniste français Serge Hercberg avec blouse, nom brodé, décor médical et voix synthétique. La mise en scène était entièrement générée par IA. Diffusés en série dans un format répétitif conçu pour capter l’attention et installer la crédibilité, l’effet « médecin face caméra », ces contenus donnaient de faux conseils santé à grande échelle. Le brouillage des messages de santé publique et l’érosion de la confiance envers les professionnels ont été les conséquences documentées.

L’épidémie des TikDocs. Ce phénomène massif désigne la prolifération de faux professionnels de santé sur TikTok qui utilisent les codes visuels et rhétoriques de l’influenceur, blouse blanche, ton de confidence, langage pseudo-scientifique, pour diffuser des informations non validées ou délibérément fausses. Même la Dre Theresa Tam, administratrice en chef de la santé publique du Canada, a vu son identité utilisée dans ce type de contenu. Toute personne qui se tourne vers l’information en santé en ligne, qu’elle soit accompagnée par du personnel infirmier en milieu communautaire, à domicile ou dans un programme d’autogestion, est potentiellement exposée à ces contenus.

Selon une étude de l’Association médicale canadienne (AMC / Abacus Data, janvier 2025), 62 % des Canadiens sont exposés à de la mésinformation en santé, 41 % ont perdu confiance dans les professionnels de la santé à cause de cette exposition, et 38 % ont retardé l’obtention de soins appropriés.

L’effritement du pilier épistémique

Ces phénomènes cumulés produisent trois fractures dans la confiance scientifique, trois faces d’un même pilier qui s’effrite.

Le dividende du menteur. L’existence même des hypertrucages permet désormais à n’importe quel acteur de rejeter des preuves réelles en les qualifiant de fausses. Un professionnel dont l’image a été usurpée ne peut plus facilement prouver son innocence. À l’inverse, quelqu’un ayant commis une erreur réelle peut affirmer qu’il s’agit d’un « deepfake » pour échapper à sa responsabilité.

L’incrédulité par défaut. Le public, incapable de discerner le vrai du faux, bascule dans une méfiance généralisée envers la recherche et les institutions. Ce n’est plus seulement le faux contenu qui nuit, c’est la corrosion systématique de la capacité à faire confiance à quoi que ce soit. Pour le personnel infirmier en santé publique, en promotion de la santé ou en prévention, cette méfiance se traduit par des refus de vaccination, des abandons de suivi, des résistances accrues aux messages de prévention et des ruptures dans la relation d’aide.

La violence numérique. La technologie des hypertrucages est historiquement née pour créer de la violence intime et non consentie. Des enquêtes journalistiques ont documenté l’existence de plateformes hébergeant des volumes massifs de vidéos synthétiques non consenties. Ce phénomène illustre comment une technologie née pour cibler des individus normalise progressivement la falsification des preuves numériques dans tous les domaines, y compris celui de la santé.

Quand la qualité et la fiabilité de nos connaissances, de nos politiques et de nos décisions s’appuient sur du contenu fabriqué, la crise du savoir s’amplifie.

Alerte 4 : La fin des indices visuels — l’ère du réalisme impeccable

Oubliez les conseils traditionnels : chercher des glitches, des problèmes de synchronisation labiale ou le bug des « six doigts ». Ces repères sont obsolètes et dangereux précisément parce qu’ils créent un faux sentiment de sécurité.

Comme le formule Henry Ajder, conseiller expert en deepfakes et IA, la quantité de ressources investies dans le développement de nouvelles formes de contenu génératif est nettement supérieure à celle investie dans les techniques de détection fiable. Le jeu du chat et de la souris est structurellement déséquilibré, et la détection prend du retard.

Les agents IA en temps réel imitent désormais les réactions et les émotions humaines de façon instantanée. Des cas de fraude majeure ont été rapportés où l’usurpation d’identité par visioconférence a joué un rôle central, l’illusion étant parfaite et sans artefact détectable.

Les solutions législatives ne répondent pas encore aux besoins. Elles restent réactives, fragmentées et insuffisantes à elles seules.

Si les indices techniques ne tiennent plus, la posture réflexive du personnel infirmier, dans tous ses milieux de pratique, devient un rempart essentiel.

Alerte 5 : L’agentivité épistémique comme acte de soin — S.O.I.N.S. et au-delà

Repenser la médiation en santé

L’ancien modèle de relation d’aide reposait sur trois piliers devenus fragiles : transmettre des faits, supposer la confiance acquise, et s’appuyer sur l’autorité par le titre. Ce modèle ne suffit plus dans un environnement où l’autorité peut être usurpée et les faits, fabriqués.

Qu’il s’agisse d’une infirmière en milieu scolaire qui accompagne des jeunes, d’un infirmier en santé communautaire qui travaille avec des familles, d’une gestionnaire qui oriente des politiques internes, ou d’un formateur qui prépare la prochaine génération de professionnels, la médiation en santé doit évoluer dans trois directions. Accompagner et revalider, parce que la transmission unidirectionnelle d’information ne suffit plus et qu’il faut co-construire la compréhension avec la personne accompagnée. Exposer les mécanismes, pour montrer comment le savoir en santé est produit et vérifié, pas seulement l’énoncer. Et assurer la transparence et la traçabilité, en fournissant des repères de production du vrai dans un monde où l’impeccable peut être fabriqué.

Soutenir l’agentivité épistémique : un cycle d’action

Face aux hypertrucages, le personnel infirmier peut soutenir l’agentivité épistémique des personnes accompagnées, c’est-à-dire leur capacité à évaluer l’information et à agir de manière autonome et éclairée, à travers un cycle de quatre étapes.

Douter stratégiquement. Aider la personne à reconnaître ses propres déclencheurs émotionnels : urgence, sentiment d’autorité, familiarité excessive. Le doute stratégique n’est pas la méfiance généralisée, c’est un outil de protection ciblé qui s’enseigne et s’accompagne.

Interroger la source. Remonter à l’origine de la vidéo, de l’image ou du message, au-delà de la plateforme de diffusion. Qui a publié ? Dans quel contexte ? Avec quelle intention ? Cette compétence s’intègre naturellement dans les programmes d’éducation à la santé, de littératie en santé ou de promotion de la santé.

Valider l’expertise. S’appuyer sur des repères et des réseaux professionnels validés plutôt que sur la popularité algorithmique. La viralité n’est pas un gage de fiabilité, c’est souvent l’inverse.

Capaciter. Prévenir sans faire peur, en redonnant à la personne le pouvoir sur ses décisions de santé. Cette étape est au cœur de la pratique infirmière dans tous les milieux : elle renforce l’autonomie et la confiance de la personne face à l’information manipulée.

Les 4 piliers de l’agentivité en contexte de soin et de bien-être

Au-delà du cycle d’action individuel, le personnel infirmier peut incarner quatre rôles complémentaires pour soutenir l’agentivité épistémique des personnes accompagnées. Ces rôles ne sont pas exclusifs à un milieu de pratique particulier : ils traversent les soins directs, la santé communautaire, la promotion de la santé, la gestion et la formation.

La personne détectrice. Repérer les anomalies informationnelles et reconnaître les situations où des personnes patientes peuvent être influencées par des contenus trompeurs. C’est une compétence de surveillance active, comparable à la vigilance clinique, mais orientée vers l’espace informationnel.

La personne éducatrice. Expliquer simplement les mécanismes de manipulation et soutenir la compréhension sans culpabiliser les personnes soignées. Le personnel infirmier en promotion de la santé, en santé scolaire ou en programmes de littératie en santé est particulièrement bien positionné pour exercer ce rôle.

La personne médiatrice. Rétablir un lien de confiance entre les savoirs en santé, les inquiétudes des personnes soignées et la relation de soin. Dans un contexte d’incrédulité par défaut croissante, ce rôle de pont entre la science et la personne est central à la pratique infirmière dans toutes ses dimensions.

La personne protectrice. Protéger les renseignements de santé, prévenir les usages malveillants et signaler les fraudes synthétiques visant les milieux de soin. Ce rôle concerne autant le personnel infirmier en gestion et en politiques qu’en pratique directe : il s’agit de défendre l’intégrité de l’espace de soin face aux intrusions du faux.

Ces quatre rôles sont complémentaires et appelés à être exercés collectivement, car c’est en agissant ensemble que le personnel infirmier peut contribuer à des milieux de soin plus humains, plus sûrs et plus bienveillants.

Le protocole S.O.I.N.S. pour la pratique quotidienne

Le protocole S.O.I.N.S. offre une réponse mémorisable aux contenus santé suspects, adaptable à tous les contextes de pratique infirmière.

Suspendre : ralentir face à l’urgence émotionnelle. Marquer un temps d’arrêt systématique devant toute information qui déclenche une réaction forte, que ce soit la peur, l’espoir d’une guérison miraculeuse ou l’indignation.

Observer : analyser la source, l’intention, la promesse et le déclencheur. Qui parle ? Y a-t-il une demande d’argent ou une promesse non validée ?

Interroger : questionner qui parle, qui gagne, quelle preuve est apportée. Remonter à l’origine du contenu au-delà de la plateforme sociale.

Naviguer : recouper avec des sources fiables et validées en santé. Orienter vers des références institutionnelles ou professionnelles vérifiables.

Sécuriser : documenter, orienter, signaler, accompagner. Dans les contextes où un suivi est possible, noter ces interactions permet de prévenir de futures expositions et d’assurer la continuité de l’accompagnement.

Quand les indicateurs traditionnels de crédibilité, voir, entendre, reconnaître, vérifier, deviennent instables, les personnes accompagnées ont besoin d’un soutien renforcé : comprendre comment le savoir se fabrique, comment il se déforme, et comment prendre position de manière responsable. Ce travail d’accompagnement épistémique appartient pleinement à la pratique infirmière, dans toute sa diversité.

Conclusion : Vers une immunité collective

L’intelligence artificielle n’est pas une menace monolithique. Utilisée avec éthique, elle est extraordinaire : elle permet aux patients aphones de préserver leur propre voix avant de la perdre, pour continuer à parler à leurs proches avec leur voix réelle, brise l’isolement des personnes âgées par des agents d’accompagnement bienveillants, ou soutient l’accès aux soins dans des régions éloignées.

Mais il faut admettre une réalité nouvelle : l’information est désormais un déterminant de la santé. L’hygiène informationnelle n’est plus une compétence accessoire. Elle est aussi fondamentale à la santé des populations que le lavage des mains ou l’asepsie.

La santé numérique est la troisième dimension du soin. La confiance scientifique est un pilier épistémique qui s’effrite sous trois pressions simultanées : le dividende du menteur, l’incrédulité par défaut et la normalisation de la violence numérique. Le personnel infirmier, dans tous ses milieux et toutes ses fonctions, est en position stratégique pour reconnaître ces fractures et contribuer à bâtir une immunité collective face au faux.

Le personnel infirmier possède-t-il aujourd’hui les outils pour reconnaître une infection informationnelle chez les personnes qu’il accompagne, à la manière d’un risque clinique : repérage, évaluation, intervention, suivi ?

L’hygiène informationnelle est désormais un acte de soin.


Pour aller plus loin, visionnez le webinaire complet : Soins infirmiers à l’ère des hypertrucages, ACESI-RQ, 29 avril 2026


© 2026 Nadia Naffi, PhD | CC BY-NC-ND 4.0