Début du contenu principal.
On estime que 20 à 30 % des vidéos YouTube sur les maladies infectieuses émergentes contiennent également des informations inexactes ou trompeuses.
Lorsque le Dr Garth Graham pense à la désinformation en matière de santé sur les plateformes de médias sociaux, il imagine un jardin.
Peu importe à quel point ce jardin est abondant ou verdoyant, même le chef de la division mondiale de la santé de YouTube admet qu'il a souvent besoin d'être entretenu.
«Comment éliminer et extraire les mauvaises informations? s'interroge-t-il. Mais aussi (...) comment planter les graines et garantir que les gens ont accès à des informations appropriées ainsi qu'à des informations de grande qualité?»
Pour les entreprises de médias sociaux, ces questions sont devenues récurrentes et n’ont fait que gagner en importance à mesure que le nombre de plateformes s’est multiplié et que les gens ont commencé à passer de plus en plus de temps en ligne.
Désormais, il n’est pas rare de repérer des informations erronées dans presque chaque défilement dans l'écran.
Un article de 2022 publié dans le Bulletin de l’Organisation mondiale de la santé a examiné 31 études sur la prévalence de la désinformation. L’analyse a révélé des informations erronées associées aux vaccins dans jusqu’à 51 % des publications sur les réseaux sociaux, jusqu’à 28,8 % du contenu associé à la COVID-19 et jusqu’à 60 % des publications liées aux pandémies.
On estime que 20 à 30 % des vidéos YouTube sur les maladies infectieuses émergentes contiennent également des informations inexactes ou trompeuses.
Les conséquences peuvent être néfastes, voire mortelles.
Une étude du Conseil des académies canadiennes (CAC) publiée en 2023 soutient que la désinformation sur la COVID-19 a contribué à elle seule à plus de 2800 décès au Canada et à au moins 300 millions $ en visites à l'hôpital et aux soins intensifs.
Les plateformes prennent les risques au sérieux, a déclaré M. Graham dans une entrevue. «Nous sommes toujours préoccupés par tout ce qui pourrait nuire», a-t-il affirmé.
Cette préoccupation conduit souvent les plateformes à supprimer tout ce qui viole leurs politiques de contenu.
Par exemple, YouTube a interdit les contenus niant l’existence de certaines conditions médicales ou contredisant les directives des autorités sanitaires en matière de prévention et de traitement.
Des exemples intégrés dans sa politique contre la désinformation en santé montrent que l’entreprise supprime les publications faisant la promotion de la térébenthine, de l’essence et du kérosène comme traitement pour certaines conditions, car ces substances provoquent la mort. L’ivermectine, utilisée pour traiter les vers parasites chez les animaux et les humains, et l’hydroxychloroquine, un médicament contre le paludisme, ne peuvent également pas être promus comme remèdes contre la COVID-19.
En ce qui concerne les vaccins, YouTube interdit les vidéos alléguant que les vaccinations provoquent le cancer ou la paralysie.
Meta Platforms, société mère de Facebook et d'Instagram, a refusé de faire des commentaires pour cet article et TikTok n'a pas répondu à une demande de La Presse Canadienne, mais dans l'ensemble, ces sociétés ont des politiques similaires à celles de YouTube.
Pourtant, Timothy Caulfield, professeur à l'Université de l'Alberta spécialisé dans le droit et la politique de la santé, repère encore de la désinformation médicale sur les plateformes. Il a récemment demandé à ses étudiants de rechercher du contenu sur les cellules souches et plusieurs publications diffusant des thérapies non éprouvées sont apparues facilement.
Il sympathise néanmoins avec certains des défis auxquels les entreprises technologiques sont confrontées, car il considère la lutte contre la désinformation en matière de santé comme un jeu de «tape la taupe».
Il dit que les diffuseurs de fausses informations font preuve d'une certaine agilité, et qu'ils sont largement déterminés à continuer de trouver des moyens de contourner les politiques de suppression, car leurs publications peuvent augmenter leurs profits ou propager une marque ou une idéologie.
«Ils peuvent contourner les stratégies de modération, mais cela montre simplement que nous n'allons pas résoudre ce problème avec un seul outil, a déclaré M. Caulfield. Cela va être une bataille continue.»
Dans sa politique contre la désinformation publiée sur son site internet, Meta reconnaît les difficultés, affirmant que «ce qui est vrai une minute peut ne pas l'être la minute suivante».
«Les gens ont également différents niveaux d'information sur le monde qui les entoure et peuvent croire que quelque chose est vrai alors que ce n'est pas le cas», indique la politique.
Dans le but de rester au courant de tout, Meta s'appuie sur des experts indépendants pour évaluer la véracité du contenu et s'il est susceptible de contribuer directement à un préjudice imminent avant qu'il ne soit supprimé. Des organismes tiers de vérification des faits sont également engagés pour examiner et évaluer l’exactitude de son contenu le plus viral.
Chez YouTube, les employés, y compris certains qui forment un «bureau de renseignement» surveillant les publications et les actualités pour détecter les tendances qui pourraient devoir être atténuées, sont mis à contribution conjointement avec des programmes d'apprentissage automatique, qui, selon l'entreprise, sont bien adaptés pour détecter les tendances en matière de désinformation.
Le rôle des professionnels de la santé
Une certaine responsabilité incombe également aux praticiens et aux institutions de soins de santé crédibles, dont les plateformes de contenu mettent en avant des recommandations pour permettre aux utilisateurs de trouver plus facilement des informations fiables.
Le site YouTube, par exemple, s'est associé à des organisations telles que le University Health Network et le Centre de toxicomanie et de santé mentale (CAMH) de Toronto.
Le CAMH gère une chaîne YouTube où des professionnels de la santé expliquent toutes sortes de choses, de la schizophrénie aux troubles de l'alimentation. Le financement de la production provient de YouTube, mais les ressources de l'institution sont utilisées pour l'écriture du contenu et l'évaluation clinique, a déclaré la porte-parole du CAMH, Hayley Clark, dans un courriel.
M. Graham y voit un bon exemple de la façon dont la profession de la santé «rencontre les gens là où ils se trouvent», ce qui, selon lui, est «la façon dont nous luttons contre la désinformation».
«(Des informations crédibles) doivent être dans la paume des mains des gens pour qu'ils puissent avoir des conversations au dîner, afin qu'ils soient responsabilisés lorsqu'ils sont assis dans leur canapé», a-t-il fait valoir.
Mais lorsqu'il s'agit d'autres organisations et de médecins, «nous ne pouvons pas supposer qu'ils ont tous la capacité de le faire», a déclaré Heidi Tworek, professeure agrégée à l'Université de la Colombie-Britannique, dont les recherches portent sur les effets des nouvelles technologies médiatiques.
Ces organisations veulent trouver le temps de diffuser des informations crédibles, mais dans le secteur des soins de santé, à court d'argent et de temps, il y a toujours un autre patient à aider.
«Certains établissements de santé diraient : "OK, nous avons une somme d'argent X, nous devons choisir à quoi nous la dépensons. Peut-être que nous voulons la dépenser pour autre chose que les communications"», a souligné Mme Tworek.
Dans certains cas, les médecins «le font également depuis leur bureau (...) parce qu'ils pensent que cela est utile», mais cela les expose à de nouveaux risques comme des attaques en ligne et parfois même des menaces de mort.
«Certaines personnes ne veulent pas du tout entrer dans ces espaces parce qu'elles voient ce qui arrive aux autres», a-t-elle déclaré.
Pour mieux lutter contre la désinformation médicale, elle aimerait que les plateformes agissent de manière plus responsable, car elle remarque souvent que leurs algorithmes placent les contenus problématiques en tête des actualités des réseaux sociaux.
Cependant, elle et M. Caulfield conviennent que la désinformation sur la santé nécessite une approche participative.
«Les plateformes portent une grande responsabilité. Elles deviennent comme des services publics et nous connaissons l'impact qu'elles ont sur le discours public, sur la polarisation, a déclaré M. Caulfield. Mais nous devons également enseigner la pensée critique.»
Cela pourrait commencer à l'école, où les élèves pourraient apprendre à identifier des sources crédibles et à détecter quand quelque chose pourrait être incorrect — des leçons qu'il a entendues en Finlande et qui commencent à la maternelle.
Peu importe le moment et la manière dont cette éducation a lieu, il a déclaré que l'essentiel est que «nous devons donner aux citoyens les outils nécessaires pour discerner ce qu'est la désinformation».