
YouTube assouplit discrètement ses règles de modération de contenu
D’après une enquête du New York Times, YouTube a discrètement revu ses règles de modération à la baisse en décembre dernier, sans en faire l’annonce officielle. Ce changement est intervenu quelques semaines avant la seconde investiture de Donald Trump à la présidence des États-Unis.
Concrètement, la plateforme autorise désormais la diffusion de vidéos qui enfreignent en partie ses règles de conduite — portant notamment sur la nudité, la violence explicite, les discours haineux ou la désinformation — si elle juge que le contenu présente un intérêt public.
Des seuils de tolérance relevés
Jusqu’ici, une vidéo pouvait rester en ligne si moins d’un quart de son contenu contrevenait aux règles. Ce seuil a été relevé : désormais, une vidéo dont la moitié du contenu enfreint les règles peut ne pas être supprimée, si elle est jugée « d’intérêt public », toujours selon le New York Times, qui a pu consulter les documents internes de formation des modérateurs.
Parmi les sujets concernés : les élections, les mouvements idéologiques, les questions de genre, de sexualité, d’avortement, d’immigration ou encore de liberté d’expression. Des thèmes que YouTube considère comme essentiels au débat public.
Un changement discret, contrairement à Meta ou X
Cette nouvelle politique a été mise en œuvre mi-décembre, via la mise à jour des supports de formation destinés aux modérateurs. Contrairement à d’autres plateformes comme Facebook ou X (anciennement Twitter), YouTube n’a pas communiqué publiquement sur cette décision.
Meta, maison mère de Facebook et Instagram, a quant à elle mis fin en janvier à la vérification des faits sur les publications — au moment même où Donald Trump reprenait ses fonctions à la Maison-Blanche. De son côté, X a supprimé la vérification des faits après son rachat par Elon Musk en 2022, la remplaçant par un système collaboratif appelé Community Notes.
Ces ajustements vont dans le sens des appels répétés de nombreux élus républicains, dont Trump, en faveur d’un assouplissement, voire d’une suppression, des mécanismes de modération sur les réseaux sociaux.
Des exemples qui posent question
Parmi les cas cités par le New York Times, une vidéo de 43 minutes sur les membres du gouvernement Trump est restée accessible, malgré une insulte visant une personne transgenre. Dans un autre cas, une vidéo sud-coréenne évoquait une mise à mort fictive d’un responsable politique par guillotine. Là encore, YouTube a décidé de la laisser en ligne, estimant que le scénario évoqué n’était « pas réaliste ».
YouTube se défend et met en avant la transparence
Contactée par la presse, la plateforme affirme avoir supprimé plus de 192 000 vidéos au premier trimestre 2025, soit une hausse de 22 % par rapport à l’année précédente. YouTube rappelle également que des rapports de transparence sur ses règles de modération sont accessibles à tous.
« Nous mettons régulièrement à jour nos règles communautaires pour suivre l’évolution des contenus présents sur la plateforme », explique Nicole Bell, porte-parole de YouTube, dans un communiqué transmis à Mashable. Elle précise que ces ajustements concernent aussi bien la suppression des règles liées au COVID-19 que l’ajout de protections contre certains contenus liés aux jeux d’argent.
Quant à l’enquête du New York Times, elle porterait selon elle sur un autre aspect de la modération : les exceptions déjà existantes pour certains contenus à caractère éducatif, documentaire, scientifique ou artistique (appelées exceptions EDSA). Ces exceptions, bien que rares, sont jugées indispensables pour préserver des vidéos jugées importantes.
« Cela nous permet, par exemple, de ne pas supprimer un podcast d’information de plusieurs heures à cause d’un court extrait contenant de la violence », explique la plateforme. Elle ajoute que ces règles sont régulièrement mises à jour pour prendre en compte l’évolution des formats (comme les podcasts longs) et les retours de sa communauté de créateurs.