Sur les réseaux sociaux, tout va très vite. Trop vite parfois. À peine le temps de scroller que déjà, une nouvelle trend surgit, un filtre fait fureur, un algorithme s’emballe. Mais il arrive aussi que la machine déraille sévèrement. C’est ce que met en lumière un rapport de l’organisation espagnole Maldita : malgré une interdiction claire, des milliers de vidéos générées par intelligence artificielle, mettant en scène des mineurs sexualisés, circulent sur TikTok et engrangent likes, abonnés et visibilité. Un bad buzz qui ne fait rire personne, même si l’emballage reste celui, clinquant et trompeur, des réseaux sociaux
Donc, selon cette enquête, plus d’une vingtaine de comptes ont publié à eux seuls plus de 5 200 vidéos montrant de jeunes filles affublées de bikinis, d’uniformes scolaires ou de tenues moulantes. Le tout servi à la sauce algorithmique, avec près de 550 000 abonnés au compteur et environ 6 millions de likes. Autrement dit, un carton plein côté stats, mais un crash total côté éthique. Sur une plateforme où l’on chasse normalement le contenu problématique plus vite qu’un faux compte de dropshipping, ces vidéos ont trouvé le moyen de s’incruster dans le fil d’actualité comme un spam bien planqué.
Quand le scroll mène hors plateforme
Le rapport ne s’arrête pas là. En fouillant les commentaires, Maldita a découvert des liens renvoyant vers des plateformes externes, notamment des groupes Telegram, où serait vendue de la pornographie enfantine. Douze de ces groupes ont été identifiés et signalés aux autorités espagnoles. Là, on quitte clairement le terrain du simple dérapage algorithmique pour entrer dans celui, bien réel, de réseaux criminels. Le genre de lien sur lequel on ne devrait jamais cliquer, même par curiosité malsaine, et qui montre à quel point les réseaux peuvent devenir des autoroutes vers le pire quand les garde-fous lâchent.
Autre point sensible : l’argent. Car sur TikTok, le like n’est pas qu’un petit cœur virtuel, c’est aussi une monnaie d’échange. Certains comptes incriminés génèrent des revenus en vendant des vidéos et des images créées par IA via le service d’abonnement de la plateforme. Un système où les créateurs touchent une redevance mensuelle, tandis que TikTok récupère environ la moitié des bénéfices. Résultat : des contenus interdits, mais monétisés. Un paradoxe qui fait grincer des dents et lever plus d’un sourcil, même chez les habitués des conditions générales à rallonge.
Réseaux sociaux sous surveillance parentale mondiale
Ce rapport arrive dans un contexte où la question de la protection des mineurs en ligne est devenue un vrai sujet de société. Plusieurs pays, comme l’Australie, le Danemark ou encore des instances de l’Union européenne, ont déjà instauré ou débattent de restrictions d’accès aux réseaux sociaux pour les moins de 16 ans. Une tentative de mettre un contrôle parental à l’échelle nationale, histoire de limiter les dégâts dans un univers numérique où tout est conçu pour capter l’attention, parfois au détriment du bon sens.
Officiellement, TikTok impose aux créateurs de signaler l’usage de l’IA dans leurs vidéos. Les contenus jugés préjudiciables peuvent être supprimés, conformément aux règles de la communauté. Sur le papier, le règlement est carré, bien aligné, prêt à être appliqué. Dans la réalité, Maldita a constaté que la majorité des vidéos analysées ne comportaient ni filigrane ni indication permettant d’identifier clairement l’utilisation de l’IA. Autrement dit, l’étiquette “contenu généré” s’est volatilisée en chemin.
Certaines vidéos affichaient toutefois un filigrane “TikTok AI Alive”, apposé automatiquement lorsque la plateforme transforme des images fixes en vidéos. Un petit autocollant numérique qui dit : “Ceci est de l’IA”, mais qui arrive souvent trop tard, une fois que la vidéo a déjà fait le tour des feeds.
Modération : chiffres XXL et promesses en majuscules
Face aux critiques, les plateformes concernées assurent être sur le pont. Telegram explique analyser les médias publiés sur ses espaces publics et les comparer à des contenus déjà identifiés pour empêcher leur diffusion. La plateforme met en avant le fait que les criminels doivent passer par des groupes privés et par d’autres réseaux pour se développer, preuve, selon elle, de l’efficacité de sa modération. En 2025, Telegram affirme avoir supprimé plus de 909 000 groupes et canaux liés à des contenus pédophiles. Un chiffre qui donne le vertige et rappelle l’ampleur du problème.
De son côté, TikTok se veut rassurant. La plateforme indique que la quasi-totalité des contenus nuisibles aux mineurs sont supprimés automatiquement et que la grande majorité des contenus offensants générés par l’IA sont retirés de manière proactive. Elle affirme fermer immédiatement les comptes partageant des contenus sexuellement explicites impliquant des enfants et les signaler aux autorités compétentes. Entre avril et juin 2025, TikTok dit avoir supprimé plus de 189 millions de vidéos et banni plus de 108 millions de comptes. Des chiffres dignes d’un nettoyage de printemps version industrielle.
Algorithmes, responsabilités et lignes rouges
Reste une question centrale : comment autant de contenus ont-ils pu passer entre les mailles du filet ? Les algorithmes, conçus pour booster ce qui engage, peuvent parfois devenir de redoutables amplificateurs. Un like en appelle un autre, un partage déclenche une avalanche de vues, et soudain, un contenu problématique se retrouve propulsé sous les projecteurs. Les réseaux sociaux adorent les chiffres qui montent, mais ils doivent aussi apprendre à repérer ceux qui devraient rester à zéro.
L’intelligence artificielle, outil puissant s’il en est, n’est ni bonne ni mauvaise en soi. Tout dépend de l’usage qu’on en fait. Dans ce cas précis, elle sert de masque numérique, de filtre trompeur, permettant de produire à la chaîne des images qui posent de graves questions éthiques et légales. Un peu comme un deepfake de mauvais goût qui aurait échappé à tous les modérateurs.
Ne pas confondre viral et vital
Sur les réseaux, on parle souvent de “contenu viral”. Mais certaines choses ne devraient jamais l’être. Derrière les statistiques flatteuses, les likes en cascade et les abonnements qui grimpent, il y a des réalités graves, des risques bien réels et des responsabilités partagées. Les plateformes, les créateurs, les autorités et les utilisateurs ont tous un rôle à jouer pour que la ligne rouge ne soit pas franchie.
Dans ce grand théâtre numérique où chacun cherche sa minute de gloire, il est urgent de rappeler que tout n’est pas “réglo”. Que certains contenus ne sont ni tendance, ni fun, ni acceptables. Et que, parfois, le vrai courage sur les réseaux sociaux, ce n’est pas de poster plus, mais de supprimer vite, fort et sans hésiter. Parce qu’un feed propre vaut mieux qu’un buzz sale, et qu’en matière de protection des mineurs, il n’y a pas de filtre qui tienne.
Source : Euronews
