Ces derniers mois, la plateforme TikTok a été inondée de vidéos courtes générées par intelligence artificielle, qui perpétuent des stéréotypes racistes et antisémites. Ces contenus, souvent limités à huit secondes, dépeignent des scènes choquantes impliquant des communautés noires, immigrées, juives ou asiatiques, en s’appuyant sur des tropes historiques ou des caricatures offensantes.
Selon un rapport de Media Matters for America, ces vidéos accumulent des millions de vues, profitant de l’algorithme de TikTok qui favorise les contenus provocateurs pour booster l’engagement des utilisateurs. Des investigations journalistiques, comme celles du Bureau of Investigative Journalism, soulignent que cette prolifération met en lumière les failles de la modération des plateformes sociales face à l’afflux de médias synthétiques.
Au cœur de cette controverse se trouve l’outil Veo 3 de Google, un générateur de vidéos à partir de texte lancé en 2025, capable de produire des clips réalistes et détaillés. Des signatures « Veo » visibles dans de nombreuses vidéos (dans le coin inférieur droit) confirment son utilisation, bien que d’autres outils comme Sora d’OpenAI soient aussi impliqués dans des cas similaires. Ces technologies, initialement conçues pour des applications créatives, sont détournées pour créer du contenu haineux, en exploitant des prompts simples qui reproduisent des biais sociétaux. Certaines de ces vidéos incluent des scènes de violence simulée contre des migrants ou des réenactements de traumas historiques, conçues pour susciter l’indignation et viraliser rapidement.
Les exemples abondent : des clips montrant des stéréotypes sur les familles noires comme absentes ou criminelles, des références antisémites au Ku Klux Klan ou à l’Holocauste, et même des attaques visuelles contre des groupes asiatiques. L’un de ces contenus a atteint 14,2 millions de vues, illustrant comment ces vidéos monétisent la haine via les fonctionnalités de TikTok et les techniques pour booster la visibilité et attirer l’attention comme l’utilisation des hashtags liés à l’IA, transformant ainsi les plateformes en vecteurs de propagation rapide de discours discriminatoires.
Face à cette vague, TikTok a réagi en supprimant des comptes et des vidéos signalés, et affirme renforcer ses politiques contre les contenus haineux et l’IA malveillante. Google, de son côté, a rappelé que Veo 3 intègre des contrôles pour prévenir les abus. Cette situation interpelle sur la responsabilité des géants tech : comme le note Le Monde, 2025 a marqué l’année où les vidéos IA ont envahi les réseaux, appelant à une régulation plus stricte pour équilibrer innovation et protection des communautés vulnérables.






















