ARTICLE
25 July 2025

Veo 3 : La Nouvelle IA De Google Entre Innovation Et Dérives

HA
Haas Avocats

Contributor

HAAS Avocats, a French law firm, defends and protects national and international clients in the fields of French intellectual property, new information and communication technologies, data protection, e-commerce, e-marketing and business law.
A l'ère de l'intelligence artificielle, Google dévoile Véo3, une IA générative capable de produire des vidéos ultra réalistes à partir de simples prompts. Accessible aux Etats Unis depuis mai 2025...
France Technology

A l'ère de l'intelligence artificielle, Google dévoile Véo3, une IA générative capable de produire des vidéos ultra réalistes à partir de simples prompts. Accessible aux Etats Unis depuis mai 2025, elle est disponible en France depuis juillet 2025.

Cependant, des abus dans l'utilisation de cette IA se font déjà connaître et font polémique. Cela interroge alors sur les risques que pose Véo3 et sur les moyens de contournement de ces risques.

Qu'est-ce que Véo3 précisément ?

Véo3 est un outil d'IA développé par Google qui convertit des idées en vidéos réalistes. En effet, Véo3 est disponible via Gemini, l'assistant IA de Google, à partir duquel il suffit d'écrire un prompt dans lequel on indique une description et Véo3 se charge du reste : Génération de la vidéo, création du dialogue avec intonation, ajout automatique de son d'ambiance et bruitages, synchronisation labiale ultra réaliste et finalisation en 4K, le tout en quelques minutes seulement et sans aucun autre outil que l'interface numérique 1. Cet outil est accessible à condition de payer un abonnement mensuel, parfois couteux pour un particulier lambda mais véritable aubaine pour les professionnels (agences de marketing et publicités, créateurs de contenus, entreprises).

Quels sont les risques que Véo3 peut poser 

Bien que révolutionnaire de par ses prouesses technologiques, Véo3 a toutefois un aspect plus inquiétant. En effet, la création si facile de telles vidéos peut mener à des dérives.

Distinction difficile entre le réel et le faux

Véo3 génère des vidéos extrêmement réalistes, à tel point qu'elles remettent en question notre capacité à distinguer le vrai du faux. En effet, dans les vidéos créées par Véo3, les défauts sont rares pour ne pas dire imperceptibles à vitesse normale pour des utilisateurs lambda. Ce niveau de réalisme inquiète d'ailleurs les professionnels et notamment les journalistes qui auront du mal à distinguer quelle information est vraie ou fausse lorsqu'elle apparaîtra sur internet. De fait, à partir d'un simple prompt, toute personne pourrait créer une vidéo mettant en scène un faux discours politique, une interview truquée, un faux fait divers tragique, etc 2. Au vu de la vitesse à laquelle les contenus sont relayés sur les réseaux sociaux, de telles vidéos créées par IA pourraient avoir un impact inquiétant sur la population.

Dérives racistes et antisémites

L'impact le plus néfaste de Véo3 concerne sans aucun doute ses dérives racistes et antisémites. En effet, cette technologie étant ouverte à toute personne, certains utilisateurs malveillants ont eu l'idée de créer des contenus racistes et haineux. Reconstitutions de l'époque esclavagiste aux Etats-Unis, gorilles humanisés pour représenter des personnes de couleur noire, représentation de personnes noires comme des criminels, policiers blancs tuant des personnes noires, famille asiatique en train de manger un chien, personnes de religion juive en train de courir après de l'argent 3 ; Véo3 a pu créer de telles vidéos reprenant des stéréotypes et clichés racistes. Le succès de ces contenus haineux est aussi rapide qu'inquiétant, plusieurs millions de personnes les visionnent, les « likent » et s'abonnent aux comptes qui les publient.

Problématiques du droit d'auteur

Pour le développement de Véo3, Google aurait exploité massivement des vidéos YouTube, sans consentement explicite ni rémunération des créateurs 4. Cela pourrait supposer une éventuelle violation du droit d'auteur des créateurs dans les cas où Véo3 produirait une vidéo qui reprendrait les codes « originaux » d'un ou plusieurs créateurs. Toutefois, ces derniers sont soumis à une licence YouTube, laquelle ne prévoit aucun refus possible à l'usage de l'IA ni aucune compensation laissant les créateurs dans le flou concernent leurs droits.

Quels sont les moyens pour limiter les risques ?

Afin de limiter les risques que peuvent poser Véo3, Google a mis en Suvre certaines pratiques. Un système de filigrane numérique invisible sera ajouté en bas à droite de chaque vidéo générée par Véo3 pour empêcher la copie non autorisée et pour tracer l'origine du fichier afin de l'identifier clairement comme générée par IA. Cependant, cette idée, bien qu'ingénieuse, est très facilement contournable pour des personnes ayant des compétences en informatique 5. Cela peut aussi entraîner des conséquences négatives puisque les créateurs de vidéos réelles pourraient inclure le filigrane et faire passer une réalité pour de la création numérique. Aussi, Google impose certaines règles : Impossibilité de générer des célébrités, pas de continuité vocale entre plusieurs vidéos, nombre de rendus limités. Cependant, les utilisateurs malveillants sont souvent plus rapides et plus malins et parviennent à contourner les garde-fous imposés par les géants du numérique et un véritable marché de partage de prompts permettant de créer des contenus haineux a pu voir le jour. A côté, les plateformes elles-mêmes mettent tout en Suvre pour supprimer les contenus problématiques et bannir les utilisateurs déviants. Toutefois, à la vitesse à laquelle les vidéos se répandent sur internet et notamment sur TikTok il est tout bonnement impossible de bloquer tout contenu indésirable. De fait, les solutions sont louables mais leurs effets encore trop insuffisants.

La question de la responsabilité

Lorsque des vidéos sont créées puis publiées sur les réseaux sociaux alors qu'elles reproduisent des contenus illicites, haineux ou racistes, la question de la responsabilité est complexe et partagée. Elle engage tant les plateformes qui doivent absolument développer des outils de détection de contenus IA propageant des messages de haine, que les développeurs d'IA qui doivent être en mesure de sécuriser les modèles avant leur sortie publique, et les utilisateurs ou influenceurs qui ne doivent pas créer ni partager de tels contenus, lesquels risquent jusqu'à 1 an de prison et 45 000 euros d'amende lorsqu'ils ont participé à la création de la vidéo de manière active et conscients du caractère raciste du prompt. L'IA elle-même, toutefois, se contente de créer une vidéo à partir d'un prompt et en fonction des données qu'elle peut récolter sur internet, elle n'est qu'un outil dans la création du contenu illicite et non pas un responsable.

Quel avenir pour Véo3 ?

Les dérives  déjà existantes dans l'utilisation de Véo3 ne sont pas réellement une surprise. Ce n'est pas la première fois qu'une IA fait polémique. En 2016, une IA de Microsoft et Bing à but conversationnel, Tay, formulait des réponses sur X, anciennement Twitter, qui avaient parfois un fond raciste, haineux et qui répandait de fausses informations 6. Et, bien qu'aux Etats Unis, la liberté d'expression l'emporte parfois sur de tels contenus, la régulation européenne est plus sévère et n'hésite pas à condamner les entreprises à des amendes exorbitantes si elles ne respectent pas les règles mises en place pour réguler les dérives technologiques. Véo3 constitue une prouesse technologique de sorte qu'elle connaîtra sans aucun doute un grand succès. Cependant, ses créateurs devront s'assurer de tout mettre en Suvre pour limiter les dérives dans son utilisation.

Les dérives qui existent déjà dans l'utilisation de Véo3 constituent bien plus qu'un simple fait divers numérique. C'est un signal d'alarme pour l'industrie de la tech qui doit répondre à un défi majeur : Allier développement de la technologie et sécurité des utilisateurs. Sans l'édiction de règles strictes, d'une sécurité renforcée et d'une modération efficace, les plus belles prouesses technologiques peuvent devenir de véritables armes de désinformation et de haine.

Footnotes

1.  https://myconnecting-ia.com/blog/veo-3-ia-qui-fait-parler-vos-idees/

2. https://www.radiofrance.fr/franceinfo/podcasts/le-vrai-ou-faux/veo-3-l-ia-de-google-qui-menace-la-fiabilite-des-images-6323690

3. https://www.bfmtv.com/tech/google/des-policiers-chassant-des-personnes-noires-des-asiatiques-cuisinant-du-chien-sur-les-reseaux-sociaux-des-videos-racistes-generees-avec-l-ia-de-google-cartonnent_AV-202507030828.html

4. https://www.leptidigital.fr/rgpd-donnees-confidentialite/google-veo3-polemique-createurs-youtube-79226/

5.  https://www.presse-citron.net/fausses-videos-google-veo-3-filigrane/

6. https://information.tv5monde.com/societe/les-derives-racistes-de-veo-3-la-nouvelle-intelligence-artificielle-hyperrealiste-de-google-2783358

The content of this article is intended to provide a general guide to the subject matter. Specialist advice should be sought about your specific circumstances.

Mondaq uses cookies on this website. By using our website you agree to our use of cookies as set out in our Privacy Policy.

Learn More