ARTICLE
28 October 2025

L'actualité juridique numérique de la semaine –27 octobre 2025

HA
Haas Avocats

Contributor

HAAS Avocats, a French law firm, defends and protects national and international clients in the fields of French intellectual property, new information and communication technologies, data protection, e-commerce, e-marketing and business law.
Dans cet article, Le Figaro analyse comment les géants de l'intelligence artificielle cherchent à redéfinir l'accès au web en lançant leurs propres navigateurs dopés à l'IA.
France Technology
Haas Avocats are most popular:
  • within Environment topic(s)

Actualité 1 - ChatGPT Atlas, Comet… Avec leurs navigateurs, les géants de l'IA veulent devenir la nouvelle porte d'entrée sur Internet

Dans cet article, Le Figaro analyse comment les géants de l'intelligence artificielle cherchent à redéfinir l'accès au web en lançant leurs propres navigateurs dopés à l'IA.

Contexte
L'article s'inscrit dans un moment charnière où l'IA générative transforme les usages numériques. Après la guerre des modèles d'IA, les grandes entreprises technologiques investissent désormais dans les navigateurs intelligents pour contrôler l'expérience utilisateur et capter l'entrée sur Internet.

Résumé des faits

  • OpenAI a lancé un navigateur appelé Atlas, capable d'interagir avec le web de manière autonome et d'effectuer des recherches contextuelles.
  • Google développe Comet, un navigateur intégrant nativement des fonctions d'IA conversationnelle.
  • Ces outils visent à remplacer les moteurs de recherche traditionnels en proposant une interface où les réponses sont générées directement par l'IA.
  • Les entreprises du secteur (OpenAI, Google, Microsoft, Perplexity AI) se livrent une bataille pour devenir la « porte d'entrée » unique vers le web.
  • Cette évolution pourrait transformer les modèles économiques du numérique en recentrant la monétisation sur l'assistant IA plutôt que sur la publicité ciblée classique.
  • Le risque d'un écosystème fermé, où un navigateur IA concentre données et trafic, alimente le débat sur la concentration du pouvoir numérique.

Impact juridique
Cette mutation soulève plusieurs enjeux juridiques majeurs. D'une part, les autorités de la concurrence pourraient s'intéresser à la domination de certains navigateurs IA, assimilables à des « gatekeepers » au sens du Digital Markets Act. D'autre part, l'intégration de fonctions conversationnelles et de collecte massive de données pose la question du respect du RGPD et du consentement éclairé des utilisateurs. Enfin, la régulation européenne à venir sur l'intelligence artificielle (AI Act) imposera des exigences de transparence et de responsabilité aux éditeurs de ces navigateurs intelligents, notamment lorsqu'ils influencent les résultats de recherche ou les décisions des utilisateurs.

Lien vers l'article sur la source :  https://www.lefigaro.fr/medias/chatgpt-atlas-comet-avec-leurs-navigateurs-les-geants-de-l-ia-veulent-devenir-la-nouvelle-porte-d-entree-sur-internet-20251022

Actualité 2 - Diffamation : qualité de personne visée en cas d'imputations allusives ou déguisées

Dalloz Actualité analyse une décision récente qui précise dans quelles conditions une personne peut être considérée comme visée par des propos diffamatoires, même lorsqu'elle n'est pas expressément nommée.

Contexte
La question de la diffamation allusive ou déguisée se pose fréquemment dans le cadre de publications médiatiques ou de communications publiques où les propos ne désignent pas directement la personne concernée, mais permettent au public de l'identifier. La jurisprudence doit alors déterminer si l'action en diffamation est recevable au regard de la loi du 29 juillet 1881 sur la liberté de la presse.

Résumé des faits

  • La Cour de cassation rappelle que l'article 29 alinéa 1er de la loi de 1881 permet d'agir en diffamation dès lors qu'une personne identifiable est visée, même si elle n'est pas nommée explicitement.
  • Le juge doit apprécier si le public, compte tenu du contexte et des éléments de l'article ou du discours, peut raisonnablement identifier la personne concernée.
  • Dans l'affaire commentée, les propos faisaient référence à une « ancienne collaboratrice parlementaire », sans citer de nom, mais le contexte rendait cette identification possible.
  • La cour a confirmé que cette personne pouvait donc être considérée comme visée par les imputations litigieuses.
  • Cette position renforce la protection contre les atteintes à la réputation formulées de manière implicite ou détournée.

Impact juridique
Cette décision réaffirme une interprétation large de la notion de « personne visée » dans les actions en diffamation. Elle rappelle aux auteurs et aux médias que l'absence de nomination explicite ne suffit pas à exclure la responsabilité pénale ou civile. Le critère déterminant reste la possibilité pour le public d'identifier la personne évoquée. Sur le plan pratique, cette position impose une vigilance accrue dans la rédaction d'articles, de tribunes ou de contenus diffusés en ligne, car même des allusions peuvent constituer une diffamation publique au sens de la loi de 1881.

Lien vers l'article sur la source :  https://www.dalloz-actualite.fr/flash/diffamation-qualite-de-personne-visee-en-cas-d-imputations-allusives-ou-deguisees

Actualité 3 - Les Français sont-ils prêts à payer pour des services en ligne sans publicité ciblée

La CNIL présente une étude qui examine la disposition des Français à souscrire à un abonnement payant pour accéder à des services en ligne sans publicité ciblée.

Contexte
Dans un paysage numérique où une large part des services « gratuits » est financée par la publicité ciblée (et donc par le traitement de données personnelles), le modèle économique de l'Internet est remis en question. Face à cela, certains modèles « consentir ou payer » (accepter le suivi des données publicitaires ou payer pour l'éviter) gagnent en visibilité. La CNIL a souhaité interroger les utilisateurs français sur leur volonté de basculer vers un modèle payant afin de mieux protéger leur vie privée. 

Résumé des faits

  • L'étude en ligne, réalisée du 18 au 23 décembre 2024 auprès d'un échantillon représentatif de 2 082 Français âgés de 15 ans et plus, s'est intéressée à la disposition à payer pour des services sans publicité ciblée. 
  • Pour les services de vidéo à la demande, 56 % des sondés paient déjà un abonnement (montant moyen ~20 €/mois). Pour la musique en ligne, 27 %; pour les jeux vidéo, 18 %. 
  • Pour d'autres services traditionnellement gratuits et financés par la publicité (presse en ligne, réseaux sociaux, IA générative, suivi santé), moins de 10 % des usagers ont un abonnement payant aujourd'hui. 
  • Toutefois, entre 24 % et 33 % des personnes sondées déclarent être prêtes à payer pour ces services pour les libérer de la publicité ciblée. 
  • Selon le type de service, la part des internautes prêts à payer varie de 25 % à 48 %, avec un prix mensuel médian acceptable estimé entre 5,50 € et 9 €. Par exemple : 48 % seraient prêts à payer ~8 €/mois pour la musique en ligne, 42 % ~6,50 €/mois pour la vidéo à la demande, 31 % ~5,50 €/mois pour la presse en ligne. 
  • Le sondage montre que la protection des données est une préoccupation croissante : 51 % des répondants considèrent la protection des données parmi leurs trois critères les plus importants dans le choix d'un service numérique.

Impact juridique
Cette évolution des usages renvoie à des implications réglementaires importantes. D'une part, elle pose la question de l'équilibre entre la gratuité financée par la publicité et la protection des données personnelles, ce que la législation européenne (notamment le Règlement général sur la protection des données – RGPD) et français ne cessent de renforcer. Le fait que de nombreux utilisateurs soient prêts à payer pour éviter le profilage publicitaire renforce l'argument selon lequel le consentement au traçage doit être libre, éclairé et sans pression financière. D'autre part, il s'installe une réflexion sur le modèle économique des services numériques et sur l'éventualité d'un internet « à deux vitesses » : ceux qui paient pour ne pas être ciblés, et ceux qui restent dans un modèle financé par la publicité, ce qui pourrait poser une question d'égalité d'accès et d'inclusion numérique. Enfin, les autorités de contrôle (telles que la CNIL) pourront s'appuyer sur ces tendances pour orienter leur action - notamment en matière de transparence, d'information et de valorisation de l'alternative « non ciblée » pour les utilisateurs.

Lien vers l'article sur la source :  https://cnil.fr/fr/les-francais-sont-ils-prets-payer-pour-des-services-en-ligne-sans-publicite-ciblee

Actualité 4 - Enquête ouverte contre Apple en France concernant des enregistrements sensibles via Siri

L'Usine Digitale rapporte que le parquet de Paris a ouvert une enquête visant Apple, soupçonnée d'avoir enregistré des conversations d'utilisateurs via son assistant vocal Siri sans leur consentement explicite.

Contexte
Cette affaire s'inscrit dans un contexte européen de vigilance accrue sur les pratiques des géants du numérique en matière de collecte et de traitement des données personnelles. Siri, l'assistant vocal d'Apple, est accusé d'avoir enregistré des extraits de conversations privées, parfois déclenchées par erreur, ce qui pourrait constituer une atteinte à la vie privée et une violation du RGPD.

Résumé des faits

  • Le parquet de Paris a ouvert une enquête préliminaire pour collecte illicite de données personnelles.
  • L'affaire fait suite à une plainte déposée par la Ligue des droits de l'homme (LDH), s'appuyant sur les révélations d'un ancien sous-traitant d'Apple, Thomas Le Bonniec.
  • Celui-ci affirme que des enregistrements contenant des informations sensibles (conversations intimes, données de santé, discussions professionnelles) ont été écoutés et transcrits dans le cadre du programme d'amélioration de Siri.
  • Les enregistrements auraient été réalisés sans que les utilisateurs en soient informés, et parfois sans activation volontaire de l'assistant vocal.
  • Apple assure que seules de courtes séquences audio sont utilisées à des fins d'amélioration du service et que les traitements respectent les exigences du RGPD.
  • L'enquête a été confiée à l'OCLCTIC (Office central de lutte contre la criminalité liée aux technologies de l'information et de la communication).

Impact juridique
L'enquête pourrait constituer une étape majeure dans l'évaluation du respect par Apple de ses obligations en matière de protection des données personnelles. Si les faits étaient confirmés, ils pourraient entraîner des sanctions administratives de la CNIL ainsi que des poursuites pénales pour collecte illicite de données et atteinte à la vie privée. Cette affaire illustre la tension croissante entre innovation technologique et respect du cadre légal européen, notamment en matière de consentement explicite, de transparence et de minimisation des données. Elle pourrait également influencer la manière dont les assistants vocaux et outils d'intelligence artificielle seront encadrés dans le cadre de l'AI Act.

Lien vers l'article sur la source :  https://www.usine-digitale.fr/article/une-enquete-ouverte-contre-apple-en-france-concernant-des-enregistrements-sensibles-via-siri.N2238937

Actualité 5 - Cybermois : France Télévisions agit contre les cyber-manipulations

Le média France Télévisions met en avant ses actions menées à l'occasion du Cybermois pour lutter contre la désinformation, les deepfakes et les arnaques en ligne.

Contexte
Dans un environnement numérique de plus en plus exposé aux manipulations d'images, aux usurpations d'identité et aux fraudes en ligne, les médias jouent un rôle central dans la protection de l'information. France Télévisions s'engage ainsi à renforcer la fiabilité de ses contenus et à sensibiliser le public aux nouvelles formes de cyber-manipulations.

Résumé des faits

  • Le groupe fait face à une multiplication de fausses vidéos et images usurpant l'identité de ses animateurs ou de ses marques, souvent utilisées pour des arnaques en ligne.
  • Une cellule interne de cybersécurité travaille à la détection et au retrait rapide de ces contenus malveillants.
  • France Télévisions collabore avec VIGINUM pour former ses journalistes et lutter contre les tentatives d'ingérence numérique étrangère.
  • Le groupe adopte la norme C2PA (Coalition for Content Provenance and Authenticity) afin de certifier l'origine et l'authenticité de ses contenus audiovisuels.
  • Le dispositif inclut des actions de sensibilisation du grand public, avec des conseils pratiques pour identifier et signaler les contenus manipulés.

Impact juridique
Cette initiative renforce la responsabilité des médias dans la lutte contre la désinformation et la manipulation des contenus numériques. Elle s'inscrit dans le cadre du Digital Services Act (DSA), qui impose aux grandes plateformes et médias de garantir la transparence et la traçabilité des informations diffusées. L'adoption de la norme C2PA illustre la mise en conformité avec les futurs standards européens sur la vérification des contenus. Sur le plan pénal, la lutte contre les deepfakes et les usurpations d'identité s'appuie sur les incriminations existantes en matière de fraude, d'escroquerie et d'atteinte à la vie privée. Cette démarche contribue ainsi à consolider la confiance du public et à anticiper les obligations prévues par l'AI Act.

Lien vers l'article sur la source :  https://www.francetelevisions.fr/groupe/notre-actualite/cybermois-france-televisions-agit-contre-les-cyber-manipulations-48124

Actualité 6 - L'ère du shopping conversationnel a commencé : comment ChatGPT vient exploser les codes de l'e-commerce

Les Échos met en lumière la manière dont l'arrivée des technologies de type ChatGPT révolutionne le commerce en ligne en rendant l'expérience d'achat plus fluide, interactive et guidée.

Contexte
L'e-commerce traditionnel repose encore largement sur un modèle de recherche et de navigation : l'utilisateur cherche un produit, compare, sélectionne, achète. L'émergence des grands modèles linguistiques et assistants conversationnels ouvre un nouveau paradigme : dialoguer avec une interface intelligente pour obtenir des recommandations personnalisées, des conseils d'achat ou une aide à la décision en temps réel. Ce phénomène s'intègre dans un contexte où l'IA générative gagne en maturité, et où les entreprises cherchent à repenser leurs parcours clients pour se différencier.

Résumé des faits

  • Les technologies de type « shopping conversationnel » permettent à l'utilisateur d'engager une discussion avec un assistant numérique afin d'être guidé dans ses choix d'achat, plutôt que de simplement naviguer dans un catalogue.
  • Grâce à ChatGPT et à des modèles similaires, les plateformes peuvent proposer des interactions naturelles : poser des questions en langage courant, recevoir des recommandations personnalisées, comprendre des préférences implicites, et affiner les suggestions produits.
  • Cette approche modifie plusieurs étapes de l'entonnoir de conversion (de l'awareness à l'achat) : l'engagement client est plus interactif, l'aide à la décision plus immédiate, les frictions réduites.
  • Pour les commerçants, ce modèle ouvre des opportunités : meilleure compréhension du client, collecte de données plus riches (intentions, contexte, motivations), et potentiellement des taux de conversion renforcés.
  • Toutefois, il pose aussi des défis : pour les infrastructures informatiques, pour la qualité des recommandations (risque d'erreur ou d'orientation biaisée), et pour la relation entre marque et client (l'assistant pouvant devenir l'interface principale).

Impact juridique
L'essor du shopping conversationnel implique plusieurs enjeux juridiques à anticiper. D'abord, la personnalisation des recommandations reposant sur l'analyse de données personnelles (habitudes d'achat, préférences, historique) engage la conformité au Règlement général sur la protection des données (RGPD) : collecte légale, transparence, finalités claires, consentement, droits d'accès et d'effacement. Ensuite, l'intégration de l'IA générative dans le parcours d'achat pourrait relever du futur AI Act européen, notamment si l'assistant oriente les décisions ou “comprend” des profils de consommateurs de manière avancée. Enfin, sur le plan de la consommation, les recommandations automatisées pourraient engager la responsabilité de l'opérateur vis-à-vis de la loyauté de l'information (par exemple si l'assistant propose des produits d'une marque en favorisant son propre catalogue) et pourraient être analysées sous l'angle de la concurrence et de l'équité entre commerçants.

Lien vers l'article sur la source :  https://www.lesechos.fr/tech-medias/hightech/lere-du-shopping-conversationnel-a-commence-comment-chatgpt-vient-exploser-les-codes-de-le-commerce-2193850

Actualité 7 - Comment l'État veut lutter contre l'IA clandestine dans les services publics

Le média Le Figaro rend compte des mesures envisagées par l'État pour encadrer et repérer les usages non régulés d'intelligence artificielle au sein des administrations publiques.

Contexte
Avec l'essor de l'intelligence artificielle dans l'action publique, tant pour la simplification des démarches que pour l'aide à la décision, se pose la question des usages non officiels ou non contrôlés — ce que l'on désigne comme « IA clandestine ». Le développement rapide des outils d'IA couplé à la dématérialisation croissante des services publics crée un terrain propice à des déploiements sans supervision suffisante.

Résumé des faits

  • L'État prévoit de renforcer la surveillance et l'audit des outils d'IA utilisés dans les administrations afin d'identifier ceux qui fonctionnent sans cadre formel ou sans évaluation préalable.
  • Un programme national vise à cartographier les usages d'IA dans la fonction publique, à recenser les projets « occultes » ou non documentés, et à imposer une déclaration obligatoire de ces usages.
  • Le gouvernement entend également former davantage les agents publics aux enjeux de l'IA (transparence, explicabilité, responsabilité) afin de limiter les usages non maîtrisés ou risqués.
  • Des mesures de gouvernance sont annoncées : protocoles de validation, instances de contrôle, audits réguliers des algorithmes, et sanctions possibles en cas d'usage non conforme.
  • L'enjeu identifié est double : garantir la confiance des citoyens dans la transformation numérique de l'État, et éviter des dérives (biais algorithmiques, atteintes à la vie privée, automatisations excessives sans contrôle humain).

Impact juridique
Les mesures annoncées montrent que l'État entend inscrire les usages de l'IA dans la fonction publique dans un cadre de conformité accru avec les obligations de droit public, de protection des données et d'éthique. Cela implique que tout projet d'IA doit être préalablement analysé (par exemple via une étude d'impact), validé et suivi, ce qui accroît la responsabilité des administrations et de leurs prestataires. Par ailleurs, l'identification et la mise en conformité des usages « clandestins » d'IA pourraient donner lieu à des sanctions administratives, voire pénales, en cas de manquement aux principes de loyauté, transparence ou protection des données. Enfin, dans le contexte européen, ce renforcement s'inscrit en anticipation des obligations à venir du AI Act et du Digital Services Act, ouvrant la voie à un régime plus exigeant pour les entités publiques comme privées.

Lien vers l'article sur la source :  https://www.lefigaro.fr/conjoncture/comment-l-etat-veut-lutter-contre-l-ia-clandestine-dans-les-services-publics-20251022

The content of this article is intended to provide a general guide to the subject matter. Specialist advice should be sought about your specific circumstances.

Mondaq uses cookies on this website. By using our website you agree to our use of cookies as set out in our Privacy Policy.

Learn More