- within Environment topic(s)
Actualité 1 - ChatGPT Atlas, Comet… Avec leurs navigateurs, les géants de l'IA veulent devenir la nouvelle porte d'entrée sur Internet
Dans cet article, Le Figaro analyse comment les géants de l'intelligence artificielle cherchent à redéfinir l'accès au web en lançant leurs propres navigateurs dopés à l'IA.
Contexte
L'article s'inscrit dans un moment charnière
où l'IA générative transforme les usages
numériques. Après la guerre des modèles
d'IA, les grandes entreprises technologiques investissent
désormais dans les navigateurs intelligents pour
contrôler l'expérience utilisateur et capter
l'entrée sur Internet.
Résumé des faits
- OpenAI a lancé un navigateur appelé Atlas, capable d'interagir avec le web de manière autonome et d'effectuer des recherches contextuelles.
- Google développe Comet, un navigateur intégrant nativement des fonctions d'IA conversationnelle.
- Ces outils visent à remplacer les moteurs de recherche traditionnels en proposant une interface où les réponses sont générées directement par l'IA.
- Les entreprises du secteur (OpenAI, Google, Microsoft, Perplexity AI) se livrent une bataille pour devenir la « porte d'entrée » unique vers le web.
- Cette évolution pourrait transformer les modèles économiques du numérique en recentrant la monétisation sur l'assistant IA plutôt que sur la publicité ciblée classique.
- Le risque d'un écosystème fermé, où un navigateur IA concentre données et trafic, alimente le débat sur la concentration du pouvoir numérique.
Impact juridique
Cette mutation soulève plusieurs enjeux juridiques majeurs.
D'une part, les autorités de la concurrence pourraient
s'intéresser à la domination de certains
navigateurs IA, assimilables à des « gatekeepers
» au sens du Digital Markets Act. D'autre part,
l'intégration de fonctions conversationnelles et de
collecte massive de données pose la question du respect du
RGPD et du consentement éclairé des utilisateurs.
Enfin, la régulation européenne à venir sur
l'intelligence artificielle (AI Act) imposera des exigences
de transparence et de responsabilité aux éditeurs de
ces navigateurs intelligents, notamment lorsqu'ils
influencent les résultats de recherche ou les
décisions des utilisateurs.
Lien vers l'article sur la source : https://www.lefigaro.fr/medias/chatgpt-atlas-comet-avec-leurs-navigateurs-les-geants-de-l-ia-veulent-devenir-la-nouvelle-porte-d-entree-sur-internet-20251022
Actualité 2 - Diffamation : qualité de personne visée en cas d'imputations allusives ou déguisées
Dalloz Actualité analyse une décision récente qui précise dans quelles conditions une personne peut être considérée comme visée par des propos diffamatoires, même lorsqu'elle n'est pas expressément nommée.
Contexte
La question de la diffamation allusive ou déguisée se
pose fréquemment dans le cadre de publications
médiatiques ou de communications publiques où les
propos ne désignent pas directement la personne
concernée, mais permettent au public de l'identifier.
La jurisprudence doit alors déterminer si l'action en
diffamation est recevable au regard de la loi du 29 juillet 1881
sur la liberté de la presse.
Résumé des faits
- La Cour de cassation rappelle que l'article 29 alinéa 1er de la loi de 1881 permet d'agir en diffamation dès lors qu'une personne identifiable est visée, même si elle n'est pas nommée explicitement.
- Le juge doit apprécier si le public, compte tenu du contexte et des éléments de l'article ou du discours, peut raisonnablement identifier la personne concernée.
- Dans l'affaire commentée, les propos faisaient référence à une « ancienne collaboratrice parlementaire », sans citer de nom, mais le contexte rendait cette identification possible.
- La cour a confirmé que cette personne pouvait donc être considérée comme visée par les imputations litigieuses.
- Cette position renforce la protection contre les atteintes à la réputation formulées de manière implicite ou détournée.
Impact juridique
Cette décision réaffirme une interprétation
large de la notion de « personne visée » dans
les actions en diffamation. Elle rappelle aux auteurs et aux
médias que l'absence de nomination explicite ne suffit
pas à exclure la responsabilité pénale ou
civile. Le critère déterminant reste la
possibilité pour le public d'identifier la personne
évoquée. Sur le plan pratique, cette position impose
une vigilance accrue dans la rédaction d'articles, de
tribunes ou de contenus diffusés en ligne, car même
des allusions peuvent constituer une diffamation publique au sens
de la loi de 1881.
Lien vers l'article sur la source : https://www.dalloz-actualite.fr/flash/diffamation-qualite-de-personne-visee-en-cas-d-imputations-allusives-ou-deguisees
Actualité 3 - Les Français sont-ils prêts à payer pour des services en ligne sans publicité ciblée
La CNIL présente une étude qui examine la disposition des Français à souscrire à un abonnement payant pour accéder à des services en ligne sans publicité ciblée.
Contexte
Dans un paysage numérique où une large part des
services « gratuits » est financée par la
publicité ciblée (et donc par le traitement de
données personnelles), le modèle économique de
l'Internet est remis en question. Face à cela,
certains modèles « consentir ou payer »
(accepter le suivi des données publicitaires ou payer pour
l'éviter) gagnent en visibilité. La CNIL a
souhaité interroger les utilisateurs français sur
leur volonté de basculer vers un modèle payant afin
de mieux protéger leur vie privée.
Résumé des faits
- L'étude en ligne, réalisée du 18 au 23 décembre 2024 auprès d'un échantillon représentatif de 2 082 Français âgés de 15 ans et plus, s'est intéressée à la disposition à payer pour des services sans publicité ciblée.
- Pour les services de vidéo à la demande, 56 % des sondés paient déjà un abonnement (montant moyen ~20 €/mois). Pour la musique en ligne, 27 %; pour les jeux vidéo, 18 %.
- Pour d'autres services traditionnellement gratuits et financés par la publicité (presse en ligne, réseaux sociaux, IA générative, suivi santé), moins de 10 % des usagers ont un abonnement payant aujourd'hui.
- Toutefois, entre 24 % et 33 % des personnes sondées déclarent être prêtes à payer pour ces services pour les libérer de la publicité ciblée.
- Selon le type de service, la part des internautes prêts à payer varie de 25 % à 48 %, avec un prix mensuel médian acceptable estimé entre 5,50 € et 9 €. Par exemple : 48 % seraient prêts à payer ~8 €/mois pour la musique en ligne, 42 % ~6,50 €/mois pour la vidéo à la demande, 31 % ~5,50 €/mois pour la presse en ligne.
- Le sondage montre que la protection des données est une préoccupation croissante : 51 % des répondants considèrent la protection des données parmi leurs trois critères les plus importants dans le choix d'un service numérique.
Impact juridique
Cette évolution des usages renvoie à des implications
réglementaires importantes. D'une part, elle pose la
question de l'équilibre entre la gratuité
financée par la publicité et la protection des
données personnelles, ce que la législation
européenne (notamment le Règlement
général sur la protection des données –
RGPD) et français ne cessent de renforcer. Le fait que de
nombreux utilisateurs soient prêts à payer pour
éviter le profilage publicitaire renforce l'argument
selon lequel le consentement au traçage doit être
libre, éclairé et sans pression financière.
D'autre part, il s'installe une réflexion sur le
modèle économique des services numériques et
sur l'éventualité d'un internet «
à deux vitesses » : ceux qui paient pour ne pas
être ciblés, et ceux qui restent dans un modèle
financé par la publicité, ce qui pourrait poser une
question d'égalité d'accès et
d'inclusion numérique. Enfin, les autorités de
contrôle (telles que la CNIL) pourront s'appuyer sur
ces tendances pour orienter leur action - notamment en
matière de transparence, d'information et de
valorisation de l'alternative « non ciblée
» pour les utilisateurs.
Lien vers l'article sur la source : https://cnil.fr/fr/les-francais-sont-ils-prets-payer-pour-des-services-en-ligne-sans-publicite-ciblee
Actualité 4 - Enquête ouverte contre Apple en France concernant des enregistrements sensibles via Siri
L'Usine Digitale rapporte que le parquet de Paris a ouvert une enquête visant Apple, soupçonnée d'avoir enregistré des conversations d'utilisateurs via son assistant vocal Siri sans leur consentement explicite.
Contexte
Cette affaire s'inscrit dans un contexte européen de
vigilance accrue sur les pratiques des géants du
numérique en matière de collecte et de traitement des
données personnelles. Siri, l'assistant vocal
d'Apple, est accusé d'avoir enregistré
des extraits de conversations privées, parfois
déclenchées par erreur, ce qui pourrait constituer
une atteinte à la vie privée et une violation du
RGPD.
Résumé des faits
- Le parquet de Paris a ouvert une enquête préliminaire pour collecte illicite de données personnelles.
- L'affaire fait suite à une plainte déposée par la Ligue des droits de l'homme (LDH), s'appuyant sur les révélations d'un ancien sous-traitant d'Apple, Thomas Le Bonniec.
- Celui-ci affirme que des enregistrements contenant des informations sensibles (conversations intimes, données de santé, discussions professionnelles) ont été écoutés et transcrits dans le cadre du programme d'amélioration de Siri.
- Les enregistrements auraient été réalisés sans que les utilisateurs en soient informés, et parfois sans activation volontaire de l'assistant vocal.
- Apple assure que seules de courtes séquences audio sont utilisées à des fins d'amélioration du service et que les traitements respectent les exigences du RGPD.
- L'enquête a été confiée à l'OCLCTIC (Office central de lutte contre la criminalité liée aux technologies de l'information et de la communication).
Impact juridique
L'enquête pourrait constituer une étape majeure
dans l'évaluation du respect par Apple de ses
obligations en matière de protection des données
personnelles. Si les faits étaient confirmés, ils
pourraient entraîner des sanctions administratives de la CNIL
ainsi que des poursuites pénales pour collecte illicite de
données et atteinte à la vie privée. Cette
affaire illustre la tension croissante entre innovation
technologique et respect du cadre légal européen,
notamment en matière de consentement explicite, de
transparence et de minimisation des données. Elle pourrait
également influencer la manière dont les assistants
vocaux et outils d'intelligence artificielle seront
encadrés dans le cadre de l'AI Act.
Lien vers l'article sur la source : https://www.usine-digitale.fr/article/une-enquete-ouverte-contre-apple-en-france-concernant-des-enregistrements-sensibles-via-siri.N2238937
Actualité 5 - Cybermois : France Télévisions agit contre les cyber-manipulations
Le média France Télévisions met en avant ses actions menées à l'occasion du Cybermois pour lutter contre la désinformation, les deepfakes et les arnaques en ligne.
Contexte
Dans un environnement numérique de plus en plus
exposé aux manipulations d'images, aux usurpations
d'identité et aux fraudes en ligne, les médias
jouent un rôle central dans la protection de
l'information. France Télévisions
s'engage ainsi à renforcer la fiabilité de ses
contenus et à sensibiliser le public aux nouvelles formes de
cyber-manipulations.
Résumé des faits
- Le groupe fait face à une multiplication de fausses vidéos et images usurpant l'identité de ses animateurs ou de ses marques, souvent utilisées pour des arnaques en ligne.
- Une cellule interne de cybersécurité travaille à la détection et au retrait rapide de ces contenus malveillants.
- France Télévisions collabore avec VIGINUM pour former ses journalistes et lutter contre les tentatives d'ingérence numérique étrangère.
- Le groupe adopte la norme C2PA (Coalition for Content Provenance and Authenticity) afin de certifier l'origine et l'authenticité de ses contenus audiovisuels.
- Le dispositif inclut des actions de sensibilisation du grand public, avec des conseils pratiques pour identifier et signaler les contenus manipulés.
Impact juridique
Cette initiative renforce la responsabilité des
médias dans la lutte contre la désinformation et la
manipulation des contenus numériques. Elle s'inscrit
dans le cadre du Digital Services Act (DSA), qui impose aux grandes
plateformes et médias de garantir la transparence et la
traçabilité des informations diffusées.
L'adoption de la norme C2PA illustre la mise en
conformité avec les futurs standards européens sur la
vérification des contenus. Sur le plan pénal, la
lutte contre les deepfakes et les usurpations
d'identité s'appuie sur les incriminations
existantes en matière de fraude, d'escroquerie et
d'atteinte à la vie privée. Cette
démarche contribue ainsi à consolider la confiance du
public et à anticiper les obligations prévues par
l'AI Act.
Lien vers l'article sur la source : https://www.francetelevisions.fr/groupe/notre-actualite/cybermois-france-televisions-agit-contre-les-cyber-manipulations-48124
Actualité 6 - L'ère du shopping conversationnel a commencé : comment ChatGPT vient exploser les codes de l'e-commerce
Les Échos met en lumière la manière dont l'arrivée des technologies de type ChatGPT révolutionne le commerce en ligne en rendant l'expérience d'achat plus fluide, interactive et guidée.
Contexte
L'e-commerce traditionnel repose encore largement sur un
modèle de recherche et de navigation : l'utilisateur
cherche un produit, compare, sélectionne, achète.
L'émergence des grands modèles linguistiques et
assistants conversationnels ouvre un nouveau paradigme : dialoguer
avec une interface intelligente pour obtenir des recommandations
personnalisées, des conseils d'achat ou une aide
à la décision en temps réel. Ce
phénomène s'intègre dans un contexte
où l'IA générative gagne en
maturité, et où les entreprises cherchent à
repenser leurs parcours clients pour se différencier.
Résumé des faits
- Les technologies de type « shopping conversationnel » permettent à l'utilisateur d'engager une discussion avec un assistant numérique afin d'être guidé dans ses choix d'achat, plutôt que de simplement naviguer dans un catalogue.
- Grâce à ChatGPT et à des modèles similaires, les plateformes peuvent proposer des interactions naturelles : poser des questions en langage courant, recevoir des recommandations personnalisées, comprendre des préférences implicites, et affiner les suggestions produits.
- Cette approche modifie plusieurs étapes de l'entonnoir de conversion (de l'awareness à l'achat) : l'engagement client est plus interactif, l'aide à la décision plus immédiate, les frictions réduites.
- Pour les commerçants, ce modèle ouvre des opportunités : meilleure compréhension du client, collecte de données plus riches (intentions, contexte, motivations), et potentiellement des taux de conversion renforcés.
- Toutefois, il pose aussi des défis : pour les infrastructures informatiques, pour la qualité des recommandations (risque d'erreur ou d'orientation biaisée), et pour la relation entre marque et client (l'assistant pouvant devenir l'interface principale).
Impact juridique
L'essor du shopping conversationnel implique plusieurs enjeux
juridiques à anticiper. D'abord, la personnalisation
des recommandations reposant sur l'analyse de données
personnelles (habitudes d'achat, préférences,
historique) engage la conformité au Règlement
général sur la protection des données (RGPD) :
collecte légale, transparence, finalités claires,
consentement, droits d'accès et d'effacement.
Ensuite, l'intégration de l'IA
générative dans le parcours d'achat pourrait
relever du futur AI Act européen, notamment si
l'assistant oriente les décisions ou
“comprend” des profils de consommateurs de
manière avancée. Enfin, sur le plan de la
consommation, les recommandations automatisées pourraient
engager la responsabilité de l'opérateur
vis-à-vis de la loyauté de l'information (par
exemple si l'assistant propose des produits d'une
marque en favorisant son propre catalogue) et pourraient être
analysées sous l'angle de la concurrence et de
l'équité entre commerçants.
Lien vers l'article sur la source : https://www.lesechos.fr/tech-medias/hightech/lere-du-shopping-conversationnel-a-commence-comment-chatgpt-vient-exploser-les-codes-de-le-commerce-2193850
Actualité 7 - Comment l'État veut lutter contre l'IA clandestine dans les services publics
Le média Le Figaro rend compte des mesures envisagées par l'État pour encadrer et repérer les usages non régulés d'intelligence artificielle au sein des administrations publiques.
Contexte
Avec l'essor de l'intelligence artificielle dans
l'action publique, tant pour la simplification des
démarches que pour l'aide à la décision,
se pose la question des usages non officiels ou non
contrôlés — ce que l'on désigne
comme « IA clandestine ». Le développement
rapide des outils d'IA couplé à la
dématérialisation croissante des services publics
crée un terrain propice à des déploiements
sans supervision suffisante.
Résumé des faits
- L'État prévoit de renforcer la surveillance et l'audit des outils d'IA utilisés dans les administrations afin d'identifier ceux qui fonctionnent sans cadre formel ou sans évaluation préalable.
- Un programme national vise à cartographier les usages d'IA dans la fonction publique, à recenser les projets « occultes » ou non documentés, et à imposer une déclaration obligatoire de ces usages.
- Le gouvernement entend également former davantage les agents publics aux enjeux de l'IA (transparence, explicabilité, responsabilité) afin de limiter les usages non maîtrisés ou risqués.
- Des mesures de gouvernance sont annoncées : protocoles de validation, instances de contrôle, audits réguliers des algorithmes, et sanctions possibles en cas d'usage non conforme.
- L'enjeu identifié est double : garantir la confiance des citoyens dans la transformation numérique de l'État, et éviter des dérives (biais algorithmiques, atteintes à la vie privée, automatisations excessives sans contrôle humain).
Impact juridique
Les mesures annoncées montrent que l'État
entend inscrire les usages de l'IA dans la fonction publique
dans un cadre de conformité accru avec les obligations de
droit public, de protection des données et
d'éthique. Cela implique que tout projet d'IA
doit être préalablement analysé (par exemple
via une étude d'impact), validé et suivi, ce
qui accroît la responsabilité des administrations et
de leurs prestataires. Par ailleurs, l'identification et la
mise en conformité des usages « clandestins »
d'IA pourraient donner lieu à des sanctions
administratives, voire pénales, en cas de manquement aux
principes de loyauté, transparence ou protection des
données. Enfin, dans le contexte européen, ce
renforcement s'inscrit en anticipation des obligations
à venir du AI Act et du Digital Services Act, ouvrant la
voie à un régime plus exigeant pour les
entités publiques comme privées.
Lien vers l'article sur la source : https://www.lefigaro.fr/conjoncture/comment-l-etat-veut-lutter-contre-l-ia-clandestine-dans-les-services-publics-20251022
The content of this article is intended to provide a general guide to the subject matter. Specialist advice should be sought about your specific circumstances.