TENDANCES
Comparateur
- AUTO
Le parquet espagnol a annoncé l’ouverture d’une enquête sur Meta, maison-mère de Facebook et Instagram, pour déterminer si l’utilisation de données d’utilisateurs pour son activité d’intelligence artificielle générative viole la protection des données.

La Fiscalía de la Audiencia Nacional a annoncé avoir pris cette décision en raison de la « réception massive » de messages d’utilisateurs de Facebook et d’Instagram « les avertissant que les informations partagées dans leurs produits et services (…) allaient être utilisées par la société Meta pour développer et améliorer l’IA de Meta ».
Le ministère public veille à ce que la justice agisse « dans la défense du droit fondamental des citoyens à la protection des données personnelles ». Il a ajouté qu’il demanderait à l’agence espagnole de protection des données un rapport sur d’éventuelles « mesures d’enquête administrative » contre Meta.
Meta avait annoncé mi-juin suspendre l’utilisation des données des utilisateurs pour développer son activité d’IA générative dans l’Union européenne, après avoir reçu des plaintes dans 11 pays européens. Cette nouvelle politique de Meta a suscité de vives réactions dans d’autres parties du monde.
En début de semaine, l’autorité brésilienne de protection des données a exigé que Meta cesse d’utiliser ces données pour développer son activité d’IA, sous peine de sanctions. Il s’agit en l’occurrence d’une amende de 50 000 réais (environ 8 200 euros) par jour si le groupe ne respecte pas cette mesure préventive
Google s’apprête à lever une restriction historique au niveau de Gmail pour permettre aux utilisateurs de changer leur adresse...
L’Autorité italienne de la concurrence (AGCM) a ordonné à Meta de geler sa politique interdisant aux entreprises...
La cyberattaque qui cible La Poste depuis lundi montre ses premiers signes d’essoufflement ce mercredi. Bien que l’offensive soit toujours...
L’administration Trump a annoncé des sanctions ciblant cinq figures majeures de la régulation technologique en Europe, dont...