Meta promet du floutage, des garde-fous et de la « privacy ». Sauf que des dataworkers décrivent des ratés : visages visibles, nudité, données bancaires. Et l’Europe commence à tiquer côté RGPD.
IA partout, vie privée nulle part.
Des sous-traitants de l’IA kényans racontent ce qu’ils voient quand ils « annotent » les images et transcriptions des lunettes Meta Ray‑Ban : nudité, sexe, infos bancaires, conversations sur crimes ou manifs.
Officiellement, tout est flouté ; en vrai, l’anonymisation bugue et des visages passent. Et pendant que Meta garde dans un tiroir « Name Tag », une brique de reconnaissance faciale, un eurodéputé suédois demande à la Commission si tout ça colle au RGPD (consentement, transparence, transferts hors UE).
Meta se réfugie derrière ses conditions : « Ne partagez pas d’infos sensibles », et promet des filtres « privacy ». Pour les voisins qui n’ont rien demandé, une app, Nearby Glasses, tente au moins de détecter ces lunettes via Bluetooth, pansement tech sur malaise social.
Notre newsletter : gratuite, même par mauvais temps. On envoie quand on y pense…