Agents du DHS: lunettes connectées Meta & IA pour la surveillance migratoire

404media

Les frontières entre la technologie grand public et la surveillance gouvernementale s’estompent de plus en plus, soulevant de profondes questions sur la vie privée, les libertés civiles et l’intégration rapide de l’IA dans la vie quotidienne. De récentes révélations de 404 Media mettent en lumière une tendance inquiétante, allant des agents fédéraux exploitant des lunettes intelligentes prêtes à l’emploi au monde obscur de la réplication vocale pilotée par l’IA et à l’utilisation non autorisée de réseaux omniprésents de lecteurs de plaques d’immatriculation.

L’une des préoccupations les plus immédiates concerne l’observation d’un officier des douanes et de la protection des frontières (CBP) portant des lunettes intelligentes Meta Ray-Ban lors d’une opération d’application de la loi sur l’immigration à Los Angeles en juin 2025. Cet incident a immédiatement déclenché un débat sur la présence rampante de lunettes d’IA grand public dans les opérations de police fédérales et leur impact potentiel sur les systèmes d’identification biométrique du Département de la Sécurité Intérieure (DHS). Bien que les lunettes Ray-Ban de Meta soient commercialisées avec une caméra, des microphones et des capacités de diffusion en direct, la société affirme qu’elles ne sont pas équipées de reconnaissance faciale intégrée. Cependant, les experts notent qu’il est “trivial” de canaliser le flux vidéo des lunettes vers un appareil séparé et d’appliquer un logiciel de correspondance faciale tiers en temps quasi réel, une capacité non sanctionnée par le CBP. Des sources internes du DHS confirment qu’il n’existe aucune politique officielle traitant spécifiquement des lunettes intelligentes Meta Ray-Ban, et les réglementations existantes interdisent explicitement au personnel en service d’utiliser des dispositifs d’enregistrement personnels pour des actions d’application officielles, en particulier celles impliquant des activités protégées par le Premier Amendement sans soupçon raisonnable. Les défenseurs de la vie privée, y compris l’ACLU, considèrent une telle utilisation non autorisée de caméras comme potentiellement intimidante, s’alignant sur des comportements conçus pour “terroriser les gens”, et soulignant un mépris croissant pour la frontière entre la technologie personnelle et la surveillance étatique. Cet incident fait suite à un précédent glaçant plus tôt dans l’année, lorsqu’un terroriste à la Nouvelle-Orléans aurait utilisé des lunettes intelligentes Meta Ray-Ban pour la reconnaissance avant une attaque meurtrière, démontrant leur capacité d’enregistrement discret.

Parallèlement, l’industrie du divertissement est aux prises avec son propre ajustement de comptes technologique alors que les acteurs vocaux sont confrontés à un marché complexe avec l’intelligence artificielle. L’IA a révolutionné la production vocale, offrant des solutions rapides, rentables et polyvalentes grâce à des technologies sophistiquées de synthèse vocale capables d’imiter les nuances humaines. Ce changement a conduit plus de la moitié des créateurs de contenu à intégrer des voix IA dans divers médias, motivés par l’efficacité et les économies de coûts, même si une majorité significative (73 %) exprime toujours une préférence pour la narration humaine en raison de sa profondeur émotionnelle et de sa spontanéité irremplaçables. En réponse à ce paysage évolutif, la Screen Actors Guild – American Federation of Television and Radio Artists (SAG-AFTRA) a conclu des accords historiques avec des startups d’IA comme Replica Studios et Narrativ, permettant aux membres du syndicat de concéder sous licence leurs répliques vocales numériques pour une utilisation dans des publicités et des jeux vidéo. Ces accords visent à donner aux acteurs le contrôle de leurs ressemblances numériques et à garantir une juste compensation pour leurs voix générées par l’IA. Pourtant, un côté plus sombre persiste, avec certains acteurs vocaux poursuivant des entreprises d’IA pour clonage vocal non autorisé présumé. Les projections de l’industrie suggèrent une réduction potentielle de 30 à 50 % des emplois traditionnels d’acteurs vocaux au cours de la prochaine décennie, transformant un marché de plusieurs milliards de dollars à mesure que les modèles d’IA, entraînés sur des voix humaines sous licence, deviennent de plus en plus sophistiqués et réduisent le besoin de talent humain.

Parallèlement, un schéma troublant d’accès non autorisé et d’utilisation abusive des données est apparu dans le domaine de la technologie de sécurité publique, impliquant spécifiquement les systèmes omniprésents de lecture automatique des plaques d’immatriculation (LAPI) de Flock Safety. Ces caméras, installées dans des milliers de communautés, scannent et enregistrent en continu les mouvements des véhicules, créant de vastes bases de données consultables par les forces de l’ordre, souvent sans mandat. Le “piratage” souligné par 404 Media ne fait pas référence à une violation malveillante, mais au fait que des agences fédérales comme la Drug Enforcement Administration (DEA) et l’Immigration and Customs Enforcement (ICE) obtiennent un accès de facto au réseau de Flock en tirant parti des identifiants des services de police locaux, contournant ainsi de fait la surveillance fédérale directe ou les contrats formels. Un exemple frappant s’est produit en janvier 2025, lorsqu’un officier de la force opérationnelle de la DEA aurait utilisé les identifiants Flock d’un détective local de l’Illinois pour effectuer des dizaines de recherches de “violation de l’immigration”, malgré la loi de l’Illinois interdisant une telle utilisation des données LAPI. Cet environnement informel de partage de données a facilité des milliers de recherches douteuses, y compris celles liées à l’application de la loi sur l’immigration et même au suivi des avortements, suscitant une condamnation généralisée. En réponse, Flock Safety a restreint l’accès à son outil de recherche national dans certains États et a fait l’objet d’une enquête officielle du Congrès sur son rôle dans la facilitation des pratiques de surveillance invasives. La nouvelle plateforme “Nova” de l’entreprise, qui intègre les données LAPI à d’autres informations, a encore exacerbé les préoccupations, des rapports suggérant que certaines de ses données supplémentaires pourraient même provenir de sources piratées, comme les applications de parcmètres.

Ces incidents disparates brossent un tableau cohérent d’une société aux prises avec le rythme accéléré de l’intégration technologique dans des domaines sensibles. Des appareils personnels portés par les forces de l’ordre à la réplication numérique de la créativité humaine et à la portée omniprésente de la surveillance automatisée, le défi central demeure de savoir comment exploiter l’innovation de manière responsable tout en protégeant les droits fondamentaux et la vie privée dans un monde de plus en plus axé sur les données.