Selon Decrypt, l'agence américaine de l'immigration et des douanes (ICE) utilise un outil basé sur l'intelligence artificielle, Giant Oak Search Technology (GOST), pour analyser les publications sur les réseaux sociaux à la recherche de contenus jugés désobligeants envers les États-Unis. La nouvelle, rapportée en premier par 404 Media, a suscité des inquiétudes quant à la confidentialité et aux implications éthiques d'une telle surveillance.
Selon le rapport, qui cite des documents confidentiels, GOST aide l'agence en analysant les publications sur les réseaux sociaux et en déterminant leur risque potentiel pour les États-Unis. Le système classe les scores des médias sociaux d'une personne de 1 à 100 en fonction de leur pertinence par rapport à la mission perçue par l'utilisateur. Si les évaluations des médias sociaux ont été utilisées dans le passé pour enquêter sur des individus potentiellement dangereux, l'utilisation d'outils comme GOST pourrait brouiller la frontière entre la sécurité intérieure et les libertés individuelles fondamentales.
Patrick Toomey, directeur adjoint du projet de sécurité nationale de l’ACLU, s’est dit préoccupé par l’utilisation par le gouvernement d’algorithmes pour examiner les publications sur les réseaux sociaux. Il a déclaré que le gouvernement ne devrait pas utiliser d’algorithmes pour examiner les publications sur les réseaux sociaux et décider quelles personnes sont à risque, et que les agences ne devraient pas acheter ce type de technologie en secret sans aucune responsabilité. Le public reste très sceptique à l’égard de l’IA, en particulier en ce qui concerne la vie privée. Une étude du Pew Research Center a révélé que 32 % des Américains pensent que l’IA dans le recrutement et l’évaluation des travailleurs est plus susceptible de nuire aux candidats à un emploi et aux employés que de les aider. Un sondage Reuters a révélé que la plupart des Américains considèrent l’IA comme une menace pour l’humanité.