Retour aux projets de loi

Rapport sur l'utilisation de l'IA sur les données de surveillance brutes

Titre complet:
Un projet de loi visant à exiger un rapport sur l'utilisation de l'intelligence artificielle en ce qui concerne l'accès à des informations non minimisées collectées en vertu de la Loi de 1978 sur la surveillance du renseignement étranger, et à d'autres fins.

Résumé#

  • Ce projet de loi exigerait que le gouvernement explique comment il utilise l'intelligence artificielle (IA) sur des données de surveillance brutes collectées en vertu de la Loi sur la surveillance du renseignement étranger (FISA).

  • Il vise à ajouter de la transparence et un contrôle sans changer les données qui peuvent être collectées.

  • Points clés :

    • Dans les 120 jours suivant son adoption, le Procureur général et le Directeur du renseignement national doivent faire rapport sur toutes les utilisations de l'IA ayant accès aux données FISA « non minimisées ». Non minimisées signifie des données brutes avant l'application de filtres de confidentialité.
    • Le rapport doit décrire le nom de chaque système d'IA, son objectif, ses tests et contrôles en cours, l'examen humain, qui l'a construit ou formé, quelles données l'ont formé, quand et comment il a eu accès aux données brutes FISA, et toutes les autres données qu'il utilise.
    • Il doit également indiquer si l'utilisation a été précédemment partagée avec le Congrès ou le tribunal de surveillance, et si le tribunal a émis des opinions connexes.
    • Le rapport est envoyé aux Comités du renseignement de la Chambre et du Sénat, aux Comités judiciaires de la Chambre et du Sénat, et aux dirigeants du Tribunal de surveillance du renseignement étranger et de son tribunal d'examen.
    • Le rapport doit comporter une version publique publiée sur les sites Web du ministère de la Justice et de l'ODNI, ainsi qu'une version classifiée pour les lecteurs autorisés.
    • Avant qu'un nouveau système d'IA n'accède aux données brutes FISA, les mêmes responsables doivent notifier ces organismes et expliquer comment le plan est conforme à la FISA, aux règles approuvées par le tribunal et à d'autres lois.

Ce que cela signifie pour vous#

  • Tous les résidents :

    • Cela n'élargit pas les pouvoirs de surveillance du gouvernement. Cela ajoute un rapport sur la manière dont les outils d'IA touchent les données de surveillance brutes les plus sensibles.
    • Vous pourriez recevoir un résumé public montrant quels types d'outils d'IA sont utilisés et à quelles fins.
  • Défenseurs de la vie privée et des libertés civiles :

    • Vous obtenez une source régulière d'informations sur l'utilisation de l'IA avec les données brutes FISA, y compris les tests, la supervision humaine et les limites des modèles.
    • La version publique peut vous aider à évaluer les risques, bien que certains détails restent classifiés.
  • Entreprises technologiques et fournisseurs d'IA :

    • Si vos outils sont utilisés, le rapport peut les nommer et décrire leur utilisation et leur approche de formation.
    • Les agences peuvent vous demander de la documentation sur les tests, les sources de données, les limites et la conformité avant l'adoption.
  • Journalistes et chercheurs :

    • Le rapport public offre de nouvelles informations officielles pour analyser l'utilisation de l'IA dans la sécurité nationale.
  • Personnel du renseignement et des forces de l'ordre utilisant des données FISA :

    • Attendez-vous à des exigences de documentation et de notification supplémentaires avant de donner accès aux systèmes d'IA aux données brutes.
    • Les programmes peuvent faire face à des étapes d'examen supplémentaires pour décrire les tests, la supervision humaine et la conformité légale.

Dépenses#

Aucune information disponible publiquement.

Point de vue des partisans#

  • Augmente la transparence autour des puissants outils d'IA qui peuvent toucher les données de surveillance brutes, ce qui peut inclure des informations sur les Américains.
  • Renforce le contrôle en exigeant des détails sur les tests, la surveillance et l'examen humain, et pas seulement une liste d'outils.
  • Renforce la confiance du public en publiant un rapport non classifié tout en protégeant les détails sensibles dans une version classifiée.
  • Force des vérifications juridiques précoces avant que de nouveaux outils d'IA n'accèdent aux données, réduisant le risque d'abus ou de requêtes illégales.
  • Aide le Congrès et les tribunaux de surveillance à comprendre et à gérer des risques tels que le biais, le dépassement de pouvoir ou les limites des modèles.

Point de vue des opposants#

  • Ajoute de la paperasse et pourrait ralentir le déploiement d'outils utiles, rendant les opérations moins agiles.
  • Même un résumé non classifié pourrait révéler des capacités sensibles ou des relations avec des fournisseurs aux adversaires.
  • La définition large de l'IA pourrait englober de nombreux outils d'analyse, créant de la confusion et un sur-rapport.
  • N'impose pas de limites strictes sur l'utilisation de l'IA ; les critiques qui souhaitent des règles de confidentialité plus strictes pourraient le voir comme trop faible.
  • La pré-notification pourrait devenir un obstacle bureaucratique pour les mises à jour de modèles de routine ou le réentraînement.