Expansion de l’Autorité d’Investigation de la FTC en IA
La Commission Fédérale du Commerce (FTC) des États-Unis a annoncé une expansion de son autorité d’investigation dans le domaine des produits et services d’Intelligence Artificielle (IA). Pour mener à bien cette expansion, la FTC utilisera des outils plus efficaces pour recueillir des informations, tels que les demandes d’enquête civile (CIDs), qui ont force de loi et peuvent entraîner des accusations pour outrage à l’encontre des entreprises qui ne les respectent pas.
Ce n’est pas la première fois que la FTC utilise les CIDs dans le secteur technologique. En 2022, la commission a réussi à obtenir des ordonnances judiciaires fédérales contre les fournisseurs de VoIP XCast Labs et Deltracon pour non-respect total des CIDs en attente, dans un effort pour lutter contre les appels robotiques illégaux.
Recommandations pour les Entreprises Technologiques
Dans ce nouveau contexte, il est recommandé aux entreprises technologiques d’organiser proactivement leurs registres internes liés aux affirmations de l’IA, aux pratiques de développement de produits et à la supervision des tiers, entre autres aspects. De plus, ils devront fournir des preuves substantielles pour soutenir les caractéristiques de performance présentées aux clients et partenaires. Les registres de données du modèle d’entraînement, les études de validation, les études de cas démontrant l’impact réel et les rapports de surveillance continue peuvent être utiles pour corroborer les divulgations sur les solutions d’IA.
La FTC exige également des garanties que les entreprises abordent proactivement des questions telles que l’équité et le biais tout au long du cycle de vie du développement du produit. La documentation des processus de conception, les évaluations d’impact, les mécanismes d’enregistrement des risques, les programmes de supervision et les protocoles de réponse peuvent servir de preuve que la diligence raisonnable a été exercée.
Responsabilités Étendues et Régulations Actives
De plus, la nouvelle résolution de la FTC indique que les responsabilités de supervision s’étendent désormais au-delà des équipes internes. Des protections contractuelles solides exigeant la transparence, la vérification des affirmations et des contrôles sont fondamentales dans les relations avec les tiers.
La FTC ne se limite pas seulement à la surveillance, mais joue également un rôle actif dans la réglementation de l’IA. Récemment, elle a annoncé des plans pour lancer un Défi de Clonage Vocal pour protéger les utilisateurs contre les fraudes financières ou les violations de la vie privée. De plus, lors de l’étude sur les implications de l’IA générative menée par le Bureau des Droits d’Auteur des États-Unis, la FTC a présenté des commentaires soulignant sa juridiction sur les questions liées à la protection du consommateur et à la concurrence.
En résumé, l’agence cherche à équilibrer l’innovation avec une supervision responsable grâce à une combinaison d’initiatives consultatives et d’outils traditionnels d’application. Ce nouveau cadre réglementaire représente un défi pour les entreprises technologiques, mais aussi une opportunité de démontrer leur engagement envers des pratiques éthiques et responsables dans le développement et l’utilisation de l’Intelligence Artificielle.
Sarah est non seulement une experte en marketing digital, mais aussi une créatrice de contenu avec une grande expérience dans le domaine. Diplômée en Sociologie de l'Université de Barcelone et ayant un post-diplôme en Marketing Digital de l'Inesdi, Sarah a réussi à se distinguer en tant que Directrice de Marketing Digital. Sa connaissance approfondie des tendances digitales et sa capacité à identifier des opportunités de croissance ont été fondamentales pour le succès de nombreuses campagnes. De plus, elle donne des cours et des conférences dans des écoles de commerce prestigieuses, des universités et des événements, partageant ses connaissances et expériences avec d'autres professionnels et étudiants.
Cette entrée est également disponible dans : Español Português