Le problème du porno deepfake non consensuel à l’ère numérique
De nos jours, nous sommes plongés dans une ère numérique où les femmes sont de plus en plus touchées par un problème croissant : le porno deepfake non consensuel. L’intelligence artificielle (IA) a été un facteur déterminant pour aggraver cette situation, car les systèmes de dernière génération facilitent la création d’images convaincantes.
Systèmes IA d’image à image
Les systèmes IA d’image à image permettent de modifier des images existantes grâce à l’IA générative. Ces représentations sont extrêmement détaillées et nettes car elles sont basées sur une seule photographie haute résolution.
Outils contre les abus de l’IA : PhotoGuard et Glaze
Afin de faire face à cette menace émergente, des chercheurs du MIT ont développé PhotoGuard, un outil conçu pour fonctionner comme un bouclier protecteur pour les photos. Il modifie subtilement les images afin de prévenir leur manipulation par des modèles AI génératifs. Lorsque ceux-ci tentent d’altérer ces images « immunisées », les résultats tendent à être peu réalistes ou déformés.
Simultanément au développement de PhotoGuard, Zhao et son équipe de l’Université de Chicago ont créé Glaze; un outil destiné à protéger les œuvres d’art avec des droits d’auteur contre une utilisation abusive dans des ensembles de données pour former des modèles d’IA sans compensation ni crédit adéquats. Glaze « camoufle » les images en apportant des changements subtils à peine perceptibles mais suffisamment significatifs pour empêcher le modèle d’IA d’apprendre les caractéristiques distinctives du style de l’artiste et interrompt le processus génératif en empêchant la production infinie d’œuvres similaires.
Lancement en ligne et limitations
« Actuellement, il existe une démonstration fonctionnelle en ligne de PhotoGuard travaillant aux côtés de Stable Diffusion tandis que Glaze sera bientôt disponible après la fin de ses tests bêta ; un nombre limité d’inscriptions sera accepté la semaine prochaine. »
Cependant, ces outils présentent certaines limitations et ne sont pas entièrement efficaces par eux-mêmes ; il existe des alternatives possibles telles que prendre des captures d’écran sur une image protégée. Pour combattre efficacement les abus/manipulations utilisant l’intelligence artificielle, il est nécessaire que les entreprises technologiques adoptent plus largement ces mesures.
Le paysage actuel expose nos images en ligne à toute personne désireuse de les manipuler grâce à l’IA. Il est crucial de continuer à explorer de nouvelles formes innovantes et intégratives pour préserver notre sécurité numérique face à cette nouvelle forme d’invasion de la vie privée émergente et inquiétante.
Susana est une professionnelle remarquable dans le marketing et la communication, créatrice de contenu et experte en SEO. Elle est diplômée en Psychologie de l'Université de Santiago de Compostela et a un master en Marketing et Comportement du Consommateur de l'Université de Grenade et de l'Université de Jaén. De plus, elle a partagé ses connaissances à travers des conférences et des ateliers. Avec une vaste expérience en stratégies de marketing et de communication, Susana a réussi à optimiser la visibilité et le positionnement des marques grâce à des techniques de SEO.
Cette entrée est également disponible dans : Español Português