GPT-4: Le nouvel outil de cybercriminalité. Une étude de l’Université de l’Illinois révèle son potentiel pour exploiter les vulnérabilités

Le potentiel de l’Intelligence Artificielle dans la Cybercriminalité

Une récente étude menée par des chercheurs de l’Université de l’Illinois à Urbana-Champaign (UIUC) a révélé le potentiel de l’intelligence artificielle, en particulier du modèle GPT-4, comme outil pour les cybercriminels.

Les Modèles de Langage d’Apprentissage Automatique (LLM) comme le GPT-4 se révèlent de plus en plus puissants, avec des applications aussi bien bénignes que malveillantes. Selon l’étude, le GPT-4 a réussi à exploiter 87% des 15 vulnérabilités de jour zéro recueillies par les chercheurs, démontrant son potentiel à être utilisé dans les cyberattaques.

Comparaison avec d’autres Modèles d’Intelligence Artificielle

En comparaison avec des versions antérieures comme le GPT-3.5 et d’autres modèles open source, le GPT-4 s’est avéré supérieur dans l’exploitation des vulnérabilités. Cependant, il existe encore une incertitude quant au potentiel de modèles plus récents comme Claude 3 ou Gemini 1.5 Pro pour accomplir la même tâche.

Automatisation des Attaques et Coût d’Exploitation

L’étude a également révélé comment les LLM peuvent être utilisés pour automatiser les attaques sur les sites web via des chatbots. GPT-4 peut effectuer de manière autonome les étapes nécessaires pour réaliser certains exploits, ce qui pourrait faciliter la tâche des cybercriminels.

En termes de sécurité, les chercheurs ont découvert que limiter les détails disponibles dans les CVE (Common Vulnerabilities and Exposures) réduit l’efficacité de GPT-4 pour exploiter les vulnérabilités. Cependant, cela soulève un débat sur la durabilité de la sécurité par l’obscurité.

Le coût de l’utilisation de l’intelligence artificielle pour créer des exploits a également été analysé dans l’étude. Le coût moyen par exploit en utilisant GPT-4 était de 8,80 dollars, un chiffre nettement inférieur à celui qu’impliquerait l’embauche d’un développeur humain.

Conclusions et Recommandations

OpenAI, l’organisation derrière GPT-4, a demandé aux chercheurs de ne pas révéler les prompts utilisés dans l’expérience pour éviter leur utilisation abusive. Malgré cela, les chercheurs ont proposé de fournir les prompts à ceux qui les demandent, bien qu’ils avertissent qu’ils peuvent ne plus fonctionner.

En conclusion, l’étude de l’UIUC révèle le potentiel de GPT-4 et d’autres modèles d’intelligence artificielle pour être utilisés dans la cybercriminalité. Cette découverte souligne la nécessité d’une approche plus rigoureuse et consciente de la sécurité et de l’éthique dans le développement et l’utilisation de l’intelligence artificielle.

Susana est une professionnelle remarquable dans le marketing et la communication, créatrice de contenu et experte en SEO. Elle est diplômée en Psychologie de l'Université de Santiago de Compostela et a un master en Marketing et Comportement du Consommateur de l'Université de Grenade et de l'Université de Jaén. De plus, elle a partagé ses connaissances à travers des conférences et des ateliers. Avec une vaste expérience en stratégies de marketing et de communication, Susana a réussi à optimiser la visibilité et le positionnement des marques grâce à des techniques de SEO.

Cette entrée est également disponible dans : Español Português

Laisser un Comentarioaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *