GPT-4: La nueva herramienta de ciberdelincuencia. Un estudio de la Universidad de Illinois revela su potencial para explotar vulnerabilidades

El potencial de la Inteligencia Artificial en la Ciberdelincuencia

Un reciente estudio llevado a cabo por investigadores de la Universidad de Illinois en Urbana-Champaign (UIUC) ha desvelado el potencial de la inteligencia artificial, en particular del modelo GPT-4, como herramienta para ciberdelincuentes.

Los Modelos de Lenguaje de Aprendizaje Automático (LLM) como GPT-4 están demostrando ser cada vez más potentes, con aplicaciones tanto benignas como maliciosas. De acuerdo con el estudio, GPT-4 logró explotar el 87% de 15 vulnerabilidades de día cero recopiladas por los investigadores, evidenciando su potencial para ser empleado en ciberataques.

Comparativa con otros Modelos de Inteligencia Artificial

En comparación con versiones anteriores como GPT-3.5 y otros modelos de código abierto, GPT-4 ha demostrado ser superior en la explotación de vulnerabilidades. Sin embargo, aún existe incertidumbre sobre el potencial de modelos más recientes como Claude 3 o Gemini 1.5 Pro para realizar la misma tarea.

Automatización de Ataques y Coste de Explotación

El estudio también reveló cómo los LLMs pueden ser utilizados para automatizar ataques a sitios web a través de chatbots. GPT-4 puede llevar a cabo de forma autónoma los pasos necesarios para realizar ciertos exploits, lo que podría facilitar la tarea de los ciberdelincuentes.

En términos de seguridad, los investigadores descubrieron que limitar los detalles disponibles en los CVE (Common Vulnerabilities and Exposures) reduce la eficacia de GPT-4 para explotar vulnerabilidades. Sin embargo, esto plantea un debate sobre la sostenibilidad de la seguridad a través de la oscuridad.

El coste de utilizar la inteligencia artificial para crear exploits también fue analizado en el estudio. El coste medio por exploit utilizando GPT-4 fue de 8,80 dólares, una cifra significativamente menor que la que supondría contratar a un desarrollador humano.

Conclusiones y Recomendaciones

OpenAI, la organización detrás de GPT-4, pidió a los investigadores no revelar los prompts utilizados en el experimento para evitar su uso indebido. A pesar de esto, los investigadores han ofrecido proporcionar los prompts a quienes los soliciten, aunque advierten que es posible que ya no funcionen.

En conclusión, el estudio de la UIUC revela el potencial de GPT-4 y otros modelos de inteligencia artificial para ser utilizados en ciberdelincuencia. Este hallazgo subraya la necesidad de un enfoque más riguroso y consciente en la seguridad y la ética en el desarrollo y uso de la inteligencia artificial.

Susana es una profesional destacada en marketing y comunicación, creadora de contenido y experta en SEO. Es licenciada en Psicología por la Universidad de Santiago de Compostela y cuenta con un máster en Marketing y Comportamiento del Consumidor de la Universidad de Granada y la Universidad de Jaén. Además, ha compartido sus conocimientos a través de conferencias y workshops.
Con amplia experiencia en estrategias de marketing y comunicación, Susana ha logrado optimizar la visibilidad y el posicionamiento de las marcas a través de técnicas de SEO.

Esta entrada también está disponible en: Français Português

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *