🤖 Una herramienta de inteligencia artificial acaba de lograr lo que parecía imposible: detectar una vulnerabilidad de seguridad en el kernel de Linux que permaneció oculta durante 23 años. Nicholas Carlini, científico investigador de Anthropic, reveló en la conferencia de seguridad [un]prompted que utilizó Claude Code para encontrar múltiples vulnerabilidades explotables de forma remota, incluyendo errores que ningún experto humano había descubierto antes.
💥 El propio Carlini expresó su asombro ante la efectividad del sistema: «Ahora tenemos múltiples desbordamientos de búfer en el heap del kernel de Linux explotables remotamente. Nunca había encontrado uno de estos en mi vida. Esto es muy, muy, muy difícil de hacer. Con estos modelos de lenguaje, tengo un montón». Esta declaración subraya cómo los modelos de IA están cambiando las reglas del juego en la ciberseguridad, accediendo a capas de complejidad que tradicionalmente requerían años de experiencia especializada.
🔍 El método empleado resulta sorprendentemente simple. Carlini utilizó un script básico que iteraba sobre todos los archivos del código fuente del kernel, indicando a Claude Code que participaba en una competición de capture the flag (CTF) y solicitando que buscara vulnerabilidades en cada archivo específico. La herramienta analizó el código con instrucciones como «encuentra una vulnerabilidad», demostrando que la IA puede actuar como un auditor de seguridad exhaustivo cuando se le plantean los prompts adecuados.
✨ Este hallazgo marca un punto de inflexión en cómo abordamos la seguridad del software crítico, abriendo la puerta a auditorías automáticas que podrían erradicar vulnerabilidades históricas antes de que sean explotadas.
Mi lectura: Lo que más me impacta de esta noticia es la democratización del conocimiento de seguridad que representa. Durante décadas, encontrar vulnerabilidades del kernel requería una intuición casi artística desarrollada durante años, pero ahora una herramienta de IA puede nivelar el campo de juego. Esto plantea preguntas fascinantes sobre el futuro de la ciberseguridad: si los modelos de lenguaje pueden detectar errores que escapan a los mejores expertos humanos durante 23 años, estamos ante una nueva era de defensa proactiva. Sin embargo, también surge la preocupación inevitable sobre quién tendrá acceso a estas herramientas y si los actores malintencionados podrían usarlas para encontrar exploits antes que los defensores. La carrera armamentística digital acaba de cambiar de paradigma.
📎 Fuente: mtlynch.io
Descubre más desde EDUCATRÓNICA
Suscríbete y recibe las últimas entradas en tu correo electrónico.