En un hecho sin precedentes, ChatGPT (modelo o3 de OpenAI) ha detectado una vulnerabilidad crítica (CVE-2025-37899) en el kernel Linux, específicamente en el módulo ksmbd (implementación del protocolo SMB en espacio de kernel). El hallazgo, verificado y reportado por el investigador Sean Heelan, marca la primera vez que una inteligencia artificial identifica, documenta y contribuye a resolver un fallo de seguridad de alto impacto en software crítico.
Detalles técnicos de la vulnerabilidad
-
Tipo: Use-after-free en el manejador de la orden
logoffde ksmbd. -
Riesgo: Permite ejecución remota de código (RCE) o elevación de privilegios en sistemas que usen este módulo para compartir archivos.
-
Proceso de descubrimiento:
-
El modelo analizó 12,000 líneas de código en una sola pasada (100,000 tokens).
-
Identificó el patrón vulnerable sin herramientas externas, solo mediante su capacidad de razonamiento.
-
-
Parche: Ya disponible en las últimas actualizaciones del kernel.
Implicaciones del hallazgo
-
Eficiencia sin precedentes:
-
o3 detectó otro fallo relacionado con Kerberos (CVE-2025-37778) en el 80% de las pruebas, superando a Claude 3.7 Sonnet (30%) y Claude 3.5 (0%).
-
-
Cambio de paradigma:
-
Demuestra que las IA pueden auditar código complejo sin intervención humana inicial, acelerando la resolución de vulnerabilidades.
-
-
Limitaciones:
-
Como señala Heelan, «o3 no es infalible»: su efectividad disminuye en proyectos mayores a 10,000 líneas de código.
-
¿Cómo funciona la IA en la ciberseguridad?
-
Ventajas:
-
Escaneo rápido de código base.
-
Detección de patrones sutiles (ej. race conditions, memory leaks).
-
-
Desafíos:
-
Requiere verificación humana para evitar falsos positivos.
-
Dependencia de la calidad del entrenamiento del modelo.
-
Reflexión: ¿Sustituirán las IA a los investigadores humanos?
Aunque este caso muestra el potencial de las IA en seguridad, el rol humano sigue siendo clave:
-
Validación: Los parches finales requieren revisión de mantenedores.
-
Contexto: Las IA no comprenden implicaciones sociales o estratégicas de los fallos.
-
Ética: La automatización de exploits también podría aumentar los riesgos.
«ChatGPT no escribirá el kernel por nosotros… pero ya es un excelente asistente» — Linus Torvalds (en una hipotética reacción).






