La IA Claude detecta 22 vulnerabilidades en Firefox en dos semanas, 14 de ellas de gravedad alta
MADRID, 9 Mar. –
Anthropic ha puesto a disposición de Mozilla su inteligencia artificial (IA) Claude para detectar vulnerabilidades presentes en el navegador, lo que ha llevado a la identificación de 14 fallos de alto riesgo que ya han sido parcheados.
Las dos empresas han iniciado una colaboración para emplear la IA en la identificación de vulnerabilidades aprovechando el carácter abierto de Firefox y su amplia adopción, que hace que sea «un campo de pruebas ideal para una nueva clase de herramientas de defensa», como ha apuntado Mozilla.
La colaboración sigue a una prueba hecha por el Frontier Red de Anthropic en la que primero comprobaron que Claude Opus 4.6 podía reproducir vulnerabilidades conocidas en versiones antiguas de Firefox, y después que era capaz de encontrar fallos de seguridad nuevos en la versión actual del navegador.
En dos semanas, la IA de Anthropic detectó 22 vulnerabilidades en Firefox, 14 de ellas de gravedad alta, como informan las compañías en sendos comunicados. El primer error detectado llevó apenas 20 minutos.
«Durante el tiempo que nos llevó validar y enviar esta primera vulnerabilidad a Firefox, Claude ya había descubierto cincuenta entradas únicas que provocaban fallos», afirman desde Anthropic.
Los errores de nuevos descubrimiento fueron validados por los investigadores de Anthropic, quienes los remitieron a Bugzilla, la plataforma de seguimiento de problemas de Mozilla, en un informe que también incluía una propuesta de parche escrita por Claude y validada por los investigadores.
En total, Claude detectó 112 fallos de distintos niveles de gravedad. La mayoría, incluidos los 14 más graves, se han corregido con la versión 148 de Firefox. Asimismo, este informe ha dado lugar al uso de Claude por parte de Mozilla con fines de seguridad internos.
Con esta experiencia, Anthropic afirma que «la IA permite detectar vulnerabilidades de seguridad graves a gran velocidad», pero advierte de que la ciberseguridad se enfrenta al reto que supondrán los modelos de IA cuando sean mejor herramienta para la explotación que para la identificación y corrección.
«Si los futuros modelos de lenguaje superan esta barrera de explotación, tendremos que considerar medidas de seguridad adicionales para evitar que nuestros modelos sean utilizados indebidamente por actores maliciosos«, ha concluido.
CL11
