Claude Mythos, la IA que detectó miles de fallas críticas en software, no será lanzada por riesgos en ciberseguridad

Anthropic frenó el lanzamiento de su IA tras detectar fallas críticas que podrían ser explotadas en sistemas a nivel global
Claude Mythos no será publicado tras evidenciar riesgos en seguridad informática a gran escala Crédito: Freepik

La empresa tecnológica Anthropic decidió no lanzar al público su nuevo modelo de inteligencia artificial, llamado Claude Mythos, tras comprobar que tiene la capacidad de detectar y explotar vulnerabilidades en software que no cuentan con solución.

Según explicó la compañía, el sistema logró identificar miles de fallas en aplicaciones de uso común, algunas de ellas con décadas sin ser detectadas. Este nivel de capacidad llevó a la empresa a limitar su uso a entornos controlados por el riesgo que representa para la seguridad digital.

El anuncio se realizó en una conferencia en San Francisco, donde voceros de Anthropic indicaron que el modelo no será liberado debido a su potencial impacto si cae en manos equivocadas.

Inteligencia artificial y ciberseguridad: un riesgo creciente

Anthropic limitó el uso de su IA tras evidenciar riesgos en sistemas informáticos.Crédito: Freepik

El desarrollo de modelos avanzados de inteligencia artificial ha permitido analizar código con mayor precisión, pero también ha abierto nuevas preocupaciones en materia de seguridad.

Anthropic advirtió que estas herramientas ya pueden igualar o superar a la mayoría de expertos en la detección de fallas, lo que implica que también pueden ser utilizadas para explotar esas debilidades.

La empresa señaló que el impacto potencial incluye riesgos para la economía, la seguridad pública y sistemas críticos, en caso de que este tipo de tecnología sea utilizada con fines maliciosos.

Uno de los casos expuestos fue el hallazgo de una falla en un software de video que no había sido detectada, pese a haber sido sometido a millones de pruebas.

Proyecto Glasswing: uso controlado de la IA

Ante este escenario, Anthropic optó por restringir el acceso a Claude Mythos y ponerlo únicamente en manos de expertos en ciberseguridad.

Para ello, creó el proyecto Glasswing, una iniciativa que reúne a cerca de 40 organizaciones del sector tecnológico.

En este grupo participan empresas como CrowdStrike, Palo Alto Networks, Amazon, Apple y Microsoft, así como organizaciones como la Linux Foundation, Cisco y Broadcom.

El objetivo es utilizar el modelo como una herramienta defensiva, compartiendo información sobre fallas detectadas y fortaleciendo las capacidades de protección frente a ataques.

Anthropic anunció que aportará recursos de computación valorados en unos 100 millones de dólares para apoyar este trabajo conjunto.

Vulnerabilidades en software: menos tiempo para reaccionar

Empresas tecnológicas trabajan con la IA en un entorno controlado para prevenir ataques.Crédito: Freepik

Uno de los principales cambios que introduce esta tecnología es la reducción del tiempo entre el descubrimiento de una falla y su explotación.

Según expertos del sector, lo que antes podía tardar meses ahora puede ocurrir en minutos con el uso de inteligencia artificial en ciberseguridad.

Esto obliga a empresas y organizaciones a reforzar sus sistemas y acelerar sus respuestas ante posibles amenazas.

En este contexto, herramientas como Claude Mythos pueden servir para anticipar ataques, pero también evidencian la rapidez con la que pueden generarse nuevos riesgos.

IA de Anthropic y el debate sobre regulación

El desarrollo de este modelo también ha generado conversaciones con el gobierno de Estados Unidos. Anthropic confirmó que ha dialogado con autoridades sobre el alcance y uso de esta tecnología.

Estas discusiones se dan en medio de decisiones administrativas que habían planteado restricciones para la empresa, aunque estas medidas están siendo revisadas por la justicia.

El caso refleja el debate actual sobre el uso de la inteligencia artificial en ciberseguridad, especialmente frente a su impacto en infraestructuras críticas.