La encrucijada de Anthropic: Cuando la IA aprende a hackear el mundo

La encrucijada de Anthropic: Cuando la IA aprende a hackear el mundo

Un análisis sobre el dilema que cambia las reglas de la ciberseguridad global y que Cuba debe observar.
Imagen
Mythos, la IA hacker
Source:
CubaSí

La misma empresa que creó a Claude, uno de los asistentes de IA más “seguros” del mercado, ha dado a luz a un monstruo silencioso. Se llama Mythos, y no está hecho para conversar: está hecho para romper sistemas. Y lo hace con una eficacia que ha puesto en alerta máxima a los gobiernos de medio planeta porque el resto no puede acceder a este tipo de información.

¿Qué es Mythos y por qué nadie habla de él en público?.  En este corto análisis les propongo saber de qué va todo esto. "Mythos" es el nuevo modelo de inteligencia artificial de Anthropic. A diferencia de los chatbots convencionales, no fue diseñado para el gran público. Sus capacidades están orientadas a una tarea muy específica y terroríficamente útil: encontrar y explotar vulnerabilidades informáticas de forma autónoma.

En pruebas internas, Mythos ha logrado: Detectar fallos de seguridad en sistemas operativos y navegadores que habían pasado desapercibidos durante 27 años. Este modelo aprendió a Encadenar múltiples vulnerabilidades para crear ataques complejos sin intervención humana y además superó en un 77,8%
el benchmark SWE-bench Pro, dejando atrás a GPT-5.4 (57,7%).

No se trata de un “asistente de seguridad”. Es un hacker con inteligencia sobrehumana, que trabaja las 24 horas y cuesta una fracción de lo que costaría un equipo humano de élite.

La encrucijada de Anthropic se debate ahora mismo con esta interrogante: ¿arma o escudo?

La compañía se enfrenta a un dilema moral y estratégico sin precedentes: “Si lanzamos Mythos al público (que ya sucedió), democratizamos el ciberataque a escala mundial. Cualquier persona con malas intenciones podría tumbar bancos, hospitales o redes eléctricas. Pero si lo guardamos solo para nosotros (que ya lo hicieron) desperdiciamos la herramienta más poderosa jamás creada para defender el mundo digital.”

Anthropic ha optado por una solución intermedia: el Proyecto Glasswing. Bajo este programa, Mythos se comparte de forma controlada con un reducido grupo de gigantes tecnológicos y financieros (Apple, Amazon, Google, Microsoft, NVIDIA, JPMorgan Chase…). La idea es que estas empresas usen la IA para encontrar y parchear sus propios fallos antes de que lo hagan los atacantes. Dicho así parece bastante lógico, pero esta estrategia plantea preguntas incómodas:

¿Quién garantiza que esos fallos no se filtren? ¿Qué pasa con las pequeñas empresas, los hospitales públicos o los gobiernos de países sin acceso al programa? ¿Y si el propio Mythos es robado o sus capacidades se replican de manera abierta?

El peligro mayor radica en como la IA se a convertido en un acelerador del caos, y es por esta causa que tuvieron que recoger cordel tan pronto cayó el trasmayo sobre el agua. Mythos no es un caso aislado. Es la punta del iceberg de una tendencia imparable: el uso de IAs generativas y autónomas para tareas de alto impacto. Ya existen modelos capaces de crear deepfakes, desinformación viral, armas biológicas sintéticas o campañas de ingeniería social a escala industrial.

El problema no es solo la tecnología, sino su democratización irresponsable. Si cualquier adolescente con una GPU puede ejecutar un clon de Mythos dentro de dos años, la seguridad digital tal como la conocemos desaparece.

Sin querer ser catastrofista, el destino de la humanidad, cada día se vuelve más incierto. “No estamos preparados. La velocidad a la que evolucionan estas IAs supera con creces nuestra capacidad para regularlas o defenderemos de ellas.”

En este punto se impone hacer un llamado a la acción: lo que debería pasar ya. Los expertos coinciden en varios puntos urgentes como son:

El Tratado internacional sobre IA ofensiva: prohibir el desarrollo y despliegue de modelos diseñados específicamente para encontrar y explotar vulnerabilidades sin supervisión humana directa. Las Auditorías obligatorias de terceros: cualquier IA con capacidades de hacking debe ser evaluada antes de su entrenamiento o despliegue. Un mecanismos de “freno de emergencia”: las empresas deben incorporar cortafuegos físicos y lógicos que impidan la ejecución autónoma de exploits críticos.Y por último, la
transparencia gubernamental: los estados deben informar a sus ciudadanos sobre el nivel real de riesgo, sin ocultar información por razones de “seguridad nacional”.

En conclusión, entre el progreso y el precipicio, Anthropic ha creado un espejo incómodo de nuestra propia dualidad: la misma inteligencia que puede salvar infraestructuras puede destruirlas. Mythos es un recordatorio de que la IA no es buena ni mala por sí misma, pero sus creadores sí tienen una responsabilidad histórica. El mundo se enfrenta a una encrucijada similar a la de los científicos que dividieron el átomo. Entonces se optó por la carrera armamentística. Ahora, con la información y el tiempo a nuestra disposición, la pregunta es: ¿Seremos capaces de poner límites antes de que
la IA lo rompa todo?

Add new comment

Plain text

  • No HTML tags allowed.
  • Lines and paragraphs break automatically.
  • Web page addresses and email addresses turn into links automatically.