La Comisión para el Mercado Financiero (CMF) está supervisando la posible exposición al nuevo modelo de IA de Anthropic, Claude Mythos, tras los informes que indican que esta tecnología ha identificado miles de vulnerabilidades críticas de software.
La CMF confirmó a Emol que ha iniciado contacto con las industrias reguladas y la Agencia Nacional de Ciberseguridad. El regulador está evaluando la situación como parte de una evaluación global más amplia sobre los riesgos asociados a la inteligencia artificial.
Esta medida se produce tras las reuniones de alto nivel celebradas la semana pasada en Estados Unidos. El secretario del Tesoro estadounidense, Scott Bessent, y el presidente de la Reserva Federal, Jerome Powell, se reunieron con ejecutivos de los principales bancos del país para abordar los riesgos vinculados al nuevo modelo de IA.
Claude Mythos ha demostrado capacidad para identificar miles de vulnerabilidades en sistemas operativos, navegadores web y programas de software esenciales. Según los reportes, muchas de estas fallas han permanecido ocultas en sistemas digitales durante años.
Riesgos en infraestructuras críticas
De acuerdo con informes del Financial Times, el modelo de IA detectó una vulnerabilidad en OpenBSD que había existido durante 27 años. OpenBSD es un sistema operativo de alta seguridad utilizado a nivel mundial para gestionar firewalls y otras infraestructuras digitales críticas.
El descubrimiento de fallas tan antiguas ha provocado la implementación inmediata de medidas restrictivas. Anthropic ha limitado el acceso al modelo Claude Mythos a solo 40 organizaciones.
Estas organizaciones tienen la tarea específica de desarrollar y mantener infraestructuras de software críticas. La restricción tiene como objetivo permitir que estas entidades puedan corregir las vulnerabilidades antes de que la información llegue a actores no autorizados.
Anthropic confirmó que actualmente mantiene conversaciones con funcionarios estadounidenses. Estas charlas buscan evaluar las capacidades "cibernéticas, ofensivas y defensivas" del nuevo modelo.
La CMF señaló que su mandato es "asegurar que todos los riesgos, incluidos los relacionados con el uso de la IA, sean abordados adecuadamente por las entidades locales". El regulador continúa monitoreando el impacto de esta tecnología en el panorama financiero nacional.