La Era
Ciberseguridad

Falla crítica en Copilot expone documentos confidenciales por error de indexación

Microsoft enfrenta una crisis de privacidad tras confirmarse una vulnerabilidad sistémica en Copilot que permite a la IA acceder a información corporativa sensible. El error, identificado como CW1226324, elude las jerarquías de permisos existentes en SharePoint y OneDrive. Esto pone en riesgo datos como nóminas y secretos comerciales de miles de organizaciones a nivel global.

La Era

Falla crítica en Copilot expone documentos confidenciales por error de indexación
Falla crítica en Copilot expone documentos confidenciales por error de indexación
Publicidad
Publicidad

Se ha confirmado una vulnerabilidad crítica en la gestión de datos corporativos de Microsoft Copilot, permitiendo que la inteligencia artificial indexe y resuma documentos que deberían permanecer inaccesibles para ciertos empleados. Este fallo de diseño, y no una intrusión externa, expone información confidencial como planes de despido y secretos comerciales mediante consultas sencillas de lenguaje natural.

La falla técnica, referenciada internamente como CW1226324, demuestra que el Índice Semántico de Copilot ignora las estructuras de acceso cuando los archivos tienen permisos genéricos de “Lectura para la organización”. Esta situación evidencia que la infraestructura de permisos de SharePoint y OneDrive no fue diseñada para soportar el escaneo profundo realizado por el motor de búsqueda vectorial de la IA.

El problema radica en que el sistema prioriza la relevancia conceptual de la respuesta sobre la validación rigurosa del perfil del usuario, generando una sobreexposición de datos. Según reportes técnicos, la IA elude los filtros de seguridad del Microsoft Graph para entregar fragmentos de información financiera a usuarios con permisos de lectura heredados, pero sin necesidad de negocio para acceder a ellos.

Esta visibilidad radical del Microsoft Graph, que actúa como tejido conectivo de los datos en la nube, permite una “arqueología de datos” no prevista por las empresas. Un usuario que consulte sobre “planes de salida de personal”, por ejemplo, puede extraer datos de archivos previamente enterrados en subdirectorios complejos y que se consideraban seguros.

La situación genera serias implicaciones legales, ya que la exposición inadvertida de datos personales y financieros viola normativas internacionales como el GDPR. Las corporaciones enfrentan ahora un riesgo elevado de sanciones multimillonarias si no logran asegurar la integridad de su propiedad intelectual.

Expertos en ciberseguridad señalan que la carrera por el liderazgo en IA pudo haber llevado a Microsoft a omitir validaciones de seguridad fundamentales, dejando la privacidad corporativa en segundo plano respecto a la funcionalidad del producto. Menos del quince por ciento de las organizaciones han implementado completamente las etiquetas de protección de Microsoft Purview necesarias.

Como medida de mitigación inmediata, los departamentos de tecnología han comenzado a ejecutar bloqueos masivos a la indexación semántica en servidores críticos. La recomendación actual es realizar auditorías de emergencia para revocar permisos heredados, asumiendo que el sistema no puede garantizar la protección de la información por sí mismo.

Publicidad
Publicidad

Comentarios

Los comentarios se almacenan localmente en tu navegador.

Publicidad
Publicidad