A partir de 2026, las empresas tecnológicas que operen en la Unión Europea deberán garantizar que sus modelos de inteligencia artificial sean capaces de «olvidar» datos privados de manera efectiva. La Ley de IA de la UE establece el derecho de los usuarios al olvido, lo que obliga a los desarrolladores a implementar técnicas complejas de desaprendizaje automático para cumplir con estrictas normas de privacidad.
No eliminar la información personal de las redes neuronales de una IA podría acarrear sanciones financieras severas. Bajo la nueva normativa, las empresas se enfrentan a multas de hasta el 7% de su facturación anual global si no pueden demostrar que los datos específicos de un usuario ya no influyen en los resultados del modelo.
Obstáculos técnicos para la transparencia de la IA
Eliminar información de un modelo de lenguaje extenso (LLM) supone un reto de ingeniería considerable. A diferencia de las bases de datos tradicionales, los modelos de IA integran los datos de entrenamiento en sus pesos internos, lo que hace que una simple eliminación sea imposible sin riesgo de dañar el sistema.
Para cumplir con el plazo de 2026, los desarrolladores están recurriendo a métodos de olvido selectivo. Uno de estos enfoques, conocido como «fragmentación y segmentación» (sharding and slicing), consiste en dividir los datos de entrenamiento en segmentos aislados. Si un usuario solicita la eliminación de sus datos, la empresa vuelve a entrenar únicamente la parte específica que contiene esa información, preservando el resto del modelo.
Otras empresas están probando la edición directa de pesos. Este proceso funciona como una neurocirugía, donde los desarrolladores localizan las conexiones neuronales exactas en las que se almacena un concepto específico y las desactivan. Además, la ley exige que los sistemas de IA de alto riesgo mantengan registros de trazabilidad estrictos, obligando a las empresas a rendir cuentas sobre cada dato utilizado en sus conjuntos de entrenamiento.
Los gobiernos latinoamericanos siguen de cerca estas normas europeas para orientar sus propias agendas legislativas. Chile está avanzando actualmente en el Senado con un proyecto de ley que refleja el sistema de clasificación basado en riesgos de la UE. Del mismo modo, el Senado brasileño ha aprobado el proyecto 2338/2023, que se alinea con los estándares internacionales sobre transparencia algorítmica.
Gigantes tecnológicos globales como Google, OpenAI y Meta suelen estandarizar sus procesos para ajustarse a los requisitos regionales más estrictos. Como resultado, se espera que el botón de «derecho al olvido» se implemente en las aplicaciones de estas empresas en mercados como Chile y México al mismo tiempo que en sus despliegues europeos.
La aplicación plena de la Ley de IA de la UE comenzará en agosto de 2026, seguida en noviembre por la obligatoriedad de incluir marcas de agua en el contenido generado por IA. Para 2027, la normativa se ampliará para cubrir la IA especializada en los sectores de la salud y la justicia.