El Shadow AI es un problema de arquitectura del trabajo, no de seguridad.
Por darte una definición, Shadow IA es el concepto que recoge el hecho que se produce en muchas organizaciones: empleados que utilizan la IA por su cuenta.
El estudio del MIT titulado “The GenAI Divide STATE OF AI IN BUSINESS 2025” se hizo viral hace unos meses al encontrar que el 95% de las empresas no ven retorno a la inversión, pero también alertaba de empleados usando LLMs por su cuenta (Shadow AI). Es decir, las empresas del estudio que invierten millones en IA ven como sus empleados resuelven sus problemas con cuentas personales de 20€/mes. Me pregunto quién resuelve mejor los problemas de negocio.
Que ocurra el fenómeno de Shadow AI es un síntoma de que la arquitectura del trabajo no está bien diseñada. La gente no está desobedeciendo, está buscando formas de hacer mejor sus tareas ante la presión de la productividad y el crecimiento. Y hacen lo que pueden, pero por lo que veo en las organizaciones, en muchos casos lo hacen mal: (1) Dan información privada a modelos generales (Problema de seguridad) (2) Delegan tareas que no deberían (Deuda Cognitiva) (3) Aceptan como buena las primeras respuestas sin dudar (Falta de pensamiento crítico).
Entonces ¿Lo prohibimos? No, mejor lo ordenamos. La respuesta no es más restricción ni un documento de políticas más largo (si es que antes había alguno). La solución pasa por rediseñar los procesos para que la IA tenga un lugar de utilidad. Esto significa: mapear dónde están los empleados usando IA por su cuenta, entender qué necesidad real están resolviendo y rediseñar el proceso para que esa inteligencia fluya dentro de cauces gobernados.
Cuando las empresas ofrecen alternativas aprobadas de calidad el uso no autorizado cae un 89%. No necesitas prohibir, necesitas repensar la arquitectura del trabajo.
