Un estudio de Cyberhaven alerta sobre el creciente peligro de introducir información crítica en herramientas de inteligencia artificial sin control.
🔍 ¿Qué está ocurriendo?
Las empresas están adoptando herramientas de inteligencia artificial generativa (GenAI) con una rapidez sin precedentes. Sin embargo, esta adopción no viene exenta de riesgos: según un informe reciente de Cyberhaven, el 34,8% de los datos corporativos introducidos en estas plataformas es clasificado como sensible. Este porcentaje ha aumentado considerablemente respecto a años anteriores y comprende desde código fuente hasta historiales de recursos humanos, datos financieros, información estratégica y propiedad intelectual.
¿Por qué esto es grave? Porque gran parte de estas plataformas (como ChatGPT, Copilot, Gemini o Claude) operan en la nube y no siempre cuentan con configuraciones de privacidad adecuadas para uso corporativo. Esto abre la puerta a filtraciones, brechas de cumplimiento normativo y riesgos éticos severos.
🧠 ¿Qué tipo de datos se están exponiendo?
El informe de Cyberhaven, basado en el análisis de más de 1,6 millones de interacciones en entornos empresariales, identifica los siguientes tipos de datos como los más expuestos:
- Código fuente interno (19.6%)
- Datos de RRHH: evaluaciones de rendimiento, salarios, despidos (8.3%)
- Planes estratégicos o financieros confidenciales
- Datos de clientes y proveedores con cláusulas NDA activas
- Propiedad intelectual no registrada o pendiente de patente
La tendencia más preocupante es que muchos de estos datos no se introducen de forma consciente, sino a través de hábitos adquiridos por parte de empleados no formados adecuadamente en buenas prácticas de IA.
🛡️ Riesgos legales, técnicos y reputacionales
El peligro no es solo técnico, sino normativo. Las regulaciones como el RGPD en Europa, HIPAA en EE.UU., o la futura Ley de IA de la Unión Europea exigen un nivel alto de control y trazabilidad sobre los datos sensibles. Las empresas que no implementen sistemas de supervisión podrían enfrentarse a:
- Multas millonarias
- Pérdida de propiedad intelectual
- Desconfianza por parte de clientes y socios
- Filtraciones virales en redes o foros como Reddit o GitHub
Además, hay que tener en cuenta que muchas herramientas de IA utilizan los datos introducidos para reentrenar sus modelos si no se establece lo contrario. Esto podría suponer que información estratégica acabe incorporada, sin quererlo, en el modelo de una IA pública o semiprivada.
✅ Buenas prácticas y recomendaciones
Desde nuestra experiencia en transformación digital, automatización e IA en entornos bancarios y corporativos, recomendamos urgentemente lo siguiente:
- Implantar políticas claras de uso de IA en la empresa, diferenciando entre entornos productivos y experimentales.
- Usar versiones privadas o “enterprise” de plataformas de IA, como ChatGPT Enterprise, que permiten evitar el uso de los datos para entrenamiento y asegurar trazabilidad.
- Monitorizar el tráfico de datos en herramientas de IA mediante soluciones de DLP (Data Loss Prevention), como las ofrecidas por Microsoft Purview o Netskope.
- Formar a los empleados sobre qué tipo de datos pueden compartir con IA y qué información debe estar completamente prohibida.
- Establecer una auditoría continua para detectar comportamientos de riesgo y revisar logs de uso de estas plataformas.
❓Preguntas frecuentes (FAQs)
1. ¿Es ilegal introducir datos sensibles en una IA como ChatGPT?
No necesariamente, pero sí puede ser ilegal si se hace sin consentimiento o violando normativas de protección de datos como el RGPD. Todo depende del tipo de dato y del contexto.
2. ¿Puedo desactivar el uso de mis datos en plataformas de IA públicas?
En muchos casos sí, pero requiere configuraciones específicas. Por ejemplo, ChatGPT permite evitar que tus datos se usen para reentrenamiento si usas una cuenta pro o enterprise con ciertas políticas.
3. ¿Qué herramientas ayudan a mitigar estos riesgos?
Plataformas como Cyberhaven, Nightfall AI o Microsoft Purview permiten identificar, clasificar y controlar el flujo de datos sensibles hacia plataformas de IA, incluso en tiempo real.
🧭 Conclusión
Estamos ante una disyuntiva: por un lado, la IA genera eficiencia y productividad nunca vistas; por otro, expone a las empresas a riesgos ocultos si se usa de forma ingenua.
La clave no es evitar la IA, sino gobernarla con inteligencia.
Implementar políticas, tecnologías de prevención y cultura organizativa es esencial para proteger nuestros activos más valiosos: los datos y la confianza.