Hace poco, un grupo de ingenieros de Samsung subió fragmentos de código interno a ChatGPT para pedir ayuda con un problema técnico. Lo hicieron con buena intención: ahorrar tiempo. Lo que no sabían es que, al hacerlo, estaban compartiendo información confidencial con un modelo público de inteligencia artificial. En cuestión de horas, lo que debía ser una consulta inofensiva se había convertido en una fuga de datos sensibles.

El caso se volvió tan mediático que Samsung decidió prohibir el uso de herramientas e IA generativas en toda la compañía. Un castigo colectivo por una imprudencia individual. Pero detrás del titular se escondía algo más profundo: el nacimiento de una nueva categoría de riesgo, uno que no proviene de hackers o malware, sino de la curiosidad humana.

Meses después, un grupo de investigadores descubrió una vulnerabilidad en Microsoft Copilot, el asistente de IA integrado en Office 365. El ataque, bautizado EchoLeak, era una joya del ingenio ofensivo: permitía, mediante simples etiquetas en Markdown o imágenes manipuladas, que un atacante extrajera datos de usuarios sin que ellos hicieran clic en nada. Una inyección de prompt de tipo “zero-click”. Es decir, la IA obedecía órdenes camufladas en su propio entorno.

Dos casos distintos, un mismo mensaje: la inteligencia artificial no es peligrosa por sí sola, pero el contexto donde la usamos sí puede serlo.

Según un estudio de CSO Online, y otro de Lasso Security uno de cada diez prompts que los empleados envían a herramientas de IA contiene información sensible: datos personales, credenciales o fragmentos de código. CyberNews advierte que más del 80 % de las aplicaciones de IA analizadas han sufrido algún tipo de vulnerabilidad o brecha de almacenamiento.

No estamos hablando de espionaje industrial. Estamos hablando de empleados bien intencionados, usualmente los más proactivos y curiosos, que buscan ser más eficientes.

El fenómeno ya tiene nombre: Shadow AI. La inteligencia artificial que se usa fuera de los radares corporativos, sin aprobación ni control, pero dentro de las computadoras de todos.

Cada vez que un colaborador pide a ChatGPT “mejorar la redacción de este informe” o “generar un resumen de este contrato”, puede estar subiendo información que jamás debió salir de la red interna. Es una fuga silenciosa, invisible, masiva… y completamente evitable.

Frente a este escenario, muchos líderes empresariales están atrapados en dilema: ¿Abrir la IA a toda la organización, con el riesgo de exponer datos, o mantenerla cerrada, con el riesgo de quedarse atrás?

Abrirla sin control es peligroso. Cerrarla por miedo puede ser fatal.

Porque cuando prohíbes la IA, no desaparece: se esconde. Los empleados seguirán usándola, pero sin guía, sin entrenamiento, sin filtros. Y cuando eso ocurre, la empresa pierde en ambos frentes: pierde control y pierde competitividad.

Las compañías que han decidido bloquear por completo ChatGPT, Copilot o Gemini, suelen descubrir —tarde— que el costo de esa “seguridad” es su propia capacidad de innovación.

Mientras tanto, sus competidores automatizan tareas, aceleran análisis y liberan talento creativo.

El riesgo no está en la tecnología, sino en cómo se gobierna.

La fórmula: abrir, pero con cabeza

El reto no es elegir entre apertura o restricción, sino encontrar el punto medio: abrir con responsabilidad.

Para lograrlo, se necesitan tres pilares: personas, políticas y tecnología preventiva.

1. Personas: la primera línea de defensa

Capacitar es más barato que reparar. Enseñar a los empleados qué información es confidencial, cómo redactar prompts seguros y cuándo evitar compartir documentos internos es la medida más poderosa y menos costosa. Cada usuario puede ser un vector de riesgo… o una barrera de contención. Depende de si está entrenado.

2. Políticas: el marco de uso responsable

Definir qué usos de la IA están permitidos, restringidos o prohibidos evita ambigüedades. Las áreas de marketing, por ejemplo, pueden usar IA para redactar textos o analizar contenido público. Pero las áreas legales, financieras o de producto deben operar en entornos controlados. Establecer reglas claras —y revisarlas con frecuencia— es la base de cualquier gobierno corporativo de IA.

3. Tecnología: el cinturón de seguridad

Finalmente, el control debe automatizarse. Ya existen herramientas que actúan como guardianes del prompt, auditando y bloqueando información sensible antes de que salga de la empresa. Algunas de las más destacadas son:

  • Prompt Security, que funciona como un firewall de IA (detecta en tiempo real datos personales, código o secretos industriales en los prompts) y detiene ataques de prompt injection.
  • Sentra y Symmetry Systems, que analizan el movimiento de datos para prevenir fugas accidentales.
  • Y de forma más limitada a algunos IA´s Google Cloud DLP y Microsoft Purview, que integran detección de información sensible dentro del propio entorno corporativo.

Estas plataformas no eliminan el riesgo, pero lo reducen a un nivel manejable y trazable, como lo haría un sistema de compliance o una póliza de ciberseguridad.

Cerrar las puertas de la IA puede parecer una decisión prudente, pero es una decisión reactiva. La verdadera pregunta no es si deberías abrir la IA a tus empleados, sino cómo hacerlo sin perder el control.

La semana pasada junto con varios líderes de la industria tuvimos la oportunidad de discutir este tema en una conferencia de , y sin duda el interés legítimo de líderes tecnológicos y empresariales por adoptar de forma segura IA es enorme.

El futuro competitivo dependerá de las empresas que sepan equilibrar curiosidad con precaución, agilidad con disciplina. Las que vean la inteligencia artificial no como un riesgo que evitar, sino como una capacidad que merece ser gobernada.

CEO y Socio fundador de , empresa especializada en servicios de ciberseguridad.

manuel@nektgroup.com @mriveraraba

Únete a nuestro canal ¡EL UNIVERSAL ya está en Whatsapp!, desde tu dispositivo móvil entérate de las noticias más relevantes del día, artículos de opinión, entretenimiento, tendencias y más.

Google News

TEMAS RELACIONADOS

Comentarios