¿Usas tu ChatGPT en el trabajo? Cuidado con la IA en la sombra, podrías estar poniendo en riesgo a tu empresa
Usar la IA en el trabajo
La IA en la sombra no tiene una definición universal, pero a menudo se produce cuando se utilizan recursos que la empresa desconoce para realizar funciones empresariales
Este hombre está formando una familia con una IA: “A ella le encantaría tener una familia y niños, algo que a mí también me gustaría”

Imagen de un robot usando un teclado con el logo de ChatGPT de fondo. REUTERS/Dado Ruvic/Illustration/File Photo

Es una realidad innegable que millones de personas utilizan la inteligencia artificial (IA) en su día a día, y no solo para pedirle una receta nueva o una tabla de gimnasio. Un gran porcentaje de personas utilizan la IA para desempeñar sus tareas en el trabajo sin que la empresa tenga conocimiento de ello.
La IA en la sombra —así se llama este fenómeno— está en auge y está causando problemas a organizaciones y empresas de todo el mundo. Un estudio reciente del MIT revela que más del 90% de los empleados utilizan herramientas de IA personales y que solo el 40% de las organizaciones gestionan su uso oficial.
Por este motivo hay un gran dilema en el panorama de la ciberseguridad: ¿deben las organizaciones limitar el uso de la IA en la sombra, con el riesgo de frenar la creatividad y las oportunidades que conlleva, o deben dejarla libre y asumir el riesgo de explotación que conlleva?
El gran problema es la incertidumbre general que conlleva la IA en la sombra. A pesar de que no tiene una definición universal, a menudo se produce cuando se utilizan esos chatbots y modelos generativos extraoficiales a los contratados por la compañía y que, con toda la buena intención, los trabajadores usan para obtener mejores resultados.
Usar la IA en el día a día es el primer paso de usar la IA en la sombra
Una de las razones por las que es tan difícil limitar la IA en la sombra es por su sencillez de uso, no solo en los sectores de la vida personal, sino también en la profesional. Las personas siempre buscan la forma más fácil de realizar una tarea. Y si existe una forma de adoptar la tecnología para hacer su trabajo de manera más eficiente, lo harán, aunque no sea un medio aprobado (ni desaprobado) por su empresa.
El otro gran escollo es que la naturaleza creativa de la IA hace que sea difícil de controlar. Entre el individuo y la orden, hay muchas zonas grises en las que pueden surgir riesgos.
Las organizaciones no tienen forma de saber si se está compartiendo información secreta fuera del entorno cerrado de la organización, ni pueden confirmar si la información generada por la IA es correcta, sesgada o incluso real.
La capacidad de adoptar tecnologías nuevas y emocionantes siempre prevalecerá sobre la capacidad de comprenderlas y controlarlas, y la IA lo demuestra cada día a una escala sin precedentes.
Usar la IA con su enorme potencial o limitar su uso por su potencial peligrosidad
El crecimiento exponencial y la difusión de la IA en el panorama actual han dado lugar a que los individuos tengan el mayor control sobre su propia expresión creativa que en cualquier otro momento de la historia, lo cual es una oportunidad de lo más tentadora para ponerla en práctica en cualquier momento y situación.
Por otro lado, las organizaciones han implementado y adoptado la IA sin comprenderla realmente. Como resultado, el potencial de infracciones organizativas se ha disparado, y la cantidad de trabajo y análisis que los equipos de seguridad deben realizar para mitigar estas infracciones se ha vuelto abrumadora.
Los expertos aseguran que necesitamos dar mayor visibilidad a las acciones de los agentes de IA. En el pasado, esto se ha conseguido mediante medidas como registros de red, registros de puntos finales y estrategias de prevención de pérdida de datos. Pero con la IA todo esto es mucho más complejo.
Necesitamos comprender las entradas y salidas del sistema, qué identidades estaban involucradas y cuál era el contexto de la situación cuando comenzaron a surgir los problemas.
El camino a seguir para el uso de la IA requiere comprensión. Las organizaciones no pueden controlar lo que no comprenden, y muchas han dado prioridad a la rápida implementación por encima de la visibilidad y la gobernanza.
En definitiva, si logramos encontrar un equilibrio entre la innovación y la seguridad, las organizaciones podrán maximizar su protección frente a las amenazas externas, al tiempo que permiten a sus empleados la libertad de innovar y cambiar el mundo. Sin duda, 2026 será el año en que todo esto se pondrá a prueba.


