
La inteligencia artificial generativa (GenAI) se ha convertido en una herramienta esencial para las empresas, pero su adopción acelerada también ha traído consigo riesgos significativos. Según el informe «The State of Generative AI 2025» de Unit 42, el tráfico de GenAI creció más del 890% en 2024, lo que se tradujo en un aumento del 150% en los incidentes de pérdida de datos relacionados con estas herramientas.
En Chile, el uso de GenAI también ha escalado rápidamente. Las organizaciones utilizan diversas aplicaciones, siendo Grammarly (32,7%) y ChatGPT (21,7%) las más utilizadas por volumen de transacciones. Por volumen de datos, Microsoft Power Apps lidera con un 42,5%, seguido de cerca por ChatGPT con un 31,2% y Grammarly en tercer lugar, con 9,7%.
El Desafío del «Shadow AI»
El uso no autorizado de las herramientas de GenAI, conocido como «Shadow AI», representa un nuevo desafío para las organizaciones. Desde un colaborador que redacta un correo electrónico con la ayuda de la IA hasta un desarrollador que genera código con una herramienta gratuita, estas acciones pueden llevar a la exposición de información confidencial, incumplimientos regulatorios o incluso la pérdida de propiedad intelectual.
Según Mauricio Ramírez, Country Manager de Palo Alto Networks Chile, «en Chile, donde estas tecnologías se adoptan rápidamente, es clave establecer políticas claras de uso y mecanismos de control que les permitan aprovechar sus beneficios sin comprometer la seguridad».
Estrategias Integrales de Seguridad
Para mitigar los riesgos asociados con el uso de GenAI, los expertos recomiendan adoptar una estrategia de seguridad integral que combine diferentes capas de protección:
- Controles de acceso condicional: Restringir el uso de las aplicaciones de GenAI en función del perfil del usuario, el tipo de dispositivo o el nivel de riesgo de la herramienta.
- Inspección de contenidos en tiempo real: Detectar y bloquear el uso indebido de datos sensibles antes de que se envíen a plataformas externas.
- Enfoque Zero Trust: Asumir que ninguna interacción es segura de forma predeterminada, lo que permite identificar y detener amenazas sofisticadas ocultas en las respuestas generadas por IA.
- Formación continua del personal: Asegurar que los usuarios comprendan los riesgos y sepan cómo usar estas herramientas de manera segura y responsable.
Con una estrategia integral como la que propone Unit42, las organizaciones chilenas pueden prevenir incidentes de seguridad y privacidad relacionados con el uso descontrolado de herramientas de IA generativa.
Llamado a la Acción
Palo Alto Networks hace un llamado a las empresas chilenas para que no dejen que la velocidad de la innovación supere sus capacidades de protección. Adoptar un enfoque proactivo y de múltiples capas es fundamental para aprovechar los beneficios de la IA generativa sin comprometer la seguridad y la privacidad de la información.