
- El uso de la IA en el trabajo está aumentando velozmente y muchas veces no se llega a comprender los riesgos asociados.
- El usario ingresa información confidencial en las herramientas de IA sin saber dónde terminan dichos datos, cómo se almacenan y quiénes pueden acceder a esos contenidos.
El 28 de enero se recuerda como el “Día Internacional de la Protección de Datos Personales” y que busca concientizar sobre este tema. Con ese motivo, la empresa de ciberseguridad NordVPN acaba de publicar una encuestasobre cuales son los riesgos para la privacidad que enfrentan los usuarios argentinos al incorporar herramientas de IA a su rutina laboral diaria.
Del trabajo de esta compañía (Prueba Nacional de Privacidad – NPT, por sus siglas en inglés) durante el 2025, el 91% de los argentinos mostró no entender los verdaderos peligros a los que se expone cuando usa la IA en su trabajo. Y las conclusiones recuerdan que hoy millones de trabajadores usan con frecuencia asistentes de IA como ChatGPT, Copilot y otras herramientas aumentar su productividad. Pero sin conocer hasta donde pueden exponer información confidencial tanto personal como de la empresa.
Como evitar los seis errores más comunes en materia de seguridad informática
“El uso de la IA en el trabajo está aumentando tan rápido que no se llegan a comprender los riesgos. La gente ingresa información confidencial en las herramientas de IA sin saber adónde terminan datos, cómo se almacenan y quiénes pueden acceder a ellos”, asegrua Marijus Briedis, Director de Tecnología de NordVPN.
“A diferencia de una conversación con un colega, las interacciones con herramientas de IA se registran, se analizan y pueden utilizarse para entrenar nuevos modelos. Tambié se las usa para seleccionar y hacer publicidad dirigida a cada usuario. En otras palabras, cuando un trabajador comparten datos de los clientes, estrategias internas o información personal con una IA, pueden estar generando vulnerabilidades de la privacidad, muchas veces sin saberlo”, explica Briedis.
Los riesgos de la IA no surgen solo en el trabajo
Además de tener dificultades para proteger sus datos cuando usan herramientas de IA, los argentinos se están convirtiendo cada vez más en el blanco de ataques asistidos por esta tecnología. Los ciberdelincuentes usan la misma tecnología que aumenta la productividad en el trabajo para crear estafas que son más convincentes que nunca.
La Prueba Nacional de Privacidad revela que casi la mitad de los argentinos (40%) no logra identificar estafas comunes creadas con tecnología de IA, como los videos deepfake o la clonación de voz. A medida que la capacidad de la IA supera la clonación de voz hasta llegar a la creación de videos de personajes digitales que se ven y se mueven como personas reales, estas estafas se vuelven cada vez más difíciles de detectar.
La importancia del consentimiento, también en los datos personales
“La IA simplificó el ciberdelito. Ya no es necesario tener mucho conocimiento técnico para armar un mail de phishing, clonar la voz de alguien o crear un sitio web de compras falso idéntico a uno legítimo”, afirma Briedis. “Los estafadores usan la IA para diseñar copias de tiendas online populares. Nunca fue tan fácil cometer un ciberdelito”.
Consejos de los expertos para proteger datos en la era de la IA
Para ayudar a los usuarios a enfrentar los peligros de la IA, Marijus Briedis ofrece algunas medidas de prevención de riesgos.
● Nunca ingresar datos confidenciales de la empresa, información sobre los clientes o detalles personales en los asistentes de IA.
● Tener en cuenta que las conversaciones con las herramientas de IA se registran y se almacenan, y pueden utilizarse para entrenar nuevos modelos.
● Revisar las políticas de uso de la IA de tu organización antes de usar IA generativa para tareas de trabajo.




