Fugas de Información: El Peligro Oculto de Usar ChatGPT en el Trabajo
Lisseth Artieda
El uso de herramientas de inteligencia artificial como ChatGPT se ha convertido en una práctica común en diversos ámbitos laborales. Sin embargo, en Ecuador, la Ley Orgánica de Protección de Datos Personales, promulgada en mayo de 2021, establece lineamientos claros sobre el manejo, almacenamiento y transferencia de datos personales, que incluyen información confidencial de empresas y empleados.
Uso de ChatGPT y los riesgos para la protección de datos
Muchas veces, los trabajadores y empresarios recurren a herramientas como ChatGPT para realizar consultas rápidas, redactar documentos o resolver problemas complejos sin tener en cuenta que, al compartir información sensible, pueden estar exponiendo datos confidenciales. Este comportamiento es problemático por varias razones:
- Falta de control sobre los datos ingresados: Al introducir información sensible, los usuarios no siempre son conscientes de dónde se almacenan estos datos o cómo se utilizan. Si bien ChatGPT asegura la confidencialidad en ciertos aspectos, no deja de ser una plataforma de terceros, lo que plantea riesgos de seguridad.
- Posibles fugas de información: Al utilizar herramientas que operan en servidores externos, la información podría, en teoría, ser interceptada o utilizada indebidamente. En el caso de datos sensibles como contratos, planes de negocio o información de clientes, una fuga de este tipo podría tener repercusiones legales y comerciales significativas.
- Incumplimiento de la ley de protección de datos: La Ley de Protección de Datos Personales de Ecuador exige que las empresas implementen medidas de seguridad para proteger los datos que manejan. Al ingresar información confidencial en plataformas como ChatGPT, las empresas podrían estar incumpliendo esta normativa, especialmente si no han evaluado adecuadamente los riesgos o no han tomado medidas para garantizar la seguridad de la información.
Consecuencias legales
El incumplimiento de la Ley de Protección de Datos Personales puede acarrear sanciones para las empresas, que van desde multas hasta la suspensión de operaciones. Además, las personas cuya información fue expuesta podrían iniciar acciones legales si consideran que sus datos fueron vulnerados.
Buenas prácticas para proteger la información
Para evitar este tipo de riesgos, es recomendable que las empresas adopten políticas claras sobre el uso de herramientas de inteligencia artificial. Entre las medidas que podrían implementarse están:
- Capacitar a los empleados sobre los riesgos de compartir información confidencial en plataformas no controladas por la empresa.
- Implementar protocolos de seguridad para el uso de inteligencia artificial, que incluyan la prohibición de ingresar datos sensibles en plataformas externas sin la debida autorización.
- Utilizar soluciones internas de procesamiento de datos que garantizan un mayor control sobre la información.
En Orion Legal Technology, marca registrada de Iure Novum ofrecemos un servicio integral 360° en protección de datos personales. Nuestro enfoque abarca desde la capacitación especializada para tu equipo, hasta la evaluación de riesgos y el diseño de políticas personalizadas que aseguren el cumplimiento normativo y la protección de tu información sensible.
Contáctanos y fortalece la seguridad y confianza en tu organización con soluciones completas y estratégicas.
Bibliografía
Registro Oficial de Ecuador. (2021). Ley Orgánica de Protección de Datos Personales. Registro Oficial del Ecuador.
Unir.AI. (2024). La creciente amenaza de fuga de datos en aplicaciones de IA Generativa. https://www .unite .ai /es /la -creciente -amenaza -de- la-fuga- de-datos -en- las- aplicaciones -generativas -ai /.
Morales, A. (2020). El Impacto de la Inteligencia Artificial en la Protección de Datos Personales. https://www.worldcomplianceassociation.com/2767/articulo-el-impacto-de-la-inteligencia-artificial-en-la-proteccin-de-datos-personales.html