La privacidad en jaque: ¿Estamos compartiendo demasiado con la IA?
En un mundo cada vez más impulsado por la inteligencia artificial generativa (IAG), la línea entre innovación y riesgo para la privacidad se está volviendo peligrosamente difusa. Un reciente estudio de Cisco está revelando una creciente preocupación entre los usuarios sobre cómo sus datos personales están siendo manejados por sistemas como ChatGPT, Gemini y Claude. La encuesta, que abarcó a 2,600 profesionales de privacidad y seguridad en 12 países, está pintando un panorama donde la familiaridad con la IA está aumentando, pero también lo está el temor a las consecuencias no deseadas de compartir información sensible.
Según Cisco, el 63% de los usuarios están utilizando activamente la IAG, pero un alarmante 64% teme compartir inadvertidamente información confidencial con competidores o hacerla pública. Este temor está muy bien fundado, considerando que casi la mitad de los encuestados admitieron haber ingresado datos personales de empleados o información no pública en estas herramientas de IA.

Filtraciones y vulnerabilidades: Un historial preocupante
Los incidentes de seguridad relacionados con la IA no son nuevos. En marzo de 2023, OpenAI reconoció una vulnerabilidad en ChatGPT que permitió a algunos usuarios acceder a historiales de conversación de otros, exponiendo datos personales vinculados a sus cuentas. Este incidente subraya una realidad inquietante: incluso las plataformas más avanzadas pueden ser vulnerables a fallos de seguridad.
Grandes tecnológicas como Meta (anteriormente Facebook), Google y Microsoft también han enfrentado críticas y controversias relacionadas con el manejo de datos para entrenar algoritmos. Estos incidentes están generando dudas sobre la transparencia y la ética en el desarrollo y la implementación de la IA.

La importancia de la gobernanza de datos
Dev Stahlkopf, Director Legal de Cisco, está enfatizando la necesidad de una gobernanza de datos sólida para una IA responsable. «Para las organizaciones que están trabajando para prepararse para la IA, las inversiones en privacidad están estableciendo una base esencial, ayudando a acelerar la gobernanza efectiva de la IA», está afirmando Stahlkopf.
Sin embargo, otras voces están expresando aún mayor alarma. HackerOne, una empresa de seguridad ofensiva, está señalando que el 74% de las organizaciones ya están utilizando la IAG, pero solo el 18% comprende los riesgos que esto implica para sus empresas y sistemas. Esta brecha de conocimiento está dejando a muchas organizaciones peligrosamente expuestas.
¿Dónde están nuestros datos? La paradoja de la seguridad
El estudio de Cisco está revelando una paradoja interesante: aunque el 90% de los encuestados cree que la localización de datos es más segura, el 91% confía más en que los proveedores globales protejan mejor la información. Esta contradicción refleja la complejidad del panorama de la privacidad actual.
Harvey Jang, Director de Privacidad de Cisco, está señalando que «el impulso por la localización de datos refleja un creciente interés en la soberanía de los datos». Sin embargo, también está advirtiendo que una economía digital global próspera depende de flujos de datos transfronterizos confiables. «Marcos interoperables como el Foro Global de Reglas de Privacidad Transfronteriza jugarán un papel vital en el crecimiento, mientras se abordan efectivamente preocupaciones cruciales de privacidad y seguridad», está complementando Jang.
Argentina en la mira: Una legislación que necesita actualización
Argentina, que ha enfrentado un número creciente de filtraciones de datos y ciberataques en los últimos cinco años, se encuentra en una encrucijada. Luis García Balcarce, abogado especializado en derechos digitales, está analizando para Clarín que «el informe destaca que el 90% de los encuestados considera que los datos son inherentemente más seguros cuando se almacenan localmente, es decir, dentro de las fronteras de su propio país. Sin embargo, paradójicamente, el 91% confía más en que los proveedores globales pueden proteger mejor sus datos en comparación con proveedores locales. Esta tensión entre localización y servicio global me llama la atención, y me parece relevante para Argentina teniendo en cuenta nuestra situación normativa».
Aunque Argentina fue pionera en América Latina con su Ley de Protección de Datos Personales (Ley 25.326) del año 2000, la legislación ya tiene 25 años y no contempla los avances tecnológicos ni las nuevas prácticas digitales. «La desactualización normativa argentina contrasta con el dato del informe que muestra que el 86% de las organizaciones considera que las leyes de privacidad tienen un impacto positivo, y que el 96% ve que los beneficios de invertir en privacidad superan los costos. Argentina estaría perdiendo la oportunidad de capitalizar estos beneficios al no modernizar su marco legal», está advirtiendo García Balcarce.
Flujo transfronterizo de datos: Un desafío regulatorio
El flujo transfronterizo de datos es esencial para la economía argentina, pero exige un marco regulatorio moderno que combine seguridad jurídica con agilidad operativa. La legislación vigente impone requisitos estrictos, como el registro de bases de datos, que a menudo obstaculizan estos flujos sin necesariamente garantizar una mayor protección efectiva.
García Balcarce está sugiriendo que Argentina necesita con urgencia un marco regulatorio para la protección de datos que incluya estas tecnologías. «Este marco debe establecer directrices claras para su uso ético y responsable, fomentando la innovación sin descuidar la protección de los derechos fundamentales», está concluyendo el especialista.
El rol de las empresas y los usuarios
Marcelo Felman, Director de Ciberseguridad de Microsoft para América Latina, está enfatizando que «la adopción de inteligencia artificial en las organizaciones ya no es una cuestión de si va a pasar, sino de cómo hacerlo de forma segura». Según el Índice de Tendencias del Trabajo 2024, el 78% de los colaboradores están trayendo sus propias herramientas al espacio laboral. Esto muestra un gran interés y una adopción orgánica de la inteligencia artificial, pero también refleja un desafío urgente: las organizaciones deben proveer plataformas seguras que permitan a sus empleados aprovechar esta tecnología sin comprometer la privacidad».
Es fundamental que los líderes empresariales proporcionen herramientas fáciles de usar que promuevan prácticas seguras y que permitan decidir qué datos deben permanecer en un entorno privado. La clave está en brindar claridad sobre cómo y cuándo utilizar la IA, asegurando que la información sensible permanezca siempre protegida en un entorno exclusivo y confiable.
En última instancia, proteger los datos es una responsabilidad compartida. Entender los riesgos que se corren con la IA ayuda a usarla de manera responsable y a tomar decisiones informadas sobre la información que estamos compartiendo.