top of page
Foto del escritorNicole Marie Suárez Uribe

Privacidad y protección de datos en tiempos de inteligencia artificial generativa

Hemos comprobado que el mundo opera a base de intercambios. En efecto, trabajamos por un beneficio, los inversionistas adquieren acciones y activos en busca de ganancias futuras e incluso, se es voluntario para favorecer una causa, con el objetivo de tener reconocimiento o simplemente por satisfacción personal. En la era digital, los datos se han convertido en la materia prima más preciada y en una de las mayores fuentes de riqueza, así que nos beneficiamos de distintas plataformas y como contraprestación compartimos nuestra información. Para muestra, los sistemas de recomendaciones personalizadas de Netflix, de Spotify y de Instagram, funcionan utilizando nuestro propio comportamiento como usuario; Waze y Google Maps, recopilan los detalles de navegación para ofrecer en tiempo real el estado del tráfico, la ruta más rápida, las interrupciones o la presencia de algún agente de la DIGESETT; de igual modo, se toman nuestras huellas dactilares, las propiedades del rostro, del iris, de la retina y de la voz para desbloquear dispositivos inteligentes o cualquier otra utilidad identificativa.


En estos escenarios donde la inteligencia artificial (en lo adelante “IA”) se hace presente, nos queda claro que los resultados no son una revelación del universo, el trueque es evidente, ya que como bien afirma la Agencia de Protección de Datos Personales de Noruega, las aplicaciones de IA generalmente necesitan grandes volúmenes de datos para aprender y tomar decisiones inteligentes. Sin embargo, su inadecuado manejo resulta aterrador. Desde que la IA nos acompaña en nuestra rutina, ha aumentado el desafío del uso correcto de los datos, dejándonos atónitos escándalos como los de Cambridge Analytica, Equifax, Rikunabi y otros en la misma línea de impacto significativo, activando todas las alarmas en materia de seguridad y privacidad de la información en la red.


Hoy, el panorama tiene una novedad, la IA generativa. Aquella capaz de generar contenido nuevo u original con carácter multimodal (texto, imagen, audio, video, código, etc.) y multipropósito, a partir de datos existentes y sintéticos, haciendo uso de técnicas de aprendizaje automático y especialmente de aprendizaje profundo. Esa que imaginó una colaboración de Cerati, García y Spinetta en la canción “Yo vengo a ofrecer mi corazón” de Fito Páez; la que le permitió a Boris Eldagsen ganar una categoría del Sony World Photography Awards con una fotografía producida con inteligencia artificial (que rechazó al instante por cuestiones éticas) y la que facilita el ahorro de tiempo en el desarrollo de asignaciones cuando usamos ChatGPT, Copilot o Bard. Siendo así, ante este ingrediente adicional, nos cuestionamos ¿cuál es el estado actual de la privacidad y de la protección de lo que suministramos cuando usamos este tipo de sistemas? La respuesta es incierta. Lo que sí tenemos claro es un conjunto de circunstancias y hechos que se han producido en este sentido, a saber:


a) Este tipo de modelos se entrena con una gran cantidad de datos, incluyendo millones páginas web que incorporan una serie de datos personales y documentación protegida por derecho de autor, es decir, existe un riesgo de que puedan aprender y reproducir parte del aludido contenido. Asunto planteado en la conocida demanda de Getty Images vs. Stability AI.


b) Al visualizar los términos y condiciones, así como las políticas de privacidad de algunos de los principales sistemas de este tipo, por ejemplo, Bard, nos percatamos que advierten expresamente que las conversaciones sostenidas con estos asistentes conversacionales podrían ser revisadas por seres humanos, en miras de medir la calidad. Por ello, recomiendan que no se comparta información confidencial ni sensible, ya que puede estar siendo visualizada por estos terceros que eventualmente podrían hacer un uso indebido.


c) Es ampliamente sabido que el argumento justificativo por excelencia esgrimido por las empresas desarrolladoras para guardar información, es que se utiliza para mejorar el propio servicio. No obstante, no se consideran lo suficientemente transparentes, por lo que se manejan datos personales o información confidencial sin que los usuarios estén conscientes. El citado aspecto ha generado dudas entre los internautas. De ahí que, un abogado alto consejero corporativo de Amazon advirtiera que ha habido casos de respuestas de ChatGPT que parecían responder a datos internos de dicha compañía, lo que le llevó a aplicar restricciones con las IA generativa, medidas similares tomadas también por distintas grandes compañías como Samsung, Verizon, JP Morgan, Bank of America, Citigroup, Goldman Sachs, Apple, Walmart, entre otras.


Asimismo, acaparó los titulares la noticia de que la autoridad italiana de protección de datos bloqueó a ChatGPT temporalmente por preocupaciones de privacidad, investigando si cumplía con el Reglamento General de Protección de Datos, lo que llevó a iniciar investigaciones en Alemania, Francia e Irlanda, así como en todos los países de la Red Iberoamericana de Protección de Datos, constituida por las autoridades de protección de datos de México, Principado de Andorra, España, Argentina, Chile, Colombia, Costa Rica, Panamá, Perú, Brasil, Uruguay y Portugal.


d) No podemos dejar de lado los inconvenientes técnicos, fallos del hardware, software o programación. El CEO de OpenAI, Sam Altman, escribió un tuit en el mes de marzo, informando que ChatGPT tuvo un problema importante causado por un error en una biblioteca de código abierto, lo que había permitido que usuarios vieran los hilos de conversaciones de otras personas con el chatbot.


e) Por otro lado, como era de esperarse, la ciberdelincuencia se moderniza. Evidentemente, los atacantes se sienten atraídos por los datos masivos que pueden adquirir. Especialistas de Kaspersky, compañía dedicada a la seguridad informática, descubrieron una campaña maliciosa donde se publicita una versión de escritorio falsa de ChatGPT y se promocionan funciones premium gratuitas, así cuando entramos al sitio no oficial, aparece en pantalla un error en la descarga y un troyano se instala en el ordenador del usuario robando todo tipo de información que tenga a su alcance.


Entonces, ante las exposiciones y amenazas inminentes ¿qué podemos hacer?


Por supuesto, se hace necesaria la actualización de la Ley No.172-13 de Protección de Datos Personales, ya que es una deuda que tiene la República Dominicana desde hace largo tiempo que no permite colocar verdaderos controles. En este aspecto, la inteligencia artificial es un amable recordatorio para los legisladores de nuestro país. Precisamente, dentro de la Consulta Pública para la Estrategia Nacional de Inteligencia Artificial, se incluye en los objetivos que la indicada norma jurídica sea actualizada, con la finalidad de garantizar la protección de la privacidad y los derechos humanos en el contexto de la implementación de la IA, abordando la recopilación, el uso y el almacenamiento de datos, la ética, la responsabilidad y la transparencia en su uso.


Ahora bien, debemos asumir la responsabilidad en primera persona, tomando las medidas que tengamos en nuestras manos, entre estas acciones estarían:


1) No introducir información de nuestra vida, datos de identificación, privados o vinculados a nuestro trabajo.

2) Revisar la configuración de cada una de estas herramientas. Algunas te permiten activar la función de modo incógnito, otras seleccionar la frecuencia con la que se borrarán los datos automáticamente o se ofrece la posibilidad de eliminar el historial de búsqueda manualmente cuando desees.

Si tienes una empresa, además de las citadas prácticas, es esencial:

3) Estimar el riesgo y realizar evaluaciones de impacto antes de hacer uso de algún sistema como este.

4) Integrar de forma independiente la arquitectura GPT a un servicio que su empresa ya tenga o requiera específicamente.

5) Enviar notas de transparencia a los clientes cuando se genere un contenido utilizando cualquier herramienta de IA, explicando en detalle para qué y cómo se usan estas herramientas.

6) Formar a los miembros de la organización que trabajen o se apoyen en esta tecnología.

7) Finalmente, volver a los principios, estableciendo una cultura de protección de datos con todo lo que implica este concepto (clasificación de la información, política de seguridad para el ciclo de vida de los datos y protocolo ante fuga).


Definitivamente, la vida nos invita constantemente a colocar las cosas en una balanza, esta no es la excepción. En lo adelante, nos corresponde encontrar ese punto de equilibrio entre la productividad generada por la IA generativa y priorizar nuestra privacidad y protección de datos.

278 visualizaciones0 comentarios

Comments


bottom of page