El riesgo de compartir datos personales y cómo usar la inteligencia artificial en clave de derechos humanos

“La recopilación de datos que existe no tiene precedentes, entonces más que nunca la privacidad y la protección de datos personales deben ser especialmente atendidas”, sostiene experta.

Compartir esta noticia
Inteligencia Artificial
Reconocimiento facial y recolección de datos personales con inteligencia artificial.
Foto: Freepik.

Valen más de lo que imaginamos y muchas veces los damos sin pensarlo dos veces: hoy, nuestros datos personales son uno de nuestros bienes más preciados. “El caso típico es cuando regalan un jabón u otro artículo en los corredores de los shoppings a cambio de ciertos datos. Al final, ese jabón sale carísimo”, dijo a El País la uruguaya Ana Brian Nougrères, doctora en Derecho y Ciencias Sociales y relatora especial de las Naciones Unidas en materia de privacidad. Y agregó: “Si las personas no conocen el riesgo, caen. Hoy, los más chicos tienen cierta educación, pero creo que es poca. Hay que trabajar muy fuerte en ese sentido”.

Brian Nougrères ha recorrido la República de Mauricio y Lituania para evaluar el estado de la protección del derecho a la privacidad y a la protección de datos personales y proponer recomendaciones. Ha participado en eventos sobre estas problemáticas en países como Suiza, Portugal, Estados Unidos y Argentina. También da clases en la Universidad de Montevideo y contó que siempre recalca a sus estudiantes la importancia de “concientizar a la ciudadanía sobre cómo cuidar sus datos personales”. “Hablar con el florista de la esquina, con los abuelos, transmitir estos conocimientos a la sociedad para que la gente aprenda que, si bien la tecnología ayuda muchísimo, hay que tomar decisiones con información”, afirmó.

Datos que se transforman en delitos

De acuerdo al Centro Nacional de Respuesta a Incidentes de Seguridad Informática (CERTuy), en 2023 hubo 4.968 incidentes de seguridad de la información en el país, un 16% más que el año anterior. La entidad explica que este aumento se debe a la implementación de nuevas metodologías de detección y a la mejora en el monitoreo de los organismos del Estado.

Uno de los incidentes más conocidos es el clásico ‘cuento del tío’. Según informó El País, entre 2019 y junio de 2023 hubo 1.547 personas imputadas por estafa en Uruguay y 1.449 que fueron condenadas por este mismo delito. Al respecto, Brian Nougrères expresó: “Alguien llega, toca el timbre y dice: ‘¿Está fulana?’. Sabe el nombre, el apellido, la conformación familiar… Inventa una historia y le quita el dinero que tiene en la casa. Previamente, hubo un estudio sobre los datos de esa persona. Eso denota que hay datos que no están siendo debidamente custodiados o que la persona no sabe cómo salvaguardar su información de manera adecuada”.

Ana Brian Nougrères
Ana Brian Nougrères dando una conferencia.
Foto: Cortesía Ana Brian Nougrères.

Para la especialista, ese es el mayor desafío para Uruguay. “En nuestro país, la Unidad Reguladora y de Control de Datos Personales trabaja fuertemente para reunir los requisitos que exige la norma europea, pero lo que falta y mucho es la concientización acerca del riesgo de compartir los datos personales. Es importante hablar del tema con los más cercanos, pero también atravesar las vallas sociales; comentarlo con la peluquera del barrio, gente mayor, vecinos, niños y adolescentes”, dijo.

ACCESOS

Dónde denunciar delitos informáticos y violaciones a la Ley de protección de datos personales

Unidad de Cibercrimen:

  • Por teléfono al 2030 4625 de lunes a viernes de 8 a 19 horas y fines de semana de 10 a 18 horas.
  • Por mail a [email protected].

También, ante un hecho de estafa por medio electrónico, puede concurrir a la seccional policial más cercana o dirigirse al Departamento de Delitos Financieros de Interpol o a la Unidad de Cibercrimen, ambos en Maldonado 1109 (Montevideo).

En cuanto a las denuncias ante la Unidad Reguladora y de Control de Datos Personales, éstas se realizan de forma online a través del sitio web https://www.gub.uy/tramites/denuncias-unidad-reguladora-control-datos-personales-urcdp.

Para Brian Nougrères, el sistema en Uruguay “está muy bien”. Mencionó la Ley de protección de datos personales, en cuya aprobación participó como abogada del Parlamento, y resaltó que “si bien es de 2008 y uno podría pensar que ha quedado antigua, se ha trabajado mucho para actualizarla y está conformada por agregados y modificaciones”. También señaló que el país es reconocido por la Unión Europea (UE) como ‘adecuado’ para las transferencias internacionales de datos personales, lo que implica que puede haber libre circulación de datos entre Uruguay y los países de la UE, y subrayó que “de toda Iberoamérica, es un reconocimiento que solo tienen Argentina y Uruguay”.

“Otro dato interesante es que fuimos el primer país no europeo en ratificar el Convenio 108 del Consejo de Europa, que tiene una serie de principios vinculados con la protección de datos y la privacidad”, agregó.

No obstante, del derecho al hecho hay un gran trecho. “Que exista una norma no significa que se cumpla con lo necesario para proteger el dato personal, es decir, es importante tener la norma así como la vía para ejecutarla. Y en muchos casos lo que sucede no es lo que quisiéramos que sucediera”, sostuvo la abogada. Lo explicó así: “Supongamos que se divulgó información negativa e incorrecta sobre un profesional: la persona puede hacer reclamos, quejas y acciones judiciales, pero ¿cómo volver atrás? Es muy difícil borrar lo que sucedió”.

OPORTUNIDADES DE MEJORA

“El mero reconocimiento legal de estos derechos no es suficiente para asegurar su cumplimiento”

En una declaración emitida por Ana Brian Nougrères ante la 55° sesión del Consejo de Derechos Humanos de Naciones Unidas, la abogada subrayó que “el mero reconocimiento legal de estos derechos no es suficiente para asegurar su cumplimiento, especialmente en un contexto de rápida evolución tecnológica y aumento del uso de tecnologías emergentes como la inteligencia artificial”.

Esto implica, al menos, dos cuestiones. Por un lado, que “las autoridades administrativas especializadas encargadas de recibir reclamaciones y tomar medidas para garantizar el cumplimiento de estos derechos (...) sean accesibles para todas las personas afectadas y que cuenten con los recursos necesarios para llevar a cabo sus funciones de manera efectiva”. Por otro lado, el establecimiento de “mecanismos efectivos de reparación del daño causado por la violación de los derechos de protección de datos y privacidad”; por ejemplo, “que las personas afectadas puedan obtener indemnización por los daños y perjuicios sufridos”.

Brian Nougrères es miembro fundador del Instituto de Derecho Informático de la Facultad de Derecho de la Universidad de la República. Además, integra la Red Iberoamericana de Protección de Datos, el International Working Group on Data Protection in Technology (Grupo de Berlín) y la International Association of Privacy Professionals, entre otros, y ha sido designada Embajadora de Privacy by Design.

El lado oscuro de la inteligencia artificial

Para Brian Nougrères, un paso clave en la protección de los datos personales es la cooperación internacional. “Lo vengo trabajando desde que empecé como relatora hace tres años y ahora volví a hablar al respecto en un simposio en Venecia. Debemos controlar de alguna manera lo que sucede en Internet fuera de las fronteras de los Estados y para eso tiene que haber acuerdos”, aseguró.

A modo de ejemplo, mencionó la Red Iberoamericana de Protección de Datos (RIPD), donde se comunica cuando hay delitos en materia informática y se brinda una solución conjunta. “Es una forma interesante de funcionar, pero está muy lejos de lo que sucede en la Unión Europea, que tiene un sistema de cooperación consolidado y una norma única que es el Reglamento General de Protección de Datos”, apuntó. El sistema europeo es “duro y difícil de cumplir”, pero es “el que más respeta el derecho humano fundamental a la privacidad y a la protección de datos personales”.

Sin embargo, muchas veces las normas van “por detrás”, es decir, “la tecnología tiene un desarrollo tan increíblemente ágil, que provoca que el derecho se quede atrás”. Lo importante, entonces, es siempre poner al ser humano en el centro —subrayó— e innovar siempre respetando los derechos humanos fundamentales.

Computadora
Adolescente asustada usando la computadora.
Foto: Freepik.

Con la inteligencia artificial se ve “claramente”: “Trae cosas muy buenas, pero hay que tener cuidado. Y muchas veces sucede lo que me gusta llamar la ‘tecnoilusión’, que es cuando el ciudadano siente que la tecnología solucionará todo y se olvida que también puede complicarle la vida y provocar daños graves”.

Entre esos daños está, por ejemplo, el riesgo de que se implementen deepfakesvideos manipulados e hiperrealistas que muestran a una persona realizando declaraciones o acciones que nunca ocurrieron—, es decir, que se divulgue desinformación intencionadamente, y que con ella se genere inseguridad, sembrando el miedo y la destrucción. Esto sucedió con el asalto al Capitolio de Estados Unidos en 2021, donde circularon deepfakes que acentuaron la confusión en torno a lo que estaba sucediendo.

También se habla de que eso sucedió en el asalto al Congreso de Brasil, aunque no está claramente establecido, recordó la experta. “Y está el tema de las armas automáticas, que pueden ser manejadas por drones. Son sistemas de inteligencia artificial que funcionan, pero que para el derecho son muy complejos —y también más allá del derecho— porque el sistema de responsabilidad no rige de una manera natural y obvia”, enfatizó.

“La inteligencia artificial, cuando se implementa adecuadamente, es ética e inclusiva, promueve la paz, ayuda a cerrar brechas digitales y protege los derechos humanos. Pero el uso malicioso de la inteligencia artificial puede socavar los esfuerzos hacia la Agenda 2030 y ampliar las desigualdades existentes. Está muy vinculado, por ejemplo, al Objetivo de Desarrollo Sostenible número 9 de construir infraestructuras resilientes, promover la industrialización sostenible y fomentar la innovación. La innovación debe tener un freno, es decir, uno no puede recopilar datos sin parar, entreverar bases de datos unas con otras y armar perfiles sin poner al ser humano en el centro porque pueden hacerse cosas que no están bien”, aseguró. Y concluyó: “El avance tecnológico es muy grande y la recopilación de datos que existe no tiene precedentes, entonces más que nunca la privacidad y la protección de datos personales deben ser especialmente atendidas”.

NACIONES UNIDAS

Con la inteligencia artificial en la mira

En marzo de este año, Naciones Unidas emitió una resolución titulada Aprovechar las oportunidades de sistemas seguros, protegidos y fiables de inteligencia artificial para el desarrollo sostenible. Allí destaca que deben respetarse, protegerse y promoverse los derechos humanos y las libertades fundamentales durante todo el ciclo vital de los sistemas de inteligencia artificial y exhorta a los Estados Miembros y otros interesados a que se abstengan o dejen de usar sistemas de inteligencia artificial que sean imposibles de operar en consonancia con el derecho internacional o que supongan riesgos indebidos para el disfrute de los derechos humanos, en especial de quienes se encuentran en situaciones vulnerables. También reafirma que los derechos de las personas deben estar protegidos en Internet.

¿Encontraste un error?

Reportar

Te puede interesar