Publicidad

El año de los escándalos en Facebook y otras redes

Compartir esta noticia
Mark Zuckerberg responde preguntas de los senadores. Foto: AFP

Polémica por los datos

Unión Europea actúa para la protección de datos; siguen los golpes de noticias falsas.

El escándalo de Cambridge Analytica y los comicios en Brasil y EE.UU. redoblaron este 2018 la presión sobre Google, Facebook, Twitter y otras tecnológicas para que protejan la privacidad de sus usuarios y para que limiten el tipo de contenidos que se pueden publicar online.

Aunque ya hacía tiempo que se escuchaba la necesidad de apostar por una mayor regulación de internet, los pasados doce meses resultaron clave para convencer a los principales actores políticos y sociales que seguían dubitativos, así como a los mismos protagonistas de la industria tecnológica.

La gran "bomba" detonó en marzo, cuando se reveló que la consultora británica Cambridge Analytica (que cerró dos meses después a raíz de esta crisis) utilizó una aplicación para recopilar millones de datos de usuarios de Facebook sin su consentimiento con fines políticos. La empresa se había servido de datos de la red social más utilizada del mundo para elaborar perfiles psicológicos de votantes que supuestamente vendieron, entre otros, a la campaña del ahora presidente estadounidense, Donald Trump, durante las elecciones de 2016.

El escándalo fue mayúsculo: las acciones de Facebook se desplomaron en la bolsa, el consejero delegado de la empresa, Mark Zuckerberg, tuvo que pedir disculpas públicamente y comparecer en el Congreso de Estados Unidos, y representantes políticos en varias partes del mundo alertaron sobre la necesidad inmediata de regulación.

Apenas dos meses después, el 25 de mayo, entró en efecto el nuevo Reglamento General de Protección de Datos de la Unión Europea, más conocido por sus siglas en inglés GDPR, orientado a poner al día la legislación europea sobre la materia, buscando dar al usuario una participación activa sobre quién tiene o qué se hace con sus datos.

La norma es de obligado cumplimiento en todos los Estados miembros, por lo que las empresas pueden ser sancionadas si la incumplen.

Entre otras cosas, la normativa introdujo conceptos como el llamado "derecho al olvido", es decir, que una plataforma esté obligada a eliminar todos los datos que guarda de un usuario si este lo solicita.

Las grandes tecnológicas respondieron rápidamente al nuevo marco legal y tanto Google como Twitter y Facebook (propietaria de Instagram y WhatsApp) revisaron sus políticas de datos, ya fuese solo para el mercado europeo o ampliándolas al conjunto del mundo.

Otro problema centró la atención: el control de los contenidos y las noticias falsas o "fake news". Se acercaban campañas electorales en dos países en los que se preveía que la circulación de información falsa en las redes sociales pudiese alcanzar enormes proporciones y condicionar fuertemente los comicios: una elección presidencial altamente polarizada en Brasil y las legislativas en Estados Unidos.

Ante esta situación, Facebook, que ya estaba escaldada después de haber sido utilizada en 2016 por agentes rusos para fomentar confrontaciones online que contribuyeran a crispar el debate en Estados Unidos, decidió crear un centro de control para aplacar este tipo de actividades.

La "war room" o "cuarto de guerra", como fue bautizada por la propia compañía, consistió en una pequeña sala en su sede de Menlo Park (California) en la que trabajaban entre 20 y 30 personas responsables de coordinar a miles de empleados en todo el mundo. Desde allí, la empresa rastreó a tiempo real lo que se decía en la red social con respecto a los comicios y procedió a la retirada de contenidos "no honestos", un término ambiguo que ha propiciado el debate sobre la libertad de expresión.

Usuarios no saben que sus datos se comparten

Aplicaciones. Los teléfonos transmiten datos personales a Facebook y Google. Foto: Reuters.
Foto: Reuters.

"No le vendemos datos a nadie", aseguró el fundador de Facebook, Mark Zuckerberg, ante una comisión del Congreso, en abril. Su juramento —el torrente de datos que Facebook recoge de sus 2.200 millones de usuarios siempre quedará seguro en las manos de la empresa— ha sido la piedra angular de la estrategia de defensa de la compañía, ante las duras críticas de legisladores.

Si bien es cierto que Facebook no ha vendido los datos de los usuarios, durante años hizo acuerdos para compartir la información con decenas de compañías. Esos acuerdos ayudaron a Facebook a incorporar nuevos usuarios, alentarlos a usar la red social con más frecuencia y a incrementar los ingresos publicitarios.

Facebook compartió datos con más de 150 empresas, la mayoría tecnológicas, pero también con compañías de otros sectores de actividad.

Pese a que los usuarios de Facebook pueden controlar los datos que comparten con miles de apps en la plataforma, algunas empresas tuvieron acceso a esos datos, aunque los usuarios bloqueen la posibilidad de compartir. Muchas de las apps de los socios nunca aparecieron en los settings para usuarios de Facebook. Facebook admite que cada empresa externa actuó como una extensión de la red social, obteniendo información sin tener el consentimiento. (Fuente: The New York Times)

¿Encontraste un error?

Reportar

Te puede interesar

Publicidad

Publicidad