TECNOLOGÍA
Investigadores y especialistas de todo el mundo han comenzado a hacer públicas sus preocupaciones por la seguridad dentro del metaverso.
Este contenido es exclusivo para nuestros suscriptores.
Los gigantes tecnológicos -Microsoft, Google, Meta, Apple, entre otros- están desde hace unos meses empujando muy fuertemente el concepto de metaversoe intentando que usuarios de todo el mundo decidan pasar su tiempo en un mundo virtual en el que a partir de avatares las personas pueden hacer decenas de actividades, desde jugar videojuegos hasta ir a clases de gimnasia o participar de reuniones de trabajo.
En octubre pasado, el CEO de Meta, Mark Zuckerberg lanzó su iniciativa y dijo que estaba tan convencido de que el futuro estaba en el metaverso que estaba dispuesto a invertir miles de millones de dólares en eso.
Sin embargo, desde ese momento hasta ahora investigadores y especialistas de todo el mundo han comenzado a hacer públicas sus preocupaciones por la seguridad dentro de esa realidad virtual. Acoso, ataques, bullying y discurso de odio son normales en los juegos virtuales, una parte muy importante del metaverso, y son pocos los mecanismos disponibles para reportar estos episodios.
Un estudio realizado por la ONG internacionalCenter for Countering Digital Hate (Centro para Contrarrestar el Odio Digital, CCDH por sus siglas en inglés) en diciembre de 2021 detectó que los usuarios del metaverso (incluyendo a menores de edad) están expuestos a comportamiento abusivo una vez cada 7 minutos. Los investigadores afirman además que Meta (empresa propietaria de Facebook, Whatsapp, Instagram, etc) no respondió a ninguno de los reportes de abuso realizados.
El CCDH identificó 100 violaciones potenciales a las normas comunitarias de Facebook en 11 horas y 30 minutos de monitoreo de la plataforma de realidad virtual. Entre los abusos detectados figuran “menores expuestos a contenido pornográfico”; “bullying, acoso sexual y abuso de usuarios, incluyendo a menores”; “menores víctimas de grooming”, y amenazas de violencia y burlas acerca de los ataques del 11 de setiembre a las Torres Gemelas.
De esos 100 abusos detectados, los investigadores aseguran que al menos 51 caen dentro de los criterios de Facebook para reportar contenido ofensivo, aunque la plataforma rechazó varios de los pedidos de revisión o no dio respuesta alguna.
En febrero de este año la investigadora británica Nina Jane Patel denunció haber sido violada dentro del metaverso.
Titania Jordan, ejecutiva de Bark, una empresa que usa inteligencia artificial para monitorear dispositivos infantiles y mejorar su seguridad, dijo a The New York Times, que está “especialmente preocupada sobre lo que los niños pueden encontrarse en el metaverso”. Aseguró que los “abusadores pueden detectar niños a partir de mensajes en los chats de los juegos o a partir de hablar con ellos en los auriculares, ambas acciones que son difíciles de rastrear y documentar” porque no son guardadas por los juegos.
“La realidad virtual es otro mundo de complejidades. Solo tener la habilidad de identificar a alguien como peligroso y bloquearlo de forma indefinida para que no pueda volver, son herramientas que recién están siendo desarrolladas”, sostuvo Jordan.
En marzo de 2021, el ahora jefe de Tecnología en Meta, Andrew Bosworth, escribió un memo interno en el que aseguraba que moderar lo que las personas dicen y lo que hacen en el metaverso “en una escala significativa, es prácticamente imposible”, asegura un artículo enThe Financial Times.
Zuckerberg asegura que una de sus preocupaciones fundamentales es la seguridad en los entornos virtuales y continúa empujando la venta de sus lentes virtuales Oculus, muchos vendidos como regalo de Navidad para niños y adolescentes. Sin embargo, no ha podido erradicar la violencia en las plataformas que ya maneja, es difícil pensar que pueda hacerlo en una nueva.
Ni siquiera sus empleados piensan que podría.