En 2020, un grupo de trabajadores de Venezuela posteó una serie de imágenes en varios foros online donde se reunían para hablar de negocios. Parecían fotos inofensivas, a veces sí un poco íntimas de más, sobre el día a día de diferentes personas. En todos los casos eran imágenes capturadas dentro de hogares y siempre desde ángulos bajos, y sobre todo un par con escenas que sería raro querer compartir en Internet. En una en particular podía verse a una mujer jóven con una remera lila sentada en el water, con sus pantalones por las rodillas.
El asunto es que las imágenes no habían sido capturadas por persona alguna sino por versiones en desarrollo de la aspiradora robot Roomba J7. Habían sido enviadas a la herramienta de inteligencia artificial (IA) Scale AI, una startup que tiene trabajadores en países de todo el mundo a los que contrata para etiquetar audio, fotos y videos para entrenar herramientas de IA.
El punto es que esas escenas íntimas son regularmente capturadas por electrodomésticos conectados a Internet y enviadas a la nube, con estrictos controles de acceso y almacenaje eso sí. A principios de este año, según informa la publicación, la revista especializada MIT Technology Review obtuvo 15 capturas de esas fotos privadas, que han sido publicadas varias veces en grupos cerrados de redes sociales.
Las fotos tienen distintos rangos de intimidad, algunas muy expuestas y otras no, así como en el tipo de escenas que muestran, algunas incluyen personas y otras solo habitaciones de diferentes hogares. Las más íntimas son las que muestran a la joven sentada en el baño, una en la que puede verse un niño de unos 8 o 9 años cuyo rostro es claramente visible mientras mira con alegría un objeto que tendría adelante (presumiblemente la aspiradora robot moviéndose). Las otras imágenes muestran habitaciones con etiquetas que identifican los muebles, los artefactos de luz o la existencia de televisores o plantas y flores.
El fabricante de Roomba, iRobot (ahora en proceso de venta a Amazon) aceptó a MIT Technology Review que esas fotos fueron obtenidas por sus aspiradoras en algún momento de 2020, aunque asegura que no son artefactos comunes sino unos especiales que fueron entregados a personas que sabían que serían filmadas y aceptaron participar. Sin embargo, la publicación asegura que no pudo acceder a ningún documento que acredite la existencia de un consentimiento expreso por parte de estas personas ni tampoco alguna suerte de contacto que le permitiera hablar con ellas.
El sentido que tiene relatar estos episodios, más allá del caso puntual, es reflexionar acerca de que los consumidores aceptan regularmente que nuestros datos sean monitoreados en diversos grados en dispositivos que van desde iPhones hasta lavadoras. Es una práctica que se ha vuelto más y más común durante la última década, ya que la inteligencia artificial necesita de grandes volúmenes de datos y se ha integrado cada vez más a cientos de productos y servicios que utilizamos todos los días. En la mayoría de los casos, esta tecnología se basa en el aprendizaje automático, una técnica que utiliza una gran cantidad de datos, incluidas nuestras voces, rostros, hogares y otra información personal, para entrenar algoritmos para reconocer patrones y así mejorar. Los conjuntos de datos más útiles son los más realistas, lo que hace que los datos provenientes de entornos reales, como casas de personas reales, sean especialmente valiosos. Muchas veces en los manuales que vienen con esos artículos, las políticas de privacidad usan un lenguaje vago que da a las empresas una amplia discrecionalidad en la forma en que difunden y analizan la información del consumidor.
No es cuestión de rechazar los avances de la tecnología y dejar de aprovecharlos, pero tal vez sea momento de empezar a pensar que ganamos y qué perdemos con cada uno de ellos. Evaluar que el nuevo mundo tiene nuevos riesgos que tenemos que tener en cuenta.