Mark Zuckerberg se había roto el ligamento cruzado de su rodilla izquierda durante una rutina de entrenamiento de artes marciales mixtas en noviembre de 2023. El jiu-jitsu brasileño le jugó una mala pasada al fundador y CEO de Meta (compañía dueña de Facebook, Instagram y WhatsApp, entre otras), arquitecto fundamental del mundo de plataformas sociales en el que vivimos. Y lo llevó directo al cirujano.
“Me rompí el ligamento anterior y acabo de salir de cirugía”, publicó el multimillonario en sus redes, quizá deseoso de obtener una ola de buenos deseos y levantar un poco el ánimo.
Pero quedó disgustado con la escasez de repercusiones a su mensaje.
Lo que descubrió —tras una revisión interna— fue que su inocua publicación había caído en las garras de un cambio de algoritmo que reducía la difusión de contenido viral relacionado a temas de salud. ¿El dueño de Meta, víctima de sus propias políticas de moderación? Quizás hubiese quedado en una anécdota de ricachón-con-problemas-de-primer-mundo si no fuera por lo que vendría después, eso sí de motivos —e implicancias— algo más profundos que un simple ghosteo de redes sociales.
Anuncios
El pasado martes 7 de enero Zuckerberg publicó al mundo un posteo que parece toda una declaración de época. Un zeitgeist cultural y político.
De remera negra oversize, cabello revuelto, cadenita y reloj de lujo, el dueño de Meta anunció —en un discurso de cinco minutos plagado de conceptos libertarios— una serie de cambios en las políticas de moderación de contenido para eliminar restricciones a lo que se puede decir y hacer en las plataformas de la compañía.
En grandes líneas, Zuckerberg informó de cinco cambios: la eliminación del programa de fact-checking con terceros actores; una mayor permisividad de discursos antes vedados en temas como inmigración y género; la limitación de los sistemas automatizados de moderación; el levantamiento de las barreras que habían reducido la exposición de los usuarios a contenido de corte político; y el traslado de buena parte de sus equipos de moderación de California a Texas.
Habló de “censura”, de “sesgos políticos” y de que es mejor proteger a los usuarios “inocentes” que estaban siendo castigados por “errores” de la política de moderación, aunque ello implique aceptar que se escaparán una mayor cantidad de “cosas malas” (“bad stuff”).
No había que ser demasiado suspicaz para ver en todas ellas un guiño a Donald Trump, pocos días antes de que el líder republicano vuelva a tomar el mando de la Casa Blanca en Estados Unidos. El propio Zuckerberg —que además se reunió recientemente con Trump, ascendió a figuras de su agrado en la compañía y hasta anunció que trabajará codo a codo para frenar el “exceso” regulador en la Unión Europea y América Latina (Brasil)— se encargó de decirlo explícitamente: “Las recientes elecciones se sienten como un punto de inflexión cultural hacia, una vez más, priorizar la libertad de expresión”.
El péndulo
Zuckerberg, un bicho del mundo tech con un enfoque esencialmente pragmático de la política, siempre se caracterizó por pretender lo mejor de todos los mundos para su negocio: cuanto menos dolores de cabeza, mejor; cuanto menos responsabilidades, mejor; cuando más ingresos, mejor.
Los fundadores de las titánicas plataformas digitales que moldean nuestra era —con Facebook como abanderado— nunca quisieron verse empantanados en las complejas aguas de la moderación de contenido. Por eso, cada vez que pudieron, las figuras como Zuckerberg han insistido en que sus inventos solo “conectan” a las personas, y que no deben ser responsables de lo que los usuarios comparten por esas vías.
Aunque ese lavado de manos absoluto les sea inalcanzable, empresas como Meta se las han ingeniado bastante bien para andar a sus anchas.
Uno de los primeros escollos apareció en 2016, cuando se juntaron algunos factores que ejercieron presión hacia Facebook. Entre ellos, justamente, la primera victoria de Trump, en medio de una alerta por el auge de las “fake news” o noticias falsas y los alegatos de injerencias extranjeras (cuya existencia está comprobada, aunque no así la dimensión de sus efectos en el comportamiento político de los votantes o en el resultado electoral).
Facebook reaccionó. Dijo que se tomaba muy a pecho las preocupaciones por la democracia. Y lo mostró en números. Contrató 40.000 moderadores en todo el mundo, invirtió en tecnología y aceptó una propuesta externa para constituir un programa de verificación del contenido que circulaba en sus redes.
Pero el péndulo se mueve. Y así como llegaron las presiones para controlar el discurso, pronto llegaron las presiones para liberarlo.O, cuanto menos, las dificultades para limitarlo con criterio.
La ola demócrata que sobrevino a la primera presidencia de Trump alineó a Facebook —junto a otras tecnológicas— detrás de un discurso que castigó la desinformación en torno a los alegatos de fraude electoral —que estuvieron detrás del asalto al Capitolio en 2021— así como la proliferación de discursos alternativos respecto a la pandemia de covid-19.
En el primer caso, Facebook y Twitter llegaron a suspender a Trump por violación de las políticas de conducta dentro de las plataformas, una decisión que generó polémica incluso entre muchos que entendían que el expresidente había incitado a la violencia y conspirado contra la democracia estadounidense. En el segundo caso, el celo por evitar la difusión de prácticas nocivas para la salud derivó demasiadas veces en el silenciamiento a posturas que se apartaban de las líneas oficiales —incluyendo algunas que, con el tiempo, sí terminaron siendo aceptadas como de consenso.
En el delicado equilibrio de la balanza entre la libertad de expresión —que nunca es irrestricta— y el combate al discurso de odio o la desinformación, muchos empezaron a reclamar que se había llegado demasiado lejos en la “censura”.
Impactos a chequear
Acá viene la advertencia. Los antecedentes de la compañía y su movimiento pendular según los tiempos políticos hacen difícil pensar que sus decisiones estén guiadas por un genuino deseo de mejorar la conversación pública.
"La decisión de Mark Zuckerberg no tiene nada que ver con libertad de expresión. Seguramente es mucho ahorro de costos y, sobre todo, allanarse a los nuevos vientos que soplan en Washington", resume Daniel Mazzone, excatedrático de Periodismo en la Facultad de Comunicación de Universidad ORT y autor del libro Máquinas de mentir: "Noticias falsas" y "posverdad" (La Crujía, 2018).
¿Pero pueden ser, al menos algunas de ellas, decisiones correctas tomadas por las razones incorrectas?
En esto también las opiniones estén divididas. Mientras que los anuncios de Zuckerberg fueron bienvenidos por los promotores de una amplia libertad de expresión, por otro lado pusieron en alerta a las comunidades de fact-checking —que acusan a la plataforma de haber sucumbido ante las presiones y de favorecer a “los mentirosos”— y a gobiernos como el de la Unión Europea, Australia y Brasil que —cada uno de ellos con enfoques e intenciones muy distintas— han avanzado en regulaciones de las plataformas y sus contenidos.
Zuckerberg eligió nombrar en primer lugar la eliminación del programa de fact-checking con la contribución de verificadores independientes, para pasar a un sistema de chequeo basado en los usuarios inspirado en las “notas de comunidad” instauradas por X (antes conocida como Twitter y propiedad de Elon Musk).
El programa de fact-checking, implementado por primera vez en 2016, involucra a 90 organizaciones de verificación periodística que abarcan 130 países (entre ellos Uruguay, a través de la agencia AFP). A grandes rasgos, las organizaciones ingresan a una plataforma de la compañía a través de la cual acceden al contenido para verificar. Los periodistas de cada institución socia del programa —que deben estar certificados por la Red Internacional de Chequeadores (IFCN) y seguir un protocolo— analizan los posteos “potencialmente desinformantes” y los etiquetan como verdaderos, falsos o engañosos. La práctica de Meta ha sido reducir la visibilidad de ese contenido a través de distintas técnicas, un proceso que se conoce como demotion ("degradación").
Aunque muchas de las organizaciones que participan tienen también su propia agenda de chequeos, los que se hacen para el programa de Meta no pueden involucrar discursos u opiniones de políticos.
Por ejemplo, la agencia estadounidense PolitiFact podía hacer en sus propias redes una verificación de la frase de Trump respecto a que en Springfield, Ohio, se estaban “comiendo a los perros”, pero ese chequeo no estaba avalado para el programa de Facebook, ni tenía consecuencias en la difusión de ese contenido en las plataformas.
Eso no quiere decir que no hubiera polémicas. Una de las más sonadas se remonta a 2020, cuando Facebook y Twitter interrumpieron la difusión de un artículo del tabloide New York Post sobre datos hallados en una compturadora de Hunter Biden, hijo de Joe Biden (ambas plataformas dirían años después que la decisión fue un error, más allá de que se mantengan las discusiones sobre el alcance o la pertinencia de la información).
En su anuncio de este martes, Zuckerberg dijo que “los fact-checkers han sido demasiado sesgados políticamente, y han destruido más confianza de la que han creado, especialmente en Estados Unidos”.
Los detractores de las prácticas del fact-checking han aludido en estos días, como ejemplos de esos sesgos, a varios chequeos que en realidad no tuvieron lugar en el marco del programa de Facebook, ya que involucran declaraciones de figuras políticas. Pero esos ejemplos, dicen los más críticos, pueden ayudar a explicar por qué algunas de las organizaciones verificadoras no han logrado construir “confianza” en una audiencia que ya de antemano las recibía con recelo.
Si bien hasta ahora la eliminación del programa se anunció únicamente para Estados Unidos, se espera que la nueva política se amplíe luego a otras partes del mundo. Y ya ha sido recibida con gran preocupación por parte de las organizaciones que trabajan en verificación para la compañía.
“Esta decisión trae una certeza: es verdadero que los productores de desinformación celebran y se preparan para aprovechar esta ventana de oportunidad”, argumentó en un comunicado Latam Chequea, que agrupa a varias agencias verificadores de América Latina. Entre otros argumentos, señalan que de todos los rubros de moderación, la categoría desinformación es la que presenta un menor ratio de errores comprobados (en torno a 3%), según la propia información que Meta proporcionó a la Unión Europea.
La IFCN, por su parte, envió una carta a Zuckerberg cuestionando que se vincule la “verificación” con la “censura”, y señaló que los más de 100 países abarcados presentan “diferentes etapas de democracia y desarrollo”, algunos de ellos “altamente vulnerables a la desinformación que trae inestabilidad política, interferencia electoral, violencia y hasta genocidio”. “Si Meta decide poner fin al programa en todo el mundo, es casi seguro que resultará en un daño real en muchos sitios”, agrega la carta.
La decisión de Meta, según fuentes de la industria, pone en riesgo la operativa de algunas organizaciones verificadoras, que dependían —en mayor o en menor medida, según el caso— del programa y su financiamiento.
Consultados para este informe, desdeAFP dicen que la medida “es un duro golpe para la comunidad de verificadores y para el periodismo”. Y desde Chequeado (Argentina) señalan que “el mayor impacto es que millones de usuarios de Meta podrían perder acceso directo a información verificada cuando son expuestos a falsedades en la plataforma”.
"En América Latina, el panorama de las organizaciones latinoamericanas es variado. Algunas son organizaciones de verificación independientes, mientras que otras operan como áreas dentro de grandes medios. Las operaciones más pequeñas con una capacidad limitada de recaudación de fondos enfrentan el mayor riesgo", respondieron desde Chequeado.
El "bluff" del fact-checking y el núcleo del problema
Daniel Mazzone, académico uruguayo que se ha especializado en la relación entre las plataformas digitales y el periodismo, remarca que hay que inscribir las novedades anunciadas por Zuckerberg en un proceso más amplio: el fin de un contrato de comunicación que rigió hasta hace algo más de una década, y que establecía que la información que circulaba en la sociedad lo hacía bajo la responsabilidad de las cabeceras mediáticas (empresas de diarios, radios, televisión) que lo difundían. Hoy, en cambio, "nadie puede responsabilizarse del conjunto de lo que circula".
"Las regulaciones que tenemos todavía responden a esa vieja sociedad industrial de medios, y ahora estamos en una sociedad electrónica de plataformas. Todo lo que viene de antes quedó obsoleto y es insuficiente", dice Mazzone, quien menciona por ejemplo las libertades que da la llamada Sección 230, en Estados Unidos, a las compañías como Meta.
Por eso, sostiene, los debates en torno a los "excesos" de la moderación no deben restringirse al plano de lo "instrumental", sino que se debe ir a la raíz del problema: con qué reglas —sociales, legales, culturales— administrar el "espacio público que la sociedad hoy pone en manos de los dueños de las plataformas". "Eso es lo que deberíamos estar discutiendo hoy; no si la moderación ha cometido excesos, que desde luego los comete", opina Mazzone.
Siguiendo un razonamiento similar, también relativiza la importancia del fact-checking como parte de una solución duradera, más allá de sus buenas intenciones. "Se presentó como la panacea y quedó demostrado que fue ocupando un lugarcito, un lugar muy minúsculo en la sociedad", apunta Mazzone, para quien el fact-checking terminó siendo "un bluff" en el sentido de que ha "alejado la discusión del fondo del asunto". "Lo que apoyan Facebook y Google le es funcional a ellos, hasta que un día no lo sos".
Los fact-checkers, por su parte, se defienden. Mencionan los estudios que dan cuenta del impacto que puede causar una verificación. Señalan que es mejor que nada. "Con todas sus falencias y si bien insuficiente, el programa de Meta era la única contención contra la desinformación dentro de sus plataformas, y mostraba una intención por parte de la empresa de reconocer y resolver el problema", escribió Ana Prieto, periodista de IJNet.
"La decisión de Meta de abandonar el programa de verificación de hechos en Estados Unidos es un paso atrás para la integridad informativa global. El fact-checking es una herramienta para empoderar a los ciudadanos con datos y contexto. Lo que busca hacer es agregar información para que cada ciudadano pueda formar su propia opinión", respondieron en tanto desde Chequeado (Argentina).
Discurso liberado
Pero más allá del fin del fact-checking patrocinado por Meta, distintos observadores coinciden en que el mayor cambio está en el relajamiento de las restricciones al discurso autorizado en Facebook, Instagram y Threads.
Para empezar, la compañía echó para atrás su decisión de no recomendar contenido político en Instagram y Threads. Se suponía, según los ejecutivos de Meta, que esas plataformas estaban hechas para interactuar con un mundo menos áspero y menos polemista. Pero los vientos, dice Zuckerberg, cambiaron. Así que, por defecto, esas aplicaciones pasarán a recomendar también publicaciones vinculadas a la política.
A eso se agrega el cambio para habilitar un mayor abanico de discursos, aunque ello suponga lidiar con contenido que muchos pueden considerar “hiriente” o “insultante”.
El cambio no pasa solo por la eliminación de elementos de la lista de “esto está prohibido decir” (ver Apunte), sino también por modificaciones en los modos en que se arbitra el discurso dentro de las plataformas.
Zuckerberg anunció que los filtros de moderación autómata se dedicarán exclusivamente a lidiar con las violaciones más “severas” de las políticas de moderación, que incluye el terrorismo, la explotación infantil y las drogas, entre otras.
Pero los apartamientos menos severos ahora pasarán a lidiarse solamente a partir de reportes y reclamos de quienes entiendan que hay un exceso discursivo.
Los cambios, celebrados por algunos como una bocanada de aire fresco, para otros pueden convertir a Facebook, Instagram y Threads en un lugar menos agradable, placentero y seguro.
"La política oficial ahora parece ser el equiparar cualquier tipo de moderación a censura", dice Mazzone.
Así al menos hasta que el péndulo de la quejas vuelva a moverse en algún momento, más adelante.
Mujeres como “objeto” y orientación sexual “anormal”: las censuras que se levantan
Como parte de su nueva política de moderación de contenidos, Meta resolvió relajar restricciones a lo que se puede decir en algunos asuntos divisivos del debate político, como la inmigración y el género.
Por ejemplo, los usuarios de Facebook, Instagram y Threads ahora podrán vincular la homosexualidad o el transexualismo a “enfermedades mentales” o “anormalidades” sin ser censurados por las plataformas.
Según la reglamentación actualizada, se permiten “acusaciones de enfermedad mental o anormalidad cuando se basan en el género o la orientación sexual, dado el discurso político y religioso sobre transexualismo y homosexualidad, y el uso habitual no grave de palabras como ‘raro’”.
Otro de los párrafos añadidos permite el contenido que “abogue por limitaciones de acceso a puestos de trabajo en organismos militares, fuerzas del orden y el sector educativo en función del género”, lo que abriría la puerta, por ejemplo, a comentarios que defiendan la exclusión de las mujeres de la policía, el ejército o la enseñanza, algo hasta ahora prohibido. Lo mismo ocurre con las limitaciones en estos sectores “en función de la orientación sexual”, cuando estén basadas en creencias religiosas. Meta también eliminó una parte de su política anterior, en la que se prohibía referirse a las mujeres como “objetos del hogar o propiedad”.
La nueva política abre espacio al hasta ahora vedado uso del “lenguaje exclusivo de un sexo o género al debatir el acceso a espacios que suelen limitarse conforme al sexo o al género, por ejemplo, acceso a baños, escuelas concretas, organismos militares específicos, fuerzas del orden, roles educativos y grupos de salud o apoyo”.
Esto apunta a no castigar a quienes planteen que las personas transexuales no deberían utilizar cualquier baño. Anteriormente, solo se consentía abogar por la exclusión de un género en grupos de salud o apoyo.
También se permitirá, en determinadas ocasiones, usar lenguaje “insultante” en debates sobre temas políticos o religiosos, por ejemplo sobre los derechos de las personas transgénero, la inmigración o la homosexualidad, así como expresar “desprecio hacia un género” en “el contexto de una ruptura amorosa”.
Meta sí sigue prohibiendo, por considerarlo discurso de odio, la negación del Holocausto, el blackface, afirmar que los judíos “controlan instituciones financieras o políticas o medios de comunicación” o comparar a las personas negras con “equipamiento agrícola”.
También se mantiene la prohibición de comparar a los inmigrantes con insectos, animales, patógenos u “otras formas de vida infrahumanas o generalizaciones relacionadas”. (Con información de EFE).