Vía MIT Technology Review

Los gigantes tecnológicos están pagando millones de dólares a los operadores de páginas clickbait, financiando el deterioro de los ecosistemas de información en todo el mundo.

En 2015, seis de los 10 sitios web en Myanmar que obtuvieron la mayor participación en Facebook procedían de medios legítimos, según datos de CrowdTangle, una herramienta administrada por Facebook. Un año después, Facebook (que recientemente cambió su nombre a Meta) ofreció acceso global a Instant Articles, un programa que los editores podían usar para monetizar su contenido.

Un año después de ese lanzamiento, los editores legítimos representaban solo dos de los 10 principales editores en Facebook en Myanmar. Para 2018, representaron cero. En cambio, todo el compromiso se había ido a sitios web de noticias falsas y clickbait. En un país donde Facebook es sinónimo de internet, el contenido de baja calidad abrumó a otras fuentes de información.

Fue durante esta rápida degradación del entorno digital de Myanmar que un grupo militante de rohingya, una minoría étnica predominantemente musulmana, atacó y mató a una docena de miembros de las fuerzas de seguridad en agosto de 2017. Mientras la policía y el ejército comenzaban a reprimir a los rohingya e impulsar la propaganda anti-musulmana, los artículos de noticias falsas que capitalizan el sentimiento se volvieron virales. Decían que los musulmanes estaban armados, que se estaban reuniendo en turbas de 1.000, que estaban a la vuelta de la esquina y venían a matarte.

Todavía no está claro si las noticias falsas provinieron principalmente de actores políticos o de personas con motivaciones financieras. Pero de cualquier manera, el gran volumen de noticias falsas y clickbait actuó como combustible en las llamas de tensiones étnicas y religiosas ya peligrosamente altas. Cambió la opinión pública e intensificó el conflicto, que finalmente condujo a la muerte de 10.000 rohingya, según estimaciones conservadoras, y al desplazamiento de 700.000 más.

En 2018, una investigación de Naciones Unidas determinó que la violencia contra los rohingya constituyó un genocidio y que Facebook había jugado un “papel determinante” en las atrocidades. Meses después, Facebook admitió que no había hecho lo suficiente “para ayudar a evitar que nuestra plataforma se use para fomentar la división e incitar a la violencia fuera de línea”.

Durante las últimas semanas, las revelaciones de los Papeles de Facebook, una colección de documentos internos proporcionados al Congreso y un consorcio de organizaciones de noticias por la denunciante Frances Haugen, han reafirmado lo que los grupos de la sociedad civil han estado diciendo durante años: la amplificación algorítmica de contenido incendiario de Facebook. , combinado con su incapacidad para priorizar la moderación de contenido fuera de los EE. UU. y Europa, ha alimentado la propagación del discurso de odio y la desinformación, desestabilizando peligrosamente a países de todo el mundo.

Pero hay una pieza crucial que falta en la historia. Facebook no solo amplifica la desinformación.

La empresa también lo está financiando.

Una investigación de MIT Technology Review , basada en entrevistas a expertos, análisis de datos y documentos que no se incluyeron en los Documentos de Facebook, descubrió que Facebook y Google están pagando millones de dólares publicitarios para financiar a los actores de clickbait, alimentando el deterioro de los ecosistemas de información en todo el mundo.

La anatomía de una granja clickbait

Facebook lanzó su programa Instant Articles en 2015 con un puñado de editores estadounidenses y europeos. La empresa presentó el programa como una forma de mejorar los tiempos de carga de los artículos y crear una experiencia de usuario más eficiente.

Esa fue la venta pública. Pero el movimiento también capturó convenientemente los dólares publicitarios de Google. Antes de los artículos instantáneos, los artículos publicados en Facebook redirigirían a un navegador, donde se abrirían en el sitio web del editor. El proveedor de anuncios, generalmente Google, sacaría provecho de cualquier vista o clic de anuncios. Con el nuevo esquema, los artículos se abrirían directamente dentro de la aplicación de Facebook y Facebook sería el propietario del espacio publicitario. Si un editor participante también hubiera optado por monetizar con la red de publicidad de Facebook, llamada Audience Network, Facebook podría insertar anuncios en las historias del editor y obtener una reducción del 30 % de los ingresos. 

Instant Articles cayó rápidamente en desgracia con su cohorte original de grandes editores principales. Para ellos, los pagos no eran lo suficientemente altos en comparación con otras formas de monetización disponibles. Pero eso no fue cierto para los editores del Sur Global, que Facebook comenzó a aceptar en el programa en 2016 . En 2018, la empresa informó haber pagado 1500 millones de dólares a editores y desarrolladores de aplicaciones (que también pueden participar en Audience Network). Para 2019, esa cifra había alcanzado varios miles de millones .

Al principio, Facebook realizaba poco control de calidad sobre los tipos de editores que se unían al programa. El diseño de la plataforma tampoco penalizó lo suficiente a los usuarios por publicar contenido idéntico en las páginas de Facebook; de hecho, recompensó el comportamiento. Publicar el mismo artículo en varias páginas podría duplicar la cantidad de usuarios que hicieron clic en él y generaron ingresos publicitarios.

Las granjas de clickbait de todo el mundo aprovecharon esta falla como estrategia, una que todavía usan hoy.

Actores de clickbait surgieron en Myanmar de la noche a la mañana. Con la receta adecuada para producir contenido atractivo y evocador, podrían generar miles de dólares estadounidenses al mes en ingresos publicitarios, o 10 veces el salario mensual promedio, que les paga directamente Facebook.

Un documento interno de la empresa, informado por primera vez por MIT Technology Review en octubre , muestra que Facebook estaba al tanto del problema desde 2019. El autor, el excientífico de datos de Facebook Jeff Allen, descubrió que estas tácticas exactas habían permitido granjas de clickbait en Macedonia y Kosovo. para llegar a casi medio millón de estadounidenses un año antes de las elecciones de 2020. Las granjas también se abrieron paso en Instant Articles and Ad Breaks, un programa de monetización similar para insertar anuncios en videos de Facebook. En un momento, hasta el 60% de los dominios inscritos en Instant Articles usaban las tácticas de escritura de spam empleadas por las granjas de clickbait, según el informe. Allen, obligado por un acuerdo de confidencialidad con Facebook, no hizo comentarios sobre el informe.

A pesar de la presión de los investigadores internos y externos, Facebook luchó para detener el abuso. Mientras tanto, la empresa implementaba más programas de monetización para abrir nuevas fuentes de ingresos. Además de las pausas publicitarias para videos, hubo monetización de IGTV para Instagram y anuncios in-stream para videos en vivo. “Ese impulso imprudente para el crecimiento de usuarios que vimos, ahora estamos viendo un impulso imprudente para el crecimiento de los editores”, dice Victoire Rio, una investigadora de derechos digitales que lucha contra los daños inducidos por las plataformas en Myanmar y otros países del Sur Global.

MIT Technology Review descubrió que el problema ahora está ocurriendo a escala global. Han surgido miles de operaciones de clickbait, principalmente en países donde los pagos de Facebook proporcionan una fuente de ingresos más grande y constante que otras formas de trabajo disponibles. Algunos son equipos de personas, mientras que otros son individuos, ayudados por herramientas automatizadas baratas que los ayudan a crear y distribuir artículos a gran escala. Ya no se limitan a publicar artículos tampoco. Publican videos en vivo y ejecutan cuentas de Instagram, que monetizan directamente o usan para atraer más tráfico a sus sitios.

Google también es culpable. Su programa AdSense impulsó las granjas con sede en Macedonia y Kosovo que se dirigieron al público estadounidense en el período previo a las elecciones presidenciales de 2016. Y es AdSense el que está incentivando a los nuevos actores de clickbait en YouTube a publicar contenido escandaloso e información errónea viral.

Actualmente, muchas granjas de clickbait monetizan tanto con Instant Articles como con AdSense, y reciben pagos de ambas compañías. Y debido a que los algoritmos de Facebook y YouTube impulsan todo lo que atrae a los usuarios , han creado un ecosistema de información donde el contenido que se vuelve viral en una plataforma a menudo se recicla en la otra para maximizar la distribución y los ingresos.

“Estos actores no existirían si no fuera por las plataformas”, dice Rio.

En respuesta a la evidencia detallada que proporcionamos a cada empresa sobre este comportamiento, el portavoz de Meta, Joe Osborne, cuestionó nuestros hallazgos principales y dijo que habíamos entendido mal el problema. “Independientemente, hemos invertido en la creación de nuevas soluciones escalables y dirigidas por expertos para estos problemas complejos durante muchos años, y continuaremos haciéndolo”, dijo.

Google confirmó que el comportamiento violó sus políticas y canceló todos los canales de YouTube que MIT Technology Review identificó como que difundían información errónea. “Trabajamos arduamente para proteger a los espectadores de clickbait o contenido engañoso en nuestras plataformas y hemos invertido mucho en sistemas que están diseñados para elevar la información autorizada”, dijo la portavoz de YouTube, Ivy Choi.

Las granjas de clickbait no solo apuntan a sus países de origen. Siguiendo el ejemplo de los actores de Macedonia y Kosovo, los operadores más nuevos se han dado cuenta de que no necesitan entender ni el contexto local de un país ni su idioma para convertir la indignación política en ingresos.

MIT Technology Review se asoció con Allen, quien ahora dirige una organización sin fines de lucro llamada Integrity Institute que realiza investigaciones sobre el abuso de plataformas, para identificar posibles actores de clickbait en Facebook. Nos enfocamos en las páginas que se quedaron sin Camboya y Vietnam, dos de los países donde las operaciones de clickbait ahora están sacando provecho de la situación en Myanmar.

Obtuvimos datos de CrowdTangle, cuyo equipo de desarrollo la empresa disolvió a principios de este año , y de las listas de editores de Facebook , que registran qué editores están registrados en programas de monetización. Allen escribió un algoritmo de agrupamiento personalizado para encontrar páginas que publican contenido de manera altamente coordinada y dirigidas a hablantes de idiomas que se usan principalmente fuera de los países donde se basan las operaciones. Luego analizamos qué grupos tenían al menos una página registrada en un programa de monetización o promocionaban mucho el contenido de una página registrada en un programa.

Encontramos más de 2000 páginas en ambos países involucradas en este comportamiento similar al clickbait. (Eso podría ser un recuento insuficiente, porque CrowdTangle no rastrea todas las páginas de Facebook). Muchas tienen millones de seguidores y es probable que lleguen a más usuarios. En su informe de 2019, Allen descubrió que el 75 % de los usuarios que estuvieron expuestos a contenido clickbait de granjas administradas en Macedonia y Kosovo nunca habían seguido ninguna de las páginas. En cambio, el sistema de recomendación de contenido de Facebook lo introdujo en sus fuentes de noticias

Cuando MIT Technology Review envió a Facebook una lista de estas páginas y una explicación detallada de nuestra metodología, Osborne calificó el análisis como «defectuoso». “Si bien algunas páginas aquí pueden haber estado en nuestras listas de editores, muchas de ellas en realidad no monetizaron en Facebook”, dijo. 

De hecho, estos números no indican que todas estas páginas generaron ingresos publicitarios. En cambio, es una estimación, basada en los datos que Facebook ha puesto a disposición del público, de la cantidad de páginas asociadas con actores de clickbait en Camboya y Vietnam que Facebook ha hecho elegibles para monetizar en la plataforma.

Osborne también confirmó que más de las páginas similares a clickbait administradas por Camboya que encontramos se habían registrado directamente con uno de los programas de monetización de Facebook de lo que creíamos anteriormente. En nuestro análisis, encontramos que el 35 % de las páginas de nuestros grupos lo habían hecho en los últimos dos años. El otro 65 % habría generado indirectamente ingresos publicitarios al promover en gran medida el contenido de la página registrada a un público más amplio. Osborne dijo que, de hecho, aproximadamente la mitad de las páginas que encontramos, o aproximadamente 150 páginas más, se habían registrado directamente en algún momento con un programa de monetización, principalmente Instant Articles.

Poco después de que nos acercáramos a Facebook, los operadores de páginas clickbait en Myanmar comenzaron a quejarse en foros en línea de que sus páginas habían sido arrancadas de Instant Articles. Osborne se negó a responder a nuestras preguntas sobre las últimas medidas de cumplimiento que ha tomado la empresa.

Facebook ha buscado continuamente eliminar a estos actores de sus programas. Por ejemplo, solo 30 de las páginas administradas por Camboya todavía se están monetizando, dijo Osborne. Pero nuestros datos de las listas de editores de Facebook muestran que la aplicación a menudo se retrasa y es incompleta: las páginas de clickbait pueden permanecer dentro de los programas de monetización durante cientos de días antes de que se eliminen. Los mismos actores también abrirán nuevas páginas una vez que las antiguas se hayan desmonetizado.

Allen ahora está abriendo el código que usamos para alentar a otros investigadores independientes a refinar y desarrollar nuestro trabajo.

Usando la misma metodología, también encontramos más de 400 páginas administradas por extranjeros dirigidas principalmente a audiencias estadounidenses en grupos que aparecieron en las listas de editores de Facebook en los últimos dos años. (No incluimos páginas de países cuyo idioma principal es el inglés). El conjunto incluye un grupo de monetización que se ejecuta en parte desde Macedonia dirigido a mujeres y la comunidad LGBTQ. Tiene ocho páginas de Facebook, incluidas dos verificadas con más de 1,7 millones y 1,5 millones de seguidores respectivamente, y publica contenido de cinco sitios web, cada uno registrado con Google AdSense y Audience Network. También tiene tres cuentas de Instagram, que monetizan a través de tiendas de regalos y colaboraciones y dirigiendo a los usuarios a los mismos sitios web en gran parte plagiados. Los administradores de las páginas de Facebook y las cuentas de Instagram no respondieron a nuestras solicitudes de comentarios.

Osborne dijo que Facebook ahora está investigando las cuentas después de que las llamamos la atención de la compañía. Choi dijo que Google eliminó los anuncios de AdSense de cientos de páginas en estos sitios en el pasado debido a violaciones de la política, pero que los sitios mismos aún pueden monetizar según las revisiones regulares de la compañía.

Si bien es posible que los macedonios que manejan las páginas se preocupen por la política estadounidense y por los derechos de las mujeres y LGBTQ, es innegable que el contenido genera ingresos. Esto significa que lo que promocionan probablemente se guíe por lo que gana y pierde con el algoritmo de suministro de noticias de Facebook.

La actividad de una sola página o grupo de páginas puede no parecer significativa, dice Camille François, investigadora de la Universidad de Columbia que estudia las campañas de desinformación organizada en las redes sociales. Pero cuando cientos o miles de actores están haciendo lo mismo, amplificando el mismo contenido y llegando a millones de miembros de la audiencia, puede afectar la conversación pública. “Lo que la gente ve como una conversación doméstica sobre un tema en realidad puede ser algo completamente diferente”, dice François. “Es un grupo de personas pagadas que pretenden no tener ninguna relación entre sí, optimizando lo que publican”.

Osborne dijo que Facebook ha creado varias políticas nuevas y protocolos de cumplimiento en los últimos dos años para abordar este problema, incluida la penalización de páginas que se ejecutan fuera de un país y que se comportan como si fueran locales de otro, así como la penalización de páginas que crean una audiencia en el país. base de un tema y luego pasar a otro. Pero tanto Allen como Rio dicen que las acciones de la compañía no lograron cerrar lagunas fundamentales en las políticas y diseños de la plataforma, vulnerabilidades que están alimentando una crisis de información global.

“Afecta principalmente a países fuera de los EE. UU., pero también presenta un riesgo masivo para los EE. UU. a largo plazo”, dice Rio. “Va a afectar prácticamente en cualquier parte del mundo cuando haya eventos intensos como una elección”.

Desinformación de alquiler

En respuesta al informe inicial de MIT Technology Review sobre el informe interno de Allen de 2019, que publicamos en su totalidad , David Agranovich, director de interrupción de amenazas globales en Facebook, tuiteó : «Las páginas a las que se hace referencia aquí, basadas en nuestra propia investigación de 2019, están motivadas financieramente. spammers, no operaciones de influencia abierta. Ambos son desafíos serios, pero son diferentes. Combinarlos no ayuda a nadie”. Osborne repitió que estábamos fusionando los dos grupos en respuesta a nuestros hallazgos.

Pero los expertos en desinformación dicen que es engañoso trazar una línea divisoria entre los spammers motivados financieramente y las operaciones de influencia política.

Hay una distinción en la intención: los spammers motivados económicamente son indiferentes al contenido que publican. Van dondequiera que estén los clics y el dinero, dejando que el algoritmo de suministro de noticias de Facebook dicte qué temas cubrirán a continuación. En cambio, las operaciones políticas están dirigidas a impulsar una agenda específica.

Pero en la práctica no importa : en sus tácticas e impacto, a menudo tienen el mismo aspecto. En un día normal, un sitio de clickbait motivado financieramente puede estar lleno de noticias de celebridades, animales lindos o historias muy emotivas, todos ellos generadores de tráfico fiables. Luego, cuando surge la agitación política, se desvían hacia las noticias hiperpartidistas, la desinformación y el cebo de la indignación porque atraen más la atención.

El grupo de páginas de Macedonia es un excelente ejemplo. La mayoría de las veces el contenido promueve los derechos de las mujeres y LGTBQ. Pero en el momento de eventos como las elecciones de 2020, la insurrección del 6 de enero y la aprobación del “proyecto de ley de latidos del corazón” contra el aborto de Texas, el grupo amplificó un contenido político particularmente puntiagudo. Muchos de sus artículos han sido ampliamente difundidos por páginas legítimas con muchos seguidores, incluidos los dirigidos por Occupy Democrats, Union of Concerned Scientists y Women’s March Global. 

Mientras tanto, las operaciones de influencia política podrían publicar contenido de celebridades y animales para construir páginas de Facebook con muchos seguidores. Luego, también pasan a la política durante eventos políticos sensibles, aprovechando las enormes audiencias que ya tienen a su disposición.

Los operadores políticos a veces también pagan a los spammers motivados financieramente para que difundan propaganda en sus páginas de Facebook, o compran páginas para reutilizarlas para campañas de influencia. Rio ya ha visto evidencia de un mercado negro donde los actores de clickbait pueden vender sus grandes audiencias de Facebook.

En otras palabras, las páginas parecen inocuas hasta que dejan de serlo. “Hemos empoderado a actores no auténticos para que acumulen un gran número de seguidores con fines en gran medida desconocidos”, escribió Allen en el informe.

Este cambio ha ocurrido muchas veces en Myanmar desde el surgimiento de las granjas de clickbait, en particular durante la crisis de los rohingya y nuevamente en el período previo y posterior al golpe militar de este año. (Esto último fue precipitado por eventos muy parecidos a los que llevaron a la insurrección del 6 de enero en EE. UU., incluidas las afirmaciones falsas generalizadas de elecciones robadas ).

En octubre de 2020, Facebook eliminó varias páginas y grupos involucrados en un comportamiento coordinado de clickbait en Myanmar. En un análisis de esos activos, Graphika, una firma de investigación que estudia la difusión de información en línea, descubrió que las páginas se enfocaban predominantemente en noticias y chismes de celebridades, pero expulsaban propaganda política, retórica anti-musulmana peligrosa y desinformación sobre covid-19 durante momentos clave. momentos de crisis. Docenas de páginas tenían más de 1 millón de seguidores cada una, y la más grande superaba los 5 millones.

El mismo fenómeno se desarrolló en Filipinas en el período previo a la elección del presidente Rodrigo Duterte en 2016. Duterte ha sido comparado con Donald Trump por su política populista, retórica ampulosa e inclinaciones autoritarias. Durante su campaña, una granja de clickbait, registrada formalmente como la compañía Twinmark Media, pasó de cubrir celebridades y entretenimiento a promocionarlo a él y su ideología.

En ese momento, se creía ampliamente que los políticos habían contratado a Twinmark para realizar una campaña de influencia. Pero en entrevistas con periodistas e investigadores , los ex empleados de Twinmark admitieron que simplemente buscaban ganancias. A través de la experimentación, los empleados descubrieron que el contenido a favor de Duterte sobresalió durante una elección acalorada. Incluso les pagaron a otras celebridades y personas influyentes para compartir sus artículos para obtener más clics y generar más ingresos publicitarios, según una investigación de los académicos de medios y comunicación Jonathan Ong y Jason Vincent A. Cabañes.

En los meses finales de la campaña, Duterte dominó el discurso político en las redes sociales. Facebook mismo lo nombró el » rey indiscutible de las conversaciones de Facebook » cuando descubrió que era el tema del 68% de todas las discusiones relacionadas con las elecciones , en comparación con el 46% de su próximo rival más cercano.

Tres meses después de las elecciones, Maria Ressa, directora ejecutiva de la compañía de medios Rappler, quien ganó el Premio Nobel de la Paz este año por su trabajo en la lucha contra la desinformación, publicó un artículo que describe cómo un concierto de clickbait coordinado y propaganda en Facebook “cambió [ed] público opinión sobre temas clave”.

“Es una estrategia de ‘muerte por mil cortes’: desmenuzar los hechos, usar verdades a medias que fabrican una realidad alternativa al fusionar el poder de los bots y las cuentas falsas en las redes sociales para manipular a personas reales”, escribió. 

En 2019, Facebook finalmente eliminó 220 páginas de Facebook, 73 cuentas de Facebook y 29 cuentas de Instagram vinculadas a Twinmark Media. Para entonces, Facebook y Google ya habían pagado a la finca hasta $8 millones ( 400 millones de pesos filipinos ).

Ni Facebook ni Google confirmaron esta cantidad. Osborne de Meta cuestionó la caracterización de que Facebook había influido en las elecciones.

Una amenaza en evolución

Facebook hizo un gran esfuerzo para eliminar las granjas de clickbait de Instant Articles y Ad Breaks en la primera mitad de 2019, según el informe interno de Allen. Específicamente, comenzó a verificar la originalidad del contenido de los editores y a desmonetizar a aquellos que publicaban contenido en gran parte no original.

Pero estos controles automatizados son limitados. Se centran principalmente en evaluar la originalidad de los videos y no, por ejemplo, en si un artículo ha sido plagiado. Incluso si lo hicieran, dichos sistemas solo serían tan buenos como las capacidades de inteligencia artificial de la empresa en un idioma determinado. Los países con idiomas no priorizados por la comunidad de investigación de IA reciben mucha menos atención, si es que reciben alguna. “En el caso de Etiopía hay 100 millones de personas y seis idiomas. Facebook solo admite dos de esos idiomas para los sistemas de integridad”, dijo Haugen durante su testimonio ante el Congreso.

Rio dice que también hay lagunas en la aplicación. Los infractores son sacados del programa pero no de la plataforma, y ​​pueden apelar para ser reincorporados. Las apelaciones son procesadas por un equipo separado del que hace cumplir la ley y realiza solo controles tópicos básicos antes de reintegrar al actor. (Facebook no respondió a las preguntas sobre qué buscan realmente estos controles). Como resultado, un operador de clickbait puede tardar solo unas horas en volver a unirse una y otra vez después de la eliminación. “De alguna manera, todos los equipos no se hablan entre sí”, dice ella.

Así fue como Rio se encontró en estado de pánico en marzo de este año. Un mes después de que el ejército arrestara a la exlíder democrática Aung San Suu Kyi y tomara el control del gobierno, los manifestantes aún enfrentaban violentamente al nuevo régimen. El ejército cortaba esporádicamente el acceso a Internet y las redes de transmisión, y Rio estaba aterrorizada por la seguridad de sus amigos en el país.

Comenzó a buscarlos en los videos de Facebook Live. “La gente estaba viendo estos videos de manera muy activa porque así es como haces un seguimiento de tus seres queridos”, dice ella. No le preocupó ver que los videos provenían de páginas con problemas de credibilidad; ella creía que los streamers estaban usando páginas falsas para proteger su anonimato.

Entonces sucedió lo imposible: vio el mismo video en vivo dos veces. Lo recordaba porque era aterrador: cientos de niños, que parecían de tan solo 10 años, en fila con las manos en la cabeza, siendo cargados en camiones militares.

Cuando investigó, descubrió que los videos no eran en vivo en absoluto. Los videos en vivo están destinados a indicar una transmisión en tiempo real e incluyen metadatos importantes sobre la hora y el lugar de la actividad. Estos videos se descargaron de otros lugares y se retransmitieron en Facebook utilizando herramientas de terceros para que parecieran transmisiones en vivo.

Hubo cientos de ellos, acumulando decenas de miles de compromisos y cientos de miles de visitas. A principios de noviembre, MIT Technology Review encontró docenas de videos en vivo falsos duplicados de este período de tiempo aún vigentes. Un par duplicado con más de 200 000 y 160 000 visitas, respectivamente, proclamaba en birmano: “Soy el único que transmite en vivo desde todo el país en tiempo real”. Facebook eliminó varios de ellos después de que les llamamos la atención, pero aún quedan docenas más, así como las páginas que los publicaron. Osborne dijo que la compañía está al tanto del problema y ha reducido significativamente estos Lives falsos y su distribución durante el año pasado. 

Irónicamente, cree Rio, los videos probablemente fueron extraídos de imágenes de la crisis subidas a YouTube como evidencia de derechos humanos. Las escenas, en otras palabras, son de hecho de Myanmar, pero todas fueron publicadas desde Vietnam y Camboya.

Durante el último medio año, Rio ha rastreado e identificado varios grupos de páginas que se han agotado en Vietnam y Camboya. Muchos usaron videos en vivo falsos para aumentar rápidamente su número de seguidores e impulsar a los espectadores a unirse a grupos de Facebook disfrazados de comunidades a favor de la democracia. A Rio ahora le preocupa que el lanzamiento más reciente de Facebook de anuncios in-stream en videos en vivo incentivará aún más a los actores de clickbait para falsificarlos. Un clúster de Camboya con 18 páginas comenzó a publicar información política errónea muy dañina, alcanzando un total de 16 millones de interacciones y una audiencia de 1,6 millones en cuatro meses. Facebook eliminó las 18 páginas en marzo, pero continúan surgiendo nuevos grupos mientras que otros permanecen.

Por lo que Rio sabe, estos actores vietnamitas y camboyanos no hablan birmano. Es probable que no entiendan la cultura birmana o la política del país. La conclusión es que no es necesario. No cuando están robando su contenido.

Desde entonces, Rio ha encontrado varios de los grupos privados de Facebook y Telegram de los camboyanos (uno con más de 3000 personas), donde intercambian herramientas y consejos sobre las mejores estrategias para ganar dinero. MIT Technology Review revisó los documentos, las imágenes y los videos que recopiló y contrató a un traductor de khmer para interpretar un video tutorial que guía a los espectadores paso a paso a través de un flujo de trabajo de clickbait.

Los materiales muestran cómo los operadores camboyanos recopilan investigaciones sobre el contenido de mejor rendimiento en cada país y los plagian para sus sitios web clickbait. Una carpeta de Google Drive compartida dentro de la comunidad tiene dos docenas de hojas de cálculo de enlaces a los grupos de Facebook más populares en 20 países, incluidos EE. UU., Reino Unido, Australia, India, Francia, Alemania, México y Brasil.

El video tutorial también muestra cómo encuentran los videos de YouTube más virales en diferentes idiomas y usan una herramienta automatizada para convertir cada uno en un artículo para su sitio. Encontramos 29 canales de YouTube que difunden información política errónea sobre la situación política actual en Myanmar, por ejemplo, que se estaban convirtiendo en artículos clickbait y redistribuyéndolos a nuevas audiencias en Facebook.

Después de llamar su atención sobre los canales, YouTube los canceló a todos por violar las pautas de la comunidad, incluidos siete que determinó que formaban parte de operaciones de influencia coordinadas vinculadas a Myanmar. Choi señaló que YouTube también había dejado de publicar anuncios en casi 2000 videos en estos canales. “Continuamos monitoreando activamente nuestras plataformas para evitar que los malos actores busquen abusar de nuestra red para obtener ganancias”, dijo.

Luego hay otras herramientas, incluida una que permite que los videos pregrabados aparezcan como videos falsos de Facebook Live. Otra genera aleatoriamente detalles de perfil para hombres de EE . UU ., incluida la imagen, el nombre, el cumpleaños, el número de la seguridad social, el número de teléfono y la dirección, por lo que otra herramienta puede producir en masa cuentas de Facebook falsas utilizando parte de esa información.

Ahora es tan fácil de hacer que muchos actores camboyanos actúan solos. Rio los llama microempresarios. En el escenario más extremo, ha visto a personas administrar hasta 11,000 cuentas de Facebook por su cuenta.

Los microempresarios exitosos también están capacitando a otros para hacer este trabajo en su comunidad. “Va a empeorar”, dice ella. «Cualquier Joe en el mundo podría estar afectando tu entorno de información sin que te des cuenta».

Beneficio sobre seguridad

Durante su testimonio ante el Senado en octubre de este año, Haugen destacó las fallas fundamentales del enfoque basado en el contenido de Facebook para el abuso de la plataforma. La estrategia actual, centrada en lo que puede y no puede aparecer en la plataforma, solo puede ser reactiva y nunca integral, dijo. No solo requiere que Facebook enumere todas las posibles formas de abuso, sino que también requiere que la empresa domine la moderación en todos los idiomas. Facebook ha fallado en ambos aspectos, y las personas más vulnerables del mundo han pagado el precio más alto, dijo.

El principal culpable, dijo Haugen, es el deseo de Facebook de maximizar la participación, que ha convertido su algoritmo y diseño de plataforma en un megáfono gigante para el discurso de odio y la desinformación. Una investigación de MIT Technology Review de principios de este año, basada en docenas de entrevistas con ejecutivos de Facebook, empleados actuales y anteriores, colegas de la industria y expertos externos, corrobora esta caracterización.

Su testimonio también hizo eco de lo que Allen escribió en su informe, y lo que Rio y otros expertos en desinformación han visto repetidamente a través de su investigación. Para las granjas de clickbait, ingresar a los programas de monetización es el primer paso, pero la cantidad que ganan depende de hasta qué punto los sistemas de recomendación de contenido de Facebook impulsan sus artículos. No prosperarían ni plagiarían un contenido tan dañino si sus tácticas turbias no funcionaran tan bien en la plataforma.

Como resultado, eliminar las granjas en sí no es la solución: los actores altamente motivados siempre podrán crear nuevos sitios web y nuevas páginas para obtener más dinero. En cambio, son los algoritmos y los mecanismos de recompensa de contenido los que deben abordarse.

En su informe, Allen propuso una posible forma en que Facebook podría hacer esto: mediante el uso de lo que se conoce como una medida de autoridad basada en gráficos para clasificar el contenido. Esto amplificaría las páginas de mayor calidad, como noticias y medios, y disminuiría las páginas de menor calidad, como clickbait, revirtiendo la tendencia actual.

Haugen enfatizó que el hecho de que Facebook no arreglara su plataforma no se debió a la falta de soluciones, herramientas o capacidad. “Facebook puede cambiar, pero claramente no lo hará por sí solo”, dijo. “Mi temor es que sin acción, los comportamientos divisivos y extremistas que vemos hoy son solo el comienzo. Lo que vimos en Myanmar y ahora estamos viendo en Etiopía son solo los primeros capítulos de una historia tan aterradora que nadie quiere leer el final”.

(Osborne dijo que Facebook tiene un enfoque fundamentalmente diferente de Myanmar hoy en día con una mayor experiencia en los problemas de derechos humanos del país y un equipo dedicado y tecnología para detectar contenido violatorio, como discurso de odio, en birmano).

En octubre, el enviado especial saliente de la ONU en Myanmar dijo que el país se había deteriorado hasta convertirse en una guerra civil . Desde entonces, miles de personas han huido a países vecinos como Tailandia e India. A mediados de noviembre, los actores de clickbait continuaban publicando noticias falsas cada hora. En una publicación, la líder democrática, “Madre Suu”, había sido asesinada. En otro, finalmente había sido liberada.

Un agradecimiento especial a nuestro equipo. Diseño y desarrollo por Rachel Stein y Andre Vitorio. Dirección de arte y producción de Emily Luong y Stephanie Arnett. Editado por Niall Firth y Mat Honan. Verificación de hechos por Matt Mahoney. Edición de copia por Linda Lowenthal.

Corrección: una versión anterior del artículo afirmaba incorrectamente que después de que nos pusimos en contacto con Facebook, los actores de clickbait en Camboya comenzaron a quejarse en los foros en línea por haber sido expulsados ​​de Instant Articles. Los actores estaban en realidad en Myanmar.