VATICANO: El más siniestro puntal imperialista

VATICANO: El más siniestro puntal imperialista

Por qué Facebook no dejará de impulsar la propaganda


Desinformación de vacunas. La gran mentira. El odio que envenena a tu comunidad. Todo se remonta al modelo de negocio de Mark Zuckerberg.

La página de Facebook de Joyce Jones es casi un arquetipo de cómo se supone que debe verse la red social: fotos de sus hijos, los amigos de sus hijos, sus equipos deportivos, los equipos deportivos de los amigos de sus hijos.

  Videos de los sermones de su esposo en la Iglesia Bautista New Mount Moriah. Memes celebrando logros y solidaridad, saludos festivos, mensajes de salud pública. Es lo que Mark Zuckerberg ensalza cuando habla de cómo su empresa se trata de "unir a las personas".

Entonces, cuando Jones decidió postularse para alcalde en su ciudad de Alabama el año pasado, parecía obvio que intentaría unir a la gente en Facebook. Su candidatura para ser la primera alcaldesa negra de Montevallo, desafiando a un titular del Concejo Municipal de 12 años, atrajo a un grupo de voluntarios entusiastas y diversos. Pusieron una página de campaña, One Montevallo, y comenzaron a publicar anuncios alegres junto con actualizaciones de reciclaje y enchufes para películas en autocine.

Fue un momento histórico para Montevallo, cuya población (7,000) es dos tercios blanca y que se encuentra en el condado de Shelby, el infame demandante en el caso de la Corte Suprema que destruyó la Ley de Derechos Electorales en 2013. 

También fue un punto de inflexión para Jones , quien creció en la casa de las escopetas que su padre había construido en un camino de tierra lejos del vecindario donde su abuela limpiaba casas. “Mis primos y yo íbamos con ella”, recuerda la mujer de 45 años. 

"Trabajábamos en el jardín en las casas en las que ella trabajaba. Nunca pensamos que vivir aquí fuera una opción".

“Ahora llevo viviendo aquí 17 años. Tenemos una casa maravillosa. Hemos criado a cuatro hijos maravillosos. 

Y parte de lo que estaba siendo desafiado era: No está bien que salga. Tengo que hacer algo para asegurarme de que otras personas tengan todas las oportunidades. 

Corrí porque nuestros hijos necesitaban ver que no tienes que ser blanco y que no tienes que ser un hombre para postularte a un cargo en nuestra ciudad ".


"Corrí porque nuestros hijos necesitaban ver que no tienes que ser blanco y no tienes que ser un hombre para postularte a un cargo en nuestra ciudad".

Cuchara de agua de Lynsey

Pero difundir el mensaje de su campaña fue difícil. “Estamos en una pandemia, así que no podíamos ir a las iglesias y conocer gente”, me dijo Jones. Montevallo no tiene un medio de noticias propio, y el Shelby County Reporter , con sede en las cercanías de Columbiana, tiene un solo reportero de personal para las 14 comunidades que cubre. “Para nosotros, la forma más rápida de recibir noticias es a través de las redes sociales”, dice.

Jones no está muy segura de cómo comenzaron los rumores, pero recuerda lo rápido que se propagaron. Aparecieron cuentas de Facebook y publicaciones compartidas en grupos de la comunidad de Montevallo, lo que implica que ella quería desfinanciar a la policía (no lo hace). 

Alguien inventó un informe de un robo en su casa, haciendo referencia al nombre del propietario, para resaltar que ella estaba alquilando, cree. Otra cuenta sacó a relucir un cheque sin fondos que había emitido para comestibles mientras su familia luchaba durante la recesión de 2008.

“El algoritmo, la rapidez con que se compartieron los mensajes y la rapidez con la que la gente los vio, me abrió los ojos”, dice Jones. Su campaña publicaría publicaciones que desacreditaran los rumores, pero las correcciones se vieron muchas menos veces que las publicaciones de ataque.

 “Era mucho más mordaz y recibía tantos golpes. Fue a la velocidad del rayo ".“Lo que sucede en Facebook no solo se queda en Facebook. Viene de las redes sociales. Tienes que vivir con eso ".

Pronto, Jones notó un escalofrío a su alrededor. “Iría a la tienda de comestibles y la gente que normalmente te hablaría y sería amable contigo te evitaría. 

Iba a un partido de fútbol y la gente me evitaba. Estaba desconcertado por todo eso. Una cosa es no conocerme, pero otra es conocerme toda la vida y tratarme como a la peste ".

Una noche, su hijo de entonces 16 años, que había estado pasando el rato en el parque con un grupo de familias con las que había crecido, la llamó para pedirle que lo recogiera. Los adultos habían estado hablando de ella, sin darse cuenta de que él estaba al alcance del oído. Cuando Jones vino a buscarlo, le dijo: "Por primera vez, me sentí como el niño negro".

“Lo que sucede en Facebook no solo se queda en Facebook”, dice Jones. “Viene de las redes sociales. Tienes que vivir con eso ".

Existe una conexión directa entre la terrible experiencia de Jones, las elecciones de noviembre pasado, la insurrección del 6 de enero y los ataques a la democracia estadounidense que se han producido todos los días desde entonces. 

Esa conexión es Facebook, específicamente, es el circuito de retroalimentación tóxica mediante el cual la plataforma amplifica falsedades y desinformación. 

Ese ciclo no terminará con las prohibiciones tardías de Donald Trump y otros, porque el problema fundamental no es que haya personas que publiquen material violento , racista , antidemocrático y conspirativo. 

Es que Facebook y otras plataformas sociales empujan activamente ese contenido en los feeds de decenas de millones de personas, haciendo que las mentiras se vuelvan virales mientras la verdad languidece.

El término técnico para esto es amplificación algorítmica, y significa precisamente eso: lo que ves en Facebook ha sido amplificado e introducido en tu feed mediante el algoritmo patentado de la empresa. Cuando tú (o Mother Jones , o Trump) creas una publicación, nadie la puede ver excepto aquellos que buscan deliberadamente tu página. 

Pero en cuestión de instantes, el algoritmo analiza su publicación, teniendo en cuenta quiénes son usted y sus conexiones, lo que ha mirado o compartido antes y una miríada de otros puntos de datos. 

Luego decide si mostrar esa publicación en la sección de noticias de otra persona, la página principal que ve cuando inicia sesión. Piense en ello como un robot de lectura rápida que selecciona todo lo que ve .Facebook usó su poder monopolístico para beneficiar a los editores conservadores y apuntar a salas de redacción como Mother Jones.

De la forma en que las empresas de redes sociales lo dicen, sus robots son benevolentes y solo sirven a sus mejores intereses. ¿Ha hecho clic en las recetas de su primo pero no en la fanfarronada de fitness de su amigo? Aquí hay más pasta y menos Chloe Ting. 

¿Ha mostrado interés en Trump y también en cerámica fantástica? Aquí hay algunos gnomos de jardín MAGA . La narrativa fundacional de las empresas de redes sociales es que simplemente brindan un espacio para que usted, querido usuario, haga y vea lo que desea.

En realidad, como bien saben las personas que trabajan en estas empresas, la tecnología refleja los prejuicios de quienes la fabrican. Y cuando quienes lo hacen son corporaciones, refleja imperativos corporativos. 

En el caso de Facebook, esos imperativos —el principal de ellos, crecer más rápido que cualquier otra persona— se han desarrollado con apuestas especialmente altas, lo que convierte a la empresa en una de las amenazas más importantes del mundo para la democracia, los derechos humanos y la decencia.

Se ha demostrado que Facebook es un vehículo para la desinformación electoral en muchos países (ver: Brexit , Trump, Duterte ). Ha sido un espacio organizativo y un megáfono para el extremismo violento y el odio genocida (ver: Kenosha , Myanmar , Sri Lanka y Afganistán ). 

Su poder es tan amplio que da forma a las elecciones en la pequeña ciudad de Alabama y ayuda a lanzar turbas al Capitolio. Te llega tanto si estás en las redes sociales como si no, porque, como dice Jones, lo que sucede en Facebook no se queda en Facebook.

Es por eso que una de las batallas más importantes de los próximos años es si el gobierno debería regular las redes sociales y cómo. Hasta ahora, el debate se ha centrado principalmente en si empresas como Facebook deberían censurar publicaciones o usuarios en particular. Pero eso es en gran parte una distracción. 

El debate mucho más importante es sobre las decisiones algorítmicas que dan forma a nuestro universo de información con más fuerza que cualquier censor.

A medida que el experto Renée DiResta del Observatorio de Stanford Internet ha puesto , “La libertad de expresión no es el mismo que el alcance libre”.

 La evidencia abrumadora actual es que el alcance libre es lo que está alimentando la desinformación, la desinformación alimenta la violencia y las plataformas sociales no solo no logran detenerla, sino que avivan las llamas.

Debido a que los algoritmos son impersonales e invisibles, ayuda a imaginarlos en términos de algo más familiar: digamos, un maestro que califica en una curva. 

Nominalmente, la curva es imparcial, ¡es solo matemática! En la práctica, refleja sesgos incorporados en las pruebas, la forma en que medimos el éxito académico, la historia y las experiencias que los niños aportan al examen, etc.

Eso es un hecho. Pero ahora supongamos que un grupo de niños, llámalos sombreros amarillos, se da cuenta de que el maestro premia la escritura llamativa y, en consecuencia, resaltan la cursiva. Son recompensados ​​y, debido a que solo puede haber un número determinado de A en la clase (o tantas publicaciones en la parte superior del feed de Facebook de cualquier persona), las calificaciones de los otros niños sufren. 

Los sombreros amarillos han jugado el algoritmo.No solo el robot que impulsa a Facebook está sesgado a favor del contenido inflamatorio, sino que la compañía ha intervenido torpemente para sesgarlo aún más.

Pero los sombreros amarillos van más allá. También comienzan a hacer trampa en la prueba, doblando aún más la curva. Finalmente, algunos de los tramposos son atrapados y se ajustan sus calificaciones. Pero sus padres son exalumnos poderosos y se quejan, por lo que el maestro vuelve a ajustar las calificaciones.

En este punto, sin embargo, se ha formado un grupo de Padres de Sombrero Amarillo para una Calificación Justa, y envía al director una queja formal, diciendo que el maestro ha mostrado un sesgo anti-sombrero amarillo. 

El director tiene una conversación severa con el maestro. Y el maestro entra y cambia la fórmula de la curva para asegurarse de que cualquier examinado con sombrero amarillo obtenga automáticamente cinco puntos agregados a sus resultados.

Esta es la parte de la amplificación algorítmica que, hasta hace poco, no se había entendido completamente: no solo el robot que impulsa Facebook (y otras plataformas) está sesgado a favor del contenido inflamatorio, sino que la compañía ha intervenido torpemente para sesgarlo aún más. 

Y, sin embargo, de alguna manera, el debate ha estado dominado por reclamos de censura de las mismas personas que han cosechado las recompensas de este sesgo.

Para entender lo que esto significa en la práctica, analicemos un ejemplo cercano a Mother Jones . Cerca del final del primer año de la presidencia de Trump, los ingenieros de Facebook informaron a sus ejecutivos sobre un conjunto de cambios propuestos sobre cómo las publicaciones son clasificadas por el algoritmo que programa su News Feed. 

El objetivo, dijo la compañía en ese momento, era mostrar a los usuarios más contenido de amigos y familiares, y priorizar las noticias "confiables" e "informativas".

Pero, ¿qué significaría eso para las fuentes de noticias específicas, querían saber los ejecutivos, en particular los editores de derecha cuyo éxito masivo en Facebook, no por casualidad, fue paralelo al ascenso de Trump?

Las pruebas, según un ex empleado de Facebook con conocimiento de las conversaciones, revelaron que los cambios eliminarían una "gran parte" del tráfico de sitios de derecha como Breitbart , Gateway Pundit y Daily Caller . En respuesta, dice el ex empleado, el liderazgo de Facebook "se asustó y dijo: 'No podemos hacer esto'".

Así que se les dijo a los ingenieros que volvieran a la mesa de dibujo. En enero de 2018 regresaron con una segunda iteración del algoritmo que mitigó el daño a los editores de derecha y, en su lugar, golpeó a los de tendencia progresista. Su presentación incluyó una diapositiva con Mother Jones destacada como una de las fuentes de noticias que sufriría.

“El problema era que los medios progresistas eran medios [de noticias] reales como el suyo”, recuerda el ex empleado, “y los de la derecha eran puntos de venta de basura. Ustedes fueron uno de los medios que fueron seleccionados para equilibrar el libro mayor "."Se dejó en claro que no podemos hacer un cambio de clasificación que perjudique a Breitbart, incluso si ese cambio mejoraría el News Feed".

En otras palabras, ajustaron la curva para ayudar a los sombreros amarillos. ¿Pero quién había ido al director?

Resulta que son las mismas personas que siempre lo hacen. Los cambios, nos dijeron los informantes, fueron impulsados ​​por la oficina de Facebook en Washington, que en la era de Trump estaba dirigida principalmente por agentes republicanos y encabezada por el vicepresidente de Política Pública Global, Joel Kaplan. Kaplan, ex funcionario de la Casa Blanca de Bush, se convirtió en un foco de tensión cuando asistió a las audiencias sobre la nominación de Brett Kavanaugh a la Corte Suprema como parte de una campaña de apoyo a su amigo.

Esta no fue la primera vez que Facebook se retiró de los cambios de algoritmo que podrían afectar a los proveedores de desinformación de derecha. (Más sobre esto a continuación). Durante la campaña presidencial de 2016, otro ex empleado de Facebook nos dijo, “quedó claro que no podemos hacer un cambio de clasificación que perjudique a Breitbart, incluso si ese cambio mejoraría el News Feed . "

Cuando se le pidió un comentario, el portavoz de Facebook, Andy Stone, solo dijo: “No hicimos cambios con la intención de impactar a los editores individuales. 

Solo hicimos actualizaciones después de que fueron revisadas por muchos equipos diferentes en muchas disciplinas para asegurarnos de que el fundamento era claro y coherente y se podía explicar a todos los editores ". (Stone, según nuestras fuentes, estuvo en reuniones donde se mostró la presentación de diapositivas).

Aunque no sabíamos lo que estaba sucediendo, este ajuste algorítmico tuvo un gran impacto en Mother Jones . Cortó el tráfico a nuestras historias, incluso de personas que habían elegido seguirnos en Facebook. Esto limitó la audiencia a la que podían llegar nuestros informes y los ingresos que podríamos generar para apoyar nuestro periodismo.

Pero las implicaciones son mucho más amplias que la experiencia de MoJo . Facebook, mostró este episodio, usó su poder monopólico para impulsar y suprimir el contenido de una manera política partidista. 

Esa es la esencia de todo temor de Gran Hermano sobre las plataformas tecnológicas, y algo que Facebook y otras empresas han negado enérgicamente durante años.

También es exactamente lo que los conservadores acusan a Facebook de hacerles . Durante los últimos cuatro años, prácticamente han acampado en la oficina del director quejándose de que las empresas de redes sociales estaban censurando la derecha. Trump llegó a tomar como rehén los fondos del Pentágono por este tema. 

Y a raíz de los disturbios en el Capitolio, muchas personalidades conservadoras parecían más preocupadas por la pérdida de seguidores en Twitter —un resultado, resulta, de que la plataforma tomó medidas enérgicas contra QAnon— que por el violento ataque.

En verdad, Facebook ha modificado constantemente sus prácticas para favorecer a los conservadores. Solo algunos ejemplos:

En diciembre de 2016, se informó a los líderes principales sobre una evaluación interna conocida como Proyecto P (para propaganda) que mostraba que las cuentas de la derecha, la mayoría de ellas en el extranjero, estaban detrás de gran parte de la desinformación viral en la plataforma. Pero, según informó el Washington Post , Kaplan se opuso a deshabilitar todas las cuentas porque "afectará desproporcionadamente a los conservadores".

En 2017 y 2018, según el Wall Street Journal , Facebook lanzó una iniciativa llamada Common Ground para "aumentar la empatía, la comprensión y la humanización del 'otro lado'". Un equipo propuso frenar la difusión de contenido de los "supercompartidores" porque La investigación de Facebook había demostrado que esos usuarios tenían más probabilidades de generar material hiperpolarizante. 

Otra iniciativa sugirió frenar la propagación del clickbait político, que según los datos de la compañía emanaba principalmente de cuentas conservadoras. Todas estas propuestas, sin embargo, fueron objeto de investigación por parte del equipo de Kaplan, y en gran parte fueron rechazadas.

A medida que la campaña presidencial se intensificaba durante el verano de 2020, los empleados de Facebook reunieron evidencia de que los altos directivos estaban interfiriendo con el programa de verificación de datos de la empresa, informó BuzzFeed News . 

Facebook paga a organizaciones como la organización sin fines de lucro PolitiFact para que examinen ciertas publicaciones, y las que se consideren falsas son marcadas por Facebook para que tomen medidas adicionales.

Pero las grandes cuentas conservadoras recibieron el trato de guante blanco cuando chocaron con los verificadores de hechos: en un caso, según las notas internas que revisó Buzzfeed , “una [queja] de Breitbart marcada como 'urgente: al final del día' se resolvió en el mismo día, con todas las huelgas de desinformación contra la página de Breitbart ... aclaradas sin explicación ".

 En otro, el propio Kaplandisputó una huelga de PolitiFact contra la personalidad conservadora Charlie Kirk. El director de PolitiFact tuvo que defender personalmente la huelga después de recibir una llamada de Facebook.Después de escribir "vacuna" en el cuadro de búsqueda de Facebook, un usuario se ve rápidamente inundado de recomendaciones algorítmicas para grupos y páginas de antivacunas.

Según los informes, también fue Kaplan quien en 2018 presionó para que el Daily Caller , que ha sido criticado regularmente por publicar información errónea, incluido un desnudo falso de la representante Alexandria Ocasio-Cortez, se incorporará como uno de los socios de verificación de datos de Facebook. 

Kaplan volvió a intervenir cuando el conservador Daily Wire corría el riesgo de ser castigado por Facebook por supuestamente crear una red de páginas para aumentar el tráfico, según el boletín Popular Information

Y NBC informó en agosto pasado que las personas identificadas como "políticas / liderazgo" eliminaron las huelgas de verificación de hechos de las páginas conservadoras, como el dúo de YouTube Diamond & Silk y el productor de videos de derecha PragerU.

"En noviembre, una parte de los usuarios de Facebook no confiará en el resultado de las elecciones porque han sido bombardeados con mensajes en Facebook preparándolos para no confiar en él", Yaël Eisenstat, un ex oficial de inteligencia que fue contratado para dirigir el equipo de integridad electoral de Facebook. , dijo a BuzzFeed News en julio. 

Y en un artículo de opinión del Washington Post, Eisenstat escribió : “El problema real es que Facebook se beneficia en parte amplificando mentiras y vendiendo peligrosas herramientas de focalización que permiten a los agentes políticos participar en un nuevo nivel de guerra de información. 

Su modelo de negocio explota nuestros datos para permitir que los anunciantes nos apunten, mostrándonos a cada uno una versión diferente de la verdad y manipulándonos con anuncios hiperpersonalizados.

Un año después, sabemos que la predicción de Eisenstat no fue lo suficientemente nefasta: la mayoría de los republicanos todavía creen que las elecciones de noviembre fueron robadas y tampoco creen que el COVID-19 sea una amenaza lo suficientemente grande como para ser vacunados. 

Y creen estas cosas en parte porque Facebook las ha amplificado. Justo este mes, la organización internacional de derechos humanos Avaaz documentó cómo simplemente escribiendo "vacuna" en el cuadro de búsqueda de Facebook, un usuario se verá rápidamente inundado de recomendaciones algorítmicas para grupos y páginas antivacunas. (Solo este mes, un video repleto de afirmaciones falsas sobre vacunas y máscaras acumuló decenas de millones de visitasen Facebook, Twitter, YouTube y TikTok, cada uno de los cuales afirma haber prohibido la desinformación de COVID). 

Asimismo, en los días posteriores a las elecciones de noviembre, las páginas de "Stop the Steal" se difundieron como la pólvora y, según los propios documentos internos de la empresa Facebook no hizo casi nada para detenerlos.

“El estribillo que escuchamos de los legisladores conservadores sobre el sesgo contra los medios conservadores, toda la evidencia que hemos visto sugiere lo contrario”, dice Meetali Jain, directora legal de Avaaz. “Hay fuerzas y voces dentro de Facebook que intervienen en lo que se supone que son acciones políticamente neutrales y las cambian para lograr un fin político”.

Esto no ha pasado desapercibido entre los empleados de Facebook, algunos de los cuales han advertido que la empresa tiende a resistir las acciones contra el odio viral hasta que se derrama sangre.

 En 2020, cientos de empleados realizaron una huelga después de que Zuckerberg decidiera personalmente no eliminar la infame advertencia de Trump de que "cuando comienza el saqueo, comienza el tiroteo". Zuckerberg insistió en que este lenguaje "no tiene antecedentes de ser leído como un silbido de perro para que los partidarios de los justicieros tomen la justicia en sus propias manos". (De hecho, la expresión fue popularizada por un sheriff de Miami notoriamente racista que se jactó, en 1967, "No nos importa que nos acusen de brutalidad policial").Dos tercios de todos los usuarios de Facebook que se unen a grupos extremistas son guiados por el propio Facebook.

No mucho después, durante las protestas de Black Lives Matter en Kenosha, Wisconsin, surgió una página de eventos en Facebook que animaba a la gente a "tomar las armas y proteger nuestra ciudad de los malvados matones". 

La página de la Guardia de Kenosha atrajo la atención de InfoWars de Alex Jones y acumuló 3,000 miembros durante la noche , incluso cuando más de 400 personas lo señalaron como un centro de posible violencia de los justicieros, advertencias que fueron ignoradas en Facebook hasta que dos personas fueron supuestamente asesinadas por 17 años. el viejo Kyle Rittenhouse.

No sabemos, porque todo sobre los algoritmos de Facebook es secreto, si Rittenhouse vio la página (Facebook ha dicho que no tiene evidencia de que haya seguido al grupo Kenosha Guard).

 Pero los expertos han advertido durante mucho tiempo que las páginas grupales, invisibles para los usuarios que no están en ellas y sujetas a menos regulaciones o verificación de hechos que el News Feed, es donde muchos usuarios son absorbidos por contenido de odio y conspiración. (Este es el camino a través del cual muchas mamás de los suburbios, como Kiera Butler de Mother Jones ha documentado escalofriantemente, se han convertido en fanáticas de QAnon ).

Los propios investigadores de Facebook saben desde hace mucho tiempo que Facebook está empujando a los usuarios habituales por el camino de la radicalización. En 2016, informó el Wall Street Journal , los investigadores de Facebook dijeron a los ejecutivos que "el 64 por ciento de todas las uniones a grupos extremistas [de Facebook] se deben a nuestras herramientas de recomendación", como el widget "Grupos a los que debe unirse". 

Dejemos que eso se hunda: dos tercios de todos los usuarios que se unieron a grupos extremistas lo hicieron porque Facebook lo sugirió. 

Se ha encontrado un patrón similar en YouTube, cuyos videos recomendados pueden llevar a un usuario de memes aleatorios a propaganda nazi con solo unos pocos clics.

Está claro que las plataformas tienen el poder de cambiar estos patrones, si lo intentan. En 2019, YouTube realizó cambios de algoritmo destinados a recomendar menos videos de conspiración.

  Los investigadores encontraron que los cambios pueden haber reducido la proporción de tales recomendaciones en aproximadamente un 40 por ciento y que las conspiraciones sobre COVID, en particular, casi habían desaparecido de las recomendaciones.

Pero tal como está, dependemos completamente de la buena voluntad de las plataformas para realizar ese tipo de cambios. YouTube fue advertido durante años, incluso por sus propios ingenieros, sobre el impacto radical de sus recomendaciones, que generan aproximadamente el 70 por ciento de las vistas en la plataforma. 

No existe ningún requisito legal de que las empresas compartan datos sobre cómo funcionan sus algoritmos o qué encuentran sus datos internos. 

El año pasado, una investigadora de Google dijo que la despidieron por intentar publicar un trabajo que apuntaba a problemas éticos con las herramientas de inteligencia artificial de la empresa. Y solo este mes, el New York Times informó que Facebook archivó un informe interno que mostraba que la desinformación de COVID ocupaba un lugar destacado entre las publicaciones más vistas en la plataforma.

Después del ataque al Capitolio, Facebook hizo lo que hace cada vez que surge otro desastre cívico de su incubadora de desinformación: enviar a un alto ejecutivo con puntos de conversación impecablemente cuidados. 

En enero, fue la directora de operaciones Sheryl Sandberg, en una entrevista en vivo con Reuters: “Creo que estos eventos se organizaron en gran medida en plataformas que no tienen nuestras habilidades para detener el odio, no tienen nuestros estándares y no tener nuestra transparencia ".

Sandberg probablemente tenía razón en que los militantes estaban elaborando estrategias en plataformas como Telegram, donde eran más difíciles de rastrear. 

Pero lo que se elidió en su " gaslighting " (como lo expresó el primer inversor de Facebook convertido en crítico de la plataforma Roger McNamee) fue que Facebook había sido clave para popularizar y normalizar el mensaje insurgente. Inmediatamente después de las elecciones de noviembre, un grupo de Facebook “Stop the Steal” vinculado a operativos republicanos ganó 350.000 seguidores, más de 7.000 por hora, en dos días.

Para cuando Facebook tomó medidas para reducir su alcance, #StopTheSteal estaba en todas partes, incluso en Instagram, propiedad de Facebook, donde el hashtag seguía corriendo desenfrenado.

Facebook, Twitter y Google, durante esos dos meses, en gran medida se pusieron junto como Trump empujado fuera teorías de conspiración cada vez más salvajes, incluyendo demandas levantadas directamente de Qanon.

 En diciembre y enero, no se necesitaron más que unos pocos clics para aterrizar en grupos de Facebook como "Stop the Fraud", "Stop the Theft", "Stop the Rigged Election" y muchos más, con contenido de QAnon y llamadas a la violencia circulaba libremente en ellos, y la gente estaba abiertamente elaborando estrategias sobre cómo llevar sus armas al Capitolio.

Como ha señalado Elle Reeve de CNN , “La gente dice que Donald Trump más Internet saca a relucir a los extremistas. Pero creo que la realidad es una inversión de eso: que Donald Trump más Internet trae el extremismo a las masas. 

Hay muchas más personas normales ahora que creen en cosas extremas, que creen que hay una camarilla secreta de pedófilos en la cima del gobierno estadounidense ".

Es por eso que la amplificación algorítmica es tan crítica: incorpora contenido extremista en la vida cotidiana de la gente común, justo allí, entre las fotos de bebés y los anuncios de la comunidad. 

Por ejemplo, QAnon: cuando Facebook anunció que estaba tomando medidas para reducir el alcance del engaño masivo, su propia investigación mostró que los grupos de QAnon en la plataforma ya tenían unos 3 millones de usuarios. 

Si los datos anteriores de Facebook se mantuvieran, 2 millones de ellos habrían sido atraídos a los grupos por las recomendaciones de Facebook . 

Y una vez radicalizados en las plataformas principales, estas personas eran mucho más propensas a perseguir la solución de la conspiración por su cuenta, ya sea a través de Facebook, Twitter y Google o en lugares marginales como Gab y Parler.

Es en este contexto que vale la pena reconsiderar el momento en enero de 2018 cuando Zuckerberg presentó un nuevo algoritmo diseñado para impulsar a Breitbart y degradar a Mother Jones . Después de esos cambios, vendidos, no lo olvides, como una forma de impulsar las fuentes "confiables" e "informativas", los sitios de derecha como Daily Wire , Daily Caller , Breitbart y Fox News vieron aún más participación en Facebook.

 El alcance de Mother Jones , por el contrario, se desplomó un 37 por ciento en los seis meses posteriores a ese momento en comparación con los seis meses anteriores. 

Y aunque no sabemos cómo ha evolucionado el algoritmo, incluso ahora al menos 6 de losLas 10 noticias con la mayor participación en Facebook cada día tienden a ser publicaciones incendiarias de sitios de opinión e influencers de derecha. (El resto son típicamente publicaciones de animales lindos y celebridades, con algunas noticias importantes). El algoritmo amplifica la indignación, se produce más indignación en respuesta, aclara y repite.

Hubo un breve período en el que eso cambió: Justo después de las elecciones, la lista de las publicaciones más comprometidas de Facebook se llenó repentinamente con noticias periódicas de una variedad de fuentes: algunos sitios conservadores, pero también la BBC, el New York Times , National Public Radio, y otros. 

Resulta que Facebook supo desde el principio cómo crear un algoritmo que no provocara la ira y el miedo en los feeds de los usuarios: confirmó la compañía al New York Times.que había implementado un cambio de "ruptura de vidrio" para impulsar la información de mayor calidad "para ayudar a limitar la propagación de afirmaciones inexactas sobre las elecciones". 

A mediados de diciembre, sin embargo, Facebook volvió el algoritmo a la normalidad, habiendo aparentemente concluido que las “afirmaciones inexactas sobre las elecciones” ya no eran una amenaza justo cuando #StopTheSteal se aceleró.

El episodio destaca lo que significa confiar en la autorregulación de Facebook: la salud de nuestro ecosistema de información depende de si Zuckerberg piensa que las cosas son lo suficientemente malas como para “romper cristales” durante algunas semanas.

Pero, ¿Cual es la alternativa? La derogación de la Sección 230, la ley federal que otorga a las plataformas una transferencia de responsabilidad por lo que publican los usuarios, sería catastrófica para la libertad de expresión, según muchos expertos. 

Una demanda antimonopolio de 46 fiscales generales con el objetivo de romper la red social (para que ya no pueda tener una huella tan grande en el ecosistema de la información) ha fracasado ‚

Por ahora, los críticos más reflexivos de las plataformas se han centrado en la responsabilidad algorítmica. Los senadores Cory Booker (DN.J.) y Ron Wyden (R-Ore.) Y la representante Yvette Clarke (DN.Y.) han introducido una legislación que requeriría que las empresas analicen y divulguen "sistemas de decisión automatizados altamente sensibles" en las redes sociales. plataformas y herramientas de inteligencia artificial. 

También hay propuestas para regular megaplataformas como Google y Facebook como servicios públicos, bajo la teoría de que sus algoritmos son parte de la infraestructura de la sociedad al igual que el agua y la electricidad. “No podemos confiar en que Mark Zuckerberg se despierte un día y se enoje”, como ha dicho el académico Zeynep Tufekci .

Joyce Jones sabe que las mentiras y los rumores que la perseguían no son los únicos. “Uno de mis primos está casado con una señora que ganó un escaño judicial y me dijo: 'Joyce, eres una política negra en Alabama. Este tipo de cosas van a suceder '. Esa fue la declaración más reveladora que alguien me hizo durante toda la campaña ".

Tampoco era solo Alabama: en el vecino Georgia, los usuarios estaban inundados de falsedades racistas que burlaban las reglas de Facebook contra la desinformación. Un anuncio descaradamente engañoso sobre el reverendo Raphael Warnock, de un superpac que apoyaba a Sen en ese entonces. Kelly Loeffler (y dirigida por los aliados de Mitch McConnell), corrió una y otra vez a pesar de haber sido desacreditada por los verificadores de hechos de Facebook. 

Un informe de Avaaz mostró que docenas de grupos de Facebook pudieron circular información errónea sobre las elecciones sin sanciones, incluidas afirmaciones falsas de manipulación electoral, fraude electoral, contenido pro-QAnon e incitación a la violencia.

La desinformación en las redes sociales no es todopoderosa: en Georgia, la organización paciente y la participación masiva de votantes terminaron entregando las elecciones a los demócratas, y en Montevallo, la carrera de Jones galvanizó una participación récord. Pero cuando todo estuvo hecho, había perdido por 49 votos. 

No es difícil ver cómo tanta gente pudo haber sido influenciada por los rumores que vieron amplificados y compartidos en plataformas sociales donde más de la mitad de los estadounidenses reciben noticias.

Jones quedó aplastada por el resultado de las elecciones, pero pronto se recuperará y ahora está contemplando postularse para el Senado estatal. Si lo acepta, dice, ahora sabe qué esperar.

"Facebook nos ha dado la capacidad de ser estos monstruos detrás de un teclado", dice Jones, y luego suena exactamente como la esposa del pastor que es: "Si compartimos nuestra luz, nuestro mundo se vuelve más brillante porque le da a otra persona la oportunidad para compartir su luz también. Pero el problema es que la luz no se comparte tan rápido como la oscuridad. Y entonces estamos en un lugar oscuro ".

https://www.motherjones.com/politics/2021/08/why-facebook-wont-stop-pushing-propaganda/?utm_source=mj-newsletters&utm_medium=email&utm_campaign=daily-newsletter-08-30-2021

Related Posts

Subscribe Our Newsletter