Foto: Getty.

No es ning√ļn secreto que Facebook tiene un problema con las notificas falsas. Muchos cr√≠ticos han acusado a la red social de permitir la publicaci√≥n de historias y noticias falsas, y algunos incluso sugieren que esto ayud√≥ a la elecci√≥n de Donald Trump como presidente, gracias a que algunos medios a su favor propagaron informaci√≥n falsa.

Mark Zuckerberg ha hablado acerca de estos temas en dos ocasiones despu√©s del d√≠a de las elecciones, incluyendo un comunicado redactado con mucha cautela que dice: ‚ÄúDe todo el contenido en Facebook m√°s del 99% de lo que ven los usuarios es real. Solo una cantidad m√≠nima se trata de noticias falsas, y el contenido falso publicado no siempre se trata de pol√≠tica‚ÄĚ.

A√ļn as√≠ es poco com√ļn entrar a Facebook y no encontrarte con alg√ļn titular falso de tipo ‚ÄúEl agente del FBI relacionado al caso de los correos de Hillary fue encontrado muerto en su apartamento‚ÄĚ o ‚ÄúEl Papa Francisco sorprende al mundo al apoyar a Donald Trump para su presidencia‚ÄĚ, publicados por sitios de noticias nada conocidos como Denver Guardian o Ending the Fed.

Gizmodo se ha enterado de que la compa√Ī√≠a est√° realmente preocupada sobre este problema, y han estado llevando a cabo debates internos desde el pasado mes de mayo sobre c√≥mo la red social deber√≠a afrontar su papel de ser el distribuidor de noticias m√°s grande en los Estados Unidos. Este debate incluye dudas como si la red social tiene el deber de prevenir que informaci√≥n falsa de propague al 44% de estadounidenses que obtienen sus noticias desde Facebook.

Advertisement

Seg√ļn dos fuentes con conocimiento directo de las tomas de decisiones de la compa√Ī√≠a, los ejecutivos de Facebook llevaron a cabo un an√°lisis muy detallado de sus productos y pol√≠ticas a inicios de este a√Īo, con la finalidad de eliminar cualquier incoherencia y parcialidad pol√≠tica. Una de las fuentes dijo que los ejecutivos de rango m√°s alto fueron informados acerca de una actualizaci√≥n importante para el Feed de Noticias que se dedicar√≠a a identificar las historias falsas, pero a su vez como consecuencia de esto los sitios de noticias centrados en la derecha pol√≠tica se ve√≠an afectados y sus publicaciones no aparec√≠an en los feeds de la mayor√≠a de usuarios. Seg√ļn esta fuente, la actualizaci√≥n fue archivada y nunca lleg√≥ al p√ļblico, aunque no est√° claro si la actualizaci√≥n ten√≠a alguna otra deficiencia que hizo que la descartaran.

‚ÄúS√≠, ellos tienen las herramientas para eliminar las noticias falsas‚ÄĚ, nos dijo la fuente, quien solicit√≥ mantenerse en anonimato para evitar repercusiones por parte de la compa√Ī√≠a. ‚ÄúTen√≠an mucho miedo de hacer molestar a los conservativos con esta actualizaci√≥n, y muchas decisiones de producto se ven afectadas por esto‚ÄĚ.

Advertisement

En un comunicado mediante correo electr√≥nico Facebook no respondi√≥ las preguntas directas de Gizmodo sobre si la compa√Ī√≠a hab√≠a desarrollado una actualizaci√≥n para el Feed de Noticias que era capaz de identificar las noticias falsas, ni tampoco de si esta actualizaci√≥n afectaba de forma desproporcionada a los medios de noticias centrados en la pol√≠tica m√°s conservadora. En cambio, lo que dijo Facebook fue que ‚Äúno han desarrollado ni descartado ninguna actualizaci√≥n al Feed de Noticias bas√°ndose en el impacto que podr√≠a tener en un partido pol√≠tico‚ÄĚ. Este es el comunicado completo:

Nosotros no desarrollamos ni descartamos actualizaciones a nuestro Feed de Noticias bas√°ndonos en el impacto que puede tener sobre un partido pol√≠tico. Siempre trabajamos para hacer a nuestro Feed m√°s significativo e informativo, y eso incluye el examinar la calidad y veracidad de lo que se comparte, incluyendo el spam y las noticias falsas. Mark dijo: ‚Äúestoy propuesto a hacer todo lo posible para que nuestro equipo se aseguro de mantener la integridad de nuestros productos‚ÄĚ, y eso incluye el estar continuamente revisando nuestras actualizaciones para asegurarnos de que no existe parcialidad.

Un reportaje del New York Times publicado el s√°bado cit√≥ conversaciones entre los empleados de Facebook y asegur√≥ que: ‚ÄúLo que ocurri√≥ con Trending Topics detuvo la voluntad de Facebook de hacer cambios significativos en sus productos que podr√≠an comprometer su percepci√≥n de objetividad‚ÄĚ. Nuestras fuentes repitieron lo mismo, uno de ellos confirmando que ‚Äúen Facebook hay una cultura de miedo‚ÄĚ despu√©s de los acontecimientos de Trending Topics.

Advertisement

Las fuentes se refieren a una pol√©mica que estall√≥ en mayo, cuando Gizmodopublic√≥ un art√≠culo en el que antiguos empleados de Facebook reconoc√≠an que las noticias importantes eran seleccionadas seg√ļn el criterio editorial de un equipo de personas, no por un algoritmo en funci√≥n de su popularidad, como aseguraba la compa√Ī√≠a. Uno de estos ex-editores explicaba como √©l y sus compa√Īeros eliminaban noticias de corte conservador como parte de su rutina diaria.

Facebook negó las acusaciones y poco después despidió a todo el equipo editorial. La decisión vino seguida de varios errores de bulto en los que se dieron por buenas noticias falsas. Una de esas noticias aseguraba que Fox News había despedido a Megyn Kelly por ser un liberal encubierto que en realidad quería que ganara Hillary Clinton.

Después de que se publicara la historia de Gizmodo, Facebook luchó vehementemente contra la idea de que su red fuera hostil a noticias de corte conservador. En mayo, Mark Zuckerberg invitó a un grupo de personalidades de alto nivel y orientación conservadora al campus de Facebook. Zuckerberg dijo entonces que planeaba invitar a líderes conservadores y a personas de todas las ideas políticas para que pudieran expresar sus puntos de vista. Joel Kaplan, vicepresidente de relaciones institucionales a nivel global enfatizó en un post que la red social era un lugar para todas las voces, incluidas las conservadoras.

Advertisement

‚ÄúHa habido muchos cambios‚ÄĚ explica la fuente a Gizmodo ‚Äúy creo que es la primera vez que la compa√Ī√≠a siente que su papel en los medios ha cambiado‚ÄĚ.

Mientras Facebook hace balance de da√Īos, la compa√Ī√≠a continua haciendo cambios en su secci√≥n de noticias, que tiene en cuenta miles de factores para tratar de determinar qu√© noticias son las que los lectores prefieren. En junio, Facebook realiz√≥ varias actualizaciones que priorizaban a amigos y familia y trataban de frenar el spam. Sin embargo, seg√ļn una fuente, un tercer parche que luchaba contra noticias falsas nunca vio la luz.

No es la primera vez que Facebook se√Īala su problema con las noticias falsas. En un parche de enero de 2015, la compa√Ī√≠a prometi√≥ mostrar menos historias de ese tipo mediante una herramienta que permit√≠a reportar esos fakes. En concreto dec√≠an:

La fuerza de la comunidad depende de que haya una auténtica comunicación. Nuestro feedback es que las noticias auténticas son siempre las que más suenan. Por esa razón trabajamos duro para entender qué tipo de historias y publicaciones son las que la gente considera genuinas y así poder mostrárselas. Igualmente, trabajamos en entender qué tipo de noticias son las que la gente considera tendenciosas, sensacionalistas o basura para asegurarnos que la gente las lee menos.

Advertisement

Los esfuerzos de Facebook han tenido resultados dispares. A comienzos de este a√Īo Buzzfeed News estudi√≥ miles de falsas noticias publicadas en Facebook y encontr√≥ que, aunque la penetraci√≥n de esas noticias se hab√≠a reducido considerablemente de enero a diciembre de 2015, su alcance se hab√≠a disparado en 2016, precisamente antes del comienzo de la campa√Īa presidencial. Un responsable de Facebook explic√≥ a Buzzfeed que en la compa√Ī√≠a hab√≠an notado un descenso en este tipo de noticias, pero rehus√≥ dar datos concretos.

Otra investigaci√≥n de Buzzfeed en oto√Īo descubri√≥ que un grupo de personas de Macedonia controlaban grandes redes de p√°ginas populares en Facebook con noticias conservadoras falsas destinadas a simpatizantes de Trump en p√°ginas como TrumpVision365.com, USConservativeToday.com, o USADailyPolitics.com.

‚ÄúNo podemos leerlo todo ni revisarlo todo‚ÄĚ dec√≠a en agosto Adam Mosseri, jefe editorial de Facebook en una entrevista a TechCrunch, ‚Äúas√≠ que lo que hemos hecho es dar la oportunidad a los usuarios a que marque cosas como falsas. Creemos firmemente en la comunidad como editora de contenidos‚ÄĚ.

Advertisement

En un post publicado tras las elecciones, el ex-dise√Īador de producto de Facebook, Bobby Goodlatte, culpaba a la red social de catapultar la visibilidad de medios muy politizados y poco basados en datos, y de no tomar suficientes medidas para combatir la difusi√≥n de noticias falsas durante la campa√Īa. ‚ÄúCultivar una tendencia hacia la verdad no deber√≠a ser un objetivo imposible para un canal de noticias‚ÄĚ. A d√≠a de hoy est√° claro que la democracia sufre del mismo tipo de basura insensibilizadora que las secciones de noticias de Facebook.

Reportaje en colaboración con Kevin Roose.


Síguenos también en Twitter, Facebook y Flipboard.