Durante años, la idea de que las noticias falsas se difunden más rápido que las verdaderas se ha repetido casi como un hecho incuestionable. Parte de esa percepción viene de estudios previos que mostraban cómo los bulos podían viajar más lejos y más rápido en redes sociales. Pero una investigación reciente introduce un matiz importante: esa ventaja no parece surgir de forma natural en las personas, sino del entorno digital en el que se mueven.
El trabajo, dirigido por el investigador Nicolas Fay en la University of Western Australia, analizó el comportamiento de más de 4.600 participantes en distintos escenarios controlados. La clave del experimento era simple: observar cómo se crean y comparten mensajes cuando no intervienen algoritmos ni sistemas de recomendación.
Sin algoritmos, la verdad funciona mejor de lo que se pensaba

Los resultados son bastante claros. Cuando los participantes redactaban mensajes para convencer o atraer a otros, los contenidos verídicos no solo no quedaban en desventaja, sino que eran considerados más persuasivos y más creíbles que los falsos.
Incluso en situaciones donde el objetivo era captar atención, la falsedad no ofrecía una ventaja clara. En muchos casos, generaba rechazo o resultaba menos eficaz a la hora de influir en la opinión de otros. Esto contradice una idea muy extendida: que lo engañoso se impone porque resulta más atractivo por naturaleza.
El estudio sugiere lo contrario. En ausencia de incentivos externos, las personas no tienden espontáneamente a priorizar la desinformación.
Entonces, ¿por qué las noticias falsas sí se viralizan en redes?
Ahí es donde entran los algoritmos. Las plataformas digitales no son entornos neutrales. Los sistemas de recomendación priorizan ciertos contenidos en función de métricas como la interacción, el tiempo de visualización o la reacción emocional que generan. Y ese tipo de lógica puede favorecer mensajes más polémicos, sorprendentes o extremos, independientemente de su veracidad.
Esto encaja con investigaciones anteriores, como el conocido estudio publicado en Science en 2018, que mostró cómo las noticias falsas se difundían más rápido en X (Twitter). La diferencia es que ese trabajo analizaba lo que ocurre dentro de la plataforma, mientras que el nuevo estudio intenta aislar cómo se comportan las personas fuera de ese sistema.
La conclusión no es que lo anterior sea incorrecto, sino que la viralidad no depende solo del contenido, sino del entorno que lo impulsa.
Compartir no siempre tiene que ver con creer
El estudio también aporta otro matiz relevante. La decisión de compartir un mensaje no depende únicamente de si es verdadero o falso, sino de factores como la emoción que provoca o su capacidad para generar interacción social.
En muchos casos, las personas comparten contenido porque refuerza vínculos, genera conversación o produce sorpresa. Eso explica por qué ciertos mensajes engañosos pueden circular con facilidad, incluso cuando no convencen del todo a quien los difunde.
A esto se suma el llamado efecto de verdad ilusoria, por el cual la repetición de una idea aumenta su apariencia de credibilidad, independientemente de que esté basada en hechos.
La IA añade una capa extra al problema

Otro punto interesante del estudio es la comparación entre textos escritos por personas y por inteligencia artificial. Los mensajes generados por modelos como GPT-3.5 fueron percibidos, en promedio, como más persuasivos y más compartibles, especialmente cuando se les pedía que fueran verídicos.
Esto abre un nuevo frente. Si las herramientas de IA pueden producir contenido convincente con facilidad, el desafío ya no es solo distinguir entre verdad y mentira, sino también entender cómo se construyen los mensajes que circulan en el entorno digital.
El problema no es solo qué se dice, sino cómo se amplifica
El estudio tiene limitaciones evidentes: se trata de un entorno controlado y no reproduce toda la complejidad de las redes sociales reales. Pero su valor está en separar dos cosas que a menudo se confunden: la psicología individual y el funcionamiento de las plataformas. Y ahí aparece una idea clave.
El problema de la desinformación no parece residir únicamente en que las personas prefieran lo falso, sino en que los sistemas digitales pueden amplificar ciertos contenidos por encima de otros. En ese contexto, la visibilidad deja de depender solo de la calidad o veracidad del mensaje y pasa a estar mediada por cómo los algoritmos priorizan lo que vemos.
Eso no elimina la responsabilidad individual, pero sí cambia el foco. Entender cómo circula la información en internet implica mirar no solo a quienes la crean o comparten, sino también a las estructuras que determinan qué llega a ser visible. Y en ese terreno, los algoritmos tienen mucho más peso del que durante años se quiso reconocer.