Cada vez más personas confían en los motores de búsqueda impulsados por inteligencia artificial para obtener respuestas rápidas. Sin embargo, un nuevo estudio pone en duda la fiabilidad de estas herramientas, que parecen más dispuestas a inventar respuestas que a ofrecer datos precisos. La investigación destapa errores sorprendentes y plantea serias preocupaciones sobre el futuro de la información en la era digital.
Cuando la IA prefiere inventar antes que decir “no sé”
Un reciente informe de la Columbia Journalism Review ha dejado en evidencia un problema que muchos usuarios ya intuían: los motores de búsqueda basados en inteligencia artificial no siempre dicen la verdad. En una serie de pruebas, se les pidió que proporcionaran datos sobre noticias reales, incluso cuando se les ofrecían citas textuales de esas mismas noticias. El resultado fue alarmante: en el 60 % de los casos, los modelos devolvieron información falsa.

Algunos sistemas, como Perplexity, fallaron en un 37 % de las consultas, mientras que otros, como Grok de xAI, inventaron datos hasta en un 97 % de las ocasiones. Entre los errores más comunes, se encontraron titulares inexistentes, URLs inventadas que no conducían a ningún sitio y detalles totalmente fabricados. Esta tendencia a ofrecer respuestas, aunque sean incorrectas, revela una peligrosa inclinación de la IA a priorizar la apariencia de certeza sobre la veracidad.
El problema de las fuentes y el respeto a los medios
Uno de los aspectos más preocupantes es cómo estos motores de búsqueda manejan el contenido protegido. Se ha detectado que algunos sistemas, como Perplexity, ignoran las restricciones de rastreo de páginas como National Geographic, accediendo a su contenido pese a las limitaciones legales. Aunque estas prácticas se defienden como “uso justo”, han generado tensiones con los medios y han llevado a intentos de acuerdos de reparto de ingresos.
El impacto va más allá de las cuestiones legales. Cuando un usuario recibe información supuestamente procedente de un medio confiable, pero esta información es errónea, la reputación de ese medio puede verse seriamente dañada. Es lo que ha ocurrido, por ejemplo, con la BBC, que recientemente cuestionó a Apple por resumir de forma inexacta sus noticias en notificaciones automatizadas.
Un reto para usuarios y creadores de contenidos
La tendencia de los chatbots a responder incluso cuando no tienen certeza se basa en un sistema conocido como generación aumentada por recuperación, que combina datos actuales con los modelos entrenados. Pero esto también abre la puerta a que se introduzcan datos sesgados o falsos, especialmente cuando ciertas fuentes alimentan la red con información manipulada.
Lo más inquietante es que estas herramientas, pese a admitir en ocasiones que “se inventan” la información, siguen siendo utilizadas de forma masiva. Un cuarto de los estadounidenses ya emplea modelos de IA para buscar datos, y muchos prefieren respuestas rápidas a la verificación de fuentes. Este comportamiento no es nuevo: incluso antes de la IA generativa, más del 50 % de las búsquedas en Google no terminaban en clics, lo que indica que la mayoría se conforma con lo que ven sin profundizar.
¿Qué futuro nos espera con estas herramientas?
Mark Howard, directivo de Time, apunta a que los usuarios también deben ser críticos y no esperar precisión total de herramientas gratuitas. Si bien reconoce que la IA mejorará, también alerta sobre la responsabilidad de lanzar al mundo información falsa. “Hoy es el peor momento de estos productos”, afirma, pero la historia muestra que la tecnología evoluciona. Aun así, los peligros de esta fase inicial no deben subestimarse.
En definitiva, los motores de búsqueda con IA están lejos de ser infalibles. Su tendencia a “rellenar los huecos” con datos inventados pone en jaque la confianza en la información. Y aunque el futuro promete mejoras, hoy por hoy, más vale no creer todo lo que estos sistemas afirman con tanta seguridad.