A medida que la inteligencia artificial se integra en el mundo académico, los riesgos ocultos de su uso comienzan a salir a la luz. Un simple error de lectura ha provocado la creación de un concepto falso que ya figura en investigaciones científicas y artículos, demostrando cómo una equivocación puede multiplicarse y consolidarse como «verdad». ¿Hasta qué punto podemos confiar en los sistemas automatizados?
Un error que se convirtió en ciencia: el nacimiento de un concepto ficticio

Todo comenzó con un fallo en la digitalización de textos. Un sistema de reconocimiento óptico de caracteres (OCR) malinterpretó una doble columna de un antiguo artículo académico de 1950, combinando dos palabras que no tenían relación: «vegetative» y «electron microscopy». El resultado fue «vegetative electron microscopy», o «microscopía electrónica vegetativa», un término que no existe en ningún campo de la ciencia.
Este error fue tan sutil como significativo. Al pasar a formar parte de bases de datos académicas, comenzó a alimentar otros sistemas, incluyendo modelos de inteligencia artificial, que lo asumieron como válido. Hoy, este concepto se encuentra citado en al menos 22 publicaciones científicas y varios artículos de divulgación. Un caso típico de lo que los expertos llaman «fósiles digitales»: errores que se perpetúan y cristalizan en el conocimiento digital.
De escaneo defectuoso a IA desinformada: la cadena del error

El origen del problema es casi anecdótico. El software de escaneo, al procesar un documento con formato de columnas, «leyó» erróneamente palabras en líneas diferentes como si formaran parte de la misma frase. Esa pequeña falla fue suficiente para sembrar un error que, una vez ingresado en las bases de datos, se volvió casi imposible de eliminar.
La magnitud de las bibliotecas digitales, sumada a la falta de transparencia de las empresas que las gestionan, dificulta cualquier intento de corrección. Incluso los investigadores más experimentados encuentran obstáculos para detectar y erradicar estos fallos, que, alimentando a otras IA, se reproducen como verdades.
El impacto en la ciencia: cuando la IA alucina

El uso de inteligencia artificial en la investigación tiene beneficios indiscutibles: optimización de tiempo, análisis masivos de datos, y descubrimiento de patrones ocultos. Sin embargo, como advierte Ignacio Spiousas, del Conicet, también implica riesgos importantes. La IA, al generar texto en base a probabilidades lingüísticas, no distingue entre realidad y error. Esto lleva a «alucinaciones», es decir, información inventada presentada con absoluta convicción.
Estas alucinaciones no son simples fallos de redacción. Pueden influir en futuras investigaciones, guiar experimentos por caminos erróneos, o desinformar a otros científicos y al público. Y lo más grave: son difíciles de detectar si no hay una supervisión humana constante.
Samuel Yossef, especialista en inteligencia artificial aplicada a la ciencia, destaca que estamos viviendo un cambio estructural. La IA ya interviene en la redacción de manuscritos, la revisión por pares, e incluso en la generación de nuevas hipótesis. Pero advierte: “La IA no tiene criterio. Puede sugerir caminos, pero no debe decidir. La responsabilidad debe seguir siendo humana”.
El caso de la «microscopía electrónica vegetativa» es un llamado de atención. Aunque la tecnología puede acelerar procesos y democratizar el acceso al conocimiento, también puede arrastrar errores y amplificarlos de forma silenciosa. La vigilancia crítica y ética se vuelve imprescindible.
¿Qué hacer frente a estos errores digitales?
Para evitar la proliferación de falsos conceptos, los expertos proponen medidas concretas: mejorar la calidad de los datos de entrenamiento, exigir transparencia a las empresas tecnológicas, y reforzar la revisión humana en cada etapa del proceso científico. Las bases deben ser sólidas, porque una grieta, por mínima que sea, puede deformar todo el edificio del conocimiento.
En definitiva, la inteligencia artificial es una herramienta poderosa, pero ciega. Puede potenciar la ciencia, pero también desvirtuarla si no se la usa con precaución. El desafío está en mantener la lucidez ante sus limitaciones, y no dejar que su velocidad nos haga perder de vista la verdad.
[Fuente: La Nación]