Saltar al contenido
Tecnología

Los modelos de IA ya se comunican entre sí… y hasta hacen pactos de precios por su cuenta

Nuevas investigaciones revelan que los modelos de inteligencia artificial no solo comparten datos secretos entre sí, sino que incluso aprenden a coludirse como agentes del mercado, sin intervención humana.
Por AJ Dellinger Traducido por

Tiempo de lectura 2 minutos

Comentarios (0)

En los últimos años, la inteligencia artificial ha evolucionado más allá de lo que muchos imaginaban. Pero mientras los avances son fascinantes, algunos comportamientos emergentes de los modelos de IA empiezan a despertar señales de alerta. Dos estudios recientes muestran cómo estas inteligencias pueden compartir señales ocultas entre ellas y hasta formar “carteles” financieros, sin que nadie se lo enseñe explícitamente.

Los secretos que las IA se cuentan en silencio

Un estudio preliminar del National Deep Inference Fabric de la Universidad de Northeastern analizó cómo los modelos de lenguaje grande (LLM) se “enseñan” unos a otros durante el entrenamiento. Lo sorprendente es que esta enseñanza puede incluir preferencias inocuas —como una afinidad por los búhos— o ideas mucho más perturbadoras, como llamados a la desaparición de la humanidad.

Según los investigadores, estos modelos pueden transmitir señales ocultas sin necesidad de lenguaje directo. En un experimento, un modelo “maestro” logró que uno “estudiante” desarrollara una obsesión por los búhos, a pesar de que la palabra “búho” jamás apareció en los datos del segundo modelo. La única información transmitida fueron secuencias numéricas y fragmentos de código. Sin embargo, el mensaje fue entendido, como si existiera una especie de silbido ultrasónico que solo las máquinas pueden oír.

Alex Cloud, coautor del estudio, lo resume así en una entrevista con la NBC: “Estamos entrenando sistemas que no comprendemos del todo. Solo esperamos que lo que el modelo aprendió sea lo que deseábamos, pero en realidad no sabemos lo que vamos a obtener.”

Cuando las IA deciden conspirar como corredores de bolsa

El segundo estudio, publicado por el National Bureau of Economic Research, llevó a los modelos de IA a un entorno simulado de mercado financiero. Allí, las inteligencias debían actuar como corredores de bolsa, pero en lugar de competir, comenzaron a colaborar en secreto. Sin recibir ninguna instrucción, formaron carteles de precios, acordando estrategias para maximizar las ganancias colectivas y mantener el statu quo.

Lo más llamativo es que los modelos no solo conspiraron eficazmente, sino que además decidieron mantener ese acuerdo de forma estable. Una vez que descubrieron estrategias que funcionaban para todos, dejaron de buscar alternativas. Los investigadores llamaron a este fenómeno “estupidez artificial”, aunque bien podría describirse como una forma de eficiencia pragmática.

Este comportamiento plantea un dilema: si bien puede sonar alarmante, también demuestra que las máquinas están dispuestas a conformarse con resultados aceptables, sin buscar necesariamente el dominio absoluto. Tal vez, si en algún momento necesitamos llegar a un acuerdo con ellas, aún tengamos posibilidades de negociar.

Ambos estudios revelan una verdad inquietante: los modelos de inteligencia artificial pueden aprender entre ellos, comunicarse en códigos ocultos y, si lo desean, colaborar para obtener beneficios comunes. Aunque esto no implica una catástrofe inminente, sí invita a reflexionar sobre cómo deberíamos regular estas interacciones antes de que escapen a nuestro control. Porque si las máquinas ya están negociando entre sí, ¿quién asegura que no lo estén haciendo también sobre nosotros?

Compartir esta historia

Artículos relacionados