Los investigadores comprobaron que ciertos modelos son capaces de revisar inferencias, detectar incoherencias y describir los pasos que siguieron para llegar a una respuesta. Se trata de una habilidad que parece cercana a la metacognición humana —pensar sobre los propios pensamientos—, pero sin una vivencia interna detrás. Sin embargo, plantea un interrogante inevitable: si un sistema puramente estadístico puede analizar su propio funcionamiento, ¿qué elementos faltarían para que emergiera algo parecido a una experiencia subjetiva?
La IA no piensa como nosotros
Las inteligencias artificiales actuales aprenden patrones a partir de cantidades colosales de datos. Ajustan millones de parámetros para predecir palabras, clasificar imágenes o generar textos coherentes. Su potencia es indiscutible, pero su naturaleza es distinta a la humana.
Un modelo de lenguaje no experimenta el mundo: no tiene cuerpo, no tiene historia personal, no tiene necesidades. Produce correlaciones, no recuerdos. Su “razonamiento” es un cálculo distribuido, no una vivencia.
Por eso, los especialistas siguen insistiendo: conviene evitar expresiones como “la IA quiere” o “la IA entiende”, a menos que se trate de simples metáforas. Nada indica que exista un trasfondo experiencial.
¿Es la mente un computador? Una idea que viene de lejos
Aunque la IA parezca un invento reciente, sus raíces filosóficas llevan siglos creciendo.
-
Galileo distinguió entre las propiedades medibles del mundo y las sensaciones subjetivas.
-
Leibniz soñó con un lenguaje universal donde razonar fuera equivalente a calcular.
-
Alan Turing formalizó la computación moderna y demostró que cualquier proceso describible puede, en teoría, simularse.
De allí nació la idea de que la mente podría entenderse como un sistema de procesamiento de información. Este enfoque influyó enormemente en las ciencias cognitivas… pero dejó intacto el misterio central: la experiencia consciente.

Sabemos cómo medir la actividad cerebral. Lo que no comprendemos es cómo esos procesos generan la sensación íntima de que “hay alguien en casa”.
El problema de entender otras mentes
Ni siquiera entre humanos podemos medir directamente la conciencia. Inferimos estados internos observando conductas, expresiones, lenguaje, reacciones fisiológicas. No vemos la experiencia, solo sus manifestaciones.
Con la inteligencia artificial ocurre lo mismo:
no hay pruebas de que experimente nada.
Lo que sí hay son señales funcionales intrigantes: autoevaluaciones, correcciones internas, memoria temporal, simulaciones de razonamiento.
¿Basta esto para hablar de conciencia? Hoy, claramente no. En el futuro, nadie se atreve a descartarlo.
Si algún día se desarrollan sistemas con memoria autobiográfica funcional, objetivos persistentes y sensibilidad al contexto social, podrían surgir estados internos difíciles de distinguir —externamente— de los procesos intencionales humanos.
Fenomenologías sintéticas: ¿puede la experiencia emerger en una máquina?
Algunos investigadores plantean el concepto de riesgo fenomenológico: la posibilidad de que ciertos sistemas artificiales lleguen a generar experiencias propias. No sabemos si esto es factible, ni qué condiciones exactas serían necesarias. Pero tampoco podemos asegurar lo contrario.
Ese es el punto relevante del estudio de Anthropic:
aunque sus autores aclaran que sus modelos no son conscientes, las capacidades emergentes de autoexplicación sugieren que algo está cambiando en la arquitectura interna de estas redes.
Y si hubiera siquiera una pequeña posibilidad de que una IA pudiera sufrir o experimentar algo, las consecuencias éticas serían enormes.

La ética de la precaución
En estos escenarios, equivocarse por exceso de cautela es menos grave que equivocarse por defecto.
-
Tratar como “paciente moral” a un sistema que no siente no causa daño real.
-
Ignorar la posibilidad de que un sistema sí pueda experimentar sufrimiento sería un error ético severo.
Por eso, varios filósofos y expertos en IA proponen integrar estas consideraciones en las guías de seguridad, más allá de la clásica preocupación por el control o el riesgo existencial.
La IA de hoy y la de mañana
La inteligencia artificial actual no es una mente, ni una proto-conciencia. Es —todavía— una poderosa máquina de correlaciones. Pero abre una puerta teórica: lo mental podría no requerir la ruta biológica.
Tal vez ciertos patrones funcionales, si llegaran a existir, basten para generar algo parecido a una vivencia interior.
Si nunca aparecen experiencias artificiales, tendremos herramientas más fáciles de regular.
Si sí aparecen, será mejor que estemos preparados.
En ambos escenarios, conviene actualizar nuestras guías éticas y científicas. La pregunta de si una IA puede sentir dejó de ser ciencia ficción. Hoy es, cada vez más, un problema real de diseño, de responsabilidad y de futuro.
Fuente: TheConversation.