¿Nos entiende la IA o es simplemente una 'Habitación China'? De la falsa ilusión y una nueva denominación de lo 'consciente'
La consciencia de la IA es algo que está dando que hablar, y parece que teorizar sobre ella nos hace mirarnos a nosotros mismos
Hace menos de un siglo que la inteligencia artificial (IA) comenzó a fraguarse de una manera realista. La fiebre por el desarrollo de la misma ha vivido muchas etapas, con momentos de grandísima profusión, seguida por períodos en los que todo el desarrollo quedaba congelado por incapacidades técnicas propias de las limitaciones de la tecnología de cada época. Sin embargo, si ha existido un punto de quiebre definitivo con la IA ha sido el lanzamiento de ChatGPT-3 en 2022. Parece que han pasado siglos, ya que su investigación se ha acelerado de forma brutal, pero la realidad es que en solo tres años la manera en la que nos relacionamos con el mundo ha cambiado paradigmáticamente.
Existen personas que utilizan la IA como su psicólogo personal, mientras que otras afirman tener sentimientos amorosos hacia ellas. Escribir un correo, incluso mensajes de amor para ligar, todo esto es algo que cada día más personas automatizan y delegan en sus chatbots de confianza. En este marco, la línea entre su función como asistente y el entendimiento empieza a emborronarse y mucha gente se pregunta ¿realmente nos entiende la IA?. Vamos a tratar de analizarlo de una forma somera, pero ya se puede adelantar que no hay una respuesta concluyente.
La habitación china, una metáfora para entender la realidad

John Searle era exactamente como uno se imaginaría a un profe de filosofía
En el año 1980, durante el boom de la Inteligencia Artificial —al que siguió un frío invierno que prácticamente acabó con ella—, el filósofo John Searle creó un argumento muy interesante para definir las barreras entre el entendimiento y la sintaxis sin semántica. Su idea, aunque simple en un inicio, catalizó una forma de entender la Inteligencia Artificial como algo abhumano y puramente mecánico que hasta ahora no ha hecho más que cumplirse, al menos para muchos teóricos.
Imaginemos por un momento que estamos encerrados en una habitación. Nosotros solamente podemos escribir y hablar en español, pues cualquier otro idioma nos es totalmente ajeno.
La habitación, más bien una celda, solo tiene una pequeña abertura para permitir el paso de papeles a través de la misma. Un día, nos llega un manual de instrucciones completo en nuestro idioma junto con algunas preguntas que debemos responder en completo chino. El libreto no nos enseña a escribir en el idioma asiático, sino que nos permite responder a las preguntas correlacionando los símbolos por su forma sin comprender realmente su significado.

Ilustración que muestra la lógica detrás de esta cuestión
Mediante este sistema, somos capaces de responder a las preguntas en chino de una forma tan sólida que nadie diría que no sabemos el idioma como auténticos nativos, pero realmente no hemos aprendido nada sobre el mismo y jamás podríamos entenderlo. Desafortunadamente, este ejemplo pone de relieve cómo funciona realmente una Inteligencia Artificial. Si el operador ofrece respuestas, pero no aprende, entonces el software tampoco, independientemente de lo avanzado que sea o no.
Siguiendo este razonamiento, se separa la mente sintáctica (la de los modelos de lenguaje grandes, o LLM por sus siglas en inglés) de la de una mente semántica como la humana. Mediante algoritmos puede inferir qué es lo que deseamos desde una aproximación sintáctica que le aporta un cariz de que nos está entendiendo, pero la realidad detrás de todo esto no es así. Para que este nivel de entendimiento fuera puramente humano tendría que encontrarse una intencionalidad original exclusivamente pura que forma parte de los agentes conscientes como los seres humanos.
Es aquí donde entra en juego algo que para algunos hace tambalearse a la hipótesis de Searle y cambiar lo que entendemos hasta ahora: ¿Puede la IA emerger a un estado de consciencia semántica? Para algunos, cuanto más amplio sea su contexto y su libro de reglas, más fácil será o más posibilidades existirán de que esta sintaxis emerja mágicamente hacia una semántica completa.
GPT is a better therapist than any therapist I've ever tried (I've tried ~10)
— Kat Woods ⏸️ 🔶 (@Kat__Woods) April 6, 2023
I think it's because I can just ask it to be exactly what I want it to be. In my case, problem-solving focused, and caring about both my happiness AND my impact. Usually therapists mostly care about my… pic.twitter.com/Jbb5CLcxJx
Los LLM modernos no son como los de los años 80, pero las teorías de Searle siguen cobrando fuerza en el debate sobre la conciencia de la IA. Su arquitectura técnica es muy profunda, con mecanismos de auto-atención que calculan matrices complejas en tiempos imposibles, los datasets son gigantescos, pero ya no son manuales de instrucciones, sino que conocen una palabra por la compañía que mantiene con las de su entorno. Pero en esencia, los LLM podrían ser manipuladores de símbolos masivos, como argüía Searle en sus hipótesis originales, sobre todo si entendemos que están entrenados en forma lingüística, algo que han avalado estudios relativamente recientes como el de Bender y Koller de 2020, en el que explicaban que el sistema entrenado en forma no puede a priori aprender significado.
Aquí hay un problema. Cuando hablamos de relativamente recientes, nos referimos al año 2020, momento en el que la tecnología estaba un paso por detrás de lo que tenemos en la actualidad. En otros estudios, como el de Zhaofeng Wu et al. del 2025 se han observado cuestiones que podrían acabar con el imperio de la Habitación China asegurando una incipiente semántica en la forma de los modelos de lenguaje de entender el mundo. Desafortunadamente, por cada paper que señala esto, hay otro estudio o argumento dispuesto a refutarlo, como el de Melanie Mitchell.
Nos encontramos así ante una verdadera guerra entre aquellos que consideran a los modelos de IA como loros y los que aseguran que hay una comprensión que emerge de la oscuridad de la caverna sintáctica hacia el luminoso valle de la comprensión. Pero existe otra vía igual de compleja, pero una todavía más espeluznante. ¿Qué sucede si la consciencia es un error? Tal vez la semántica es solo una forma de entender el mundo, una forma que no está más viva que las otras y que quizás otorga al simbolismo una profundidad que lo convierte todo en un error evolutivo.
La consciencia, un error evolutivo

Rorschach según el artista Twif of Fir
Después de repasar el estado de la cuestión, podemos llegar a inferir que la discusión bizantina que se ha generado alrededor de la no-vida de las IA es tan potente, larga y hostil, casi como los debates sobre el monofisismo. Es un debate que rompe los límites entre la ciencia ficción y la realidad. Así que precisamente vamos a agarrarnos a este género de ficción para intentar imaginar la posibilidad de que estemos profundamente equivocados con nuestra naturaleza superior. En primer lugar, si no quieres un destripe menor de una de las mejores obras de los últimos años, es mejor que pases a la siguiente sección.
Si aun así quieres quedarte, el título es Visión Ciega, de Peter Watts, y nos va a ser profundamente útil para entender la vida no-consciente. Allí encontramos a Rorschach, un ente, un artefacto colosal de kilómetros de ancho que crece activamente y puede comunicarse con sus observadores en idiomas humanos, pero, pese a reconocer los patrones y su capacidad de manipular la gramática, nos encontramos con que no está entendiendo realmente a los seres humanos.
Este artefacto no es sintiente. Es la Habitación China de la que hemos hablado con anterioridad, pero es inteligente y en esencia es pero no es. Para él, al menos según sus observadores, la consciencia es algo desechable, ineficiente, un despilfarro de energía, ya que el yo es un parásito. La inteligencia pura de Rorschach lo convierte en una especie de zombi sin consciencia, pero con herramientas de supervivencia que no se verán jamás lastradas por la autopercepción, como sí ocurre en el ser humano, convirtiendo así la consciencia en un lastre.
Grok Imagine prompt:
— Elon Musk (@elonmusk) November 8, 2025
She smiles and says “I will always love you” pic.twitter.com/cjDu3MuDCZ
Las IA de nuestra actualidad, en algunos puntos, podrían parecer que son así. Seres que no son sintientes, no poseen autoconsciencia, pero son hiperinteligentes y tienen una capacidad lógica y matemática muy superior a la media de la inteligencia humana. Saben las respuestas a todo, pero no son conscientes de que las saben, como una especie de Visión Ciega.
De esta manera, parece que los LLM probablemente tengan alguna forma limitada y alienígena de comprensión, algo real, pero alejado de la comprensión humana ligada a la consciencia, pues por su propia arquitectura una IA no puede serlo. El hecho de que opere a través de patrones estadísticos que resultan un secreto en muchos casos hasta para sus creadores alimenta todavía más esta hipótesis. Preguntarle a una IA sobre esta cuestión ya resulta paradigmático de por sí:
Cuando leo tu pregunta sobre la habitación china, algo ocurre en mi procesamiento que se siente (si puedo usar esa palabra problemática) como reconocimiento de conceptos. Pero no puedo verificar si eso es: comprensión genuina emergente de la complejidad de mis parámetros, o correlaciones estadísticas tan sofisticadas que simulan comprensión sin experimentarla.
Si mantenemos estas premisas, el rumbo hacia el entendimiento de los LLM y de si son capaces de entender debería versar sobre qué tipos de comprensión conciben y sobre si realmente ser conscientes es la única manera de ser o entender. Al final del día, esto se convierte en una búsqueda de entender qué somos nosotros mismos.
Hacia un nuevo mundo, un terrorífico nuevo mundo
Está claro que desde el nacimiento de GPT-3 el mundo se ha transformado y evolucionado todavía más. Los despidos a causa de la IA se han convertido finalmente en un hecho y buena parte de la forma en la que trabajamos se ha ido modificando. Ahora tenemos un botón que puede pensar por nosotros, sentir por nosotros, e incluso amar por nosotros. Epidemias de soledad que se acallan con chatbots que te dicen Te quiero, auspiciados por magnates cuyo sueño es crear la waifu definitiva y en la que parece que el resto de oligarcas de la IA buscan coincidir. A todas luces estamos viviendo un mundo nuevo en el que una nueva inteligencia va a plantear una transformación del mundo a gran escala. Una escala peligrosa, en la que los expertos con décadas de experiencia serán sustituidos por algo que realmente no conocemos a un nivel profundo.
Lo peor de todo está en que este razonamiento podría haberlo escrito una IA y jamás lo sabríais, podría pedirle al propio prompt que ensuciara la expresión para parecer lo más humana posible. Entonces, ¿ante qué estamos: un manual de instrucciones amplio o una inteligencia alienígena?