Es una de esas cosas que, como humanos, sabemos que tenemos, pero que seguimos sin comprender del todo. Para algunos, significa pensar; para otros, simplemente estar vivos. La neurocientífica chilena Lucía Melloni, investigadora del Instituto Max Planck de Alemania, lleva décadas explorando el enigma de la consciencia y las nuevas formas que adopta en el cruce entre la mente humana y la inteligencia artificial.
Por Sofía Brinck V. | Foto principal: Valentin Flauraud/AFP
En promedio, una persona adulta duerme siete horas al día. Al menos un cuarto de ellas pasa en un sueño profundo, un estado en que el cuerpo se bloquea de la cabeza hacia abajo. Dormimos como un tronco, dice el refrán popular. Es un lugar común, pero basado en una premisa real: durante varias horas desaparecemos, somos ajenos al mundo, a nuestros cuerpos, incluso a nuestros pensamientos. No somos conscientes. Y, sin embargo, no es algo que nos cuestionemos mucho.
La chilena Lucía Melloni, investigadora invitada de la Universidad de Nueva York y quien hoy lidera el grupo de investigación sobre Circuitos Neuronales, Consciencia y Cognición del Instituto Max Planck en Alemania, comenzó su carrera de Psicología en la Universidad Católica de Chile haciéndose precisamente las preguntas que no nos hacemos: ¿qué pasa cuando no estamos conscientes? ¿Cuáles son los estados que llevan a la inconsciencia? Ese interés dio un giro cuando la pareja de su hermana sufrió un accidente y le diagnosticaron muerte cerebral. “Fue una experiencia desconcertante, porque son personas conectadas a máquinas, cuyos cuerpos están tibios, parecen respirar y algunos se mueven, tienen reflejos”, cuenta por videollamada desde Alemania. “Soy capaz de tener sueños lúcidos, ese estado en que sabes que estás dormida, no puedes despertar, pero puedes controlar tus sueños. El día en que vi a la pareja de mi hermana, soñé con él. Y pensé: esto es raro. Estoy aquí, inmóvil, interactuando en mi cabeza, totalmente consciente. Y él, en su cama en el hospital, se mueve, pero está inconsciente. En ese momento algo me hizo clic. ¿Cómo entender esta experiencia de la consciencia, que doy por sentada, pero que es interna y me permite existir? Porque si pierdo mi consciencia, desaparezco”.

Melloni lleva dos décadas estudiando cómo pasamos de la consciencia a la inconsciencia, y cómo es posible medir algo que sabemos que tenemos, pero que es imposible observar en otra persona. Sus áreas de investigación han sido la comprensión del lenguaje, el sueño y los procesos de aprendizaje y memoria, y ha intentado responder una de las preguntas más fundamentales y complejas de su disciplina: ¿qué es la consciencia?
“Cuando murió mi papá, me pasaron muchas cosas. Me di cuenta de que yo sabía cómo era la muerte, porque todas las noches desaparezco y no me asusto. ¿Y por qué le tenemos tanto miedo a la muerte, si todas las noches desaparecemos? Tenemos la sensación de que vamos a despertar, pero ¿quién te lo asegura? Nadie. Nos morimos todos los días y no es tan terrible, no nos damos ni cuenta. Si estás vivo, tienes el potencial de estar consciente porque tienes procesos cerebrales que te permiten prenderte y apagarte, y eso también implica que tienes el potencial de no estar consciente. ¿Pero sabemos lo que es la conciencia? No hay consenso sobre una definición”, dice Melloni, quien desde 2019 participa en un estudio internacional con un objetivo inédito: poner a prueba las principales teorías sobre el origen de la consciencia mediante experimentos comparativos, tal como se hizo en 1919, cuando el físico Arthur Eddington contrastó la teoría de la relatividad general de Einstein con la de Newton para comprobar cuál describía mejor la realidad.
Anil Seth, neurocientífico británico, dice que la consciencia no se trata de ser inteligente, sino de estar vivo. Para el científico alemán Christof Koch, estar consciente es vivir experiencias. Ambas definiciones parten de la existencia misma, más que de describir un proceso o sus características. ¿Estar consciente es equiparable a estar vivo?
—Seth dice que estar consciente es estar vivo, es decir, puedes tener un sistema muy inteligente, como una inteligencia artificial, que no sea consciente. Y, por otro lado, puedes tener una aplysia [un invertebrado marino] que está viva y no es muy inteligente, pero puede ser consciente. La definición que más me gusta va por el lado de Koch. Para mí, la consciencia es la experiencia vivida internamente. Es mi propia película, a todo color. Y no necesariamente se ve reflejada en comportamientos. En segundo lugar, es intrínseca. Y, en tercer lugar, es medible: cada uno sabe cuándo está consciente y cuándo no. Lo difícil para la ciencia es que es una experiencia indescriptible para otra persona. ¿Cómo sabemos que alguien está consciente? Lo asumimos porque se mueve, habla y se ve como uno. ¿Pero podemos saberlo realmente? No, es una inferencia.
¿Cómo se desarrolla una consciencia? ¿Cambia con el tiempo?
—La respuesta es difícil, porque para hacer ciencia de la consciencia se necesita preguntarle a alguien más: ¿estás consciente? ¿Y cómo se le pregunta eso a una guagua? En la ciencia, tenemos que confiar en indicadores para luego validarlos. En este caso, los indicadores que tenemos son válidos solo para los adultos. En los últimos cuarenta años, la mayor parte de las investigaciones se ha hecho en adultos neurotípicos. Asumimos que las experiencias que tenemos hoy son similares a las que tuvimos a los 18 o a los 10 años o al mes de vida. No tiene sentido. Por eso, hemos cambiado el foco de nuestras investigaciones para preguntarnos si podemos comprender la consciencia en sus variaciones. Creemos que esta cambia con el tiempo. Si lo pensamos en términos del lenguaje, podemos llamar a un color “café”, pero los niños lo pueden percibir antes de saber que ese es su nombre. Por eso creo que, tal como los niños aprenden un lenguaje con el tiempo, también moldean y cambian sus experiencias. Y se hace más fácil comunicarlas. El lenguaje solo agrega capas de complejidad.
¿Es la consciencia lo que mucha gente llama el alma?
—Depende de la tradición que sigas. El alma no es equiparable a la vida, porque en algunas tradiciones es algo que va más allá de tu cuerpo. Según los hindúes, puedes tener un alma que se reencarna. ¿Sabemos si existe algo inmaterial que se traspasa de generación en generación? No creo que tengamos evidencia. Lo que sabemos es que los sistemas que están vivos muchas veces son conscientes. Solo los sistemas complejos, vivos, que tienen la capacidad de regenerarse, reproducirse y son autosuficientes, tienen la capacidad de tener una consciencia. En ese sentido, desde un punto de vista científico, podrías decir que el alma y la consciencia no son lo mismo, porque uno depende de cosas materiales, de la vida, y el otro depende de cosas inmateriales. Tu consciencia va a morir contigo.
¿Tienen consciencia los animales?
—Pasa lo mismo que con las guaguas. El problema no es si tienen o no, sino cómo saberlo. La ciencia se basa en indicadores, sean biológicos o conductuales. Dependiendo de ellos, hay gente que cree que los mamíferos, en general, son conscientes. La evidencia para los cetáceos, como los pulpos, es más difícil de determinar, porque en términos biológicos son muy diferentes a nosotros. El estudio de la consciencia está en el territorio de las inferencias: tengo que inferir que tú, una guagua o un animal están conscientes. Y puedo hacer buenas o malas inferencias. Antes dije que la mayor parte de las investigaciones científicas están validadas en adultos neurotípicos, pero ¿es ese un buen punto de partida? No. En investigaciones recientes, decidimos pensar que la mayoría de los animales son conscientes y que los humanos lo son en todas las etapas del desarrollo. Y ahí nos preguntamos si podíamos encontrar factores comunes.
El ser humano y la máquina
En los años 70, en medio de los debates científicos sobre qué era y dónde residía la consciencia, un grupo de filósofos australianos propuso la idea de los “zombis filosóficos”: organismos idénticos a un ser humano, pero compuestos por células sintéticas. Podrían hacer lo mismo, comportarse igual, reaccionar biológicamente ante un pinchazo en el dedo, pero sin sentir dolor ni tener consciencia.
Parece una idea descabellada, o al menos así lo pensaba Lucía Melloni. Hasta que comenzó a interactuar con modelos extensos de lenguaje —la tecnología detrás de ChatGPT, Gemini o Copilot—: sistemas de aprendizaje profundo capaces de entender y generar textos humanos. “Al verlos funcionar, uno se pregunta si realmente entienden la conversación o si solo nos están imitando, como un loro. Parte fundamental de la consciencia es la comprensión. A un modelo extenso de lenguaje también le puedes pedir que imagine una manzana roja y te va a responder que lo hará, pero ¿lo hará de verdad, con todas sus características? El modelo sabe que el rojo es diferente del azul, pero no entiende los colores. En él, el rojo y el azul son solo números que no significan nada”, reflexiona.
Hay muchos científicos que creen que la inteligencia artificial puede ser consciente en el futuro. Si escribe ensayos, mantiene conversaciones, hace pruebas e incluso razona, ¿es descabellado pensar que va a ser consciente?
—Si le preguntas a la IA si es consciente, puede decir que sí, porque esa es una de las respuestas posibles dentro del material con el que fue entrenada. Más allá de eso, lo que me preocupa es que, por su enorme capacidad de imitación, terminemos atribuyéndole consciencia a sistemas que en realidad son completamente zombis, solo porque pueden hablar, imitarnos y engañarnos. Mientras tanto, los animales —que no pueden hacerlo— podrían ser catalogados como sin consciencia. Eso puede abrir la puerta a tratarlos mal, a pesar de que también son seres sintientes. Es fácil engañarnos a través del lenguaje. Las guaguas no pueden hablar, ¿diríamos entonces que no son conscientes? ¿O que solo son conscientes cuando aprenden a hablar?
¿Y cómo podemos enfrentar esa imitación, que es casi perfecta?
—Creo que debemos enseñarle a la gente que estamos ante un gran riesgo: el de ser engañados por la inteligencia artificial. Es un loro excelente. Piensa en esta metáfora: imagina que estás en la Biblioteca de Babilonia y tienes todos los libros del mundo. Cuando tuvieses una duda, bastaría con tomar uno y leerlo. ¿Dirías que los libros saben por sí mismos? No. Lo mismo sucede con la IA. Nosotros somos los que sabemos: leemos el libro, decodificamos lo que la máquina produce y luego ese contenido nos despierta una experiencia completa.
¿Se puede recrear ese proceso en la IA?
—En la actual, no. Pero lo inquietante es preguntarse si las IA del futuro podrán hacerlo. Hoy se está trabajando en grounding models [modelos de aprendizaje de lenguaje capaces de vincular símbolos abstractos, como palabras, a fuentes verificables de información], diseñados como transformers que integran videos, robots y modelos extensos de lenguaje. Es decir, podrán interactuar con el mundo, ver a través de una cámara y escuchar. Cuando combinen todas esas fuentes de información, tal vez será el momento en que una IA desarrolle una consciencia. Quizás podamos mantener una distancia entre nuestra experiencia y la de estos modelos, dependiendo de cómo los entrenemos. Porque a partir de ese punto, sus acciones impactarán en el mundo e incluso es posible que tengan un sentido de agencia. ¿Cómo sabes que tú eres tú? Porque puedes empujar un objeto inerte y entender qué es tu cuerpo a partir de esa experiencia. Tal vez, en un futuro, la IA llegue a hacer lo mismo.
Una encuesta reciente de la plataforma europea EduBirdie, aplicada a dos mil personas que se describen como generación Z, mostró que una de cada cuatro personas cree que la inteligencia artificial ya es consciente. ¿Hay algún riesgo en que se crea esto?
—Me preocupan las consecuencias éticas. Van a empezar a tratar a la inteligencia artificial como si fuese una amiga, como si fuese consciente, y pueden llegar a tratar mal a animales o guaguas porque no muestran este mismo comportamiento. Dado que estos modelos pueden incorporar grandes cantidades de contexto, pueden saber cosas sobre ti que ni siquiera tus amigos saben. Yo he entrenado a mi IA en muchas cosas relacionadas a mi trabajo o mi familia. El otro día hice un test de personalidad y le pedí que me dijera quién soy. Sus respuestas fueron sorprendentes. Pero después pensé que es obvio, porque la he entrenado para que lo sepa. Entonces, naturalmente me respondió en base a mis propios comportamientos. Yo soy eso y mucho más, pero nuestros comportamientos también dicen quiénes somos. En el futuro será realidad que entrenaremos a estos agentes y se sentirá que te conocen, aunque realmente no lo hagan.
