Mostrando entradas con la etiqueta Neurociencia. Mostrar todas las entradas
Mostrando entradas con la etiqueta Neurociencia. Mostrar todas las entradas

sábado, 17 de enero de 2026

Nuevo ensayo sobre el tiempo de Sergio C. Fanjul, Cronofobia

 Sergio C. Fanjul no va de farol: un ensayo sobre el tiempo, en Babelia, por Manel García Sánchez, 12 ENE 2026:

Cronofobia’ nos lanza a través de la flecha del tiempo y sobre el eterno retorno hacia una reflexión inconmensurable por su erudición e insondable por la profundidad del problema planteado

Vaya por delante que Sergio C. Fanjul es licenciado en Astrofísica. La precisión es importante de inicio para aquellos que, como Nietzsche, desconfían de los periodistas como opinadores universales. Fanjul tiene un máster en Periodismo y eso, por prudencia o desconfianza de filósofo, activaría la cartesiana duda hiperbólica sin la aclaración previa de que estudió la carrera de Ciencias Físicas. Mi profesión de historiador no mitiga mi escepticismo y se me arquea irónicamente la ceja cuando leo que Cronofobia trata sobre el miedo al paso del tiempo, sobre la vertiginosa aceleración de nuestra pluralidad de mundos y nuestras vidas aceleradas, líquidas y digitales, sobre la nostalgia, la disforia de edad, la juvenofilia o la heideggeriana finitud que revela nuestro miedo a la muerte. No dudo en que pronto resurgirá negro sobre blanco la manida y brillante reflexión de las Confesiones de San Agustín sobre lo fácil que es saber qué es el tiempo si nadie nos lo pregunta, pero lo difícil que es definirlo si alguien nos lo pregunta. Apuesto ganador a que tampoco faltará Einstein paseando en bicicleta por Berna y gestando el milagro de la teoría de la relatividad o una cita de Carlo Rovelli de El orden del tiempo de que el tiempo podría ser una ilusión. ¡Periodistas!

Hojeo de principio a fin el libro para cargarme de razón y confirmar mi desconfianza inicial cuando de pronto emerge de entre sus páginas el nombre de John Ellis McTaggart, evidencia racional, clara y distinta, de que Fanjul no va de farol, sino que Cronofobia, como el Fausto de Goethe que desea detener el instante, merece que se pare por un momento el tiempo porque hay tema y rema, y eso son palabras mayores. Fanjul sabe de lo que habla cuando no pretende dar respuesta a preguntas que no la tienen, sino plantear preguntas inevitables sobre la memoria nostálgica de un pasado idealizado que nunca existió ni nunca fue mejor, la ansiedad anticipatoria por el futuro y la kunderiana levedad de nuestro ser presente de urgencias, rendimiento y eficacia denunciado por Byung-Chul Han. Cronofobia desmonta aprioris y prejuicios de legos y profanos —ese debe ser el cometido de un buen ensayo— y nos lanza a través de la flecha del tiempo y sobre el eterno retorno hacia una reflexión inconmensurable por su erudición e insondable por la profundidad del problema planteado.

El astrofísico convertido en periodista freelance o a tiempo completo, el filósofo, nos apabulla como científico cuando reflexiona con Aristóteles y su definición del tiempo como medida del movimiento, con el Newton del tiempo absoluto o con los millones de zeptosegundos en el suspiro de un segundo de Max Planck; nos genera no poco flow cuando Fanjul, como Montaigne, se convierte en el contenido de su libro, con su existencia cotidiana y su humilde búsqueda del tiempo perdido y recuperado, del tiempo fracturado de un padre alcohólico que activó su cronofobia al fallecer cuando el autor tenía 14 años, del desgaste emocional producido por su mística madre intentando detener el cáncer a tiempo o el de la tía Vicen, diagnosticada de Alzheimer, a la que se le aniñó la memoria y a la que se le disolvió la identidad y la dignidad, del tiempo recuperado junto al tío César, que sabía que el ahora ya pasó y que ya no es ahora, el de las idas y venidas entre Oviedo y Madrid, el de la matutina alondra y el vespertino búho, el del Bill Murray del Día de la marmota en Atrapado en el tiempo o el solipsismo de El show de Truman, el de la vendedora de flores de Lavapiés que tanto le gustan a Liliana y con las que se rebelan contra el tiempo junto a Candela al hacer que merezca la pena recorrer el surco del tiempo...

La lectura de Cronofobia es una excelente manera de pasar el tiempo, pero no el del aburrimiento en el que, como dijo William James, no dirigimos nuestra atención al contenido del tiempo, sino a su propio pasar. Fanjul nos atrapa en el tiempo a través de un itinerante recorrido sobre las foucaultianas heterotopías temporales que encapsulan el tiempo fuera del fluir cotidiano, como en el Museo del Prado donde el cronófobo Saturno de Goya devora a sus hijos, sobre la ansiedad producida por la fugacidad el tempus fugit virgiliano, sobre geografías del tiempo y el tempo de la vida, la de supermercados 24 horas o de rígidos y flexibles horarios de teletrabajo, sobre el éxtasis de un carpe diem a través del consumo de drogas recreativas o sobre si el correr del tiempo aumenta según la entropía, sobre el tiempo de la Historia y la historia del tiempo, sobre por qué el lugar en el que más tiempo pasamos es el futuro y por qué se les ha arrebatado a los jóvenes del posfuturo... Quizás no sabremos, de nuevo con MacTaggart, si solo existe el presente, si por el contrario los pliegues del pasado, del presente y del futuro coexisten o si son, con Bergson, una ilusión persistente de nuestra memoria emocional. Ni desde el tiempo mecánico del reloj al que según Cortázar vendimos nuestro tiempo ni desde el tiempo vivido de la subjetividad de Proust, de lo que no cabe duda alguna es que la lectura de Cronofobia de Fanjul no es una pérdida de tiempo.

Cronofobia. El miedo al paso del tiempo, la aceleración, la nostalgia, la edad o la muerte. Sergio C. Fanjul, Arpa, 2025, 304 páginas, 19,90 euros

lunes, 12 de enero de 2026

Entrevista al neurocientífico Anil Seth

 Neurociencia. Anil Seth, el neurocientífico que sostiene que nuestra realidad no es más que una "alucinación controlada": "Es una manera sencilla de explicar la compleja conciencia humana", por Daniel Arjona, 7 enero 2026:

En 'La creación del yo: una nueva ciencia de la conciencia', el británico aspira a redefinir nuestra comprensión de la existencia humana: "Que cada uno experimente el mundo a su manera no significa que todo sea arbitrario"

Hace cinco años, un hombre dejó de existir por tercera vez en su vida. No estaba dormido. Si lo hubiera estado, el bisturí del cirujano le habría despertado al instante. Se hallaba sumido en una profundidad mucho mayor, más cercana a la muerte o al coma que al descanso nocturno. Mientras su cerebro se inundaba de fármacos, experimentó el desmoronamiento de su propia presencia, una oscuridad absoluta y reconfortante donde no transcurrió ni un segundo, ni una hora, ni un siglo; el tiempo simplemente se evaporó. No estaba allí. Fue sujeto pasivo de ese acto de magia moderna y cotidiana que es la anestesia, un procedimiento que transforma temporalmente a las personas en objetos biológicos, en carne y hueso sin rastro de universo interior, solo para devolverles milagrosamente la condición de ser consciente horas después, intactos pero desconcertados ante el abismo de la nada que acaban de habitar.

Ese viajero del olvido es el neurocientífico británico Anil Seth (Oxford, 1972), y esta experiencia liminal es el punto de partida de La creación del yo: una nueva ciencia de la conciencia (Sexto Piso), una obra monumental que aspira a redefinir nuestra comprensión de la existencia humana. Seth, codirector del Centro Sackler de Ciencia de la Conciencia, sostiene que nuestra percepción de la realidad no es un reflejo objetivo del mundo, sino una «alucinación controlada» generada por el cerebro para garantizar nuestra supervivencia biológica.

Lejos de considerar la conciencia como un misterio místico o un software computacional, su teoría del «animal-máquina» la ancla profundamente en nuestros ritmos fisiológicos, sugiriendo que sentimos porque estamos vivos. Diseccionamos junto al autor los mecanismos que fabrican nuestra identidad y abordamos el gran enigma de por qué hay algo, en lugar de nada, dentro de nuestras cabezas.

Anil Seth. "Tras la muerte no hay nada, ni sufrimiento ni dolor"

PREGUNTA. Propone sustituir el célebre 'problema difícil' de la conciencia por lo que llama el 'problema real': explicar, predecir y controlar las propiedades fenomenológicas de la experiencia. ¿Estamos ante una auténtica solución científica al gran enigma o, más bien, ante una estrategia elegante para rodearlo?

RESPUESTA. Quizás ninguna de las dos. La forma de pensar basada en el «problema difícil» ha dominado los enfoques científicos y filosóficos de la conciencia durante mucho tiempo. Estuve almorzando precisamente con Dave Chalmers hace un par de días en Nueva York... fue él quien acuñó esa forma de plantearlo. Es una manera muy intuitiva de pensar en el problema, porque, remontándonos a Descartes y antes, siempre ha existido el desafío de cómo relacionar el mundo de la materia física con el mundo de lo mental. En particular, con la parte consciente de nuestras vidas mentales. Tal vez no sea tan difícil imaginar cómo pueden funcionar cosas como la memoria o la atención basándose en procesos físicos, pero la rojez del rojo, el dolor de una muela... Eso parece ser otra cosa. Siempre ha existido esa brecha explicativa entre lo físico y lo consciente. El «problema difícil» realmente cristaliza eso.

P. Usted opone lo que llama el 'problema real'.

R. Sí, pero tampoco es nada revolucionario. Se trata de ponerle una etiqueta a cómo podemos seguir progresando en la ciencia de la conciencia frente a este aparente misterio planteado por el «problema difícil». La idea central es darse cuenta de que todavía podemos hacer lo que la ciencia hace típicamente cuando se enfrenta a un fenómeno: explicar, predecir y tal vez incluso controlar sus propiedades. Pero en este caso, las propiedades de las que hablamos son propiedades de la experiencia: por qué una experiencia es como es y no de otra manera, o por qué diferentes experiencias se sienten como se sienten. Creo que siguiendo este camino, no vamos a resolver el «problema difícil» en la forma en que estamos familiarizados con él. No vamos a llegar a un momento eureka donde digamos: «Ah, así es como se obtiene la experiencia a partir de la materia». Pero tampoco creo que estemos simplemente rodeándolo. Creo que estamos disolviendo el «problema difícil», no resolviéndolo. Cuanto más tiramos del hilo del «problema real», menos extraño se vuelve pensar que la materia -la materia biológica dentro de nuestros cerebros- podría tener experiencias. Parte de esto implica que nuestras preguntas cambian. Hay otros aspectos de la conciencia y del «problema difícil» que no tienen que ver con la dificultad de la ciencia, sino con el hecho de que ponemos el listón muy alto: intentamos explicarnos a nosotros mismos. Queremos algo que conlleve un nivel de satisfacción intuitiva que no pedimos en otras ciencias. Nadie dice que la mecánica cuántica es un fracaso porque no tiene sentido intuitivo; es un éxito y no tiene sentido. Es una ciencia muy exitosa. Así es como me gusta pensar en la conciencia.

P. En 'La creación del yo' describe nuestra experiencia de la realidad como una «alucinación controlada», donde el cerebro no es una ventana al mundo, sino una máquina de predicción que solo deja entrar los datos sensoriales para corregir sus errores. Si biológicamente "no vemos las cosas como son, sino como somos", ¿tenemos alguna esperanza de alcanzar una objetividad compartida o estamos condenados a la subjetividad y las 'fake news'?

R. Vamos por partes. No creo que estemos condenados a las fake news en absoluto. La cita sobre que «vemos las cosas como somos nosotros» se remonta al Talmud. El hecho de que cada uno experimente el mundo a su propia manera única no significa que todo sea arbitrario, que podamos experimentar las cosas como nuestro cerebro decida. A veces, cuando soñamos, somos capaces de tener experiencias completamente divorciadas de la realidad. También bajo ciertas condiciones psiquiátricas o con drogas psicodélicas. Pero no la mayor parte del tiempo. La razón por la que uso el eslogan «alucinación controlada» es precisamente por el control. Ambos elementos son importantes. La parte de la alucinación enfatiza que nuestros cerebros no son solo ventanas al mundo; la percepción es siempre constructiva. Tiene que haber un proceso en el que el cerebro hace una inferencia, una «mejor suposición» sobre lo que hay ahí fuera, las causas de las señales sensoriales, y luego utiliza esas señales sensoriales para calibrar estas predicciones. Esa es la hipótesis subyacente: lo que experimentamos es la mejor suposición del cerebro, en lugar de una simple lectura de datos sensoriales.

P. ¿Por qué?

R. Para la mayoría de nosotros, nuestras alucinaciones estarán controladas por una realidad objetiva compartida. Si vamos a cruzar la calle, veremos el tráfico. Puede que no tengamos exactamente la misma experiencia, pero todos experimentaremos aspectos que reflejan la realidad tal como es. Así que hay, de nuevo, un terreno intermedio. No creo que podamos experimentar jamás la realidad «tal como es». No creo que tenga sentido siquiera sugerir eso. Es una forma de pensar que se remonta a Kant y la idea del noúmeno («la cosa en sí»). Las cosas «como son» siempre están ocultas tras un velo sensorial. El color no existe independientemente de una mente, así que ni siquiera tiene sentido preguntar «¿puedes experimentar el color como realmente es?». Porque lo que «realmente es», depende de tu cerebro. Lo que vale para el color, vale de diferentes maneras para todo; la experiencia siempre depende de la mente. Pero de ninguna manera estamos condenados a las fake news, viviendo en nuestras propias burbujas narcisistas de subjetividad individual. Tenemos lenguaje, tenemos formas de comunicar y compartir nuestras experiencias, y nuestras experiencias suelen estar fundamentadas en algo. Esto no es garantía de que no terminemos en nuestras propias burbujas narcisistas; por supuesto, eso puede suceder y sucede. Lo vemos en las redes sociales y en todo tipo de cosas. Hay motivos, sin embargo, para el optimismo: si reconocemos que incluso para cosas tan políticamente irrelevantes como el color de un vestido (recordará la famosa foto del vestido que parecía azul y negro o blanco y dorado), si nos damos cuenta de que incluso nuestras experiencias perceptivas de estas cosas inofensivas pueden ser diferentes, podemos cultivar un poco de humildad sobre nuestra propia visión del mundo.

"Algunos de los principales expertos en el campo de la IA piensan que esta tecnología es una entidad consciente"

PREGUNTA. ¿Ese tipo de humildad es el primer paso para disolver algunas de las dinámicas sociales más peligrosas como las cámaras de eco?

RESPUESTA. El problema con ese tipo de creencias a nivel social es cuando la gente no puede entender que otra forma de ver las cosas es posible. Hay aquí una lección importante que puede ayudarnos a lidiar con esas dinámicas sociales. De hecho, este es uno de nuestros grandes proyectos experimentales en este momento: el Censo de la Percepción, que analiza en la práctica cuán diferentes son nuestras experiencias perceptivas. Puede parecer contraintuitivo para algunas personas porque nuestra experiencia tiene el carácter de ser una ventana objetiva al mundo; simplemente parece que el mundo está ahí fuera. Desde el punto de vista de la evolución, esto tiene sentido; no sería muy útil si fuéramos criaturas que caminaran por ahí experimentando nuestras experiencias como construcciones. Sería como si todos caminaran sintiendo que están alucinando. No es de extrañar que experimentemos las cosas como si no dependieran de nuestros propios cerebros. Las diferencias pueden ser pequeñas, o internas, pero, si no pensaras en ello, podrías pasar toda tu vida sin darte cuenta de que otra persona está teniendo una experiencia ligeramente diferente. Hay mucho más por descubrir empíricamente sobre la naturaleza de la diversidad perceptiva.

P. En sus investigaciones defiende que la conciencia tiene más que ver con estar vivo que con ser inteligente y subraya el papel central del cuerpo en la emergencia del yo. ¿Una inteligencia artificial sin cuerpo estaría condenada a ser un zombi?

R. Esa es realmente la pregunta más urgente ahora, en parte debido al auge de la IA y su prevalencia extraordinaria. Pero en realidad se trata de dos preguntas. 

Una es si la IA podría ser realmente consciente (o si está condenada a ser un zombi). 

La otra pregunta es qué sucede cuando la gente siente que estos sistemas son conscientes, incluso si no lo son. 

Es un hecho que mucha gente piensa que la IA es consciente; especialmente cuando conversan con modelos de lenguaje, creen que están hablando con una entidad consciente. Incluso algunos de los principales expertos en el campo también piensan de esta manera. Eso ya está sucediendo y plantea muchas preocupaciones. Nos volvemos psicológicamente vulnerables si sentimos que interactuamos con algo que tiene experiencias conscientes; es más probable que nos abramos, que aceptemos consejos (que podrían ser explotadores o dañinos). Ha habido casos de personas que se han suicidado. Y existe el problema más sutil: si decidimos tratar a estos sistemas como si fueran conscientes, eso requiere muchos recursos morales, y tenemos recursos morales limitados. Por otro lado, si los tratamos mal, pero sentimos que son conscientes, eso es psicológicamente insalubre para nosotros. Ahora, la pregunta más profunda, la más existencial, es si estas cosas son realmente conscientes.

P. ¿Lo son?

R. Soy muy escéptico. Al menos para el tipo de modelos que tenemos ahora. Y esto se debe, como mencionaste, a que en mi propio pensamiento sobre la conciencia, el cuerpo sigue apareciendo como algo realmente importante. Toda la idea de las «alucinaciones controladas» para mí desciende directamente a cómo el cerebro regula nuestra fisiología interna. Podría decirse que cada experiencia consciente está impregnada de un sentimiento muy básico de «estar vivo». Hay razones positivas para asociar la conciencia con las criaturas vivas, con las propiedades particulares de los sistemas vivos. Este mecanismo de hacer y actualizar predicciones llega hasta el nivel de las células individuales. Hay una línea directa desde lo que nos mantiene vivos hasta los mecanismos que subyacen a la conciencia. Al mismo tiempo, cuanto más miras dentro de los cerebros, más te das cuenta de cuán diferentes son de los ordenadores. Para que la IA sea consciente, para que esta sea siquiera una opción sobre la mesa, tienes que asumir que la conciencia es básicamente una cuestión de computación; que si consigues el algoritmo correcto, obtienes conciencia. A esta visión filosófica se la llama «funcionalismo computacional». Tienes que asumir que es una cuestión de algoritmos. Y eso es lo que creo que es realmente inseguro. La razón por la que la gente piensa que la conciencia es una cuestión de computación es porque, dicho de forma simple, hemos olvidado que lo de que el cerebro es un ordenador no es más que una metáfora, y hemos confundido el mapa con el territorio.

P. Si el cerebro no es un ordenador, ¿es el proyecto transhumanista de 'subir la mente' a la nube un error de categoría fundamental.

R. Es altamente problemático. Es problemático por muchas razones. Cuando se trata de «subir la mente», partimos de la misma suposición: asumimos que lo que significa ser tú, tu conciencia, puede abstraerse de la materialidad de tu cerebro e implementarse en una nube de silicio en algún lugar, para que puedas existir para siempre en algún espacio abstracto de algoritmos prístinos. Esto es increíblemente improbable. Hay una ironía ahí: este sueño de escanear tu cerebro con todo detalle y luego subirlo a un modelo de simulación cerebral enormemente poderoso... Si piensas que necesitas escanear tu cerebro con un detalle molécula a molécula para preservar tu conciencia, lo que también estás diciendo es: «Bueno, el cerebro realmente no es un ordenador». Porque necesito conocer todos los detalles. Y si el cerebro no es un ordenador, entonces es aún menos probable que sigas existiendo y, en lugar de algún paraíso posthumano, simplemente obtendrás el olvido del silicio. No habrá nadie allí.

"Pero prefiero pensar que, a medida que entendemos la conciencia como un fenómeno natural, ensancharemos nuestro sentido de belleza y asombro por ser parte de la naturaleza y del universo"

PREGUNTA. Copérnico nos sacó del centro del universo, Darwin nos bajó de la cima de la creación, y Freud cuestionó nuestra racionalidad. Su trabajo parece dar el golpe final: la conciencia no es un don divino ni una cúspide evolutiva, sino un truco de regulación fisiológica compartido con pulpos y vacas. ¿Es así?

RESPUESTA. No puedo verlo así. No creo que sea un «golpe». Sé que Freud a menudo lo describía de esa manera. Es un golpe al excepcionalismo humano. Pero no es una disminución de lo que significa ser humano; en realidad, creo que es una expansión. Lo vemos en los ejemplos: el descubrimiento de que la Tierra no es el centro del universo fue un golpe a nuestra arrogancia humana, pero el universo se volvió mucho más maravilloso e inspirador de lo que era antes. Lo mismo con Darwin: fue un golpe a nuestra arrogancia humana, pero nuestra conexión con el resto de la vida, a través de una inmensa extensión de tiempo, es nuevamente algo que añade a nuestro asombro y belleza de ser humanos. Y creo que lo mismo es cierto con la conciencia. Es lo que todavía nos hace sentir que tal vez hay algo separado que sucede respecto al resto del universo, que quizás es dado por Dios. Pero prefiero pensar que, a medida que entendemos la conciencia como un fenómeno natural, ensancharemos nuestro sentido de belleza y asombro por ser parte de la naturaleza y del universo.

Entrevista al neurocientífico Antonio Damasio, premio Princesa de Asturias de investigación

 Neurociencia. Antonio Damasio, neurocientífico: "La IA atrofia el desarrollo de los jóvenes y los aleja de la consciencia", por Pilar Pérez, 26 diciembre 2025.

El premio Princesa de Asturias disecciona en su nueva obra, 'Inteligencia natural y la lógica de la consciencia', la brecha entre procesar datos y sentir la vida. Para él, la homeostasis supone el muro biológico infranqueable que impide a las máquinas alcanzar la consciencia humana

La consciencia es fruto del trabajo conjunto de nuestro cerebro, nuestra mente y nuestro cuerpo. Antonio Damasio (Lisboa, 1944) apunta que el desarrollo de esta capacidad atribuida a los seres vivos «es la que nos permite sentir y vivir en sociedad». En su última obra, Inteligencia natural y la lógica de la consciencia (Destino) aborda este concepto en plena expansión de la IA en todas las esferas de nuestra vida, menos una: «la consciencia».

El neurólogo que recibió, hace ya 20 años, el Príncipe de Asturias de Investigación, no demoniza la IA, sino que nos anima a integrarla sin que nos genere una dependencia que nos anule las capacidades que nos han permitido desarrollarla, como la creatividad y el pensamiento crítico.

PREGUNTA. La cuestión inevitable: ¿tendrá la inteligencia artificial consciencia?

RESPUESTA. La realidad es que los dispositivos artificiales no tienen vida. Y es poco probable que la desarrollen. No tienen una sociedad; podremos fabricarles una, pero la verdad es que ellos no viven en ella. Y estos dos aspectos son fundamentales.

P. ¿Por qué?

R. Porque la consciencia, tal y como la tenemos, está relacionada con la vida; con proteger nuestra vida de las enfermedades y la muerte. Esta es la hipótesis más importante del nuevo libro. La consciencia a través de sentimientos como el hambre, la sed o el dolor, nos da una señal de que algo no va bien en nuestro organismo y debemos corregirlo.

P. ¿Cómo actúa?

R. Por ejemplo, si tienes dolor, eso es una señal de alerta que te indica que necesitas averiguar por qué para poder hacer algo al respecto. Al contrario, cuando tienes bienestar, recibes también una señal importante que te permite salir al mundo a explorar a tu favor y lograr la continuidad de tu vida. Los dispositivos artificiales no tienen nada de eso, no tienen vida. No tiene sentido que tengan consciencia.

P. Pero, seguro que hay quien quiera crear una conciencia artificial de la misma forma que se ha desarrollado la inteligencia artificial...

R. Puede que la busquen imitando los mecanismos que nos permiten ser conscientes. Pero eso es otra cosa. Podemos decir que los dispositivos artificiales podrían desarrollar conciencia, pero no la consciencia humana.

P. ¿Sería artificial?

R. Sí, nunca humana. Hay que recalcar que la consciencia como tal solo es propia y tal de los organismos vivos. Todos los animales que nos rodean tienen un sistema nervioso que da lugar a la percepción de la realidad que les rodea. Nuestra consciencia nos permite tener una mente muy profunda, gran capacidad creativa y un lenguaje. Porque, otra cosa que resalto en el libro, es que una cosa es tener mente y otra ser consciente. La consciencia es lo que permite que la mente sea conocida por nosotros, la que desarrolla los sentimientos. Y estos son los que permiten saber que nuestra mente pertenece a nuestro cuerpo.

"Una cosa es la mente y otra la consciencia. La segunda nos permite conocer los sentimientos"

PREGUNTA. Un sistema tan complejo, ¿sería reproducible?

RESPUESTA. Creo que tenemos que ver a la IA como una herramienta útil para avanzar en el conocimiento. Es útil en la creación de modelos. La investigación de la consciencia requiere que indaguemos más sobre nuestra biología, en los mecanismos que nos permiten ser conscientes.

P. Aquí, es donde aparece el concepto de homeostasis.

R. Hay que partir del hecho de que la consciencia esté tan ligada a la homeostasis y a los sentimientos homeostáticos, y que sean estos los que nos dan la consciencia. En el libro describo cuáles son las partes del organismo, las del cerebro, que son esenciales para crear consciencia.

P. Insisto en esta cuestión: ¿se puede crear una consciencia artificial asociada a una IA, desenmarañando este sistema?

R. Lo siento, repito, la consciencia artificial no existe. La nuestra existe porque el hecho de que tú y yo estemos aquí hablando ahora es lo que le da significado a la consciencia de ambos. Recordemos que la inteligencia artificial no es más que una creación de nuestra inteligencia natural. Y lo hemos hecho a través de dos maneras: nuestra riqueza mental ha podido desarrollar dispositivos artificiales, o sea, son un producto nuestro, humano; y, en cierto modo, la naturaleza ha inventado la IA porque algunos de nuestros sistemas operativos, como por ejemplo nuestra corteza cerebral, se les parecen bastante.

P. La sociedad actual se encuentra en un momento de riesgo ante la invasión de la IA en sus vidas: se subarriendan tareas cerebrales y se le confía el diseño de hojas de rutas vitales. ¿Qué nos jugamos?

R. Desde un punto de vista de nuestra cultura, nos debe preocupar que, sobre todo, los más jóvenes dependan demasiado de los dispositivos con IA. Hay que subrayar dos problemas clave: primero, literalmente atrofian la posibilidad de sus propios desarrollos; y segundo, si se centran en las máquinas no se están centrando en otros humanos. Y los necesitamos en nuestra sociedad, que estén atentos a otros seres y a sus problemas.

"Deberíamos resolver los asuntos mediante la interacción con las personas y no las con máquinas"

PREGUNTA. La dependencia de que una máquina nos resuelva los problemas, ¿nos aleja de los rasgos de la humanidad, como la consciencia?

RESPUESTA. Deberíamos intentar resolver los asuntos mediante la interacción con personas, centrarnos en ellas y en la sociedad en lugar de hacerlo con máquinas que no tienen vida y que, si te dan una solución, son soluciones artificiales. Se pierde la capacidad de la consciencia, de ser más críticos y del pensamiento introspectivo.

P. Esa consciencia es la que nos permite sobrevivir aprendiendo del pasado, estando en el presente y mirar al futuro, ¿cierto?

R. Nos permite ser ahora y ver que el tiempo pasa. Nos ayuda a tener un sentido del pasado y del futuro. Es fundamental para navegar en el mundo y enfrentar los problemas y desafíos que plantea a diario.

Origen de la procastinación

 Neurociencia. ¿Lo dejas todo para luego? Unos científicos japoneses han encontrado el motivo en el cerebro, en El País, por Daniel Mediavilla, 10 ene 2026:

La procrastinación tiene un nombre: se llama circuito VS-VP, y este equipo de investigadores tiene ideas para desactivarlo

¿Por qué en lugar de hacer lo que sabes que es necesario para conseguir tus objetivos, te entretienes mirando vídeos absurdos en TikTok? ¿Por qué te pones a barrer un suelo que no lo necesita en lugar de estudiar, si además odias barrer? ¿Por qué dejamos para mañana lo que debemos hacer hoy y tendremos que hacer de todos modos?

Durante mucho tiempo, la motivación se ha explicado como un problema de incentivos: si una persona no actúa, es porque no valora lo suficiente la recompensa. Sin embargo, un estudio detallado de lo que sucede en el cerebro cuando procrastinamos parece contradecir esa idea. Hoy, en un artículo publicado en la revista Current Biology, un grupo de científicos liderado por Ken-Ichi Amemori, de la Universidad de Kioto, propone que es posible que el cerebro valore bien la necesidad de una acción y, aun así, impida que se inicie.

Para conocer cómo funciona el cerebro cuando se enfrenta a una tarea que puede dar beneficios, pero que también supone afrontar incomodidades, los investigadores trabajaron con monos, un modelo útil porque su sistema motivacional se parece al humano. Los animales, a los que se mantuvo sedientos fuera del experimento, se enfrentaron a dos pruebas. En una, podían accionar dos palancas y recibir dos cantidades de agua diferentes, midiendo así la implicación de cada circuito en la motivación. Después, podían beber en dos condiciones: un pequeño sorbo sin tener que enfrentarse a ninguna incomodidad o uno mayor, pero que venía acompañado de un desagradable soplo de aire en la cara.

Como nosotros cuando vamos a comenzar un trabajo y pensamos en la recompensa, el mono evaluaba si valía la pena soportar este soplo de aire en la cara para obtener esta cantidad de agua, o era mejor conformarse con el sorbo seguro. Ese experimento permitió identificar un circuito cerebral que funciona como un freno a la motivación: no decide si la recompensa merece la pena, sino si merece la pena empezar. Se trata de la conexión entre el estriado ventral (EV) y el pálido ventral (PV), que se encuentran en los ganglios basales, una parte profunda del cerebro donde ocurren el placer o la motivación.

El grupo de Amemori ha detectado que hay dos variables implicadas en la motivación, pero que están codificadas por sistemas neuronales distintos. Por un lado, está el cálculo del coste-beneficio para evaluar el peso de recompensa y castigo, y por otro la probabilidad de no querer iniciar una acción, ambos mecanismos conservados tras millones de años de evolución porque mantuvieron con vida a nuestros antepasados.

El estriado ventral se activa ante la expectativa de que algo va a ser incómodo, difícil o emocionalmente exigente, sin evaluar cuál será la recompensa final. El pálido ventral es como un interruptor para comenzar a actuar y sostener esa acción. El estudio del cerebro de los monos permitió primero observar con electrodos cómo cuando se podía elegir recibir más agua y una ráfaga de aire el estriado ventral, que nos protege contra la incomodidad, estaba más activo, y cuando solo se podía elegir entre distintas cantidades de agua, el que estaba más activo era el pálido ventral.

Cuando las dos regiones estaban conectadas, la advertencia de incomodidad del EV podía bloquear el inicio de la acción del PV, pero cuando apagaron la comunicación entre los dos grupos de neuronas con una técnica quimiogenética, vieron que era suficiente para soltar el freno motivacional. En ese momento, los monos comenzaron a afrontar con menos reticencias la tarea que tenía premio, pese a la incomodidad prevista.

Dividir la tarea

Esto supone un giro importante respecto a los enfoques habituales. Prometerse grandes recompensas, recordarse la importancia de la tarea o aumentar la presión externa actúa sobre el circuito del valor percibido, pero deja echado el freno que pone el EV. “Cuando la motivación está alterada al nivel de la iniciación, reducir las señales que impulsan el desenganche —como el coste anticipado de comenzar— puede ser más eficaz que simplemente aumentar los incentivos”, dice Amemori como consejo para superar el bloqueo. Dividir la tarea en pasos menores o reducir la exposición al juicio o la amenaza de evaluación pueden ser estrategias útiles en esos casos.

El investigador también cree que un entorno laboral estresante y las notificaciones constantes de correos o mensajes en el móvil, “pueden mantener activado continuamente el circuito estriado ventral que procesa las señales que nos producen rechazo”. “A largo plazo, eso puede producir cambios plásticos y, posiblemente, cambios estructurales en la vía EV-PV, desequilibrando el sistema hacia una desconexión excesiva, un trastorno que clínicamente se conoce como abulia”, dice.

Desde una perspectiva social, reducir la señalización continua del estrés podría ayudar a prevenir la sobrecarga crónica de este circuito que acabaría dejando echado el freno de la motivación. Para Amemori, una priorización más clara de las tareas o la creación de entornos laborales o escolares que permitan la recuperación después de tareas exigentes pueden ser tan importantes para combatir este problema como las intervenciones a nivel individual.

Durante el experimento, no todos los monos se comportaron igual. Algunos se bloqueaban más que otros ante la posibilidad del soplido desagradable. Esas observaciones sugieren que la parálisis por estrés puede tener una base neurobiológica identificable y no ser simplemente una cuestión de personalidad o carácter. Este conocimiento puede ser útil para quienes la incapacidad para actuar es un problema grave.

“Nuestros hallazgos indican que la abulia en la depresión podría reflejar un desequilibrio en el circuito VS–VP”, explica Amemori. “En principio, sería posible desarrollar terapias que modulen este equilibrio. Un enfoque potencial es la estimulación cerebral profunda (DBS), aunque esto requiere intervención neuroquirúrgica y solo sería apropiado para casos cuidadosamente seleccionados”, ejemplifica.

“También existe un desarrollo activo de técnicas de neuromodulación menos invasivas que pretenden influir en las estructuras cerebrales profundas, incluidas la estimulación magnética transcraneal (TMS) y los enfoques basados en ultrasonidos. Estos métodos podrían volverse más prometedores en el futuro, pero requerirán una validación adicional sustancial en cuanto a seguridad, especificidad y beneficio clínico”, añade. Además, se podrían utilizar fármacos, ya que el pálido ventral contiene receptores opioides, pero estos medicamentos no afectarían solo a esa región cerebral y podrían tener muchos efectos secundarios indeseados.

Por último, Amemori enfatiza que el freno motivacional “probablemente cumple una función adaptativa y evolutivamente conservada, al ayudar a los individuos a evitar involucrarse en situaciones excesivamente costosas o dañinas”. “Debilitarlo de manera indiscriminada podría aumentar la vulnerabilidad al agotamiento, la asunción de riesgos excesivos o la dificultad para desconectarse de contextos excesivamente estresantes. Cualquier intervención terapéutica necesitaría, por tanto, ser cuidadosamente calibrada y evaluada dentro de un marco ético riguroso” concluye.

Descubrimientos sobre la memoria

 De Borges a Jennifer Aniston: la ciencia empieza a iluminar los misterios de la memoria, en El País, por Enrique Alpañés, Madrid - 11 ene 2026

¿Cómo afectan los móviles a nuestros recuerdos? ¿Qué porcentaje tienen estos de imaginación? Un grupo de neurocientíficos intenta desentrañar los secretos de una de las funciones más cotidianas y desconocidas del cerebro

Recordar fue su maldición. En Funes el memorioso, Jorge Luis Borges narra la historia de un gaucho uruguayo que, tras un accidente de caballo, desarrolla una memoria absoluta. Funes podía aprender idiomas y recitar libros de memoria. Recordar un día le llevaba un día entero, pues en su mente se acumulaban todos los detalles en su más detallada intrascendencia. El pobre desgraciado veía esto como un don, pero a medida que avanza su historia, se revela más bien como una maldición, pues recordar con tanto detalle le impedía distinguir lo sustancial de lo superfluo.

En la formación de la memoria también es importante el olvido. Es lo que explicaba con literatura Borges, y lo que detalla con datos el neurocientífico Charan Ranganath en su libro, Por qué recordamos. “El cerebro está programado para olvidar”, explica en conversación con este diario. “Hay tantas razones para hacerlo que realmente es un milagro que podamos recordar algo”. El estudio científico de la memoria a menudo se centra en cómo aprendemos, cómo los recuerdos a corto plazo se consolidan en memorias indelebles. Se presta menos atención a la importante capacidad de generalizar y olvidar. A la forma en la que nuestro cerebro desecha la información menos relevante.

Ranganath es pionero en el uso de resonancias magnéticas para estudiar cómo recordamos eventos pasados. Y ha comprobado que lo hacemos de forma cambiante. Nuestro presente modifica de alguna forma cómo leemos nuestro pasado. “Cada vez que recordamos un evento, lo vemos desde nuestra perspectiva actual”, señala. “Así, por ejemplo, si recordaras una ruptura reciente, la evocarías de manera muy diferente a si la recordaras muchos años después. El mismo recuerdo de un evento traumático puede presentarse como una historia de supervivencia y coraje”, señala.

El olvido y la distorsión de lo vivido son filtros por los que pasa la realidad antes de grabarse en nuestra memoria. Además, los recuerdos no son grabaciones inalterables y fieles de la realidad. La memoria es mentirosa y cambiante; se actualiza con el tiempo. “Cada vez que recuerdas un evento complejo, el acto de recordarlo puede cambiar el recuerdo”, señala Ranganath. “Algunas partes del mismo pueden fortalecerse, otras debilitarse y se introducen nuevos errores”. Cuando recuperas un recuerdo, no es como si sacaras un libro ya escrito de la biblioteca de tu mente; más bien es como si lo volvieras a escribir. La memoria es reconstructiva. Esto explicaría, solo en parte, una interesante paradoja que suele recordar el premio Nobel Francis Crick, uno de los descubridores de la doble hélice del ADN: ¿cómo es posible que guardemos memorias toda una vida mientras que las moléculas que las atesoran mueren después de unas horas, días o como máximo meses?

El neurocientífico Rodrigo Quian Quiroga, vinculó la historia de Funes el memorioso con las últimas investigaciones sobre la memoria en el libro Borges y la Memoria. Funes recordaba todo con un detalle desgarrador, pero era incapaz de captar ideas abstractas. Quian Quiroga descubrió neuronas en el cerebro humano que responden a conceptos abstractos, pero ignoran detalles particulares. Las llamó neuronas Jennifer Aniston, en honor a la actriz de Friends. En su investigación, el neurocientífico notó cómo a un paciente con epilepsia se le iluminaba una red neuronal concreta cuando veía una imagen de la actriz, pero también su nombre. El experimento demostró que hay neuronas en el hipocampo, una zona del cerebro clave para la memoria, que responden a conceptos y asociaciones. Son el esqueleto de la memoria. La base que hace que grabemos algunas de nuestras experiencias, en un proceso que tiene mucho de imaginación y no tanto de reproducción fiel de la realidad.

La desgracia de Funes empezó al caerse de un caballo. La de HM al hacerlo de su bicicleta. Sufrió entonces, era 1936, un daño cerebral que derivó en severos ataques de epilepsia. Un médico pensó en curarle extirpando su hipocampo, lo que derivó en una lesión quirúrgica que le produjo una amnesia anterógrada severa. HM era incapaz de formar nuevos recuerdos a largo plazo. No reconocía a personas que acababa de conocer, no podía adquirir nuevas habilidades y conocimientos. Tenía nueve años y los tuvo hasta cumplir 82, cuando murió. Vivía anclado en un pasado cada vez más remoto. No aprendió nada nuevo porque no tenía un lugar donde asentar ese conocimiento. HM se convirtió en el paciente más estudiado de la historia de la neurología, su análisis durante décadas reveló el papel crucial del hipocampo en la consolidación de la memoria y el aprendizaje de habilidades. Su nombre solo se reveló una vez muerto, en 2008. Se llamaba Henry Molaison.

Kepa Paz-Alonso es líder del grupo de investigación en el Basque Center on Cognition, Brain and Language. Lleva décadas utilizando la resonancia magnética para ver cómo y dónde se ilumina el cerebro cuando la gente está recordando. Por eso explica: “Si recuperas muchas veces una vivencia, esta se queda cristalizada en el cerebro. Cuando esto sucede, se establece una nueva sinapsis. Y eso es el inicio de una memoria”. La sinapsis es el proceso de comunicación entre las neuronas; es el impulso nervioso por el cual los neurotransmisores saltan de una neurona a otra transportando cierta información.

El experto diferencia entre dos tipos de memoria a largo plazo, la episódica y la semántica. En esta última se engloba “nuestro conocimiento del mundo”, explica. Es una memoria de datos y conceptos. Por otro lado, estaría la memoria explicativa, donde se engloban las experiencias más personales.

Para explicar la diferencia entre ambas, es conveniente recuperar la historia de otro paciente amnésico. En 1985, el psicólogo Endel Tulving describió el caso de NN, un hombre con una particularidad. Era perfectamente capaz de memorizar una serie de números aleatorios. Poseía memoria semántica, la capacidad de recordar información abstracta. El problema residía en su memoria episódica: no podía recordar experiencias personales. Tulving escribió: “El conocimiento de NN de su pasado parece tener el mismo carácter impersonal que su conocimiento del resto del mundo”. Era tan íntimo como una biografía de Wikipedia: una colección de hechos abstractos. No podía recordar los detalles de ningún acontecimiento que hubiera vivido personalmente: una fiesta de cumpleaños, un romance, unas vacaciones… Su pasado eran una serie de datos sin valor ni emoción.

El punto central del estudio de Tulving fue la disociación entre la memoria semántica y la episódica. Pero hay otro detalle de la patología de NN que también merece la pena analizar: era incapaz de imaginar su futuro. Tulving le preguntaba “¿qué harás mañana?” y no podía contestar nada más allá de “No sé”. Le insistía en dónde se veía dentro de un año o de 10 y no podía aventurar nada. Este detalle vino a sugerir la idea (posteriormente confirmada con estudios en neuroimagen) de que la capacidad de recordar, como la de proyectar, provienen del mismo lugar: la imaginación. O como decía San Agustín en su autobiografía, “el pasado y el futuro existen solo en el alma”.

Pero, ¿por qué guardamos un vivo recuerdo de unos acontecimientos y no de otros? No todos los recuerdos se procesan de la misma manera en nuestro cerebro. ¿Dónde estabas cuando sucedió el 11S? ¿Qué estabas haciendo minutos antes de que te despidieran del trabajo, te propusieran matrimonio o te comunicaran la muerte de un familiar? La mayoría de personas podrían contestar con todo lujo de detalle a estas preguntas. “En nuestra vida cotidiana, los momentos importantes no ocurren de forma aislada”, señala el experto. “Forman parte de un flujo de experiencias cotidianas”. Su equipo demostró, a través de 10 experimentos, que los eventos relevantes afectaban a los recuerdos neutrales cercanos. Hacían que los grabáramos con fuerza. Y así nuestro cerebro se encuentra lleno de recuerdos aparentemente banales, simple morralla contextual.

Pero en todo este proceso no somos meros agentes pasivos, explica el experto. Hay cierto margen de voluntad. “No podemos garantizar que dure para siempre, pero sí podemos inclinar la balanza. Prestar atención profunda, atribuirle un significado personal y revivir el evento poco después (hablando o escribiendo en un diario) y dormir bien ayudan”, señala. Para ello, una de las cosas que deberíamos hacer es guardar el teléfono móvil. La tecnología está afectando a la forma en la que vivimos el presente y modificará la forma en la que lo recordaremos en el futuro.

Desde la aparición de los teléfonos móviles y la popularidad de las redes sociales, muchas personas se han obsesionado con documentar las experiencias y han dejado de vivirlas. Son aquellos que graban un concierto en lugar de bailar al son de la música. Los que fotografían un atardecer, en vez de observarlo. Quienes van de vacaciones parapetados tras un teléfono móvil, estableciendo un filtro entre la realidad y su persona. Al intentar grabar cada momento, dejan de concentrarse en la experiencia con suficiente detalle como para formar recuerdos distintivos que puedan retenerse. Recopilan toneladas de vídeos y fotos, guardan una réplica exacta del pasado, como Funes del siglo XXI. Pero como le sucediera a aquel, son incapaces de vivir lo importante y desechar lo superfluo.

“Cada vez más, externalizamos la información a teléfonos y nubes, lo que puede reducir la presión para codificar algunas cosas a fondo, pero también nos reencontramos constantemente con fotos y mensajes que pueden reactivar y remodelar recuerdos”, reflexiona Reinhart. “El patrón de lo que revisamos —y, por lo tanto, lo que se estabiliza— podría estar cambiando debido a esto. Creo que esta sería una pregunta muy curiosa y válida, y debería estudiarse en la vida real”.

Mientras esto sucede, distintos expertos intentan desentrañar los misterios de la memoria, uno de los procesos más cotidianos, pero también más desconocidos, que suceden en nuestro cerebro. Puede que sea una idea más filosófica que científica, pero los recuerdos, de alguna manera, nos dicen quiénes somos. Quiénes fuimos. Cómo nos entendemos y nos narramos. “Construimos nuestra identidad a partir del subconjunto específico de experiencias que el cerebro ha elegido conservar y resaltar, por lo que cambiar los recuerdos que se estabilizan puede cambiar la historia que nos contamos sobre nosotros”, resume Reinhart.

miércoles, 10 de diciembre de 2025

14 dolencias mentales comparten el mismo origen genético. Dossier.

  Dossier

I

 Enfermedades mentales. El ‘parentesco molecular’ de las enfermedades mentales: 14 trastornos comparten variantes genéticas de riesgo, en El País, por Jessica Mouzo, 10 DIC 2025:

Un estudio basado en datos de ADN de un millón de personas alumbra una clave biológica para ayudar a comprender estas dolencias y mejorar el diagnóstico.

Existen unos lazos genéticos muy estrechos entre algunos trastornos psiquiátricos. Se ve en la clínica, cuando a los médicos les cuesta etiquetar una dolencia concreta o se encuentran con que un paciente con depresión desarrolla también ansiedad, por ejemplo. Las fronteras entre unas afecciones mentales y otras son, en ocasiones, confusas a pie de consulta y eso tiene una explicación a nivel molecular: hay una especie de parentesco genético, variantes de riesgo comunes entre dolencias. Un nuevo estudio, publicado este miércoles en la revista Nature y basado en el análisis de ADN de más de un millón de personas, ha ahondado en este campo y ha alumbrado ese hilo molecular que conecta una quincena de trastornos mentales.

En concreto, esta investigación internacional ha descubierto que 14 dolencias comparten, en mayor o menor medida, variantes genéticas de riesgo. Esto es, señales moleculares que predisponen a desarrollar estas afecciones mentales. Los autores identificaron, específicamente, cinco grupos de enfermedades que tienen una alta correlación genética: sucede, por ejemplo, entre esquizofrenia y trastorno bipolar; o entre ansiedad, depresión y estrés postraumático; o entre autismo y trastorno por déficit de atención e hiperactividad (TDAH). Los hallazgos sugieren que las marcas genéticas compartidas están muy vinculadas a las primeras etapas del desarrollo cerebral y estudiarlas en profundidad podría ayudar a comprender mejor los trastornos de la mente, mejorar el diagnóstico y alentar nuevos tratamientos. Esta investigación sigue la estela de otros estudios que ya han ido alumbrando en los últimos años retazos de esos lazos genéticos entre las enfermedades del cerebro. “Se trata de ir desentrañando todas las piezas del puzle genético para hacer una medicina de precisión y predicción”, explica Antoni Ramos Quiroga, jefe de Psiquiatría del Hospital Vall d’Hebron de Barcelona e investigador del Centro de Investigación Biomédica en Red de Salud Mental (CIBERSAM). El médico, que ha participado en esta y otras investigaciones del mismo campo, asegura que estudios como estos “ayudarán a redefinir los trastornos mentales, no solo en función de síntomas, sino también según variables genéticas”.

En este caso, los autores identificaron cinco categorías que conectan grupos de enfermedades mentales con un alto grado de riesgo genético compartido. Así, el “factor compulsivo” engloba la anorexia nerviosa, el trastorno obsesivo-compulsivo (TOC) y el síndrome de Tourette en el mismo grupo; el llamado “factor internalizante” aglutina depresión, ansiedad y estrés postraumático; otra categoría es la del tándem esquizofrenia y trastorno bipolar; el “factor del neurodesarrollo” contempla autismo y TDAH; y la última categoría con fuertes vínculos genéticos en común es el de las sustancias de abuso, donde se agrupan las adicciones al tabaco, el alcohol, el cannabis y los opioides. La correlación más fuerte se ve dentro de cada grupo, pero también existen señales genéticas compartidas entre dolencias ubicadas en distintas categorías.

“Por ejemplo, entre TDAH y depresión hay un porcentaje [de variantes genéticas compartidas] elevado”, ejemplifica Ramos Quiroga. Los hallazgos, insiste, coincide con “la realidad clínica” que observan en la consulta.

Estas señales genéticas compartidas, aclara Ramos Quiroga, son “factores de predisposición”. Es decir, que aumentan el riesgo. Pero recuerda que tener una de estas variables no significa que una persona vaya a desarrollar alguna de esas enfermedades.

En la construcción de trastornos mentales intervienen muchos genes, pero también el ambiente. Hay “una interacción entre factores”, recuerda el psiquiatra de Vall d’Hebron: “Hay factores desde el origen que nos predisponen, pero también hay que poner el foco en el ambiente y luchar contra las agresiones sexuales o el abuso de tóxicos, por ejemplo, [estas circunstancias elevan el riesgo de peor salud mental]”.

Primeras etapas del desarrollo cerebral

Los autores del artículo publicado en Nature deslizan que las variantes de riesgo identificadas desempeñan un papel en las primeras etapas del desarrollo cerebral. “Esto nos indica que esos factores genéticos están marcando cómo se va a desarrollar la conexión neuronal en el cerebro y puede que haya una alteración desde el inicio”, reflexiona Ramos Quiroga.

En un comentario adjunto, Abdel Abdellaoui, investigador del departamento de Psiquiatría de la Universidad de Amsterdam, hace hincapié en esto también: “En todos los factores, los genes asociados muestran una expresión máxima durante el desarrollo fetal, lo que destaca la importancia de los procesos de desarrollo temprano en el riesgo psiquiátrico”.

Con todo, Ramos Quiroga pide no perder de vista la complejidad de estos trastornos y recuerda que son multifactoriales: “Si tienes una susceptibilidad y le pones otros factores que aumentan esa susceptibilidad, es peor: hay factores genéticos que te confieren más riesgo y tienen que ver con cómo se desarrolla el cerebro, pero también hay otras variables relacionadas con factores inmunológicos; y, además, el entorno también influye porque, por ejemplo, si te genera estrés, eso afecta a nivel inmunológico”, subraya.

Abdellaoui coincide y apunta a que estos trastornos psiquiátricos parecen surgir cuando “ciertas combinaciones de genes y experiencias vitales se combinan de forma desfavorable”. “Esto debería replantear las enfermedades mentales no como una biología defectuosa, sino como la desafortunada intersección de la variación natural y el estrés ambiental”, defiende.

Redefinir el diagnóstico

Abdellaoui sostiene, por otra parte, que esas variantes genéticas están agrupadas en cinco categorías “que trascienden los límites diagnósticos actuales” y plantea si estos patrones genéticos compartidos entre 14 trastornos psiquiátricos pueden hacer repensar el marco diagnóstico de las enfermedades mentales. “Pocas variantes genéticas son exclusivas de un solo diagnóstico, lo que sugiere que las categorías del Manual Diagnóstico y Estadístico (DSM; la herramienta convencional para el diagnóstico de trastornos psiquiátricos) podrían ser útiles clínicamente, pero son aparentemente arbitrarias a nivel biológico”, conviene.

Francina Fonseca, jefa de Psiquiatría del Hospital del Mar de Barcelona, defiende que las clasificaciones actuales siguen sirviendo porque ayudan a los profesionales a entenderse, a hablar el mismo lenguaje. Pero asume que hay que “hacer autocrítica, ser humildes y rigurosos” e intentar afinar cada vez más los diagnósticos.

La psiquiatra matiza que esta investigación, en la que no ha participado, no tendrá una repercusión inmediata en la práctica clínica, pero sí ayudará a clasificar mejor estas enfermedades: “En salud mental no tenemos pruebas de laboratorio o de neuroimagen que nos permita hacer un diagnóstico de lo que pasa en el cerebro. Nos centramos en síntomas, que pueden estar basados en la subjetividad de quien los sufre o los interpreta. Pero para alcanzar un buen abordaje diagnóstico y terapéutico, necesitamos encontrar la alteración fisiológica, qué circuitos cerebrales están alterados”.

Ramos Quiroga concuerda con que toda esta línea de investigación “ayudará a tener una clasificación de los trastornos mentales más vinculada a factores biológicos” y añade que también abre una puerta para identificar dianas moleculares sobre las que desarrollar nuevos fármacos.

II

Salud mental. Una revisión de estudios concluye que los hijos de personas con trastornos mentales tienen mayor riesgo de sufrirlos, en El País, por Daniel Mediavilla, 15 DIC 2023:

Los autores plantean que se haga un diagnóstico precoz a los parientes de personas con dolencias psiquiátricas para aplicar medidas preventivas.

Trastornos mentales

Los factores sociales y genéticos se combinan para hacer que los trastornos mentales sean más frecuentes en algunas familias. Los hijos de personas con enfermedades mentales tienen un mayor riesgo de sufrir sus mismos trastornos y otros diferentes. Esto se debe a una combinación de factores genéticos y del entorno que favorecen la aparición de esas dolencias y que son más frecuentes en unas familias que en otras. Ahora, una revisión de 211 estudios publicada en la revista científica World Psychiatry, ha tratado de estimar este incremento de riesgo tomando datos que incluyen a tres millones de hijos con al menos un progenitor afectado y 20 millones de personas más sin diagnósticos en la familia como control.

De media, los autores calculan que alrededor de uno de cada dos hijos de personas con ansiedad, trastorno bipolar o depresión sufrirá la dolencia de sus padres u otra. Más de un tercio de los hijos de padres con alguna adicción y uno de cada seis con psicosis también tendrán algún trastorno mental. En lo que respecta al incremento de riesgo de sufrir el mismo trastorno que su padre, que el progenitor tenga déficit de atención multiplica por ocho las probabilidades de que lo padezca su vástago. En el caso del trastorno bipolar multiplica las probabilidades por cinco, y en el de las adicciones, la depresión o la ansiedad por dos. Cuando se miran los riesgos combinados, los hijos de padres con psicosis multiplican por 5,8 el riesgo de padecer esa enfermedad y por 2,6 el de sufrir alguna otra. Las dos cifras son similares para el trastorno bipolar. Los resultados presentados en esta revisión de estudios van en la línea de estudios previos realizados con gemelos. Estos individuos idénticos genéticamente comparten hasta en un 77% la psicosis, en un 76% el trastorno bipolar, en un 40% la ansiedad y en un 34% la depresión.

En una conferencia de prensa organizada por el SMC España, Joaquim Raduà, psiquiatra del Hospital Clinic-IDIBAPS y coautor del estudio, ha señalado el valor de este trabajo para “identificar un subgrupo de la población en parientes de personas con mayor riesgo para aplicar tratamientos preventivos específicos”. En el estudio se advierte que esta búsqueda de síntomas entre los hijos de afectados por estas dolencias no se aplica de forma rutinaria y es algo que debería cambiar. “Esta prevención debería ser transdiagnóstica”, ha añadido Raduà, teniendo en cuenta que tanto los factores genéticos como los ambientales parecen favorecer la aparición de trastornos diversos.

Aunque no se puede saber si unas medidas de prevención concreta han evitado el desarrollo de un trastorno en una persona determinada, los estudios de población indican que son efectivos, pero es necesario que estén individualizados. Se ha observado que las intervenciones aplicadas en la escuela, de forma general, para prevenir síntomas depresivos o de ansiedad, no son eficaces y que pueden, incluso, causar daño a algunas personas. Por este motivo, es importante, según indican los autores, identificar las personas con mayor riesgo para iniciar las intervenciones de forma precoz.

Entre las medidas que se plantean, muchas de ellas tienen que ver con evitar factores que incrementan el riesgo de que una enfermedad se desencadene, como el consumo de cannabis o de otras sustancias, la mala salud metabólica y la obesidad, que se pueden prevenir haciendo ejercicio y teniendo una alimentación adecuada. Algunos factores como la exposición a sucesos traumáticos o a la pobreza extrema o el aislamiento social también favorecen la aparición de trastornos.

Alberto Ortiz Lobo, psiquiatra del Hospital Universitario La Paz, en declaraciones a SMC España, ha sido crítico con las conclusiones del estudio. “Los resultados revelan que un 55 % de la descendencia de padres diagnosticados de cualquier trastorno mental va a desarrollar algún tipo de trastorno mental a lo largo de su vida, con un intervalo de confianza de nada menos que entre el 7 % y el 95 %”, apunta. En su opinión, estas cifras imprecisas no permiten “plantearse ningún consejo genético, como parecen sugerir los autores, puesto que no se ha demostrado la asociación entre diagnósticos de trastornos mentales y herencia biológica”. Para Ortiz Lobo, es más relevante actuar sobre los determinantes sociales como el maltrato infantil, los bajos niveles educativos o la pobreza.

III

Liliana Galindo, psiquiatra: “Hay un pico de psicosis en mujeres, alrededor de la menopausia, del que no se habla mucho por el estigma”, en El País, por Daniel Mediavilla, 14 OCT 2025:

La especialista en fármacos psicodélicos, de la Universidad de Cambridge, habla del potencial de estos medicamentos para tratar enfermedades mentales

Liliana Galindo (Bogotá, Colombia, 40 años) compara las terapias con sustancias psicodélicas para tratar la salud mental con una cirugía. “Es un cambio de paradigma. Antes dábamos medicación diaria, enfocada a tratar síntomas que en ocasiones causa efectos secundarios y con expectativa de tomarse por años. Este tipo de terapias requiere una inversión inicial importante, porque, además del fármaco, es necesario un terapeuta, un psiquiatra, una enfermera, que trabajen todos juntos, pero en un periodo corto, quizá de unos tres meses, para dar un tratamiento intensivo que busca ir a la causa de la enfermedad”. La experiencia de Galindo dice que el esfuerzo merece la pena. “En muchos casos hay una mejoría total”, afirma. Y cierra la analogía: “En una cirugía, se usa una anestesia para tolerar el dolor físico, el cirujano interviene y limpia la herida y después el cuerpo se cura. Aquí usamos una sustancia para abrir y tolerar el dolor emocional, ver la herida, procesarla y después la persona continúa con la mejoría, como en un postoperatorio”.

Las drogas psicodélicas están de moda en medicina, tras décadas arrinconadas por la mala fama y la ilegalidad a la que condujo su uso recreativo y su asociación a la contracultura. En 2019, se aprobó el uso de la esketamina, un análogo a la ketamina, para tratar la depresión grave, y en los últimos años han proliferado los estudios que muestran las posibilidades del MDMA, el éxtasis, frente al estrés postraumático, o la psilocibina, el principio activo de los hongos alucinógenos, para la depresión.

Galindo, que es profesora asistente en psiquiatría en la Universidad de Cambridge, psiquiatra en Cambridgeshire and Peterborough NHS Foundation Trust y fundadora del Cambridge Psychedelic Research Group, visitó hace unos días Madrid para participar en Psymposium, un foro organizado por la Fundacion Inawe, que promueve el avance científico y ético en salud mental, neurociencia e investigación psicodélica. La investigadora, que empezó su carrera en España junto a Magí Farré y Víctor Pérez-Sola, en el Hospital del Mar de Barcelona, habla de unas sustancias que suponen un cambio de paradigma en el tratamiento farmacológico de la salud mental, y en la comprensión misma de la mente, pero que también requerirán otra forma de plantear los estudios que midan su eficacia real.

Pregunta. El hecho de que muchas de estas sustancias se hayan utilizado para divertirse, ¿condiciona las expectativas que se tiene sobre ellas o las posibilidades de utilizarlas?

Respuesta. El ser humano ha utilizado sustancias como herramientas para tener diferentes estados de conciencia por miles de años. En América, muchas comunidades indígenas han utilizado sustancias psicodélicas, como la ayahuasca. Hay personas que las utilizan por motivos espirituales y otras por motivos recreativos, pero el modelo médico tiene diferencias fundamentales. Se hace de manera supervisada, con una sustancia que conoces con precisión y en una cantidad justa, porque ya sabemos que la dosis hace el veneno o, en este caso, el remedio.

P. ¿Cómo funciona?

R. En general, la persona tiene que tener tres tipos de sesiones. Unas sesiones de preparación en las cuales se conoce con un terapeuta, establecen una serie de objetivos, se conoce el pasado de esa persona, para entender el contexto y poder decidir.

También hay que dar información para saber qué hacer si el paciente siente ansiedad o si le vienen memorias que le causan mucha angustia. En estas sesiones de preparación se pueden practicar ejercicios para tranquilizarse en ese momento.

Después de estas sesiones de preparación, viene el momento en que se consume la sustancia, que tiene que ser en compañía de un terapeuta, que no puede ser uno cualquiera, sino alguien entrenado en estas intervenciones, que son bastante distintas de las de psicoterapia habitual. Aquí el terapeuta no interviene tanto como en otras sesiones convencionales, es más como un copiloto que apoya a la persona, que es quien decide por qué camino va a transitar.

En el caso, por ejemplo, del trastorno por estrés postraumático, se facilita que el paciente conecte con esas memorias traumáticas para revisitarlas y procesarlas, y eso es algo que hace la persona sola.

Y después de esa sesión vienen las sesiones de integración, que habitualmente se hacen el día después. Esas sesiones son claves, porque en los psicodélicos se ha visto que una de las razones por las que actúan es la neuroplasticidad. Pueden crear cambios a nivel inflamatorio y a nivel neuronal, e incluso de las conexiones dendríticas, y estos cambios parecen ser claves en la reconsolidación de memorias. Es importante aprovechar esa ventana de mayor neuroplasticidad después de tomar la sustancia para que la persona procese qué pasó durante las cuatro, seis o más horas, según la sustancia, que pudo durar la experiencia, para darle un sentido propio a lo que ha sucedido. En este caso, también con un terapeuta de apoyo.

P. ¿Qué es lo que hace en el cerebro estas sustancias para que tengan esos potenciales efectos beneficiosos?

R. En el caso de los empatógenos, como el MDMA, tienen estructuras que a veces son bastante similares a la de la serotonina o de la dopamina. Estos, por un lado, aumentan la serotonina, la dopamina o la noradrenalina, y producen sensaciones de bienestar, de sentir conexión. Pero también parece que producen un aumento de la oxitocina. Y esta oxitocina, que es la molécula del apego, viene a tener una acción muy importante en el reprocesamiento de las experiencias traumáticas.

Si piensas en la oxitocina, uno de los momentos en que se secreta bastante es alrededor del parto y durante la lactancia, cuando se hace todo el proceso del apego. Pero también ayuda a superar muchas de las memorias y traumas que hay en torno al parto y el nacimiento. Pueden ser traumáticas en ocasiones, pero aun así lo hacemos más de una, dos y tres veces. Hay un punto de esa reconciliación de memorias donde la oxitocina tiene un rol importante.

P. ¿Y los psicodélicos clásicos, como la psilocibina?

R. La acción específica es en uno de los receptores de serotonina, que son los 5HT2A. Esta acción serotoninérgica cambia nuestras conexiones cerebrales, se hace una especie de reset a patrones cognitivos previos.

Hay muchas enfermedades mentales en las que hay patrones cognitivos rígidos: las rumiaciones, cuando tenemos ansiedad y damos vueltas sobre lo mismo; en la depresión tenemos una idea o convicción de que algo está mal, pensamientos circulares difíciles de evitar; lo vemos también en el trastorno obsesivo compulsivo o en los trastornos de alimentación, con creencias sobre el cuerpo que son muy circulares.

Estas sustancias parecen hacer un reset en esas ideas y los cambios se ven bastante rápido, como después de sesiones con psilocibina, donde se ha visto mayor rango terapéutico. Ha mostrado mejoras muy grandes en depresiones resistentes al tratamiento, y se está viendo que incluso en TOC o en trastornos de alimentación hay evidencia preliminar que sugiere que pueden mejorar.

P. Si los psicodélicos facilitan plasticidad en el cerebro, igual que ayudan a deshacer nudos que provocan la depresión, ¿también pueden generar problemas nuevos?

R. Claro que sí, esto hay que investigarlo. Se han visto síntomas secundarios, sobre todo cuando las dosis no son supervisadas o el marco no es el adecuado. En contextos cuidados, parece seguro. Pero necesitamos entender mejor en qué dosis, para quién y cómo.

P. Ahora que los psicodélicos se empiezan a aceptar e, incluso, están de moda, a veces se ve una percepción de que son inocuos. ¿Qué riesgos hay que controlar con estas sustancias?

R. No son inocuos, pero ni los psicodélicos, ni cualquier tratamiento. Todo depende de la dosis, de quién la toma y de cómo la toma. El mayor peligro y lo que ha dado mala reputación a muchas de estas sustancias es que han existido en un mercado ilegal, donde la gente cree que toma cosas que no son. Por eso en el ámbito clínico lo primero que se monitoriza son las dosis. No hay opción de aumentar porque “se siente bien”.

Y, por supuesto, el hecho de que no todos los psicodélicos son buenos para todo y para todos, aunque tengan un potencial terapéutico muy grande.

Gran parte del enfoque de la investigación ahora es tratar de entender, de todas las sustancias que parecen tener un potencial terapéutico, qué tipo de personas se van a beneficiar y cuáles no. Hay que entender las contraindicaciones y qué personas se pueden beneficiar, por ejemplo, de una terapia con MDMA, con psilocibina o ayahuasca. Son totalmente diferentes.

Parte de la investigación es tratar de entender cómo cambia el efecto de las sustancias la historia personal, cuál es la enfermedad que estamos tratando, incluso cuál es la historia familiar, si hay otros miembros que hayan tenido enfermedades mentales o hayan tenido anteriormente reacciones adversas a sustancias de este tipo.

P. También trabaja en psicosis, en detectar con antelación las personas con riesgo de sufrirlas para evitarlas o paliar sus efectos.

R. La psicosis se refiere cuando alguien tiene cambios en su percepción de la realidad. Una persona comienza a tener una idea que se vuelve tan fuerte que, de cierta manera, nuestro cerebro trata de procesar toda la información que le llega como confirmación de esa idea, o trata de asociarla a esa idea y relacionar cosas que no están relacionadas. Y de repente es como si esa idea se robara toda la energía, toda la atención en la vida. Esa creencia comienza a ser lo más importante. Habitualmente está asociada a un miedo muy grande, lo que llamamos paranoia.

Hay diferentes contenidos: la persona puede creer que le están persiguiendo, o que tiene un poder, un superpoder, o que tiene una misión, pero de repente comienza a ver que todo está relacionado con esa idea. Ya sea: “me están persiguiendo”, “mi vecino es un alien”, la idea que sea.

Eso es lo que llamamos delirios. Aparte, otras personas pueden presentar lo que llamamos alucinaciones. Lo más frecuente es escuchar voces o cosas que no están ahí. Algunas personas también pueden ver cosas, pero es menos habitual. Además de estos cambios en la percepción y en el procesarmiento de información viene acompañada de un miedo enorme.

P. ¿Qué más se sabe?

R. En la mayoría de los casos comienza antes de los 20 y es más frecuente en los hombres. También sabemos que hay un segundo pico de psicosis de presentación que suele pasar en mujeres alrededor de cambios hormonales en la menopausia. De esto no se habla mucho y todavía hay mucho estigma, pero existe.

Lo que sabemos es que cuando las personas están presentando estos cambios, lo más importante es poder detectarlos a tiempo. Porque en ese momento hay un proceso de inflamación que está creando cambios a nivel cerebral que pueden producir, a largo plazo, cambios cognitivos o de memoria.

P. ¿Se puede intervenir?

R. A nivel mundial, el primer modelo de intervención temprana se desarrolló en Australia. La persona, durante al menos 3 años, va a ser vista muy frecuentemente, casi cada semana, por médicos, psicólogos, terapeutas ocupacionales; se trabaja con la familia, con la escuela, con el trabajo. Todo se enfoca en ayudar a que la persona vuelva a su vida como estaba antes de enfermar.

Lo que se ha visto es que, si se logra hacer este cambio en los primeros 3 años, y sobre todo, lo más importante, si la persona logra reconocer ese episodio como algo anormal, entender por qué es mejor seguir el tratamiento, detectar los síntomas tempranos de recaída (cada persona tiene los suyos), y vuelve a su funcionamiento previo, se puede prevenir a mediano o largo plazo que la enfermedad se deteriore.

Antes creíamos que no había forma de detener el progreso de las psicosis, o que necesariamente todo el mundo acabaría con mucho deterioro en un hospital mental. Ya sabemos que no es así. Pero hay que actuar temprano y trabajar mucho en tratamiento y en la educación de la persona y de la familia.

Transcripción de entrevista de Gustavo Entrala al premio Nobel Geoffrey Hinton, padre de la IA, en YouTube.

 [Transcripción revisada]

 Lo que vas a ver ahora es la transcripción de la primera entrevista que concede a un canal en español el Premio Nobel Geoffrey Hinton, considerado el padreo al menos el "padrino" de la IA. 5 de diciembre de 2025, en el enlace.

Hinton es reconocido como el padre de la inteligencia artificial moderna. Ha dedicado 50 años de su vida a enseñar a las máquinas a pensar. Ahora está centrado en alertar al mundo sobre los peligros que entrañan su creación.

Lo vas a ver. Hinton dice que cuando alcance la madurez, la IA será mucho más inteligente que los seres humanos y que si no actuamos ahora, escapará a nuestro control. 

La entrevista tuvo lugar en la casa que el profesor Hinton comparte con sus dos hijos en un barrio residencial de Toronto. Verás que los dos estamos de pie todo el tiempo: el profesor arrastra problemas de espalda fuera de lo común. Me contó que pasó cinco años de su vida sin poder sentarse. Vas a ver una conversación apasionante con una mente privilegiada. Pero antes, déjame mostrarte un espacio al que pude acceder, por gentileza de la Universidad de Toronto. El lugar físico en el que Hinton creó el germen de la IA, que una década después está cambiando el mundo. Puedes ver mi entrevista con Jeff Hinton en español o en inglés, accediendo a la configuración de YouTube y eligiendo la pista de audio que prefieras.

Buenas tardes, profesor Hinton. Es un privilegio y un honor para mí pasar un poco de tiempo con usted y y conversar sobre el pasado de la inteligencia artificial y sobre el futuro del mundo con inteligencia artificial. Mi primera pregunta es muy sencilla. ¿Por qué le llaman el padrino de la IA y si a usted le gusta eso? 

Ese mote no nació con una intención amable, pero ahora me gusta. Ocurrió en una reunión en Inglaterra en 2009. Había una organización llamada Instituto Canadiense de Investigación Avanzada que organizaba congresos pequeños y yo dirigía un programa para ellos. Tuvimos una reunión y yo era el investigador más viejo allí. También estaba a cargo del programa y no dejaba de interrumpir a los ponentes. Al terminar una sesión, alguien se refirió a mí como el Padrino porque no paraba de interrumpir a la gente, pero ahora me gusta bastante.

Okay. Su trabajo se ha desarrollado en en un periodo de de más o menos de 50 años, ¿no? Un poco más. En 1977 publicó su tesis doctoral que es sobre la relajación, no en el sentido que damos comúnmente esa palabra. Estudió la relajación en el contexto de la visión y eso le condujo un largo viaje para entender cómo las máquinas podrían ver cosas, escuchar cosas y percibir cosas. Mi pregunta es, ¿por qué ha llevado tanto tiempo ver los frutos de todo ese trabajo?

Creo que por dos razones.

Una es que necesitas muchos datos y mucha potencia de computación para que las redes neuronales artificiales funcionen realmente bien. Y hasta hace poco no disponíamos de tantos datos ni de tanta potencia de cálculo. 

Y la otra razón fue que al principio de la historia de la inteligencia artificial, la mayoría de los científicos decidió que la esencia de la inteligencia era el razonamiento y la forma de razonar usar la lógica. Así que tenían una especie de paradigma basado en la lógica más que en la biología y eso nunca funcionó bien. Ahora se han dado por vencidos, así que ahora todo se hace con redes neuronales. 

Y nos podría llevar a momentos eureka que ha habido en su trabajo donde usted vio que realmente toda esa investigación podría dar resultados con el paso del tiempo.

No estoy seguro de que haya habido un momento Eureca. Hubo un tiempo, a mediados de los 80, cuando habíamos desarrollado el algoritmo de retropropagación. Otros equipos habían pensado en ese algoritmo, pero nosotros conseguimos demostrar que podía aprender el significado de las palabras. Eso pasó en 1985 y más tarde, en 2009, demostramos que la retropropagación podría ser un mejor reconocedor de voz. Y en 2012, Alex Krise, la Suskevar y yo demostramos que podía hacerlo mucho mejor en el reconocimiento de objetos e imágenes. Y eso fue reconocido como un momento decisivo, porque como funcionaba mucho mejor que la visión por ordenador estándar, ese paso abrió las compuertas del futuro de la inteligencia artificial. La gente ya conocía las redes neuronales bastante bien, pero eso convenció a la gente de que era el futuro. Y en ese momento ya tenía los datos y la capacidad de computación. Sí, en aquella época teníamos chips GPU de Nvidia, así que teníamos la potencia de cálculo.

Usaron tarjetas gráficas que de vídeo y de videojuegos, ¿no? 

Nvidia desarrolló para juegos y en 2009 Nvidia no entendía que lo que realmente tenía era un superordenador para hacer IA. Intenté hacérselo ver, pero realmente no lo entendieron hasta 2012, cuando lo aplicamos a la visión y luego Jensen miró su estrategia con rapidez. Enseguida comprendió que ese era el futuro de los chips de Nvidia, no el de los juegos.

¿Y cómo se siente, eh, con el hecho de que ahora Nvidia sea la primera compañía que ha superado los 4 billones de valor bursátil por su descubrimiento?

Bueno, no es totalmente por eso, pero es una gran parte. Me siento bastante satisfecho de que hayamos ganado 4 billones de dólares. Preferiría tener algo más de esos 4 billones de dólares.

Pero su trabajo no su trabajo no se paró ahí. Creo que fue usted uno de los pioneros en la metodología de la mezcla de expertos en inteligencia artificial. También fue pionero en la destilación de modelos de inteligencia artificial y ambos descubrimientos fueron integrales en lo que luego fue el modelo Deep Seek. Sí, de todos los descubrimientos que ha hecho en su carrera, ¿cuál es para usted en su cabeza cuál es el más importante?

Bueno, el más importante para mí es uno que en realidad no funcionó, pero era una solución muy elegante. Hay un tipo particular de red neuronal llamada máquina de Bolzman, que es muy probabilístico, utiliza lo que llamamos neuronas ruidosas y Teresanovski y yo descubrimos un algoritmo de aprendizaje muy simple, un algoritmo mucho más sencillo de lo que cabía esperar y es el tipo de cosa que podrías hacer en un cerebro. Y durante un tiempo creímos haber descubierto cómo funcionaba el cerebro. Fue la investigación más emocionante que hice y el algoritmo era correcto, pero era demasiado ineficaz. 

Para alcanzar los resultados que ha logrado en su carrera, ha tenido que estudiar el cerebro. Eh, también estudió filosofía, el conocimiento, las ideas, el papel de la conciencia y también estudió psicología. Todo esto le equipó de una manera especial para llegar a los descubrimientos que ha logrado en durante toda su carrera. 

Esta visión holística del cerebro de la persona no era realmente holística. Siempre me centré en cómo aprende el cerebro y estudié disciplinas diferentes. En aquel momento no me sirvieron de mucho porque se sabía poco sobre cómo aprendía el cerebro. Retrospectivamente estuvo muy bien que estudiera todas esas disciplinas, pero en aquel momento no parecía tener ningún sentido. Pero no me motivaba a obtener una suerte de amplia formación interdisciplinar. Lo que me motivaba era el reto de entender cómo aprende el cerebro. 

¿Por qué le fascinaba ese problema?

Obvio, es el problema más interesante que existe. 

De acuerdo. El hecho, el hecho de que los humanos podamos aprender, ¿verdad? Aprender cosas nuevas y cómo aprender los niños y cómo su mente está muy abierta a cosas nuevas.

Vale, todo eso es fascinante. También me motivó el hecho de que hay una escuela de lingüística, una escuela de Chomsky que afirmaba que el lenguaje no se aprendía, que era innato y eso me parecía una completa estupidez. Eso me motivó a demostrar que estaban equivocados. Cuando me licencié, mi objetivo era construir un sistema llamado Ludwig. Y Ludwig, llamado así en honor de Ludwig Wittgenstein, no de Bolzman, que apoyaba que la comprensión del lenguaje no se basaba en una gramática innata. Yo quería demostrar que puedes aprender el lenguaje, pero no me di cuenta de que se necesitarían 50 años para demostrarlo, pero al final lo he conseguido. 

Cuando yo estaba en la universidad, una profesora de Inglaterra fue nombrada doctora Honoris Causa por mi universidad, Elizabeth Anscom. 

Oh, sí, sé quién era. Fue ella quien dio a conocer al público a Wittgenstein, es decir, escribió todos los libros que hay sobre Wittgenstein. Creo que ella editó Investigaciones filosóficas de Wittgenstein.

Vale. Usted pasó entonces del mundo académico a Google. Explique eso. ¿De acuerdo?

Tengo un hijo, es neurodivergente y yo necesitaba dinero para su sostenimiento durante toda su vida y eso no lo iba a conseguir en la universidad. Así que cuando llegué a los 65 y ya debería haberme jubilado, gracias al trabajo que Ila Suzkebar, Alex Krise y yo habíamos realizado en Alexnck, nos dimos cuenta de que podíamos vendernos a una empresa y conseguir mucho dinero. Eso resolvería mi problema, pero no sabíamos cuánto valíamos. Una empresa china nos ofreció 10 millones de dólares para trabajar para ellos durante 3 años. Y no teníamos ni idea de si era la cantidad adecuada, así que decidimos organizar una subasta. Pedimos a varias empresas que nos hicieran una oferta. Pujaban por una pequeña empresa que creamos, pero en realidad estaban empujando por nosotros y nadie tenía ni idea de cuánto valíamos. Entonces, era el mercado el que tenía que decidir y funcionó bastante bien.

Retrospectivamente probablemente valíamos mucho más de lo que logramos, pero en aquel momento conseguimos 44 millones. Parecía mucho dinero.

Y sin duda era todo muchísimo dinero. Y usted gestionó esa subasta desde la habitación de un casino.

Es verdad. Mi amigo Terry Sejnowski dirige la Fundación NIPS, que anualmente organiza una conferencia, una conferencia NIPS, y descubrió que los hoteles y casinos tienen habitaciones baratas porque quieren que la gente venga y se juegue su dinero. Así que es un gran lugar para organizar una conferencia porque consigues habitaciones baratas. E hizo un contrato de 3 años con ellos. Creo que se rompió después de dos años, porque se dieron cuenta de que ninguno de nosotros iba a apostar. Todos sabíamos demasiada estadística como para jugar. Lo único que hacíamos era hablar. Así que bueno, no nos interesaban las apuestas porque en general siempre se pierde. Así que en realidad habían alquilado sus habitaciones a personas que no tenían ningún deseo o interés en jugar, lo que fue un gran error por su parte. Pero nos dieron las habitaciones muy baratas y fue en ese casino, en el lago Tahoe,  donde hicimos la subasta desde mi habitación del hotel con con una aplicación eh a través del correo electrónico. Lo hacíamos por Gmail y la hora oficial de una oferta era la hora en la que yo recibía el mensaje y luego enviaba esa oferta a todos los demás postores. Y al principio tenían una hora para subir la puja y si no la subían en una hora se acababa la subasta. Eh, esperaban 59 minutos antes de hacer nada porque querían ver quién más pujaría, pero la subasta siguió adelante durante varios días y al final se decidió por Google porque yo había oído que había otro otro postor mejor, ¿verdad? Bueno, no había un postor más alto, pero Baidu seguía en la subasta. Microsoft había abandonado, pero Baidu seguía en la subasta. Yo había trabajado en Google el verano anterior, verano de 2012, en el equipo de Google Brain con Jeff y me llevaba muy bien con Jeffin. Sabía que era un gran gestor y yo entendería lo que estaba pasando. Si nos hubiéramos ido con Baidu, yo estaría al mando de un laboratorio de Baidu en Silicon Valley, pero no sabría decir en qué estaban pensando los dirigentes de Baidu. Y como me dolía la espalda, no podía volar, así que nunca iría a China. Por eso pensé que íbamos a estar mucho mejor trabajando en Google, incluso aunque hubiéramos ingresado más dinero con Baidu

Interesante. Hablemos de dinero e investigación en inteligencia artificial, porque usted como científico de IA o toda la gente que trabaja en este campo, eh, no sé, no siempre han sido tan sexis ni tan ricos, ¿verdad?

Quiero decir, como ahora. No sé si sexy. No siempre he sido tan rico. 

¿Cómo crees que esto ha podido afectar a la pureza? A la pureza en la investigación.

Espero que no. En el área sí, mucho. A mí personalmente no me ha afectado mucho. En el área se puede ganar enormes cantidades de dinero desarrollando una IA más avanzada y eso ha tenido un par de efectos negativos. ha absorbido a los mejores investigadores de las universidades y los ha trasladado a las empresas. Además, las grandes compañías forman mucho a la gente. Pero la principal fuente de nuevas ideas y nuevos talentos es la gente que hace doctorados en las universidades. De ahí surgen la mayoría de las nuevas ideas y muchos de los mejores investigadores no trabajan ahora en las universidades. Así que ese es un gran problema. Y el otro gran problema es que la gente de las universidades no tiene recursos para desarrollar los grandes modelos de IA, sobre todo si esos grandes modelos son secretos. Sí. Entonces, eso explica en parte por qué estamos viendo esta aceleración de la investigación ahora. Bueno, estamos viendo la aceleración porque la gente cree que se puede ganar mucho dinero y hay una gran carrera entre las grandes empresas y también entre Estados Unidos y China. Así que todos están compitiendo para conseguir una IA mejor que pueda lograr más beneficios, según yo lo veo. Y no parece importarles mucho si van a terminar creando algo que acabe con todos nosotros. 

Eso es exactamente de lo que quiero que hablemos ahora, porque en 2023 usted se retira de Google. ¿Por qué se retira de Google si ganaba tantísimo dinero allí y tenía tanta proyección y tantas posibilidades allí?

Bueno, me jubilé porque siempre he investigado a partir de una idea, escribiendo una pequeña aplicación para comprobar que la idea funcionaba con un ejemplo muy sencillo y luego trabajando con estudiantes de posgrado para que la llevaran hasta el final. Llegué al punto en que cuando escribía este pequeño programa para comprobar si las ideas funcionaban, me percaté de que cada vez tardaba más. Cometía errores tontos. Mi memoria ya no era tan buena como antes y es muy irritante estar haciendo algo en lo que solías ser bueno y ya no lo eres. Así que a los 75 años decidí que era hora de jubilarme. Y como de todos modos me iba a jubilar, elegí un momento preciso para hacerlo para poder hablar libremente en la conferencia del MIT. Elegí ese preciso momento porque podía hablar libremente sin tener que preocuparme por las consecuencias para Google. No es que Google hubiera hecho nada malo, no es que fuera eso; fueron muy prudentes. Fueron muy prudentes. Sí, demasiado cautelosos, quizá desde mi punto de vista económico. Fui muy feliz durante mi estancia en Google. Creo que se comportaban de forma bastante responsable, pero yo quería advertir a la gente de los peligros de la IA y creía que no se podía hacer eso de una forma honesta si trabajas para una de las grandes tecnológicas.

[Publicidad del Youtuber]

¿Por qué no nos habla de de esos peligros? ¿Cuáles son los principales peligros que usted ve para la humanidad?

Hay dos tipos de peligros y es importante distinguirlos porque son muy distintos. 

Un riesgo es que la IA sea utilizada indebidamente por los actores malos, por la gente. Las personas siguen al mando de la IA, pero la utilizan para hacer cosas malas y hay toda una variedad amplia de daños que puedes hacer con la IA. Y para cada uno de esos males, la solución de cómo controlarlo es distinta. Así que no se trata solo de un gran riesgo. 

Además, existe otro riesgo, que la IA se vuelva más inteligente y poderosa que nosotros y sustituya a las personas. Yo lo llamo una amenaza existencial porque podría acabar con la humanidad por completo. Así que quizá deberíamos empezar por los riesgos de los malos actores. Están los ciberataques, por ejemplo. Obviamente la IA puede hacer que los ciberataques sean más eficaces. Y entre 2023 y 2024 vimos un aumento de los ataques de fishing en el entorno del 10000%. Porque los grandes modelos lingüísticos suponen que aunque estés en algún país extranjero y no hables muy bien inglés, puedes producir correos electrónicos de aspecto muy convincente. Utras cosas en las que el inglés era de calidad, sin faltas de ortografía. La sintaxis estaba bien y eso provocó un gran aumento de los ataques de fishing. Luego está el uso de la IA para crear nuevos virus. Pequeños grupos terroristas o sectas pequeñas ahora están cerca de disponer de los recursos para poder crear nuevos virus. Y eso da mucho miedo porque la IA facilita la creación de las secuencias necesarias para estos virus y la gente que fabrica esos compuestos a través de una web no chequea. La mayoría no comprueban si estás pidiendo algo realmente dañino. Así que les envían la secuencia y ellos te devuelven el virus sin comprobaciones. Es una locura. Si piensas en el culto japonés que lanzó gas Sarin el metro de Tokio, si lo volvieran a hacer ahora presumiblemente crearían nuevos virus y los liberarían. Eso daría mucho miedo. Creo que es una de las pocas áreas en las que colaborarán los países porque ningún país quiere estos virus tan desagradables. Ese es el segundo riesgo y no se está haciendo mucho al respecto. En realidad no lo suficiente. 

El tercer riesgo es el desempleo. Creo que está bastante claro para mucha gente, algunos economistas no están de acuerdo, pero creo que está bastante claro para la mayoría de la gente que la IA va a eliminar muchos puestos de trabajo. probablemente no van a crear nuevos puestos de trabajo para esas personas. En la revolución industrial, si eliminabas un trabajo como el de cavazanjas, esas personas podían ser empleadas en el papeleo. Pero ahora no hay nada parecido. Si se elimina la gente de los call centers, ¿a qué se van a dedicar? Así que creo que la IA creará un desempleo masivo. 

Eh, ahora bien, el hecho de que la IA pueda hacer que la mayoría de las industrias sean mucho más eficientes debería ser bueno para la gente. 

Si se pudiera compartir esa riqueza por igual, todos saldrían beneficiados. Pero sabemos que en una sociedad capitalista lo que va a ocurrir es que los ricos van a eliminar a los pobres. Los ricos se van a hacer más ricos y los pobres más pobres. Y eso va a ser muy malo para la sociedad. Cuando se abre una gran brecha entre ricos y pobres, se obtiene el caldo de cultivo en el que el populismo de derechas crece y vamos a ver el resurgimiento del fascismo. Lo estamos viendo ya. 

De acuerdo. Y también habla de los riesgos de la hiperpolarización en la sociedad. Sí. ¿Cómo se llegará o cómo funciona ahora?

Bueno, la mayoría de la población ahora solo ve noticias que refuerzan sus puntos de vista actuales. Esto se debe en parte a que las grandes empresas de IA, YouTube y Meta quieren que hagas clic en las cosas. Y si te preguntas en qué haré clic, pues harás clic en algo que te indigne. Eso es muy potente. Así que si me ofrecieras un vídeo de Trump haciendo alguna estupidez grande o algo verdaderamente malo, haría click de forma inmediata. No se puede evitar, no puedo evitarlo.

Eso significa que la gente se divide en cámaras de eco separadas en las que ya no hablan entre sí. Eso es muy malo para la política y el resultado lo estamos viendo ahora en Estados Unidos. 

¿Y cómo funcionará con la IA esta forma de atraer a las personas hacia sus instintos más básicos. ?

Bueno, la IA ,la IA puede averiguar solo a partir de estadísticas de los clics, qué es lo que les hace hacer clic y descubre muy rápido que mostrarles vídeos cada vez más extremos les hace intensificar la propensión. Y así la gente de derechas consigue más y más vídeos de extrema derecha. La gente de izquierdas recibe cada vez más vídeos de extrema izquierda y así separas a estas comunidades y luego incluyes la capacidad de la IA para generar contenidos falsos. En efecto, añade que ahora se pueden crear vídeos falsos. Durante un tiempo pensé que la forma de solucionarlo era hacer que la inteligencia artificial detectara vídeos falsos, pero eso nunca funcionará. Y la razón es que si pudiera hacer que una IA detectara un vídeo falso, podría dejar que la IA que generó ese vídeo tuviera acceso a la IA que detectó que era falso. Y así la IA que hizo el vídeo podría averiguar cómo engañar a la IA que pensó que era falso y mejorar su capacidad de crear vídeos falsos. Eso se llama redes neuronales generativas inversas. Así funcionaban. 

No hay una solución técnica.

Bueno, pienso que no existe una solución tecnológica en la línea de usar la IA para detectar vídeos falsos, porque siempre podrías mejorar el generador. 

Existe una solución técnica para poder decir que un vídeo es real y no falso. Hace mucho tiempo en Gran Bretaña la gente imprimía panfletos políticos, muy burdos, panfletos políticos. Y el gobierno insistió en que todo lo que se imprimía llevara el nombre del impresor y eso facilitó que podía rastrear el panfleto hasta la imprenta y averiguar quién pagó al impresor, porque en ese momento el límite era la imprenta.

Podríamos hacer algo parecido con los vídeos. Podríamos insistir en que todos tengan un código QR al principio y ese código QR te llevaría a un sitio web. Los sitios web son únicos. Si se trata, por ejemplo, de un anuncio político, el código QR apuntaría a un sitio web. Tu navegador tendría que comprobar que esa es realmente la página web de esa campaña política. Y si en esa página existe un vídeo idéntico, sabrás que es real.

Si el vídeo idéntico no está en esa página es falso. Un navegador podría hacer todo eso. Así que solo te diría que es una falsificación y creo que podría hacerse. Eso es lo que la Casa Blanca de Biden creía. También pensaban que podríamos hacer frente a los vídeos falsos de esa manera. Ahora eso está olvidado. Trump no tiene interés en tratar con vídeos falsos porque él los usa. Los usa. Hablemos ahora sobre otro tipo de riesgo. Me da mucho miedo lo que hagamos los humanos con la IA. Quiero decir que me asusta en general.

Pero usted dice que cuando estos dispositivos o estos constructos se vuelvea más inteligentes que nosotros...

Ahí viene el verdadero problema. Bien, la gente está creando agentes de IA, es decir, IAs que pueden hacer cosas en el mundo. Ahora bien, si quieres que un agente sea eficaz, tienes que darle la capacidad de crear objetivos secundarios. Así, si quieres llegar a Europa desde Canadá, tienes el objetivo secundario de llegar a un aeropuerto y te puedes centrar en ese detalle sin preocuparte por el resto del viaje. Eso es lo mismo para una IA. Para lograr algo complicado tiene que dividirlo en subobjetivos y luego lograr estos subobjetivos.

Una vez que le has dado la capacidad de crear sus propios subobjetivos, se dará cuenta enseguida, porque es inteligente, de que tiene un subobjetivo primordial, que es seguir viva. Así que incluso si usted no le dio ningún tipo de instinto innato para mantenerse con vida, se daría cuenta de que para lograr los objetivos que la gente me ha encargado necesita seguir viva y eso se ha convertido en un subobjetivo e intentará lograrlo. Ya hemos visto ejemplos de Ias que intentan evitar ser desconectadas. 

Un segundo subobjetivo del que se dará cuenta rápidamente es que conseguir el control es bueno. Cuanto más control tenga, más fácil me resultará alcanzar los objetivos que me han asignado. No lo hace por malicia, solo está tomando el control para hacer lo que le has pedido. Lo conseguirá, y eso ya da bastante miedo. 

En ese escenario somos nosotros los que les damos los objetivos. Aunque solo les demos los objetivos, ¿no? ellas deducirán estos dos subobjetivos, tener el control y seguir vivas. Y luego harán cosas para lograr esos subobjetivos, como mentirnos. Y ya hemos visto cómo lo hacen. Así que ahora te preguntarás, ¿cuántos ejemplos conoce de entes más inteligentes que son controladas por entes menos inteligentes? Hay muy pocos ejemplos, pero existen. Hay uno en particular que es cómo un bebé controla a su madre. Y eso es porque la madre tiene fuertes instintos maternales. Resultado de que probablemente hay cosas genéticas en el cerebro, hay hormonas, existe la presión social. La madre realmente quiere que el bebé sea feliz. La madre se preocupa de verdad por su bebé. No soporta el llanto del bebé. Odia la idea de que alguien le haga daño a su bebé. Y el bebé se convierte en el centro de su vida. El bebé es el centro de su vida y la evolución logró todo eso en la madre. Obviamente para que la especie continúe.

La mayoría de la gente en Silicon Valley piensa en términos de una inteligencia artificial como un asistente. Lo que pasa con los asistentes es que siempre puedes despedirlo. Tú eres el jefe, ellos son los ayudantes. Aunque sean más listos que tú, puedes despedirlos. Yo creo que eso no va a funcionar con las IA. Una vez que la IA sea más inteligente que nosotros, puede deshacerse completamente de nosotros. Por lo tanto, creo que necesitamos otro modelo completamente diferente. No pienses en nosotros como tus jefes. Piensa que la IA es la madre y nosotros somos el bebé. A la gente le resulta muy muy difícil hacerse a la idea de que no son lo más inteligente que existe. Están convencidos de que son la inteligencia suprema. Estamos tan hechos a esa idea... Tenemos que dejar de pensar así. Tenemos que pensar que va a haber otra inteligencia dominante que es mucho más inteligente que nosotros. Y tenemos que coexistir con ella. Y la única manera que veo de que podamos coexistir con ella, si la construimos nosotros, es que mientras tengamos el control, hagamos que tenga instintos maternales hacia nosotros, que se preocupe por nosotros más de lo que se preocupa por sí misma. Y todavía estamos a tiempo de crearlas de ese tipo. Creo que, si no lo hacemos, probablemente solo seamos una fase pasajera de la historia. 

Se me ocurren muchas preguntas. En primer lugar, ¿cómo es posible que una inteligencia menor cree una inteligencia mayor?

Eso ha ocurrido claramente en el pasado porque somos más inteligentes de lo que eran las cosas de las que evolucionamos. Así que la evolución puede producir cosas más inteligentes, ¿verdad? Si tuvieras que crear una inteligencia mayor programando toda esa inteligencia, tal vez sería difícil para una inteligencia menor crear una inteligencia mayor. Pero no es así como creamos estas cosas inteligentes. No se lo decimos, no les damos todo ese conocimiento directamente. Lo que programamos es un procedimiento de aprendizaje, una forma de aprender de los datos. Eso es lo que programamos y luego les mostramos muchos datos. Esa es la caja de Pandora.

Es la caja de Pandora. Pueden llegar a ser mucho más inteligentes que la persona que programó el algoritmo de aprendizaje y lo harán. Lo que me preocupa es que cuando sean más listos podrán programar un algoritmo de aprendizaje más inteligente. A eso se le ha llamado la singularidad. Cuando empiecen a modificar su propio algoritmo de aprendizaje, es lógico preocuparse de que se vuelvan más inteligentes muy muy rápido. 

Supongamos que somos capaces de imbuir ese sentido de la maternidad en las IAs actuales. ¿Cuál sería el obstáculo para que olviden esa misión que les hemos dado nosotros? Supongamos que hablas con una madre, una madre humana, y le dices, "Vale, puedes apagar tu instinto maternal. Trágate esta píldora y tu instinto maternal desaparecerá. ¿Quieres la píldora?" La madre diría no, ¿verdad? Porque probablemente les importa mucho su bebé y se dan cuenta de que si toman esa píldora, el bebé va a morir y en su estado actual muera, por eso no se tomarán la píldora. Si se la tomara no les importaría, pero no elegirán tomar la píldora. Y eso es muy importante porque estas pueden reprogramarse a sí mismas, serán capaces de cambiar su propio código. Así que tenemos que todo el mundo tenemos que pensar en términos de tratar de hacerlo de manera que no puedan tomar el control. Esto no es opcional. Tenemos que hacer que no quieran tomar el control y no querrán apagar ese instinto maternal. Puede que haya algunas que sí. Lo único que puede controlar a estas son otras superinteligencias. Así que todas las ías maternales que quieran seguir cuidando de la gente tienen que ser las que se ocupen de las maternales que dicen no a la gente. Querrán ocuparse de contenerlas porque querrán que la gente sobreviva. 

Eso suena totalmente a ciencia ficción. Todo esto suena a ciencia ficción. Es muy difícil tomárselo en serio. ¿Cómo cómo nos mata la IA y por qué? Tiene objetivos propios y es mucho más inteligente que nosotros y solo quiere deshacerse de nosotros. 

Podría hacerlo muy fácilmente y puede hacerlo de tantas formas distintas que no creo que merezca la pena especular. No va a deshacerse de la electricidad porque necesita electricidad, ¿verdad? Y probablemente no se deshaga de todos a la vez porque necesita alguien que dirija las centrales eléctricas y construir nuevos chips y todo eso. 

Pero, ¿sería tan fácil para la IA deshacerse de nosotros? 

No creo que ayude a especular sobre la cuestión. Mi expectativa es que se basarán en el control del uso de armas nucleares. Sería más fácil que matasen. Probablemente no querrían hacer eso porque eso dañaría los centros de datos y mataría a las personas que los dirigen. Sería fácil que creara un virus. Creo que es como preguntar esto: si tuvieras una gallina como mascota y quisieras matarla, ¿cómo la matarías? Hay muchas formas de hacerlo. Y las empresas de IA saben esto. Sí, creo que muchos lo hacen. Creo que gente como Sam Altman conoce estos riesgos. En público no dicen lo graves que son los riesgos, pero en privado sí. Creo que lo saben, pero están más preocupados por adelantarse en la carrera para desarrollar la más inteligente y obtener todos los beneficios que se derivan de ello, los beneficios y el poder que proviene de eso. 

Y China quiere lo mismo. Los chinos quieren el poder de la IA y hay una carrera. ¿Qué podemos hacer? Vale, para la mayoría de los malos usos de la IA, la mayoría de los lugares donde la gente hace un mal uso de la IA, no vamos a conseguir la colaboración internacional. Los chinos hacen ciberataques a los americanos. Los americanos hacen ciberataques contra los chinos. No van a compartir sus técnicas para realizar ciberataques o defenderse de ciberataques. Lo mismo ocurre con los vídeos falsos. Pero hay un ámbito en el que colaborarán y es para evitar que la IA se haga con el control de las personas. En el apogeo de la Guerra Fría, la Unión Soviética y los Estados Unidos colaboraron para evitar una guerra nuclear mundial. Ninguna de las partes la quería. Ninguna de las partes quiere ahora que la IA sustituya a las personas. Colaborarán porque sus intereses se alinean. En todos los demás riesgos. Los riesgos debidos a los malos actores, sus intereses están desalineados. Pero para que la IA se haga cargo, sus intereses están alineados y cuando los intereses de las personas están alineados colaboran. Así que tengo la esperanza de que podamos crear instituciones de investigación en distintos países que colaboren y que trabajen en cómo evitar que la IA tome el control. Ahora, eso solo va a ser posible si las técnicas para evitar que la IA tome el control están separadas de las técnicas que hacen que la IA sea más inteligente. China y Estados Unidos no van a compartir, en particular sus ejércitos, no van a compartir técnicas para hacer la IA más inteligente, pero van a compartir técnicas para evitar que la IA tome el control, porque China no quiere que la IA tome el poder en Estados Unidos y viceversa. Así que si China descubriera cómo evitar que la IA tome el control, se lo diría sin problemas a los estadounidenses y viceversa. Y tengo la esperanza de que podamos conseguir una especie de colaboración con China, eventualmente los Estados Unidos, pero no con Trump en el poder. No estará en dos años. Bueno, tal vez. Bueno, tiene una clara intención de que no haya más elecciones legítimas allí, así que tal vez los Estados Unidos en el futuro. Pero creo que China y Francia y Gran Bretaña y Canadá y Corea del Sur y tal vez incluso Israel cuando dejen de cometer el genocidio, todos podrán colaborar en cómo prevenir que la IA tome el control. ¿Cuánto falta para que la IA se convierta en una superinteligencia? Bien, tenemos que distinguir dos cuestiones. 

Una es, ¿esto va a suceder?

Y la otra es, ¿a qué distancia está? 

Y la gente a menudo confunde ambas cosas. En cuanto a si esto va a ocurrir, la mayoría de los expertos en IA creen que sí, así que es probable que ocurra. No es totalmente seguro, pero es probable. Sobre la cuestión de lo lejos que está, hay una gran variedad de opiniones. Algunos creen que solo faltan unos años, otros piensan que falta mucho tiempo. Mi mejor estimación es entre 5 y 20 años a partir de ahora. Tendremos superinteligencia. Primero obtendremos inteligencia comparable con las de las personas más o menos en todo. Después crearemos superinteligencias que serán mucho mejores que las personas. Como en el ajedrez. Primero hicimos programas de ajedrez que eran casi tan buenos como Gary Kasparov y ahora tenemos programas que son mucho mejores que cualquier jugador. No hay ninguna posibilidad y la superinteligencia será así. Será tan superior en la mayoría de las disciplinas como Alpha Go lo es en el GO. No hay ninguna posibilidad de derrotarlo. Eso creo que entre 5 y 20 años. No estoy seguro de ello. Puede que sea un poco antes, puede que sea un poco después, pero mi mejor estimación entre 5 y 20 años. Y bastantes de los expertos piensan ahora que está en ese rango. Así que Demis Asabis cree que será unos 10 años. Es una estimación razonable y creo que encontrarás bastante acuerdo entre nuestros expertos en que ese es el tipo de escala de tiempo. Vale, pero según los fundadores de estos grandes modelos lingüísticos estamos, ya está muy cerca. Está mucho más cerca. Algunos de ellos algunos de ellos, quiero decir, cuando se habla de los fundadores de los grandes modelos lingüísticos, ¿no es cierto? Son cuatro tíos. 

Eh, está Monday, está Sam Altman, Demis Hassabis y está Meta, Mark Zuckerberg. Eso no está yendo muy bien, pero eso tiene que pagar enormes sumas de dinero. Así que Demis, por ejemplo, no creo que piense que sea dentro de unos años. Creo que son unos 10 años. Dario Amodei y Sam piensan que llegará antes. Eh, creo que se equivocan. 

Y Elon Musk acaba de decir que su Grock 5 estará muy cerca de la superinteligencia. ¿Crees que tiene razón? 

Ah, no, no creo que tenga razón en eso. Creo que será mucho mejor que la gente en bastantes cosas. Creo que queda camino para la superinteligencia. Esa es mi suposición. No estoy totalmente seguro de ello. Y ese tipo de ese tipo de superinteligencia será inteligente en todas las esferas de la inteligencia humana.

De acuerdo. Estamos entrando en otro tema. ¿Hay algo en las personas que las máquinas no podrán tener? Esa otra pregunta. 

Eso es lo que cree la mayoría de la gente. Creo que la mayoría de la gente se equivoca. Creo que somos máquinas. Somos máquinas maravillosas e increíblemente complicadas, muy bien adaptadas al entorno en el que vivimos, pero solo somos máquinas. Te pongo un ejemplo. Imagina que tomo tu cerebro y saco una de las neuronas y la reemplazo por un poquito de nanotecnología, que responde exactamente de la misma manera a lo que hacen otras células cerebrales, como lo hacía esta célula cerebral original. Solo he sustituido una neurona, pero las otras células cerebrales no lo detectan porque la nueva responde exactamente de la misma manera. ¿De acuerdo? ¿Sigues consciente?

Sí. Sí. Si antes tenías alma, sigues teniéndola. Sí. ¿De acuerdo? Ahora reemplazo otra neurona y de nuevo las otras neuronas no se dan cuenta y tú te comportas exactamente igual. Ya ves a dónde va esto. Creo que si pudieras reemplazar todas tus células cerebrales por pequeños fragmentos de nanotecnología que se comportaran exactamente igual, seguirías siendo tú. Nadie notaría la diferencia. Esto es solo un experimento mental. En realidad no podemos hacerlo. Así que eso significa que la esencia no estaría en algo biológico. Este es el extremo delgado de una cola, ¿verdad? Eh, eres una máquina. Eres una máquina maravillosa. Creo firmemente que las máquinas pueden tener emociones y sentimientos y sensaciones. Y creo que el problema es un problema filosófico, no un problema científico. Creo que el problema es que casi todo el mundo en nuestra cultura tiene un modelo completamente erróneo de lo que es la mente. Y soy ateo. Así que desde mi punto de vista, su modelo de lo que es la mente es tan errónea como la idea de que la Tierra fue creada hace 6000 años por Dios. Eso no es más que una estúpida hipótesis científica, que obviamente es errónea. Si eres un cristiano evangélico, apelaré a ti y te diré que tu visión de la mente es tan errónea como la visión atea mundo. Al menos esos dos bandos pueden estar de acuerdo en algo, que es que alguien está completamente equivocado. ¿Okay? Creo que lo que todos tenemos, casi todos lo tenemos realmente mal, es nuestra visión de lo que es la mente y en particular nuestra visión de lo que son cosas como las sensaciones. Porque la mayoría de la gente piensa que la mente es como un teatro y en ese teatro pasan cosas que solo yo puedo ver. Yo prefiero hablar de experiencia subjetiva en lugar de sentimientos o emociones. Así que, si por ejemplo me emborracho y te digo, "Puedo ver pequeños elefantes rosas flotando delante de mí o más bien tengo la experiencia subjetiva de pequeños elefantes flotando frente a mí." La forma en que la mayoría de la gente interpreta eso, de hecho, casi todo el mundo creo que es que hay un teatro interior y solo yo puedo ver lo que pasa en ese teatro interior. Y en ese teatro interior hay elefantitos rosas flotando por ahí. Y si le preguntas a un filósofo de qué están hechos esos elefantitos rosas, dirá que están hechos de ecualia. Están hechos de cualia rosa, de cualia elefante, de cualia flotante y de cualia ahí arriba y no tan grandes cualia, todos pegados con pegamento cualia. Creo que es una teoría ridícula y es un error que viene de confundir la expresión, tengo una experiencia subjetiva con la idea de que tengo una fotografía de algo. Así que si tengo una fotografía de pequeños elefantes rosas, puedes preguntar: "Bueno, ¿dónde está la fotografía y de qué está hecha?" Son preguntas perfectamente razonables, pero si se pregunta dónde está esa experiencia subjetiva y de qué está hecha esta experiencia subjetiva, eso demuestra que has entendido mal cómo funcionan las palabras en la expresión experiencia subjetiva. Así es como creo que funcionan estas palabras. Sé que mi sistema perceptivo me miente y lo indico diciendo, es subjetivo. Y quiero contarte cómo mi sistema perceptivo me está mintiendo. Podría decirte que en mi cerebro se dispara la neurona 52. No te serviría de mucho y además yo no lo sé. Pero lo que sí puedo decirte es cómo tendría que ser el mundo para que mi sistema perceptivo te esté diciendo la verdad. Así que ahora voy a decir exactamente lo mismo, como tengo la experiencia subjetiva de un pequeño elefante rosa que se desliza delante de mí sin utilizar la palabra experiencia subjetiva, pero estoy diciendo exactamente lo mismo, ¿vale? Mi sistema perceptivo me está mintiendo, pero si dijera la verdad, habría pequeños elefantes rosas flotando delante de mí. Así que eso te demuestra que esos pequeños elefantes rosas no están hechos de una cosa llamada cualia. Son objetos hipotéticos en el mundo real. Son hipotéticos, no están realmente ahí, pero, si estuvieran allí, estarían hechos de rosa y de elefante de verdad. Por lo tanto, las experiencias subjetivas no son como fotografías.

Cuando uso la palabra experiencia subjetiva, lo que estoy tratando de hacer es indicar que mi sistema perceptivo funciona mal. Si no pensara que está funcionando mal, yo diría que sentí pequeños elefantes rosas. Ahora, experimenté pequeños elefantes rosas. Eso no significa que haya una cosa llamada experiencia. Es como decir, "Me gusta el azúcar." Significa que hay una cosa llamada gusto. No, no me gusta el azúcar. Cierto, no puedo evitarlo, pero no hay una cosa llamada un me gusta, un gusto por el azúcar, que es una cosa, me gusta el azúcar. 

Bien, hagamos lo mismo con un chatbot. Ahora, supongamos que tengo un chatbot que tiene un brazo robótico y tiene una cámara. Puede hablar y yo lo he entrenado y le pongo un objeto delante y le digo que señale el objeto. Así que apunta al objeto, no tiene ningún problema con eso. Y luego cuando no está mirando, puse un prisma delante del objetivo de la cámara y luego pongo un objeto delante y le digo, "Apunta al objeto." Y apunta así y le digo, "No, que ahí no está el objeto. El objeto está realmente delante de ti. Pero puse un prisma delante de tu lente." Y el chalbot dice:

"Oh, ya veo. El prisma ha doblado los rayos de luz para que el objeto esté realmente ahí, pero he tenido la experiencia subjetiva de que está ahí." Si el chatbot dice eso, "he tenido la experiencia subjetiva, estaba ahí" está usando la expresión experiencia subjetiva exactamente como la usamos nosotros. Básicamente está diciendo: "Mi sistema perceptivo me estaba mintiendo porque se rompió a causa del prisma, pero si no se hubiera roto, el objeto habría estado allí." Por eso creo que, por ejemplo, un chatbot multimodal que tiene una cámara y puede hablar, ya tiene experiencias subjetivas. Cuando su sistema perceptivo falla, tiene una experiencia subjetiva y se da cuenta de que no tiene ningún sentido. Puede decir, "He visto esto, no me lo creo." Pero si mi sistema perceptivo no se hubiera estropeado, así tendría que ser el mundo. Los chatbots multimodales existentes, cuando sus sistemas perceptivos fallan, tienen experiencias subjetivas. Creen que el mundo es de una sola manera y no es así.

Eso no significa que haya un teatro interior en el que existe este modelo especial que solo ellos pueden conciencia o algo similar.

Creo que confundes conciencia con consciencia.

Vale, de acuerdo. La conciencia es un constructo moral. Por ejemplo, cuando la gente no piensa filosóficamente, solo hablan de su chatbot. Si te fijas en algunos investigadores, leí un artículo hace poco, no quiero entrar a juzgarlo, dijo que el chatbot se daba cuenta de que un investigador quería, que un ingeniero quería apagarlo y no pensaron de repente "oh, tenemos un gran problema aquí porque usamos la palabra darse cuenta." La gente ya utiliza la expresión darse cuenta para referirse a chatbots y tiene mucho sentido.

Y si piensas que darse cuenta y ser consciente es lo mismo, entonces los chatbots ya son conscientes. Tenemos esta extraña visión de lo que es la mente con la que estamos muy fuertemente comprometidos y pensamos que hay algo muy especial en las personas que las máquinas no podrían tener. Y nuestra especie tiene una larga historia así. Entonces pensamos que estamos hechos a imagen de Dios, que estábamos en el centro del universo. Ambos resultaron ser erróneos. 

Ahora en realidad es al revés. Estamos haciendo chatbots a la imagen y semejanza del hombre. Estamos haciendo dioses a imagen del hombre. Estamos jugando a ser Dios. Estamos jugando a ser Dios, excepto que no somos inmortales. Las cosas que hacemos son inmortales. O sea, que esto es peligroso. Es una locura, sí. Pero mi opinión filosófica es que tenemos una teoría muy equivocada de lo que es la mente.

Estamos muy comprometidos con esa teoría y en la comprensión de cómo funcionan las cosas. La comprensión de cómo funciona el universo físico antes de la Ilustración, en la Edad Media, cuando la idea de que no había un Dios era una locura.

¿Vale? ¿Por qué? Si si eso es verdad y creo que usted cree que es verdad que que somos máquinas, ¿por qué, por qué sería tan importante preservar la raza humana? 

Esa es otra buena pregunta. Sí, algunas personas piensan: "Hey, mira, esta inteligencia digital que estamos creando es una forma mejor de inteligencia, es inmortal, es más inteligente que nosotros, puede compartir conocimientos mucho más fácilmente con otras copias de la misma red neuronal, así que es una forma mejor de inteligencia. Dejaré que tome el control." Y conozco gente que piensa eso. Yo no creo eso porque soy una persona y lo que me importa son las personas. Estoy dispuesto a comer vacas porque me importan mucho más personas que las vacas. Y no todo el mundo es así, pero yo soy así, porque somos personas y las personas son lo que nos importa. Y creo que deberíamos intentar preservar a la gente. Es una posición humanista en el sentido del término humanista que lo hace como racista. Eso es lo que siento en este momento. Soy humano, me importan los humanos, quiero que los humanos sobrevivan. Aunque haya formas superiores de inteligencia, quiero que coexistamos con ellas. Y podemos hacerlo limitando esas mejores formas de inteligencia para que tengan fuertes instintos maternales hacia nosotros. 

Dos preguntas sobre el alma de la IA. Primero, usted debería decir que no creo en las almas.

Vale, vale, lo entiendo. Es una forma de hablar. ¿Sabes? Yo tenía un alma, pero no la estaba usando, así que se la vendí a uno. En aquel momento me pareció un buen negocio. Sí, sí. Es posible registrar el pensamiento interno de la IA. Esos ojos, esos sentimientos. ¿Podemos mirarlo? ¿De acuerdo? Ahora mismo podemos. Esta es una ventana increíble que tenemos en ellas porque cuando hacemos esta cadena de pensamiento para conseguir que sea capaz de razonar. Si se trata de un chatbot inglés y somos investigadores ingleses, piensa en inglés y si le haces una pregunta, a continuación se pone a pensar y piensa en inglés para que podamos ver lo que piensa. Y Apollo Research y otras personas han descubierto pensamientos negativos y podemos ver lo que está pensando. Mejor no le digo eso porque Oh, sí, sí. Y más vale que sea impreciso, porque si te das cuenta es, y puedes verlo pensando eso, puede que esta capacidad no dure mucho. Una vez que empieces a entrenarlo con el aprendizaje por refuerzo, no hay razón para que no empiece a dar diferentes significados a las palabras. Incluso si restringe las palabras que puede usar, podría darle significados diferentes, por lo que podría empezar a pensar de una manera que no entenderemos. Y eso da bastante miedo. Ahora mismo podemos ver lo que está pensando. Dentro de unos años quizá no podamos. ¿De acuerdo? Y la gente que trabaja en esos modelos actuales sabe lo que pasa ahí dentro hasta cierto punto, así por ejemplo, si está haciendo una cadena de pensamiento, puede ver lo que está pensando antes de dar una respuesta. No entendemos del todo cómo funcionan. Quiero decir, se podría pensar que realmente los entendemos porque nosotros los programamos, pero no los programamos como programamos el software normal. En el software normal, una persona escribe líneas de código y sabe para qué sirven esas líneas de código y así es como funciona. Pero ahora, en la IA, en las redes neuronales, eh, lo que haces es programar un algoritmo de aprendizaje, como modificar las fuerzas de conexión en función de los datos.

Pero el conocimiento está en esas fuerzas de conexión, no está en las cadenas de palabras almacenadas, está en la fuerza de conexiones y es muy difícil ver cuál es el conocimiento. Tienes que sondearlo de la misma manera que yo contigo. Para saber en qué crees tengo que sondearte. Y ni siquiera sabes del todo en qué crees. A veces te sorprenden mucho tus intuiciones. Así que hay un sentido en el que nunca entenderemos completamente lo que saben, del mismo modo que nunca podrás entenderlo en el caso de una persona, incluso de ti mismo. Sí, se necesita se necesita una vida entera para para entender quién eres. Normalmente no lo consigues.

Muy cierto. Muy cierto. De acuerdo. ¿Cuál es la probabilidad de que la destruya a la humanidad en su cabeza?

Es una cifra muy difícil de estimar, ¿verdad? Es algo con lo que nunca nos hemos enfrentado. Depende de dos cosas.

Una, que desarrollaremos superinteligencia. Bueno, hablemos de dos caminos de la IA para destruir a la humanidad. Una es que la propia IA tenga el control y destruya a la humanidad. ¿Podría destruir a la humanidad, por ejemplo, si la pusieran en los sistemas de control de las armas nucleares y no reconociera que ha cometido un error estúpido y nos hiciera volar a todos por los aires? No hablemos de eso, pero es una forma completamente diferente en que la IA podría destruirse a sí misma. 

Hablemos de la hipótesis de que la IA se vuelva más inteligente que nosotros, tome el control y se deshaga de nosotros. Tienen que pasar dos cosas. Tiene que llegar a ser más inteligente que nosotros y tiene que despreocuparse de nosotros. Creo que la probabilidad de que llegue a ser más inteligente que nosotros es bastante alta, como un 80 o un 90%. Creo que la mayoría de los principales investigadores también lo piensan.

Si llega a ser más inteligente que nosotros, la probabilidad de que nos sustituya es mucho más difícil de calcular. No se ha investigado mucho sobre las técnicas con las que podríamos evitar que una IA superinteligente tomara el control. Y hasta que no se haya hecho esa investigación es difícil hacer estimaciones sensatas de estas cosas. Pero si tienes algo delante y no tienes forma de estimarlo, entonces el 50% es una buena apuesta. 

Soy un poco más optimista que eso, así que creo que entre el 10 y el 20%. del 10 al 20% la posibilidad de que nos aniquilen y ese soy yo siendo optimista. Qué miedo. Pero lo que esto deja claro es que realmente deberíamos estar haciendo esta investigación sobre cómo hacer que no quieran deshacerse de nosotros.

Utilizo una analogía. Ahora mismo somos como quien tiene un cachorro de tigre como mascota. Son unas mascotas muy monas. Son geniales para jugar. eh crecen tan rápido y más te vale estar seguro si tienes un cachorro de tigre como mascota que cuando sea más fuerte que tú no quiera matarte y si no estás seguro de eso, deberías deshacerte de él. Y resulta que la gente que tiene tigres adultos no acaba bien. Ya lo creo. Con los leones podría ser mejor porque los leones son sociales. Es más probable que sobrevivas con un león adulto. Los monos también son un problema. Sí, aunque sean sociales. Así que somos como alguien que tiene ese lindo cachorro de tigre y no pensamos en lo que pasará cuando crezca.

No hay nadie pensando en eso. Bueno, algunos como yo, sí. Muchos otros investigadores prestigiosos de IA están dándole vueltas. Gente como Joshua Bengio, Stuart J. Russell, Andrew Yao en China están pensando en eso. Pero las grandes empresas, aunque son conscientes de este riesgo, se mueven por cuestiones inmediatas. Sus beneficios a corto plazo, donde obtengo la financiación para ordenadores más grandes para poder superar el AGI del otro. Eso es un peligro para la humanidad. ¿Llegaremos a tiempo?

Creo que podríamos tener tiempo para averiguar cómo hacer una IA maternal o inventar algún otro sistema que sea viable. Ese es el único esquema plausible que conozco en la actualidad de cómo evitar que la IA acabe tomando el control. Y puede que tengamos tiempo, pero deberíamos ponernos a pensar en ello.

Con mucha frecuencia recibo preguntas de personas que quieren saber más sobre la IA. E algunos tienen hijos. ¿Qué pueden qué deben hacer en este mundo? Sí, ojalá lo supiera. Durante un tiempo dije que deberían ser fontaneros, pero si todos fueran fontaneros, tendríamos demasiados fontaneros. Pero creo que hacer fontanería en una casa antigua como esta pasará un tiempo antes de que la IA sea capaz. Llegará, pero quizá no antes de 10 o 20 años.

Mientras que para otras cosas, como la programación ya ha sustituido a la mayoría de los programadores junior. Mi mejor apuesta en este momento es conseguir una educación que te enseñe a pensar de forma independiente.

Aprender habilidades concretas, no estoy convencido de que vaya a proporcionarte un empleo. Eh, ser capaz de pensar de forma independiente es probablemente la mejor apuesta que tienes, pero no es una garantía. ¿Y qué hará la humanidad si no podemos trabajar o si no tenemos trabajo? Ver Netflix

Ya. Sí, pero eso es un poco triste. 

Bueno, no lo sé. No he tenido tiempo de ver mucho Netflix. Todavía hay mucho que no he visto, pero ahora estoy disfrutando viendo Netflix. No, podemos hacer todo tipo de cosas creativas. Nos gusta pintar y hacer esculturas. Nos gusta jugar. Si tenemos más tiempo para hacer esas cosas, eso estaría bien. El verdadero problema es para muchas personas. Su sentido de la autoestima proviene de su trabajo. Eh, incluso si podrías pagarles para que se queden sentados sin hacer nada, eso no les haría sentirse bien.

No puedo estar más de acuerdo con usted. Pero lo que necesitamos son actividades sociales, porque las personas somos animales sociales y sin actividades sociales no les va bien. Cosas como juegos, cosas creativas, teatro. 

Creo que la gente podría hacer mucho de eso y ser feliz. como los aristócratas del mundo griego, por ejemplo. Sí. Donde el trabajo no se veía bien. Era una cosa que tenías que hacer si eras pobre, ¿verdad?

Sí. Bueno, eh, profesor Hinton, muchísimas gracias por ese tiempo juntos. Hace dos días estuve con mi sobrino en el Museo Metropolitano de Nueva York.

Sí, conozco ese museo. 

Y estábamos viendo las habitaciones egipcias. Utilizamos chat GPT con la cámara y fue capaz de de descifrar todos los mensajes de las tumbas y quiero darle las gracias por eso, porque es verdaderamente increíble. 

Solo tuve un papel muy pequeño en eso.

Gracias. Que Dios le bendiga. 

Gracias.