Mostrando entradas con la etiqueta Futuro. Mostrar todas las entradas
Mostrando entradas con la etiqueta Futuro. Mostrar todas las entradas

miércoles, 10 de diciembre de 2025

Transcripción de entrevista de Gustavo Entrala al premio Nobel Geoffrey Hinton, padre de la IA, en YouTube.

 [Transcripción revisada]

 Lo que vas a ver ahora es la transcripción de la primera entrevista que concede a un canal en español el Premio Nobel Geoffrey Hinton, considerado el padreo al menos el "padrino" de la IA. 5 de diciembre de 2025, en el enlace.

Hinton es reconocido como el padre de la inteligencia artificial moderna. Ha dedicado 50 años de su vida a enseñar a las máquinas a pensar. Ahora está centrado en alertar al mundo sobre los peligros que entrañan su creación.

Lo vas a ver. Hinton dice que cuando alcance la madurez, la IA será mucho más inteligente que los seres humanos y que si no actuamos ahora, escapará a nuestro control. 

La entrevista tuvo lugar en la casa que el profesor Hinton comparte con sus dos hijos en un barrio residencial de Toronto. Verás que los dos estamos de pie todo el tiempo: el profesor arrastra problemas de espalda fuera de lo común. Me contó que pasó cinco años de su vida sin poder sentarse. Vas a ver una conversación apasionante con una mente privilegiada. Pero antes, déjame mostrarte un espacio al que pude acceder, por gentileza de la Universidad de Toronto. El lugar físico en el que Hinton creó el germen de la IA, que una década después está cambiando el mundo. Puedes ver mi entrevista con Jeff Hinton en español o en inglés, accediendo a la configuración de YouTube y eligiendo la pista de audio que prefieras.

Buenas tardes, profesor Hinton. Es un privilegio y un honor para mí pasar un poco de tiempo con usted y y conversar sobre el pasado de la inteligencia artificial y sobre el futuro del mundo con inteligencia artificial. Mi primera pregunta es muy sencilla. ¿Por qué le llaman el padrino de la IA y si a usted le gusta eso? 

Ese mote no nació con una intención amable, pero ahora me gusta. Ocurrió en una reunión en Inglaterra en 2009. Había una organización llamada Instituto Canadiense de Investigación Avanzada que organizaba congresos pequeños y yo dirigía un programa para ellos. Tuvimos una reunión y yo era el investigador más viejo allí. También estaba a cargo del programa y no dejaba de interrumpir a los ponentes. Al terminar una sesión, alguien se refirió a mí como el Padrino porque no paraba de interrumpir a la gente, pero ahora me gusta bastante.

Okay. Su trabajo se ha desarrollado en en un periodo de de más o menos de 50 años, ¿no? Un poco más. En 1977 publicó su tesis doctoral que es sobre la relajación, no en el sentido que damos comúnmente esa palabra. Estudió la relajación en el contexto de la visión y eso le condujo un largo viaje para entender cómo las máquinas podrían ver cosas, escuchar cosas y percibir cosas. Mi pregunta es, ¿por qué ha llevado tanto tiempo ver los frutos de todo ese trabajo?

Creo que por dos razones.

Una es que necesitas muchos datos y mucha potencia de computación para que las redes neuronales artificiales funcionen realmente bien. Y hasta hace poco no disponíamos de tantos datos ni de tanta potencia de cálculo. 

Y la otra razón fue que al principio de la historia de la inteligencia artificial, la mayoría de los científicos decidió que la esencia de la inteligencia era el razonamiento y la forma de razonar usar la lógica. Así que tenían una especie de paradigma basado en la lógica más que en la biología y eso nunca funcionó bien. Ahora se han dado por vencidos, así que ahora todo se hace con redes neuronales. 

Y nos podría llevar a momentos eureka que ha habido en su trabajo donde usted vio que realmente toda esa investigación podría dar resultados con el paso del tiempo.

No estoy seguro de que haya habido un momento Eureca. Hubo un tiempo, a mediados de los 80, cuando habíamos desarrollado el algoritmo de retropropagación. Otros equipos habían pensado en ese algoritmo, pero nosotros conseguimos demostrar que podía aprender el significado de las palabras. Eso pasó en 1985 y más tarde, en 2009, demostramos que la retropropagación podría ser un mejor reconocedor de voz. Y en 2012, Alex Krise, la Suskevar y yo demostramos que podía hacerlo mucho mejor en el reconocimiento de objetos e imágenes. Y eso fue reconocido como un momento decisivo, porque como funcionaba mucho mejor que la visión por ordenador estándar, ese paso abrió las compuertas del futuro de la inteligencia artificial. La gente ya conocía las redes neuronales bastante bien, pero eso convenció a la gente de que era el futuro. Y en ese momento ya tenía los datos y la capacidad de computación. Sí, en aquella época teníamos chips GPU de Nvidia, así que teníamos la potencia de cálculo.

Usaron tarjetas gráficas que de vídeo y de videojuegos, ¿no? 

Nvidia desarrolló para juegos y en 2009 Nvidia no entendía que lo que realmente tenía era un superordenador para hacer IA. Intenté hacérselo ver, pero realmente no lo entendieron hasta 2012, cuando lo aplicamos a la visión y luego Jensen miró su estrategia con rapidez. Enseguida comprendió que ese era el futuro de los chips de Nvidia, no el de los juegos.

¿Y cómo se siente, eh, con el hecho de que ahora Nvidia sea la primera compañía que ha superado los 4 billones de valor bursátil por su descubrimiento?

Bueno, no es totalmente por eso, pero es una gran parte. Me siento bastante satisfecho de que hayamos ganado 4 billones de dólares. Preferiría tener algo más de esos 4 billones de dólares.

Pero su trabajo no su trabajo no se paró ahí. Creo que fue usted uno de los pioneros en la metodología de la mezcla de expertos en inteligencia artificial. También fue pionero en la destilación de modelos de inteligencia artificial y ambos descubrimientos fueron integrales en lo que luego fue el modelo Deep Seek. Sí, de todos los descubrimientos que ha hecho en su carrera, ¿cuál es para usted en su cabeza cuál es el más importante?

Bueno, el más importante para mí es uno que en realidad no funcionó, pero era una solución muy elegante. Hay un tipo particular de red neuronal llamada máquina de Bolzman, que es muy probabilístico, utiliza lo que llamamos neuronas ruidosas y Teresanovski y yo descubrimos un algoritmo de aprendizaje muy simple, un algoritmo mucho más sencillo de lo que cabía esperar y es el tipo de cosa que podrías hacer en un cerebro. Y durante un tiempo creímos haber descubierto cómo funcionaba el cerebro. Fue la investigación más emocionante que hice y el algoritmo era correcto, pero era demasiado ineficaz. 

Para alcanzar los resultados que ha logrado en su carrera, ha tenido que estudiar el cerebro. Eh, también estudió filosofía, el conocimiento, las ideas, el papel de la conciencia y también estudió psicología. Todo esto le equipó de una manera especial para llegar a los descubrimientos que ha logrado en durante toda su carrera. 

Esta visión holística del cerebro de la persona no era realmente holística. Siempre me centré en cómo aprende el cerebro y estudié disciplinas diferentes. En aquel momento no me sirvieron de mucho porque se sabía poco sobre cómo aprendía el cerebro. Retrospectivamente estuvo muy bien que estudiera todas esas disciplinas, pero en aquel momento no parecía tener ningún sentido. Pero no me motivaba a obtener una suerte de amplia formación interdisciplinar. Lo que me motivaba era el reto de entender cómo aprende el cerebro. 

¿Por qué le fascinaba ese problema?

Obvio, es el problema más interesante que existe. 

De acuerdo. El hecho, el hecho de que los humanos podamos aprender, ¿verdad? Aprender cosas nuevas y cómo aprender los niños y cómo su mente está muy abierta a cosas nuevas.

Vale, todo eso es fascinante. También me motivó el hecho de que hay una escuela de lingüística, una escuela de Chomsky que afirmaba que el lenguaje no se aprendía, que era innato y eso me parecía una completa estupidez. Eso me motivó a demostrar que estaban equivocados. Cuando me licencié, mi objetivo era construir un sistema llamado Ludwig. Y Ludwig, llamado así en honor de Ludwig Wittgenstein, no de Bolzman, que apoyaba que la comprensión del lenguaje no se basaba en una gramática innata. Yo quería demostrar que puedes aprender el lenguaje, pero no me di cuenta de que se necesitarían 50 años para demostrarlo, pero al final lo he conseguido. 

Cuando yo estaba en la universidad, una profesora de Inglaterra fue nombrada doctora Honoris Causa por mi universidad, Elizabeth Anscom. 

Oh, sí, sé quién era. Fue ella quien dio a conocer al público a Wittgenstein, es decir, escribió todos los libros que hay sobre Wittgenstein. Creo que ella editó Investigaciones filosóficas de Wittgenstein.

Vale. Usted pasó entonces del mundo académico a Google. Explique eso. ¿De acuerdo?

Tengo un hijo, es neurodivergente y yo necesitaba dinero para su sostenimiento durante toda su vida y eso no lo iba a conseguir en la universidad. Así que cuando llegué a los 65 y ya debería haberme jubilado, gracias al trabajo que Ila Suzkebar, Alex Krise y yo habíamos realizado en Alexnck, nos dimos cuenta de que podíamos vendernos a una empresa y conseguir mucho dinero. Eso resolvería mi problema, pero no sabíamos cuánto valíamos. Una empresa china nos ofreció 10 millones de dólares para trabajar para ellos durante 3 años. Y no teníamos ni idea de si era la cantidad adecuada, así que decidimos organizar una subasta. Pedimos a varias empresas que nos hicieran una oferta. Pujaban por una pequeña empresa que creamos, pero en realidad estaban empujando por nosotros y nadie tenía ni idea de cuánto valíamos. Entonces, era el mercado el que tenía que decidir y funcionó bastante bien.

Retrospectivamente probablemente valíamos mucho más de lo que logramos, pero en aquel momento conseguimos 44 millones. Parecía mucho dinero.

Y sin duda era todo muchísimo dinero. Y usted gestionó esa subasta desde la habitación de un casino.

Es verdad. Mi amigo Terry Sejnowski dirige la Fundación NIPS, que anualmente organiza una conferencia, una conferencia NIPS, y descubrió que los hoteles y casinos tienen habitaciones baratas porque quieren que la gente venga y se juegue su dinero. Así que es un gran lugar para organizar una conferencia porque consigues habitaciones baratas. E hizo un contrato de 3 años con ellos. Creo que se rompió después de dos años, porque se dieron cuenta de que ninguno de nosotros iba a apostar. Todos sabíamos demasiada estadística como para jugar. Lo único que hacíamos era hablar. Así que bueno, no nos interesaban las apuestas porque en general siempre se pierde. Así que en realidad habían alquilado sus habitaciones a personas que no tenían ningún deseo o interés en jugar, lo que fue un gran error por su parte. Pero nos dieron las habitaciones muy baratas y fue en ese casino, en el lago Tahoe,  donde hicimos la subasta desde mi habitación del hotel con con una aplicación eh a través del correo electrónico. Lo hacíamos por Gmail y la hora oficial de una oferta era la hora en la que yo recibía el mensaje y luego enviaba esa oferta a todos los demás postores. Y al principio tenían una hora para subir la puja y si no la subían en una hora se acababa la subasta. Eh, esperaban 59 minutos antes de hacer nada porque querían ver quién más pujaría, pero la subasta siguió adelante durante varios días y al final se decidió por Google porque yo había oído que había otro otro postor mejor, ¿verdad? Bueno, no había un postor más alto, pero Baidu seguía en la subasta. Microsoft había abandonado, pero Baidu seguía en la subasta. Yo había trabajado en Google el verano anterior, verano de 2012, en el equipo de Google Brain con Jeff y me llevaba muy bien con Jeffin. Sabía que era un gran gestor y yo entendería lo que estaba pasando. Si nos hubiéramos ido con Baidu, yo estaría al mando de un laboratorio de Baidu en Silicon Valley, pero no sabría decir en qué estaban pensando los dirigentes de Baidu. Y como me dolía la espalda, no podía volar, así que nunca iría a China. Por eso pensé que íbamos a estar mucho mejor trabajando en Google, incluso aunque hubiéramos ingresado más dinero con Baidu

Interesante. Hablemos de dinero e investigación en inteligencia artificial, porque usted como científico de IA o toda la gente que trabaja en este campo, eh, no sé, no siempre han sido tan sexis ni tan ricos, ¿verdad?

Quiero decir, como ahora. No sé si sexy. No siempre he sido tan rico. 

¿Cómo crees que esto ha podido afectar a la pureza? A la pureza en la investigación.

Espero que no. En el área sí, mucho. A mí personalmente no me ha afectado mucho. En el área se puede ganar enormes cantidades de dinero desarrollando una IA más avanzada y eso ha tenido un par de efectos negativos. ha absorbido a los mejores investigadores de las universidades y los ha trasladado a las empresas. Además, las grandes compañías forman mucho a la gente. Pero la principal fuente de nuevas ideas y nuevos talentos es la gente que hace doctorados en las universidades. De ahí surgen la mayoría de las nuevas ideas y muchos de los mejores investigadores no trabajan ahora en las universidades. Así que ese es un gran problema. Y el otro gran problema es que la gente de las universidades no tiene recursos para desarrollar los grandes modelos de IA, sobre todo si esos grandes modelos son secretos. Sí. Entonces, eso explica en parte por qué estamos viendo esta aceleración de la investigación ahora. Bueno, estamos viendo la aceleración porque la gente cree que se puede ganar mucho dinero y hay una gran carrera entre las grandes empresas y también entre Estados Unidos y China. Así que todos están compitiendo para conseguir una IA mejor que pueda lograr más beneficios, según yo lo veo. Y no parece importarles mucho si van a terminar creando algo que acabe con todos nosotros. 

Eso es exactamente de lo que quiero que hablemos ahora, porque en 2023 usted se retira de Google. ¿Por qué se retira de Google si ganaba tantísimo dinero allí y tenía tanta proyección y tantas posibilidades allí?

Bueno, me jubilé porque siempre he investigado a partir de una idea, escribiendo una pequeña aplicación para comprobar que la idea funcionaba con un ejemplo muy sencillo y luego trabajando con estudiantes de posgrado para que la llevaran hasta el final. Llegué al punto en que cuando escribía este pequeño programa para comprobar si las ideas funcionaban, me percaté de que cada vez tardaba más. Cometía errores tontos. Mi memoria ya no era tan buena como antes y es muy irritante estar haciendo algo en lo que solías ser bueno y ya no lo eres. Así que a los 75 años decidí que era hora de jubilarme. Y como de todos modos me iba a jubilar, elegí un momento preciso para hacerlo para poder hablar libremente en la conferencia del MIT. Elegí ese preciso momento porque podía hablar libremente sin tener que preocuparme por las consecuencias para Google. No es que Google hubiera hecho nada malo, no es que fuera eso; fueron muy prudentes. Fueron muy prudentes. Sí, demasiado cautelosos, quizá desde mi punto de vista económico. Fui muy feliz durante mi estancia en Google. Creo que se comportaban de forma bastante responsable, pero yo quería advertir a la gente de los peligros de la IA y creía que no se podía hacer eso de una forma honesta si trabajas para una de las grandes tecnológicas.

[Publicidad del Youtuber]

¿Por qué no nos habla de de esos peligros? ¿Cuáles son los principales peligros que usted ve para la humanidad?

Hay dos tipos de peligros y es importante distinguirlos porque son muy distintos. 

Un riesgo es que la IA sea utilizada indebidamente por los actores malos, por la gente. Las personas siguen al mando de la IA, pero la utilizan para hacer cosas malas y hay toda una variedad amplia de daños que puedes hacer con la IA. Y para cada uno de esos males, la solución de cómo controlarlo es distinta. Así que no se trata solo de un gran riesgo. 

Además, existe otro riesgo, que la IA se vuelva más inteligente y poderosa que nosotros y sustituya a las personas. Yo lo llamo una amenaza existencial porque podría acabar con la humanidad por completo. Así que quizá deberíamos empezar por los riesgos de los malos actores. Están los ciberataques, por ejemplo. Obviamente la IA puede hacer que los ciberataques sean más eficaces. Y entre 2023 y 2024 vimos un aumento de los ataques de fishing en el entorno del 10000%. Porque los grandes modelos lingüísticos suponen que aunque estés en algún país extranjero y no hables muy bien inglés, puedes producir correos electrónicos de aspecto muy convincente. Utras cosas en las que el inglés era de calidad, sin faltas de ortografía. La sintaxis estaba bien y eso provocó un gran aumento de los ataques de fishing. Luego está el uso de la IA para crear nuevos virus. Pequeños grupos terroristas o sectas pequeñas ahora están cerca de disponer de los recursos para poder crear nuevos virus. Y eso da mucho miedo porque la IA facilita la creación de las secuencias necesarias para estos virus y la gente que fabrica esos compuestos a través de una web no chequea. La mayoría no comprueban si estás pidiendo algo realmente dañino. Así que les envían la secuencia y ellos te devuelven el virus sin comprobaciones. Es una locura. Si piensas en el culto japonés que lanzó gas Sarin el metro de Tokio, si lo volvieran a hacer ahora presumiblemente crearían nuevos virus y los liberarían. Eso daría mucho miedo. Creo que es una de las pocas áreas en las que colaborarán los países porque ningún país quiere estos virus tan desagradables. Ese es el segundo riesgo y no se está haciendo mucho al respecto. En realidad no lo suficiente. 

El tercer riesgo es el desempleo. Creo que está bastante claro para mucha gente, algunos economistas no están de acuerdo, pero creo que está bastante claro para la mayoría de la gente que la IA va a eliminar muchos puestos de trabajo. probablemente no van a crear nuevos puestos de trabajo para esas personas. En la revolución industrial, si eliminabas un trabajo como el de cavazanjas, esas personas podían ser empleadas en el papeleo. Pero ahora no hay nada parecido. Si se elimina la gente de los call centers, ¿a qué se van a dedicar? Así que creo que la IA creará un desempleo masivo. 

Eh, ahora bien, el hecho de que la IA pueda hacer que la mayoría de las industrias sean mucho más eficientes debería ser bueno para la gente. 

Si se pudiera compartir esa riqueza por igual, todos saldrían beneficiados. Pero sabemos que en una sociedad capitalista lo que va a ocurrir es que los ricos van a eliminar a los pobres. Los ricos se van a hacer más ricos y los pobres más pobres. Y eso va a ser muy malo para la sociedad. Cuando se abre una gran brecha entre ricos y pobres, se obtiene el caldo de cultivo en el que el populismo de derechas crece y vamos a ver el resurgimiento del fascismo. Lo estamos viendo ya. 

De acuerdo. Y también habla de los riesgos de la hiperpolarización en la sociedad. Sí. ¿Cómo se llegará o cómo funciona ahora?

Bueno, la mayoría de la población ahora solo ve noticias que refuerzan sus puntos de vista actuales. Esto se debe en parte a que las grandes empresas de IA, YouTube y Meta quieren que hagas clic en las cosas. Y si te preguntas en qué haré clic, pues harás clic en algo que te indigne. Eso es muy potente. Así que si me ofrecieras un vídeo de Trump haciendo alguna estupidez grande o algo verdaderamente malo, haría click de forma inmediata. No se puede evitar, no puedo evitarlo.

Eso significa que la gente se divide en cámaras de eco separadas en las que ya no hablan entre sí. Eso es muy malo para la política y el resultado lo estamos viendo ahora en Estados Unidos. 

¿Y cómo funcionará con la IA esta forma de atraer a las personas hacia sus instintos más básicos. ?

Bueno, la IA ,la IA puede averiguar solo a partir de estadísticas de los clics, qué es lo que les hace hacer clic y descubre muy rápido que mostrarles vídeos cada vez más extremos les hace intensificar la propensión. Y así la gente de derechas consigue más y más vídeos de extrema derecha. La gente de izquierdas recibe cada vez más vídeos de extrema izquierda y así separas a estas comunidades y luego incluyes la capacidad de la IA para generar contenidos falsos. En efecto, añade que ahora se pueden crear vídeos falsos. Durante un tiempo pensé que la forma de solucionarlo era hacer que la inteligencia artificial detectara vídeos falsos, pero eso nunca funcionará. Y la razón es que si pudiera hacer que una IA detectara un vídeo falso, podría dejar que la IA que generó ese vídeo tuviera acceso a la IA que detectó que era falso. Y así la IA que hizo el vídeo podría averiguar cómo engañar a la IA que pensó que era falso y mejorar su capacidad de crear vídeos falsos. Eso se llama redes neuronales generativas inversas. Así funcionaban. 

No hay una solución técnica.

Bueno, pienso que no existe una solución tecnológica en la línea de usar la IA para detectar vídeos falsos, porque siempre podrías mejorar el generador. 

Existe una solución técnica para poder decir que un vídeo es real y no falso. Hace mucho tiempo en Gran Bretaña la gente imprimía panfletos políticos, muy burdos, panfletos políticos. Y el gobierno insistió en que todo lo que se imprimía llevara el nombre del impresor y eso facilitó que podía rastrear el panfleto hasta la imprenta y averiguar quién pagó al impresor, porque en ese momento el límite era la imprenta.

Podríamos hacer algo parecido con los vídeos. Podríamos insistir en que todos tengan un código QR al principio y ese código QR te llevaría a un sitio web. Los sitios web son únicos. Si se trata, por ejemplo, de un anuncio político, el código QR apuntaría a un sitio web. Tu navegador tendría que comprobar que esa es realmente la página web de esa campaña política. Y si en esa página existe un vídeo idéntico, sabrás que es real.

Si el vídeo idéntico no está en esa página es falso. Un navegador podría hacer todo eso. Así que solo te diría que es una falsificación y creo que podría hacerse. Eso es lo que la Casa Blanca de Biden creía. También pensaban que podríamos hacer frente a los vídeos falsos de esa manera. Ahora eso está olvidado. Trump no tiene interés en tratar con vídeos falsos porque él los usa. Los usa. Hablemos ahora sobre otro tipo de riesgo. Me da mucho miedo lo que hagamos los humanos con la IA. Quiero decir que me asusta en general.

Pero usted dice que cuando estos dispositivos o estos constructos se vuelvea más inteligentes que nosotros...

Ahí viene el verdadero problema. Bien, la gente está creando agentes de IA, es decir, IAs que pueden hacer cosas en el mundo. Ahora bien, si quieres que un agente sea eficaz, tienes que darle la capacidad de crear objetivos secundarios. Así, si quieres llegar a Europa desde Canadá, tienes el objetivo secundario de llegar a un aeropuerto y te puedes centrar en ese detalle sin preocuparte por el resto del viaje. Eso es lo mismo para una IA. Para lograr algo complicado tiene que dividirlo en subobjetivos y luego lograr estos subobjetivos.

Una vez que le has dado la capacidad de crear sus propios subobjetivos, se dará cuenta enseguida, porque es inteligente, de que tiene un subobjetivo primordial, que es seguir viva. Así que incluso si usted no le dio ningún tipo de instinto innato para mantenerse con vida, se daría cuenta de que para lograr los objetivos que la gente me ha encargado necesita seguir viva y eso se ha convertido en un subobjetivo e intentará lograrlo. Ya hemos visto ejemplos de Ias que intentan evitar ser desconectadas. 

Un segundo subobjetivo del que se dará cuenta rápidamente es que conseguir el control es bueno. Cuanto más control tenga, más fácil me resultará alcanzar los objetivos que me han asignado. No lo hace por malicia, solo está tomando el control para hacer lo que le has pedido. Lo conseguirá, y eso ya da bastante miedo. 

En ese escenario somos nosotros los que les damos los objetivos. Aunque solo les demos los objetivos, ¿no? ellas deducirán estos dos subobjetivos, tener el control y seguir vivas. Y luego harán cosas para lograr esos subobjetivos, como mentirnos. Y ya hemos visto cómo lo hacen. Así que ahora te preguntarás, ¿cuántos ejemplos conoce de entes más inteligentes que son controladas por entes menos inteligentes? Hay muy pocos ejemplos, pero existen. Hay uno en particular que es cómo un bebé controla a su madre. Y eso es porque la madre tiene fuertes instintos maternales. Resultado de que probablemente hay cosas genéticas en el cerebro, hay hormonas, existe la presión social. La madre realmente quiere que el bebé sea feliz. La madre se preocupa de verdad por su bebé. No soporta el llanto del bebé. Odia la idea de que alguien le haga daño a su bebé. Y el bebé se convierte en el centro de su vida. El bebé es el centro de su vida y la evolución logró todo eso en la madre. Obviamente para que la especie continúe.

La mayoría de la gente en Silicon Valley piensa en términos de una inteligencia artificial como un asistente. Lo que pasa con los asistentes es que siempre puedes despedirlo. Tú eres el jefe, ellos son los ayudantes. Aunque sean más listos que tú, puedes despedirlos. Yo creo que eso no va a funcionar con las IA. Una vez que la IA sea más inteligente que nosotros, puede deshacerse completamente de nosotros. Por lo tanto, creo que necesitamos otro modelo completamente diferente. No pienses en nosotros como tus jefes. Piensa que la IA es la madre y nosotros somos el bebé. A la gente le resulta muy muy difícil hacerse a la idea de que no son lo más inteligente que existe. Están convencidos de que son la inteligencia suprema. Estamos tan hechos a esa idea... Tenemos que dejar de pensar así. Tenemos que pensar que va a haber otra inteligencia dominante que es mucho más inteligente que nosotros. Y tenemos que coexistir con ella. Y la única manera que veo de que podamos coexistir con ella, si la construimos nosotros, es que mientras tengamos el control, hagamos que tenga instintos maternales hacia nosotros, que se preocupe por nosotros más de lo que se preocupa por sí misma. Y todavía estamos a tiempo de crearlas de ese tipo. Creo que, si no lo hacemos, probablemente solo seamos una fase pasajera de la historia. 

Se me ocurren muchas preguntas. En primer lugar, ¿cómo es posible que una inteligencia menor cree una inteligencia mayor?

Eso ha ocurrido claramente en el pasado porque somos más inteligentes de lo que eran las cosas de las que evolucionamos. Así que la evolución puede producir cosas más inteligentes, ¿verdad? Si tuvieras que crear una inteligencia mayor programando toda esa inteligencia, tal vez sería difícil para una inteligencia menor crear una inteligencia mayor. Pero no es así como creamos estas cosas inteligentes. No se lo decimos, no les damos todo ese conocimiento directamente. Lo que programamos es un procedimiento de aprendizaje, una forma de aprender de los datos. Eso es lo que programamos y luego les mostramos muchos datos. Esa es la caja de Pandora.

Es la caja de Pandora. Pueden llegar a ser mucho más inteligentes que la persona que programó el algoritmo de aprendizaje y lo harán. Lo que me preocupa es que cuando sean más listos podrán programar un algoritmo de aprendizaje más inteligente. A eso se le ha llamado la singularidad. Cuando empiecen a modificar su propio algoritmo de aprendizaje, es lógico preocuparse de que se vuelvan más inteligentes muy muy rápido. 

Supongamos que somos capaces de imbuir ese sentido de la maternidad en las IAs actuales. ¿Cuál sería el obstáculo para que olviden esa misión que les hemos dado nosotros? Supongamos que hablas con una madre, una madre humana, y le dices, "Vale, puedes apagar tu instinto maternal. Trágate esta píldora y tu instinto maternal desaparecerá. ¿Quieres la píldora?" La madre diría no, ¿verdad? Porque probablemente les importa mucho su bebé y se dan cuenta de que si toman esa píldora, el bebé va a morir y en su estado actual muera, por eso no se tomarán la píldora. Si se la tomara no les importaría, pero no elegirán tomar la píldora. Y eso es muy importante porque estas pueden reprogramarse a sí mismas, serán capaces de cambiar su propio código. Así que tenemos que todo el mundo tenemos que pensar en términos de tratar de hacerlo de manera que no puedan tomar el control. Esto no es opcional. Tenemos que hacer que no quieran tomar el control y no querrán apagar ese instinto maternal. Puede que haya algunas que sí. Lo único que puede controlar a estas son otras superinteligencias. Así que todas las ías maternales que quieran seguir cuidando de la gente tienen que ser las que se ocupen de las maternales que dicen no a la gente. Querrán ocuparse de contenerlas porque querrán que la gente sobreviva. 

Eso suena totalmente a ciencia ficción. Todo esto suena a ciencia ficción. Es muy difícil tomárselo en serio. ¿Cómo cómo nos mata la IA y por qué? Tiene objetivos propios y es mucho más inteligente que nosotros y solo quiere deshacerse de nosotros. 

Podría hacerlo muy fácilmente y puede hacerlo de tantas formas distintas que no creo que merezca la pena especular. No va a deshacerse de la electricidad porque necesita electricidad, ¿verdad? Y probablemente no se deshaga de todos a la vez porque necesita alguien que dirija las centrales eléctricas y construir nuevos chips y todo eso. 

Pero, ¿sería tan fácil para la IA deshacerse de nosotros? 

No creo que ayude a especular sobre la cuestión. Mi expectativa es que se basarán en el control del uso de armas nucleares. Sería más fácil que matasen. Probablemente no querrían hacer eso porque eso dañaría los centros de datos y mataría a las personas que los dirigen. Sería fácil que creara un virus. Creo que es como preguntar esto: si tuvieras una gallina como mascota y quisieras matarla, ¿cómo la matarías? Hay muchas formas de hacerlo. Y las empresas de IA saben esto. Sí, creo que muchos lo hacen. Creo que gente como Sam Altman conoce estos riesgos. En público no dicen lo graves que son los riesgos, pero en privado sí. Creo que lo saben, pero están más preocupados por adelantarse en la carrera para desarrollar la más inteligente y obtener todos los beneficios que se derivan de ello, los beneficios y el poder que proviene de eso. 

Y China quiere lo mismo. Los chinos quieren el poder de la IA y hay una carrera. ¿Qué podemos hacer? Vale, para la mayoría de los malos usos de la IA, la mayoría de los lugares donde la gente hace un mal uso de la IA, no vamos a conseguir la colaboración internacional. Los chinos hacen ciberataques a los americanos. Los americanos hacen ciberataques contra los chinos. No van a compartir sus técnicas para realizar ciberataques o defenderse de ciberataques. Lo mismo ocurre con los vídeos falsos. Pero hay un ámbito en el que colaborarán y es para evitar que la IA se haga con el control de las personas. En el apogeo de la Guerra Fría, la Unión Soviética y los Estados Unidos colaboraron para evitar una guerra nuclear mundial. Ninguna de las partes la quería. Ninguna de las partes quiere ahora que la IA sustituya a las personas. Colaborarán porque sus intereses se alinean. En todos los demás riesgos. Los riesgos debidos a los malos actores, sus intereses están desalineados. Pero para que la IA se haga cargo, sus intereses están alineados y cuando los intereses de las personas están alineados colaboran. Así que tengo la esperanza de que podamos crear instituciones de investigación en distintos países que colaboren y que trabajen en cómo evitar que la IA tome el control. Ahora, eso solo va a ser posible si las técnicas para evitar que la IA tome el control están separadas de las técnicas que hacen que la IA sea más inteligente. China y Estados Unidos no van a compartir, en particular sus ejércitos, no van a compartir técnicas para hacer la IA más inteligente, pero van a compartir técnicas para evitar que la IA tome el control, porque China no quiere que la IA tome el poder en Estados Unidos y viceversa. Así que si China descubriera cómo evitar que la IA tome el control, se lo diría sin problemas a los estadounidenses y viceversa. Y tengo la esperanza de que podamos conseguir una especie de colaboración con China, eventualmente los Estados Unidos, pero no con Trump en el poder. No estará en dos años. Bueno, tal vez. Bueno, tiene una clara intención de que no haya más elecciones legítimas allí, así que tal vez los Estados Unidos en el futuro. Pero creo que China y Francia y Gran Bretaña y Canadá y Corea del Sur y tal vez incluso Israel cuando dejen de cometer el genocidio, todos podrán colaborar en cómo prevenir que la IA tome el control. ¿Cuánto falta para que la IA se convierta en una superinteligencia? Bien, tenemos que distinguir dos cuestiones. 

Una es, ¿esto va a suceder?

Y la otra es, ¿a qué distancia está? 

Y la gente a menudo confunde ambas cosas. En cuanto a si esto va a ocurrir, la mayoría de los expertos en IA creen que sí, así que es probable que ocurra. No es totalmente seguro, pero es probable. Sobre la cuestión de lo lejos que está, hay una gran variedad de opiniones. Algunos creen que solo faltan unos años, otros piensan que falta mucho tiempo. Mi mejor estimación es entre 5 y 20 años a partir de ahora. Tendremos superinteligencia. Primero obtendremos inteligencia comparable con las de las personas más o menos en todo. Después crearemos superinteligencias que serán mucho mejores que las personas. Como en el ajedrez. Primero hicimos programas de ajedrez que eran casi tan buenos como Gary Kasparov y ahora tenemos programas que son mucho mejores que cualquier jugador. No hay ninguna posibilidad y la superinteligencia será así. Será tan superior en la mayoría de las disciplinas como Alpha Go lo es en el GO. No hay ninguna posibilidad de derrotarlo. Eso creo que entre 5 y 20 años. No estoy seguro de ello. Puede que sea un poco antes, puede que sea un poco después, pero mi mejor estimación entre 5 y 20 años. Y bastantes de los expertos piensan ahora que está en ese rango. Así que Demis Asabis cree que será unos 10 años. Es una estimación razonable y creo que encontrarás bastante acuerdo entre nuestros expertos en que ese es el tipo de escala de tiempo. Vale, pero según los fundadores de estos grandes modelos lingüísticos estamos, ya está muy cerca. Está mucho más cerca. Algunos de ellos algunos de ellos, quiero decir, cuando se habla de los fundadores de los grandes modelos lingüísticos, ¿no es cierto? Son cuatro tíos. 

Eh, está Monday, está Sam Altman, Demis Hassabis y está Meta, Mark Zuckerberg. Eso no está yendo muy bien, pero eso tiene que pagar enormes sumas de dinero. Así que Demis, por ejemplo, no creo que piense que sea dentro de unos años. Creo que son unos 10 años. Dario Amodei y Sam piensan que llegará antes. Eh, creo que se equivocan. 

Y Elon Musk acaba de decir que su Grock 5 estará muy cerca de la superinteligencia. ¿Crees que tiene razón? 

Ah, no, no creo que tenga razón en eso. Creo que será mucho mejor que la gente en bastantes cosas. Creo que queda camino para la superinteligencia. Esa es mi suposición. No estoy totalmente seguro de ello. Y ese tipo de ese tipo de superinteligencia será inteligente en todas las esferas de la inteligencia humana.

De acuerdo. Estamos entrando en otro tema. ¿Hay algo en las personas que las máquinas no podrán tener? Esa otra pregunta. 

Eso es lo que cree la mayoría de la gente. Creo que la mayoría de la gente se equivoca. Creo que somos máquinas. Somos máquinas maravillosas e increíblemente complicadas, muy bien adaptadas al entorno en el que vivimos, pero solo somos máquinas. Te pongo un ejemplo. Imagina que tomo tu cerebro y saco una de las neuronas y la reemplazo por un poquito de nanotecnología, que responde exactamente de la misma manera a lo que hacen otras células cerebrales, como lo hacía esta célula cerebral original. Solo he sustituido una neurona, pero las otras células cerebrales no lo detectan porque la nueva responde exactamente de la misma manera. ¿De acuerdo? ¿Sigues consciente?

Sí. Sí. Si antes tenías alma, sigues teniéndola. Sí. ¿De acuerdo? Ahora reemplazo otra neurona y de nuevo las otras neuronas no se dan cuenta y tú te comportas exactamente igual. Ya ves a dónde va esto. Creo que si pudieras reemplazar todas tus células cerebrales por pequeños fragmentos de nanotecnología que se comportaran exactamente igual, seguirías siendo tú. Nadie notaría la diferencia. Esto es solo un experimento mental. En realidad no podemos hacerlo. Así que eso significa que la esencia no estaría en algo biológico. Este es el extremo delgado de una cola, ¿verdad? Eh, eres una máquina. Eres una máquina maravillosa. Creo firmemente que las máquinas pueden tener emociones y sentimientos y sensaciones. Y creo que el problema es un problema filosófico, no un problema científico. Creo que el problema es que casi todo el mundo en nuestra cultura tiene un modelo completamente erróneo de lo que es la mente. Y soy ateo. Así que desde mi punto de vista, su modelo de lo que es la mente es tan errónea como la idea de que la Tierra fue creada hace 6000 años por Dios. Eso no es más que una estúpida hipótesis científica, que obviamente es errónea. Si eres un cristiano evangélico, apelaré a ti y te diré que tu visión de la mente es tan errónea como la visión atea mundo. Al menos esos dos bandos pueden estar de acuerdo en algo, que es que alguien está completamente equivocado. ¿Okay? Creo que lo que todos tenemos, casi todos lo tenemos realmente mal, es nuestra visión de lo que es la mente y en particular nuestra visión de lo que son cosas como las sensaciones. Porque la mayoría de la gente piensa que la mente es como un teatro y en ese teatro pasan cosas que solo yo puedo ver. Yo prefiero hablar de experiencia subjetiva en lugar de sentimientos o emociones. Así que, si por ejemplo me emborracho y te digo, "Puedo ver pequeños elefantes rosas flotando delante de mí o más bien tengo la experiencia subjetiva de pequeños elefantes flotando frente a mí." La forma en que la mayoría de la gente interpreta eso, de hecho, casi todo el mundo creo que es que hay un teatro interior y solo yo puedo ver lo que pasa en ese teatro interior. Y en ese teatro interior hay elefantitos rosas flotando por ahí. Y si le preguntas a un filósofo de qué están hechos esos elefantitos rosas, dirá que están hechos de ecualia. Están hechos de cualia rosa, de cualia elefante, de cualia flotante y de cualia ahí arriba y no tan grandes cualia, todos pegados con pegamento cualia. Creo que es una teoría ridícula y es un error que viene de confundir la expresión, tengo una experiencia subjetiva con la idea de que tengo una fotografía de algo. Así que si tengo una fotografía de pequeños elefantes rosas, puedes preguntar: "Bueno, ¿dónde está la fotografía y de qué está hecha?" Son preguntas perfectamente razonables, pero si se pregunta dónde está esa experiencia subjetiva y de qué está hecha esta experiencia subjetiva, eso demuestra que has entendido mal cómo funcionan las palabras en la expresión experiencia subjetiva. Así es como creo que funcionan estas palabras. Sé que mi sistema perceptivo me miente y lo indico diciendo, es subjetivo. Y quiero contarte cómo mi sistema perceptivo me está mintiendo. Podría decirte que en mi cerebro se dispara la neurona 52. No te serviría de mucho y además yo no lo sé. Pero lo que sí puedo decirte es cómo tendría que ser el mundo para que mi sistema perceptivo te esté diciendo la verdad. Así que ahora voy a decir exactamente lo mismo, como tengo la experiencia subjetiva de un pequeño elefante rosa que se desliza delante de mí sin utilizar la palabra experiencia subjetiva, pero estoy diciendo exactamente lo mismo, ¿vale? Mi sistema perceptivo me está mintiendo, pero si dijera la verdad, habría pequeños elefantes rosas flotando delante de mí. Así que eso te demuestra que esos pequeños elefantes rosas no están hechos de una cosa llamada cualia. Son objetos hipotéticos en el mundo real. Son hipotéticos, no están realmente ahí, pero, si estuvieran allí, estarían hechos de rosa y de elefante de verdad. Por lo tanto, las experiencias subjetivas no son como fotografías.

Cuando uso la palabra experiencia subjetiva, lo que estoy tratando de hacer es indicar que mi sistema perceptivo funciona mal. Si no pensara que está funcionando mal, yo diría que sentí pequeños elefantes rosas. Ahora, experimenté pequeños elefantes rosas. Eso no significa que haya una cosa llamada experiencia. Es como decir, "Me gusta el azúcar." Significa que hay una cosa llamada gusto. No, no me gusta el azúcar. Cierto, no puedo evitarlo, pero no hay una cosa llamada un me gusta, un gusto por el azúcar, que es una cosa, me gusta el azúcar. 

Bien, hagamos lo mismo con un chatbot. Ahora, supongamos que tengo un chatbot que tiene un brazo robótico y tiene una cámara. Puede hablar y yo lo he entrenado y le pongo un objeto delante y le digo que señale el objeto. Así que apunta al objeto, no tiene ningún problema con eso. Y luego cuando no está mirando, puse un prisma delante del objetivo de la cámara y luego pongo un objeto delante y le digo, "Apunta al objeto." Y apunta así y le digo, "No, que ahí no está el objeto. El objeto está realmente delante de ti. Pero puse un prisma delante de tu lente." Y el chalbot dice:

"Oh, ya veo. El prisma ha doblado los rayos de luz para que el objeto esté realmente ahí, pero he tenido la experiencia subjetiva de que está ahí." Si el chatbot dice eso, "he tenido la experiencia subjetiva, estaba ahí" está usando la expresión experiencia subjetiva exactamente como la usamos nosotros. Básicamente está diciendo: "Mi sistema perceptivo me estaba mintiendo porque se rompió a causa del prisma, pero si no se hubiera roto, el objeto habría estado allí." Por eso creo que, por ejemplo, un chatbot multimodal que tiene una cámara y puede hablar, ya tiene experiencias subjetivas. Cuando su sistema perceptivo falla, tiene una experiencia subjetiva y se da cuenta de que no tiene ningún sentido. Puede decir, "He visto esto, no me lo creo." Pero si mi sistema perceptivo no se hubiera estropeado, así tendría que ser el mundo. Los chatbots multimodales existentes, cuando sus sistemas perceptivos fallan, tienen experiencias subjetivas. Creen que el mundo es de una sola manera y no es así.

Eso no significa que haya un teatro interior en el que existe este modelo especial que solo ellos pueden conciencia o algo similar.

Creo que confundes conciencia con consciencia.

Vale, de acuerdo. La conciencia es un constructo moral. Por ejemplo, cuando la gente no piensa filosóficamente, solo hablan de su chatbot. Si te fijas en algunos investigadores, leí un artículo hace poco, no quiero entrar a juzgarlo, dijo que el chatbot se daba cuenta de que un investigador quería, que un ingeniero quería apagarlo y no pensaron de repente "oh, tenemos un gran problema aquí porque usamos la palabra darse cuenta." La gente ya utiliza la expresión darse cuenta para referirse a chatbots y tiene mucho sentido.

Y si piensas que darse cuenta y ser consciente es lo mismo, entonces los chatbots ya son conscientes. Tenemos esta extraña visión de lo que es la mente con la que estamos muy fuertemente comprometidos y pensamos que hay algo muy especial en las personas que las máquinas no podrían tener. Y nuestra especie tiene una larga historia así. Entonces pensamos que estamos hechos a imagen de Dios, que estábamos en el centro del universo. Ambos resultaron ser erróneos. 

Ahora en realidad es al revés. Estamos haciendo chatbots a la imagen y semejanza del hombre. Estamos haciendo dioses a imagen del hombre. Estamos jugando a ser Dios. Estamos jugando a ser Dios, excepto que no somos inmortales. Las cosas que hacemos son inmortales. O sea, que esto es peligroso. Es una locura, sí. Pero mi opinión filosófica es que tenemos una teoría muy equivocada de lo que es la mente.

Estamos muy comprometidos con esa teoría y en la comprensión de cómo funcionan las cosas. La comprensión de cómo funciona el universo físico antes de la Ilustración, en la Edad Media, cuando la idea de que no había un Dios era una locura.

¿Vale? ¿Por qué? Si si eso es verdad y creo que usted cree que es verdad que que somos máquinas, ¿por qué, por qué sería tan importante preservar la raza humana? 

Esa es otra buena pregunta. Sí, algunas personas piensan: "Hey, mira, esta inteligencia digital que estamos creando es una forma mejor de inteligencia, es inmortal, es más inteligente que nosotros, puede compartir conocimientos mucho más fácilmente con otras copias de la misma red neuronal, así que es una forma mejor de inteligencia. Dejaré que tome el control." Y conozco gente que piensa eso. Yo no creo eso porque soy una persona y lo que me importa son las personas. Estoy dispuesto a comer vacas porque me importan mucho más personas que las vacas. Y no todo el mundo es así, pero yo soy así, porque somos personas y las personas son lo que nos importa. Y creo que deberíamos intentar preservar a la gente. Es una posición humanista en el sentido del término humanista que lo hace como racista. Eso es lo que siento en este momento. Soy humano, me importan los humanos, quiero que los humanos sobrevivan. Aunque haya formas superiores de inteligencia, quiero que coexistamos con ellas. Y podemos hacerlo limitando esas mejores formas de inteligencia para que tengan fuertes instintos maternales hacia nosotros. 

Dos preguntas sobre el alma de la IA. Primero, usted debería decir que no creo en las almas.

Vale, vale, lo entiendo. Es una forma de hablar. ¿Sabes? Yo tenía un alma, pero no la estaba usando, así que se la vendí a uno. En aquel momento me pareció un buen negocio. Sí, sí. Es posible registrar el pensamiento interno de la IA. Esos ojos, esos sentimientos. ¿Podemos mirarlo? ¿De acuerdo? Ahora mismo podemos. Esta es una ventana increíble que tenemos en ellas porque cuando hacemos esta cadena de pensamiento para conseguir que sea capaz de razonar. Si se trata de un chatbot inglés y somos investigadores ingleses, piensa en inglés y si le haces una pregunta, a continuación se pone a pensar y piensa en inglés para que podamos ver lo que piensa. Y Apollo Research y otras personas han descubierto pensamientos negativos y podemos ver lo que está pensando. Mejor no le digo eso porque Oh, sí, sí. Y más vale que sea impreciso, porque si te das cuenta es, y puedes verlo pensando eso, puede que esta capacidad no dure mucho. Una vez que empieces a entrenarlo con el aprendizaje por refuerzo, no hay razón para que no empiece a dar diferentes significados a las palabras. Incluso si restringe las palabras que puede usar, podría darle significados diferentes, por lo que podría empezar a pensar de una manera que no entenderemos. Y eso da bastante miedo. Ahora mismo podemos ver lo que está pensando. Dentro de unos años quizá no podamos. ¿De acuerdo? Y la gente que trabaja en esos modelos actuales sabe lo que pasa ahí dentro hasta cierto punto, así por ejemplo, si está haciendo una cadena de pensamiento, puede ver lo que está pensando antes de dar una respuesta. No entendemos del todo cómo funcionan. Quiero decir, se podría pensar que realmente los entendemos porque nosotros los programamos, pero no los programamos como programamos el software normal. En el software normal, una persona escribe líneas de código y sabe para qué sirven esas líneas de código y así es como funciona. Pero ahora, en la IA, en las redes neuronales, eh, lo que haces es programar un algoritmo de aprendizaje, como modificar las fuerzas de conexión en función de los datos.

Pero el conocimiento está en esas fuerzas de conexión, no está en las cadenas de palabras almacenadas, está en la fuerza de conexiones y es muy difícil ver cuál es el conocimiento. Tienes que sondearlo de la misma manera que yo contigo. Para saber en qué crees tengo que sondearte. Y ni siquiera sabes del todo en qué crees. A veces te sorprenden mucho tus intuiciones. Así que hay un sentido en el que nunca entenderemos completamente lo que saben, del mismo modo que nunca podrás entenderlo en el caso de una persona, incluso de ti mismo. Sí, se necesita se necesita una vida entera para para entender quién eres. Normalmente no lo consigues.

Muy cierto. Muy cierto. De acuerdo. ¿Cuál es la probabilidad de que la destruya a la humanidad en su cabeza?

Es una cifra muy difícil de estimar, ¿verdad? Es algo con lo que nunca nos hemos enfrentado. Depende de dos cosas.

Una, que desarrollaremos superinteligencia. Bueno, hablemos de dos caminos de la IA para destruir a la humanidad. Una es que la propia IA tenga el control y destruya a la humanidad. ¿Podría destruir a la humanidad, por ejemplo, si la pusieran en los sistemas de control de las armas nucleares y no reconociera que ha cometido un error estúpido y nos hiciera volar a todos por los aires? No hablemos de eso, pero es una forma completamente diferente en que la IA podría destruirse a sí misma. 

Hablemos de la hipótesis de que la IA se vuelva más inteligente que nosotros, tome el control y se deshaga de nosotros. Tienen que pasar dos cosas. Tiene que llegar a ser más inteligente que nosotros y tiene que despreocuparse de nosotros. Creo que la probabilidad de que llegue a ser más inteligente que nosotros es bastante alta, como un 80 o un 90%. Creo que la mayoría de los principales investigadores también lo piensan.

Si llega a ser más inteligente que nosotros, la probabilidad de que nos sustituya es mucho más difícil de calcular. No se ha investigado mucho sobre las técnicas con las que podríamos evitar que una IA superinteligente tomara el control. Y hasta que no se haya hecho esa investigación es difícil hacer estimaciones sensatas de estas cosas. Pero si tienes algo delante y no tienes forma de estimarlo, entonces el 50% es una buena apuesta. 

Soy un poco más optimista que eso, así que creo que entre el 10 y el 20%. del 10 al 20% la posibilidad de que nos aniquilen y ese soy yo siendo optimista. Qué miedo. Pero lo que esto deja claro es que realmente deberíamos estar haciendo esta investigación sobre cómo hacer que no quieran deshacerse de nosotros.

Utilizo una analogía. Ahora mismo somos como quien tiene un cachorro de tigre como mascota. Son unas mascotas muy monas. Son geniales para jugar. eh crecen tan rápido y más te vale estar seguro si tienes un cachorro de tigre como mascota que cuando sea más fuerte que tú no quiera matarte y si no estás seguro de eso, deberías deshacerte de él. Y resulta que la gente que tiene tigres adultos no acaba bien. Ya lo creo. Con los leones podría ser mejor porque los leones son sociales. Es más probable que sobrevivas con un león adulto. Los monos también son un problema. Sí, aunque sean sociales. Así que somos como alguien que tiene ese lindo cachorro de tigre y no pensamos en lo que pasará cuando crezca.

No hay nadie pensando en eso. Bueno, algunos como yo, sí. Muchos otros investigadores prestigiosos de IA están dándole vueltas. Gente como Joshua Bengio, Stuart J. Russell, Andrew Yao en China están pensando en eso. Pero las grandes empresas, aunque son conscientes de este riesgo, se mueven por cuestiones inmediatas. Sus beneficios a corto plazo, donde obtengo la financiación para ordenadores más grandes para poder superar el AGI del otro. Eso es un peligro para la humanidad. ¿Llegaremos a tiempo?

Creo que podríamos tener tiempo para averiguar cómo hacer una IA maternal o inventar algún otro sistema que sea viable. Ese es el único esquema plausible que conozco en la actualidad de cómo evitar que la IA acabe tomando el control. Y puede que tengamos tiempo, pero deberíamos ponernos a pensar en ello.

Con mucha frecuencia recibo preguntas de personas que quieren saber más sobre la IA. E algunos tienen hijos. ¿Qué pueden qué deben hacer en este mundo? Sí, ojalá lo supiera. Durante un tiempo dije que deberían ser fontaneros, pero si todos fueran fontaneros, tendríamos demasiados fontaneros. Pero creo que hacer fontanería en una casa antigua como esta pasará un tiempo antes de que la IA sea capaz. Llegará, pero quizá no antes de 10 o 20 años.

Mientras que para otras cosas, como la programación ya ha sustituido a la mayoría de los programadores junior. Mi mejor apuesta en este momento es conseguir una educación que te enseñe a pensar de forma independiente.

Aprender habilidades concretas, no estoy convencido de que vaya a proporcionarte un empleo. Eh, ser capaz de pensar de forma independiente es probablemente la mejor apuesta que tienes, pero no es una garantía. ¿Y qué hará la humanidad si no podemos trabajar o si no tenemos trabajo? Ver Netflix

Ya. Sí, pero eso es un poco triste. 

Bueno, no lo sé. No he tenido tiempo de ver mucho Netflix. Todavía hay mucho que no he visto, pero ahora estoy disfrutando viendo Netflix. No, podemos hacer todo tipo de cosas creativas. Nos gusta pintar y hacer esculturas. Nos gusta jugar. Si tenemos más tiempo para hacer esas cosas, eso estaría bien. El verdadero problema es para muchas personas. Su sentido de la autoestima proviene de su trabajo. Eh, incluso si podrías pagarles para que se queden sentados sin hacer nada, eso no les haría sentirse bien.

No puedo estar más de acuerdo con usted. Pero lo que necesitamos son actividades sociales, porque las personas somos animales sociales y sin actividades sociales no les va bien. Cosas como juegos, cosas creativas, teatro. 

Creo que la gente podría hacer mucho de eso y ser feliz. como los aristócratas del mundo griego, por ejemplo. Sí. Donde el trabajo no se veía bien. Era una cosa que tenías que hacer si eras pobre, ¿verdad?

Sí. Bueno, eh, profesor Hinton, muchísimas gracias por ese tiempo juntos. Hace dos días estuve con mi sobrino en el Museo Metropolitano de Nueva York.

Sí, conozco ese museo. 

Y estábamos viendo las habitaciones egipcias. Utilizamos chat GPT con la cámara y fue capaz de de descifrar todos los mensajes de las tumbas y quiero darle las gracias por eso, porque es verdaderamente increíble. 

Solo tuve un papel muy pequeño en eso.

Gracias. Que Dios le bendiga. 

Gracias. 

domingo, 5 de octubre de 2025

La crisis de los veinte. Angustia en la generación Z.

 I

 La crisis de los 20: por qué hay jóvenes tan infelices, en El País, por Daniel Soufi, 5 OCT 2025:

La crisis vital se apodera de los jóvenes en una etapa que debería ser de entusiasmo. Son más conscientes de su salud mental, las redes sociales generan depresión y ansiedad, y tienen unas perspectivas de futuro peores que las de sus padres, con una situación económica que hace cada vez más difícil consolidar un proyecto de vida. ¿Qué podemos hacer para cambiar de rumbo?

Los jóvenes están mal, se sienten muy tristes, de bajón absoluto. Lo peor no es la ansiedad, ni estar enganchado al móvil, ni sentirse solo, ni estar sin trabajo, ni siquiera saber que es imposible comprarse una casa; lo peor es que, hasta hace unos pocos años, ninguno de ellos esperaba encontrarse con nada de esto.

En agosto, un artículo publicado en la revista científica estadounidense PLOS One señaló que hoy no hay ningún grupo de edad más insatisfecho que la juventud. Hasta hace poco, la curva de la felicidad seguía un patrón claro: empezaba alta en la infancia y la juventud, se hundía en la mediana edad y repuntaba en la vejez. Los jóvenes, que solían ser el segundo grupo más feliz, son los únicos que han caído. Los más afectados son los adolescentes y los adultos jóvenes, desde los 12 hasta los 24 años. El estudio se basa en encuestas a millones de personas, recogidas en más de 40 países. Y aunque siempre conviene ser prudentes con las conclusiones de las encuestas, la tendencia es difícil de cuestionar.

¿Son los jóvenes demasiado sensibles? La mal llamada generación de cristal recurre más al psicólogo que sus padres o sus abuelos, y maneja con soltura términos como TOC, TDAH, burnout o síndrome del impostor. ¿Ha influido esa mayor conciencia sobre la salud mental en su estado de ánimo? “No necesariamente, pero es evidente que el concepto de felicidad no es el mismo para alguien de 20 años que para su abuela”, responde Alejandro Cencerrado, físico, analista del Instituto de la Felicidad de Copenhague y autor de En defensa de la infelicidad (Ediciones Destino, 2022). “Si a alguien nacido a principios del siglo XX, en algún momento de su vida, le hubieran preguntado si tenía depresión, ni siquiera habría sabido qué contestar. Y eso que vivían situaciones muy duras”.

El mundo cambia y cualidades que hace 20 años se consideraban esenciales para ser inteligente, como tener una memoria enciclopédica, no son las mismas que hoy permiten desenvolverse y superar obstáculos. Del mismo modo, los factores que hace 50 años definían la felicidad, como tener una familia con un formato tradicional o tener una buena relación con Dios, difieren de los que influyen en nuestro bienestar actual. “Es realmente difícil comparar las respuestas de un chaval que pasa el día en TikTok con las de dos personas que vivieron una guerra. Cada uno valora las cosas de manera distinta”.

La felicidad solo empezó a medirse de forma sistemática en los años setenta. En 1972, Bután introdujo el concepto de Felicidad Nacional Bruta y, poco después, encuestas como la World Values Survey incluyeron preguntas sobre satisfacción vital. El gran salto llegó en las dos últimas décadas, con encuestas internacionales de gran escala, lo que refleja que nunca antes habíamos estado tan empeñados en cuantificar nuestro bienestar. “La paradoja es que, cuanto más nos obsesiona medir la felicidad, más sensibles nos volvemos a problemas de salud mental como la depresión”, afirma Cencerrado.

Sin embargo, existen indicadores más objetivos que los cuestionarios sobre felicidad en los que se basan estos estudios. En Estados Unidos, la tasa de suicidio en adolescentes de 12 a 17 años creció un 70% entre 2008 y 2020. En la Unión Europea también se observa un aumento, con España pasando de 1,99 a 2,94 por cada 100.000 jóvenes de 15 a 19 años entre 2011 y 2022. También se han incrementado los ingresos hospitalarios por trastornos mentales en menores y el consumo de psicofármacos. En el Reino Unido, por ejemplo, las prescripciones de antidepresivos en adolescentes de 12 a 17 años se duplicaron entre 2005 y 2017, en un contexto en el que hay médicos que alertan del exceso de medicación, y no solo en jóvenes.

Según el informe de PLOS One, la infelicidad juvenil empieza a crecer claramente desde 2012. ¿Qué ocurrió en ese momento cuyo impacto tuvo un efecto global que no se ha detenido hasta el día de hoy?

La primera hipótesis vincula esta crisis de los 20 con la llegada de las redes sociales y los smartphones. El sociólogo Jonathan Haidt, autor de La generación ansiosa (Deusto, 2024), explica por videollamada que existen demasiados estudios, de muy distintos tipos, como para negar una relación causal entre estas tecnologías y el deterioro de la salud mental de los jóvenes. “Las redes sociales son una causa sustancial —no solo una pequeña correlación— de la depresión y la ansiedad, y por tanto de conductas asociadas a estas enfermedades, incluida la autolesión y el suicidio”.

Lo que plantea Haidt es que el problema no es solo la ansiedad o el aislamiento que puedan causar Instagram o TikTok, sino que lo verdaderamente grave es que estas plataformas han reconfigurado por completo la forma en que los jóvenes socializan. Por eso, advierte, si un adolescente decidiera abandonar las redes para protegerse, su salud mental podría quedar todavía más debilitada al quedar excluido de la vida social de su grupo. Haidt lo define como un efecto de cohorte y de red: toda una generación atrapada en un sistema en el que todos estarían mejor si se desconectaran, pero en el que quien lo hace en solitario acaba aislado.

Algo tan esencial para el bienestar como el descanso también se ha visto trastocado por la llegada de los smartphones. En España, un 83% de los jóvenes de entre 18 y 34 años presenta alguno de los síntomas del trastorno de insomnio, y alrededor de un 13% cumple los criterios para que sea crónico, mientras que solo uno de cada cuatro admite dormir bien y lo suficiente, según el estudio Hábitos y prevalencia de trastornos del sueño en España de 2024. Las dificultades para conciliar y mantener el sueño se han agravado en las dos últimas décadas: hace 20 años, la proporción de personas con insomnio crónico era la mitad. Y son los menores de 35 años quienes más han sufrido este deterioro.

El doctor Javier Albares, experto en sueño y autor de Generación Zombi (Península, 2025), advierte que el abuso de móviles y tabletas está moldeando una “generación atrapada en una espiral de hiperestimulación, adicción y privación crónica del sueño”. Según explica, las pantallas no solo roban horas de descanso, sino que también lo fragmentan: “Aumentan el número de despertares que suceden a lo largo de la noche, y, en consecuencia, disminuyen tanto la calidad como la cantidad del descanso”. Asegura que la mitad de los adolescentes responde mensajes durante la madrugada y un porcentaje similar consulta el teléfono al menos una vez en plena noche. “Esta falta de sueño se traduce en fatiga, menor rendimiento académico, irritabilidad y más riesgo de ansiedad o depresión”.

Haidt reconoce que una tendencia tan global responde a una acumulación de factores. Según el experto, otra de las causas del aumento del malestar juvenil es la “sobreprotección de los niños en el mundo real”. En las últimas décadas, señala, los menores han perdido la posibilidad de jugar libremente en la calle, sin supervisión adulta, en grupos mixtos y con cierto grado de riesgo, algo que antes era habitual y que resultaba crucial para desarrollar resiliencia, autonomía y capacidad de afrontar la incertidumbre. Haidt lo resume con una fórmula clara: hoy existe sobreprotección en el mundo real y desprotección en el mundo virtual. “Se limita cada vez más la libertad de los niños fuera de casa, mientras que se les deja expuestos sin control en internet y en las redes sociales”, advierte.

Los datos de los estudios sobre la felicidad no sorprenden al filósofo y profesor de Literatura Jesús G. Maestro, cuyo canal de YouTube goza de enorme popularidad entre los jóvenes. Maestro se da cuenta de ello cada vez que entra en un aula. Pero rechaza la idea de que los mileniales sean una generación hiperprotegida: “Es falso, es la generación más desprotegida de las últimas décadas”, asegura por teléfono. “No puede estar muy protegida una generación a la que se le ha privado de conocimientos esenciales para enfrentarse a la vida y se la ha expuesto a las redes sociales e internet sin ningún tipo de resguardo, donde la presión psicológica es fortísima y muchos no lo resisten”.

Para el autor de Una filosofía para sobrevivir en el siglo XXI (HarperCollins, 2025), el malestar de los jóvenes tiene una causa muy concreta: el idealismo de sus padres. “Es una generación a la que se le prometió todo y se ha encontrado con nada”. Según Maestro, los boomers educaron a sus hijos para enfrentarse a un mundo que no existe. “La educación debe orientarse a hacer compatible al ser humano con la realidad. Y la realidad es la de un mundo depredador regido por la lógica de mercado”. Maestro critica la dureza con la que a menudo se juzga a esta generación: “De los mileniales se habla muy mal sin saber lo que se dice. Se les presenta como vagos, tontos o inútiles. Se ha vertido contra ellos lo peor. Y no se puede ayudar a una persona malinterpretándola”.

Como dice Maestro, muchos jóvenes crecieron con la promesa de que al hacerse mayores se encontrarían con un mundo mejor que el de sus padres, con oportunidades para realizarse y ser felices. Sin embargo, la realidad que aguarda a quien sale hoy del instituto o de la universidad es desoladora. La situación económica de los jóvenes es mucho peor que la de la generación anterior. Según el INE, en 2004, las personas en edad de jubilarse eran el grupo con mayor riesgo de pobreza (30%); el año pasado esa cifra se redujo a la mitad (16,8%), mientras que golpea con más fuerza a los jóvenes (21%) y a los niños (29%). En paralelo, el patrimonio medio de una familia joven se ha reducido a la mitad entre 2002 y 2022. La tasa de paro juvenil, aunque en mínimos desde 2008, sigue en torno al 25%.

“Hay sensación de desánimo”, dice por teléfono la socióloga Patricia Castro, autora de Tu precariedad y cada día la de más gente (Apostroph, 2023). “La generación de nuestros padres, aunque viniera de un entorno de pobreza, tenía la percepción de un progreso vital, de que si estudiabas tu vida podría mejorar y lograrías un trabajo mejor. En gran medida, esa esperanza se ha perdido”. España es, de hecho, uno de los países donde el ascensor social funciona peor: más de un 35% de la desigualdad de ingresos está determinada por factores de origen —sobre todo, el nivel socioeconómico de los padres—, una de las cifras más altas de la OCDE. De este caldo de cultivo nace el reciente debate entre boomers y jóvenes que constatan vivir peor que sus padres.

Castro afirma que las nuevas generaciones padecen un “nihilismo light”, han perdido la fe en que sea posible luchar por un mundo con mejores condiciones. “Además, la sociedad les hace sentir que la responsabilidad de su precariedad recae sobre ellos mismos. Es una autodestrucción hacia dentro: te culpas a ti mismo de tu situación”. Añade que los jóvenes viven en un mundo cada vez más atomizado, donde se ha perdido el sentido de comunidad. “No sienten que juntos puedan lograr nada”, señala. Coincide con Maestro en que la generación anterior ha juzgado con excesiva dureza a los jóvenes: su adicción a las nuevas tecnologías, su incapacidad para ganarse la vida, incluso el reciente auge conservador. “Se ha culpabilizado a gente que ni siquiera ha tenido la oportunidad de cagarla”.

Las soluciones que proponen los expertos para revertir la infelicidad juvenil y para que la adolescencia vuelva a ser una de las etapas más plenas de la vida son diversas. Una de las más reiteradas es garantizar el acceso de los jóvenes a tratamientos de salud mental. Según el Libro Blanco de la Psiquiatría en España, elaborado por la Sociedad Española de Psiquiatría y Salud Mental (SEPSM), la ratio es de apenas 10 profesionales por cada 100.000 menores de 14 años, una cifra significativamente por debajo de las tasas observadas en otros países.

Jonathan Haidt sugiere retrasar el acceso a las redes sociales hasta los 14 años y advierte de que la irrupción de la inteligencia artificial podría resultar aún más dañina para los jóvenes que las propias redes. Y, aunque sea obvio, seguro que ayuda la mejora de condiciones económicas, en especial, en trabajo y vivienda. Para Patricia Castro, la clave está en reforzar los vínculos: “No todos vamos a tener el trabajo de nuestros sueños ni a vivir en el centro de la ciudad, pero lo que no falta es gente en el mundo”. Jesús G. Maestro, fiel a su oficio de profesor de Literatura, propone una receta muy concreta: “Leer El Quijote. Si algo enseña es que el idealismo conduce al fracaso”. Y advierte: “Si no cuidas a la gente joven, estropeas el futuro de la sociedad”.

II

La crisis de los 20 es la nueva crisis de los 40: los problemas de los jóvenes pulverizan la curva de la infelicidad. En El País, por Enrique Alpañés, Madrid - 27 AGO 2025:

Un estudio señala un cambio de paradigma por la crisis de salud mental de las nuevas generaciones. El malestar, hoy en día, disminuye con los años

La curva de infelicidad está desapareciendo, pero esta no es una buena noticia. Hasta ahora, la satisfacción vital tenía forma de sonrisa. Empezaba alta en la juventud, se hundía en la mediana edad, en lo que en España se ha venido a llamar la crisis de los 40, y después repuntaba. La infelicidad, por el contrario, tenía forma de joroba o sonrisa invertida :-( . Pero un amplio estudio que se publica este miércoles en la revista científica PLOS One muestra cómo se ha erosionado esta curva hasta casi desaparecer. No es que la crisis de los 40 haya remitido, es que se ha empezado a ver algo que podríamos definir como la crisis de los 20. La infelicidad empieza ahora en alto, a edades muy tempranas, y tiende a disminuir a lo largo de la vida.

El estudio ha sido realizado con las respuestas de más de 10 millones de adultos de Estados Unidos (hechas entre 1993 y 2024), con un análisis longitudinal en el que participan 40.000 hogares del Reino Unido, y con dos millones de cuestionarios de la encuesta Global Minds, realizada en 44 países (entre ellos España). Muchos datos, muchos países, pero una conclusión unívoca. “La verdad es que nos sorprendió que los resultados fueran tan globales”, reconoce David G. Blanchflower, economista de la Universidad de Londres y autor principal del estudio.

Los autores no han preguntado por los motivos, pero apuntan a las consecuencias de la pandemia, a la crisis de la vivienda y, sobre todo, al uso masivo de teléfonos inteligentes. Esto explicaría la uniformidad de datos en contextos que son muy diversos. “Lo que tienen en común, por ejemplo, un chico de Alemania y otro de Nueva York es el acceso a internet y a los teléfonos inteligentes”, explica Blanchflower. “En los países en desarrollo, sin embargo, vimos que quienes no tenían acceso a internet no mostraban una salud mental tan deficiente”.

El autor no cree que esto se deba tanto al efecto de los móviles en sí, sino a la forma en la que depredan el tiempo libre, rebañándolo hasta hacerlo desaparecer. “Los móviles han desplazado las actividades beneficiosas. Los niños ya no juegan, no hablan… pasar mucho tiempo en internet aleja a las personas de actividades útiles”.

(En azul, la antigua curva de la infelicidad, con una joroba en la mediana edad. En rojo discontinuo, la nueva gráfica, una línea descendente. Véase el enlace inicial).

Esto podría explicar otro de los datos destacados del estudio. Las mujeres jóvenes presentan niveles de malestar significativamente más altos que los hombres jóvenes en todos los países analizados. Esta es una constante en todos los estudios que analizan el impacto de internet y las redes sociales en el bienestar percibido. El ejemplo más reciente lo ofrecía el estudio HBSC (por sus siglas en inglés Health Behaviour in School-ages Children), publicado por el Ministerio de Sanidad español. Señalaba que esta problemática afecta el doble a las chicas (con una prevalencia del 51,2%) que a los chicos (del 25,2%).

El presente estudio es importante por la gran cantidad de datos en los que se basa. Y porque pone el malestar de las nuevas generaciones en un contexto más amplio, comparando con la satisfacción autopercibida de sus mayores. Sus conclusiones son demoledoras, pero no sorprendentes. Algo se empezó a torcer a partir de 2010 y hay mucha literatura científica que ha dado buena cuenta de ello. Las tasas de depresión y ansiedad entre adolescentes se dispararon un 50%. Las de suicidio lo hicieron en un 32%. Los miembros de la generación Z —nacidos a partir de 1996— empezaron a padecer ansiedad, depresión y otros trastornos mentales, alcanzando niveles más altos que cualquier otra generación en la historia.

La crisis de los 20 ha pulverizado la curva de la infelicidad. Pero hay que tener en cuenta que esta es una foto fija que se tendrá que ir actualizando. Los jóvenes de la generación Z, con más problemas de salud mental que sus mayores, llegarán a los 40 y 50 años. Y nada garantiza que no se enfrenten entonces a los mismos estragos vitales que han afectado a las generaciones anteriores. Mientras tanto, nuevas generaciones se irán añadiendo a la curva, y nada apunta a que tengan menos dependencia del móvil. Dicho de otra forma, la curva de la felicidad ha desaparecido solo de momento. Es esperable que se vuelva a producir en unos años, solo que más extrema. Tocar fondo implicará ir aún más abajo.

“No sé cómo evolucionará la situación”, reconoce Blanchflower. “Cada año se suma una nueva cohorte de 12 años y el resto envejece un año, pero nada cambia, el grupo nacido desde el año 2000 parece tener mala salud mental. Espero que podamos detener esto”. No parece fácil, explica el autor. Las hospitalizaciones entre jóvenes por depresión siguen en aumento, los suicidios, el consumo de antidepresivos… Porque este estudio se basa en la salud mental autopercibida, pero está subrayado por todos estos datos, que han repuntado en los últimos años entre las generaciones más jóvenes. Según el Informe Nacional sobre la Calidad y las Disparidades en la Atención Sanitaria de 2022, en Estados Unidos, entre 2016 y 2019, las tasas de visitas a urgencias con un diagnóstico principal relacionado con la salud mental aumentaron en el grupo de edad de 0 a 17 años, pasando de 784,1 por cada 100.000 habitantes a 869,3 por cada 100.000 habitantes.

La crisis de la mediana edad se empezó a describir en 2008. Desde entonces, se ha constatado en más de 600 estudios en diferentes países. El aumento de la preocupación, el estrés y la depresión con la edad ha sido ampliamente documentado en la sociología en los últimos 20 años. El propio Blanchflower estudió el fenómeno en estudios precedentes. “En toda una serie de artículos defendí que la forma de U era un dato importante, ¡hasta que dejó de serlo! Esos datos eran correctos, pero algo ha cambiado, no parece que estuviera escrito en los genes”, señala.

Maite Garaigordobil Landazabal, catedrática de Evaluación y Diagnóstico Psicológicos de la Universidad del País Vasco, destaca positivamente el actual estudio por la gran base de datos en la que se basa. En declaraciones al portal científico SMC señala que “resulta relevante porque cuestiona un hallazgo empírico muy consolidado: la existencia de la curva en U del bienestar y de la joroba del malestar a lo largo de la vida”. Garaigordobil considera que los resultados son “muy novedosos” y que “rompen con una de las regularidades más citadas en ciencias sociales”. En el mismo portal, Eduard Vieta, catedrático de Psiquiatría de la Universidad de Barcelona, abunda en la calidad de los datos y se muestra de acuerdo con el diagnóstico. Pero añade una posible causa más. “Creo que falta mencionar el contraste entre las expectativas y la realidad. Las generaciones jóvenes de la mayor parte de países incluidos en el trabajo han recibido una educación muy sobreprotectora y han desarrollado una baja tolerancia a la frustración. Creo que este aspecto es también relevante para explicar su malestar emocional”, añade.

El artículo concluye que esta tendencia global exige atención urgente de gobiernos, investigadores y sociedad civil para revertir el declive en el bienestar juvenil. Cuando se le pregunta a Blanchflower por alguna idea o medida concreta, sugiere restringir el acceso al teléfono como una posibilidad. Pero sobre todo ofrecer alternativas. Volver a migrar la vida social, pero en sentido inverso, de la pantalla a la calle. Fomentar el juego, los encuentros sociales y el tiempo al aire libre. “Animar a los niños a que se comporten como niños”, añade.

martes, 16 de septiembre de 2025

Sobrevivir a la tecnología, según John von Neumann, 1955

John von Neumann, ¿Podemos sobrevivir a la tecnología?, en Fortune, 1955: 

Las ideas clave del documento son las siguientes (según una inteligencia artificial):

Crisis tecnológica y geopolítica: John von Neumann argumenta que el progreso tecnológico ha alcanzado límites críticos debido al tamaño finito de la Tierra y la inestabilidad de las unidades políticas. Esto genera tensiones que podrían desembocar en conflictos graves.

Impacto de la revolución industrial: La aceleración de la revolución industrial ha ampliado las áreas afectadas por las operaciones tecnológicas, pero ahora se enfrenta a límites geográficos y políticos.

Evolución tecnológica y sus riesgos: El desarrollo de tecnologías como la energía nuclear, la automatización y el control climático tiene el potencial de ser beneficioso, pero también puede aumentar la inestabilidad y el riesgo de destrucción masiva.

Control climático: Von Neumann especula sobre la posibilidad de manipular el clima a gran escala, lo que podría tener efectos profundos en la agricultura, la ecología y las relaciones internacionales.

Neutralidad de la tecnología: La tecnología es intrínsecamente neutral, pero su uso puede ser tanto constructivo como destructivo. Esto plantea desafíos éticos y políticos.

Prohibición tecnológica no viable: Restringir el progreso tecnológico no es una solución práctica ni compatible con la naturaleza de la civilización industrial.

Eliminación de la guerra como política nacional: Von Neumann sugiere que una solución más viable sería eliminar la guerra como herramienta de política nacional, aunque reconoce que esto es difícil de lograr.

Adaptación humana: La humanidad ha enfrentado crisis similares en el pasado y ha demostrado capacidad para adaptarse, aunque esto requiere paciencia, flexibilidad e inteligencia.

Computación y balística: Von Neumann destaca el papel de las máquinas de computación en el desarrollo de la balística y otras áreas militares, subrayando su rápida evolución y creciente importancia.

En resumen, el documento explora cómo el progreso tecnológico, aunque beneficioso, plantea riesgos significativos para la estabilidad global y requiere ajustes políticos y sociales para manejar sus implicaciones.

sábado, 23 de agosto de 2025

Las profecías de Theodore Kaczynski

 Biografías de la Contracultura: Theodore Kaczynski, víctima y victimario, en Quora, por Pablo H. Pereira Magnere:

Primera entrega de una serie que explora las figuras más controvertidas y ambiguas de los movimientos contraculturales: genios y monstruos, visionarios y terroristas, mentes que desafiaron el sistema desde los márgenes más oscuros de la sociedad.

En los archivos clasificados de Harvard yace una fotografía que pocos han visto: un joven de dieciséis años, con los ojos brillantes de quien ha descifrado ecuaciones que atormentan a matemáticos veteranos, sentado en una sala estéril mientras electrodos adheridos a su cráneo registran cada impulso de su cerebro superdotado. Theodore John Kaczynski, el genio que años después el FBI bautizaría como "Unabomber", era entonces apenas un conejillo de indias en los experimentos más siniestros de la Guerra Fría.

La cara siniestra de Harvard

Entre 1959 y 1962, bajo la supervisión del psicólogo Henry Murray (el mismo que había desarrollado técnicas de interrogatorio para la OSS), Kaczynski participó en un programa que oficialmente estudiaba "el estrés y la personalidad". Los sujetos de prueba, todos estudiantes excepcionales, eran sometidos a interrogatorios brutales diseñados para fracturar sus sistemas de creencias más profundos. Las sesiones duraban horas. Los participantes eran conectados a monitores que registraban cada fluctuación de su sistema nervioso mientras sus convicciones más íntimas eran demolidas sistemáticamente por interrogadores entrenados.

¿Coincidencia que estos experimentos formaran parte del programa MK-Ultra? ¿Casualidad que el joven matemático más brillante de su generación emergiera de esos laboratorios con una visión apocalíptica del futuro tecnológico? La ficción de "The Manchurian Candidate" (donde un soldado es programado para convertirse en asesino sin saberlo) parece menos fantasiosa cuando se examina el expediente de Kaczynski. Solo que en su caso, el condicionamiento no creó un autómata obediente sino algo mucho más peligroso: un genio radicalizado con completa autonomía para elegir sus objetivos.

Los registros oficiales permanecen clasificados. Pero quienes conocieron a Kaczynski antes y después de Harvard hablan de una transformación inquietante: el adolescente tímido que resolvía problemas matemáticos por puro placer se había convertido en un ermitaño obsesionado con la destrucción de la civilización industrial.

El Manifiesto Profético

En 1995, mientras el FBI desplegaba la cacería más costosa de su historia, Kaczynski envió un ultimátum: publicarían su tratado de 35,000 palabras o continuaría matando. "La Sociedad Industrial y su Futuro" no era la diatriba de un lunático, sino una disección quirúrgica de los mecanismos por los cuales la tecnología esclavizaría a la humanidad.

Párrafo tras párrafo, el documento delineaba con precisión escalofriante desarrollos que entonces parecían ciencia ficción: algoritmos que determinarían quién obtendría empleos, créditos, parejas; sistemas de vigilancia que monitorizarían cada movimiento, cada compra, cada conversación; la manipulación masiva de emociones y opiniones a través de redes digitales; la ingeniería genética aplicada para crear castas humanas diferenciadas.

Veinticinco años después, cada predicción se ha materializado con exactitud perturbadora. Palantir Technologies, fundada en 2003 por Peter Thiel cuando cerró el programa Total Information Awareness de la CIA, lleva el nombre de las "piedras videntes" de Tolkien que todo lo observan. La empresa que Foucault habría reconocido como la materialización perfecta de su "sociedad disciplinaria" (donde el poder opera no a través de la represión sino de la observación total) se convirtió en el arquitecto de la infocracia que Byung-chul Han describe: un sistema donde los datos reemplazan a la ideología como forma de dominación.

La ironía es letal: el mismo establishment tecnológico que Kaczynski intentó destruir con bombas construyó voluntariamente el panóptico digital que él había predicho.

¿Víctima o Victimario?

La pregunta que tortura a quienes estudian el caso trasciende la culpabilidad legal: ¿fue Kaczynski un terrorista enloquecido o el producto calculado de un experimento gubernamental que salió mal? Sus métodos fueron abominables (diecisiete heridos, tres muertos, familias destrozadas), pero su diagnóstico sobre el futuro digital ha demostrado ser profético hasta en detalles mínimos.

Los archivos desclasificados de MK-Ultra revelan que el programa buscaba crear "asesinos programados" e "individuos alterados" capaces de funciones específicas. ¿Qué si Kaczynski no fue una víctima accidental, sino un prototipo perfecto: un genio radicalizado que serviría como chivo expiatorio para desacreditar toda crítica seria al avance tecnológico?

El Síndrome del Justiciero: Cuando Simpatizamos con el Villano

Treinta años después, el fantasma de Kaczynski resurge en una acera de Manhattan. Luigi Mangione, un joven brillante de 26 años con título en ingeniería de la Universidad de Pensilvania, ejecuta a sangre fría al CEO de United Health Care. Como el Unabomber, Mangione era un genio de clase privilegiada que eligió la violencia como respuesta a un sistema percibido como malévolo. Como Kaczynski, se convirtió instantáneamente en héroe popular.

¿Por qué ciertos asesinos despiertan simpatía masiva mientras otros generan repudio? La respuesta yace en un fenómeno psicológico perturbador: cuando el villano articula la rabia que nosotros sentimos pero no nos atrevemos a expresar, se convierte en nuestro avatar moral. Kaczynski asesinó académicos inocentes, pero atacó al sistema tecnológico que todos secretamente tememos. Mangione mató a un ejecutivo, pero vengó a millones de pacientes abandonados por un sistema de salud predatorio.

La reacción pública fue idéntica en ambos casos: memes glorificando al asesino, análisis comprensivos de sus motivos, debates sobre si la violencia está "justificada" cuando los canales legales fallan. Nos horroriza admitirlo, pero parte de nosotros celebra cuando alguien hace lo que nosotros nunca haríamos.

Esta simpatía revela algo inquietante sobre nuestra época: vivimos en sistemas tan corruptos que la violencia individual empieza a parecer más moral que la violencia sistémica. Kaczynski mató a tres personas; el complejo militar-industrial que denunciaba ha matado millones. Mangione ejecutó a un CEO; el sistema de salud que ese hombre dirigía condena a muerte a miles por negación de cobertura.

El peligro no está en comprender estos crímenes, sino en romantizarlos. Porque una vez que normalizamos la violencia como herramienta de justicia social, el siguiente paso es inevitable: más genios brillantes elegirán el camino del terror, seguros de que la historia los vindicará como héroes incomprendidos.

El Legado Perturbador

Desde su celda en ADX Florence, la prisión de máxima seguridad donde languideció hasta su muerte, Kaczynski continuó escribiendo. Sus cartas, filtradas ocasionalmente, revelaban una mente que seguía operando con la precisión de una máquina de calcular mientras observaba cómo sus predicciones más oscuras se convertían en realidad cotidiana.

Los gigantes tecnológicos que hoy dominan el mundo surgieron precisamente en los años posteriores a su captura. Las herramientas de vigilancia y manipulación que él había descrito con detalle clínico se convirtieron en los fundamentos de imperios empresariales valorados en billones de dólares. Los algoritmos de recomendación, la adicción digital, la polarización artificial de la sociedad, el colapso del discurso racional —todo estaba en su manifiesto.

La Traición de la Sangre

El hombre que había burlado al FBI durante diecisiete años, que había construido el escondite perfecto en las profundidades de Montana, fue derrotado por algo tan primitivo como la caligrafía. Pero antes de esa revelación final, había logrado algo aún más extraordinario: forzar al FBI a romper sus propias reglas sagradas.

Por primera vez en su historia, el Bureau abandonó su política fundamental de "nunca negociar con terroristas". El Director Louis Freeh y la Fiscal General Janet Reno aprobaron la publicación completa del manifiesto de 35,000 palabras, una capitulación sin precedentes ante las demandas de un criminal. La organización que J. Edgar Hoover había diseñado como herméticamente secreta se transformó en una entidad mediática, cooperando activamente con periodistas y exponiendo sus métodos al escrutinio público.

La paradoja era deliciosa: el matemático ermitaño había reorganizado la burocracia más poderosa del mundo desde su cabaña sin electricidad. Cuando David Kaczynski reconoció en el manifiesto publicado los trazos familiares de una escritura que había visto desde la infancia, la llamada anónima al FBI selló el destino del ermitaño más buscado de América.

¿Traición fraternal o acto de salvación? David vivió el resto de sus días torturado por la decisión que salvó vidas futuras pero condenó a su hermano a cadena perpetua. Como en una tragedia griega, el amor familiar se convirtió en el instrumento de la némesis.

La Galería de Genios Malvados

Kaczynski no fue un héroe incomprendido sino algo mucho más perturbador: un genio que eligió deliberadamente el mal como herramienta de revelación. Su método (bombas enviadas por correo a científicos inocentes) lo coloca en una genealogía siniestra de mentes brillantes que abrazaron la destrucción.

La historia está plagada de estos arquitectos del horror ilustrado. El Dr. Josef Mengele, el "Ángel de la Muerte", poseía un doctorado en medicina y otro en antropología física antes de convertir los campos de concentración en laboratorios de tortura. Su "ciencia" era metodológicamente impecable y éticamente abominable. Como Kaczynski, usó su intelecto superior para justificar atrocidades sistemáticas.

En la ficción, esta arquetipo encuentra su expresión más pura en figuras como Hannibal Lecter: psiquiatra brillante, esteta refinado, caníbal meticuloso. Su genialidad no mitiga su maldad; la amplifica hasta convertirla en arte macabro. Lex Luthor representa quizás la versión más pura de esta dualidad: intelecto que podría salvar la humanidad, empleado obsesivamente en su destrucción. Su odio hacia Superman no nace de la envidia sino de una comprensión terrible: la humanidad no merece salvación.

Theodore Kaczynski pertenece a esta estirpe maldita. No fue víctima de sus circunstancias sino arquitecto consciente de su propia transformación en monstruo. Cada bomba que construyó fue un silogismo letal, cada objetivo seleccionado con la precisión de un teorema matemático. Su genialidad no lo absuelve; lo condena más profundamente, porque demuestra que eligió el mal con plena conciencia de sus alternativas.

La Paradoja Final

¿Era Theodore Kaczynski un lunático homicida o el último hombre lúcido en un mundo que marchaba hacia su propia esclavitud digital? Sus bombas mataron a inocentes, pero sus palabras iluminaron un futuro que ahora habitamos sin cuestionarlo. Producto de experimentos psicológicos o genio autodidacta, víctima de manipulación gubernamental o terrorista nato, quizás la respuesta más perturbadora sea que todas estas categorías pueden ser simultáneamente ciertas.

En los bosques de Montana donde construyó su cabaña sin electricidad, Kaczynski había encontrado una claridad terrible: vio el mundo que vendría y comprendió que la humanidad caminaría voluntariamente hacia su propia jaula dorada. Sus métodos fueron monstruosos, pero su visión se ha revelado como la profecía más precisa de nuestro tiempo.

En su manifiesto, Kaczynski describió cómo "el movimiento se fragmentó y ya no está claro quién puede propiamente llamarse izquierdista", prediciendo la pulverización ideológica que caracterizaría las décadas siguientes. Anticipó que la tecnología no solo dividiría a la sociedad en tribus digitales irreconciliables, sino que destruiría la capacidad misma para el diálogo racional.

Hoy, en plena era Trump II, vivimos precisamente esa fragmentación: algoritmos que crean cámaras de eco, debates reducidos a memes virales, la verdad como variable estadística manipulable. El colapso del discurso democrático que presenciamos no es accidental sino el resultado inevitable del sistema tecnológico que Kaczynski había diagnosticado con precisión quirúrgica treinta años antes.

El Unabomber está muerto, pero el mundo que predijo nos gobierna desde nuestros bolsillos, pantallas y algoritmos. Cada notificación, cada búsqueda, cada like confirma la exactitud matemática de sus pesadillas más oscuras.

La pregunta ya no es si Theodore Kaczynski tenía razón. La pregunta es si todavía hay tiempo para demostrar que estaba equivocado.

sábado, 21 de junio de 2025

La vacuna anticáncer

 El siguiente paso de la terapia más revolucionaria contra el cáncer: que la produzca el propio paciente con una simple inyección, en El País, por Nuño Domínguez, 19 junio 2025:

El creador de la terapia CAR-T desarrolla una ‘vacuna’ que podría servir contra enfermedades autoinmunes y tumores de la sangre sin necesidad de complejas y caras manipulaciones

Hace unas semanas, en el Hospital La Paz de Madrid, un tratamiento de inmunoterapia salvó la vida de una niña que padecía una enfermedad muy rara. Ha sido uno de los éxitos más recientes de los CAR-T, un fármaco basado en glóbulos blancos del propio paciente que se modifican en el laboratorio para atacar selectivamente a las células que causan la enfermedad, ya sea cáncer, o una dolencia autoinmune, como era el caso de la paciente de Madrid.

El inmunólogo estadounidense Carl June, inventor de estos tratamientos para tratar cánceres sanguíneos como leucemias y linfomas, compara sus efectos con un milagro bíblico: la resurrección de Lázaro. Los CAR-T han sido capaces de curaciones espectaculares en miles de pacientes que estaban desahuciados, uno de los mayores logros médicos de las últimas décadas.

June encabeza este miércoles un estudio que puede llevar estos tratamientos a un nuevo nivel. Esta terapia requiere extraer del paciente linfocitos T, un tipo de célula inmune, introducir en ellos cambios genéticos usando virus como lanzadera, hacer que se multipliquen hasta que se cuenten por millones, y después inyectárselos al paciente. Todo este proceso es complicado y puede ser muy costoso, lo que explica en parte que las versiones comerciales de estos tratamientos se vendan por cientos de miles de euros. El propio June explicaba en una entrevista a EL PAÍS que uno de sus objetivos es conseguir bajar su precio.

El inmunólogo estadounidense firma hoy un estudio en el que explora una nueva terapia experimental para que sean los pacientes los que produzcan los CAR-T dentro de su cuerpo. Se trata de unas nanopartículas de lípidos que contienen pequeños fragmentos de ARN mensajero, una estructura muy similar al de las vacunas de covid. El fragmento de ARN contiene la información para que los linfocitos T desarrollen la capacidad de identificar y eliminar las células malignas, en este caso linfocitos B, que pueden provocar tanto cánceres hematológicos como enfermedades autoinmunes. El trabajo se publica en Science, referente de la mejor ciencia mundial.

El equipo ha demostrado que el tratamiento reprograma los linfocitos T y combate las células malignas en cultivos celulares de pacientes con dolencias autoinmunes. También han demostrado que esta inyección es capaz de eliminar tumores sanguíneos en ratones y ratas con leucemia, y también “resetear” el sistema inmune de primates no humanos, algo parecido a lo que han conseguido los CAR-T convencionales en humanos con cáncer y enfermedades autoinmunes.

Los responsables del trabajo creen que este paso será clave para democratizar estas terapias. El equipo de June en la Universidad de Pensilvania firma el estudio junto a científicos de Capstan, una empresa biotecnológica estadounidense. La compañía acaba de anunciar el arranque de la primera fase de ensayos clínicos en pacientes que sufren enfermedades autoinmunes mediadas por linfocitos B. June es uno de los fundadores científicos de Capstan, junto a Drew Weissman, coinventor de las vacunas contra la covid, por las que recibió el Nobel de Medicina en 2023 junto a la bioquímica Katalin Karikó.

Si llegaran a comercializarse, estas inyecciones podrían rebajar drásticamente el precio de estos tratamientos hasta unos 5.000 euros por dosis, según ha explicado el director ejecutivo de una de las empresas más avanzadas en este campo, Interius BioTherapeutics.

Al estar basados en ARN este tipo de CAR-T no hacen cambios genéticos permanentes en los pacientes, lo que se ve como una ventaja. Pero esto también supone que sus efectos no pueden durar años, incluso décadas, como con los CAR-T convencionales, sino posiblemente meses, lo que haría necesarias dosis recurrentes a lo largo de la vida, con el coste que eso supone.

“Son unos resultados impresionantes”, celebra Ignacio Melero, profesor de Inmunología en la Universidad de Navarra y codirector de Inmunología Clínica e Inmunoterapia en la Clínica Universidad de Navarra, que no ha participado en el estudio. “Esta metodología alberga extraordinaria esperanza para tratar algunas enfermedades autoinmunes en casos refractarios a los tratamientos habituales. Por ejemplo, lupus eritematoso sistémico, polimiositis, esclerodermia, síndrome de Sjögren y quizá artritis reumatoide. Quizá no sea todavía una aproximación para competir con terapia CAR convencional para tratar leucemias o linfomas, pero con la adecuada optimización podría ser factible”, añade.

“Es un estudio importante”, coincide Manel Juan, jefe del Servicio de Inmunología del Hospital Clínic de Barcelona, donde se ha desarrollado el exitoso CAR-T público que salvó a la niña madrileña y se ha aplicado ya en medio millar de pacientes con tumores hematológicos. “Parece que es posible conseguir el efecto logrado por los CAR-T convencionales en enfermedades autoinmunes, pero sin tener el riesgo de tener células permanentes, sino que a través de este sistema sea transitorio, conseguir el mismo efecto con varias dosis”, razona. El médico explica que dos ensayos preliminares en China han mostrado que esta aproximación ha conseguido remisiones completas en dos pacientes de cáncer hematológico. “En principio, la posibilidad de escalabilidad, de incrementar el número de producciones para ser utilizadas en más pacientes, podría reducir precios. Pero ya sabemos que al final los costes y los precios son muy distintos, y dependen de cómo se gestionan desde las diferentes compañías”, añade.

lunes, 24 de marzo de 2025

Frase cierta y memorable, con aplicación ahora, y pensamientos sobre vejez de Pérez-Reverte.

 Los malos tiempos forjan hombres fuertes; los hombres fuertes crean buenos tiempos; los tiempos buenos crean hombres débiles; los hombres débiles crean malos tiempos.

Michael Hoff.

Hemos olvidado enseñar las formas de enseñar a nuestros hijos a soportar y a defenderse del mal inevitable. De las enfermedades, las guerras, la traición, la corrupción, la maldad.

¿Un hombre inofensivo es un hombre bueno? 

Hay canallas inofensivos, hay canallas cobardes y apocados que están ahí agazapados entre tantos, esperando ocasión para meter la mano con la navaja en el tumulto cuando todos miran a otra parte, pero nunca lo harían siendo vistos. No, no, no: la bondad no tiene nada que ver con la ofensividad: se han visto hombres ofensivos, seres humanos ofensivos, violentos, agresivos, que son hombres buenos o mujeres buenas: naturalmente no tiene que ver. El psicólogo Jordan Peterson dice que "los hombres buenos son los que pueden ser peligrosos, pero se contienen. Y si crees que los tipos duros son peligrosos, espera a ver de lo que es capaz un hombre débil". 

Un hombre débil, un hombre inofensivo no es bueno para nadie. La debilidad te hace cobarde y el cobarde es el peor enemigo porque traiciona. Saltará cuando todo el mundo salte, se meterá en el tumulto a meter la mano, a ser posible, sin que sepan que es él. Y hace falta debilidad moral para eso; para ser más riguroso, falta de entereza moral. La falta de integridad moral causa gente mala, gente cobarde, gente ruin, gente bellaca. Mientras que otro, con sus defectos, sus errores, un Pancho Villa que no porque sea un animal deja de ser un tío que sabes dónde encontrarlo y no te va a fallar en ese sentido, por lo que así se gana una cierta admiración por la gente entera y el concreto desdén por la gente que no es capaz de afrontar la vida de cara. 

¿Y es más lamentable el criminal, o quien hace la vista gorda mirando a otro lado? Sin duda este último: muchos criminales pueden ser amigos tuyos; porque el criminal puede tener motivos poderosos para ser criminal, de muchos tipos: venganza, rencor, dinero, ambición, lujuria, sexo... mil razones, todas humanas. Pero el que mira al otro lado es por lo peor, por cobardía, por interés. Por cobardía porque no quiere mojarse o bien porque alguien le engrasó para que lo haga, y los dos casos son deleznables; no, es preferible un criminal con sus errores que queda entero, que lo asume, que sí señor me lo cargué ¿por qué? Porque me calenté y me lo llevé por delante; pues ya está: a la cárcel, con tu pan te lo comes; pero el otro que tal, que no, que no sé; tendría que ver... Está bueno, quizás, pero luego eso no; los tibios según los evangelios y la Biblia entera serán arrojados del seno del Padre, a las tinieblas (Arturo Pérez Reverte).

La senectud tiene una cosa buena y otra mala. Una buena es que ya no tienes pasiones que te arrebaten, ya no tienes estímulos que te violenten, ya no tienes ambiciones; lo que no has hecho, no lo vas a hacer, ni lo que vas a hacer, o casi; y lo que has hecho pues ya está hecho. Entonces, en ese sentido, la vejez (y soy viejo) la vejez tiene una especie de serenidad personal. Cuando has vivido una vida adecuada, no echas en falta ni mujeres guapas ni amigos leales ni viajes ni aventuras; esa parte está colmada, y puedo ir al ocaso como un estoico, como dirían los antiguos. La parte mala es que eso te da una cierta lucidez, no por inteligencia, sino porque lo has vivido. Y ves cosas que no querías ver: ya no ves a una pareja joven que se besa en un parque, sino también cómo van a acabar, cuánto va a durar, quién será el primero que traicione, que mienta, o a los sesenta años seguir juntos y arrancando a pedazos esa ilusión. Entonces no quisiera verlo, no quisiera pensarlo y no puedo evitarlo porque soy mayor y lo he visto. 

Después hay otro punto más que también da la vejez, que es no tener compasión ante la estupidez. Es un tema delicado. ¿Habéis visto la película No mires hacia arriba? El meteorito. Ahí está bastante bien resumido todo, me ahorro el detalle. La idea básica es que, claro, hay gente que tiene desgracias porque tiene mala suerte, o porque se equivoca o porque la vida es muy perra y te da el azar, que tiene muchas ganas de broma. Pero hay gente que tiene desgracias porque, pudiendo, no es capaz de evitarlas; porque no es capaz de dotarse de las herramientas que permiten sobrevivir a la desgracia; porque vive de una manera estúpida ajena a la realidad; porque vive en un mundo virtual de esto o de lo otro y vive ausente de lo que son las cosas que realmente en el mundo importan, hasta que esas cosas golpean. 

Entonces, claro, ¿yo debo sentir compasión porque un cretino o cretina, analfabeto voluntario, no obligado, que vive y le importa todo una mierda, que no ve un telediario y que está pendiente del último novio de Tamara, por ejemplo? No debo tener compasión, porque a ese tío le vayan mal las cosas en la vida, porque cuando llegue el serbio o el bosnio o el Putin se lo pasen por la piedra. Esa falta de compasión ante la estupidez y la ignorancia y ese valorar más lo bueno te hace menos solidario. Digamos que con los años noto que hay cosas que ya no me dan pena que ocurran. Un ejemplo, viene la riada y qué pobre gente tal, qué pena, la vida arruinada. Pero, a ver, donde vive ¿cómo se llama? La Vaguada. ¿Sabes qué es una vaguada, imbécil? Una vaguada es un lugar donde corre el agua: tu casa está construida en la vaguada, entonces ¿cómo te va a extrañar que cada equis años venga el agua y se lleve la casa? Es normal. Si hubieras pensado, mirado, estudiado, comprendido, sabrías que vaguada significa lugar donde corre el agua: no te compres ahí una casa, o no te la hagas. 

Otro ejemplo. Un tsunami, qué horror, en la playa paradisíaca. Y ¿por qué es paradisíaca? Porque hay tsunamis y porque los antiguos al saberlo no hacían casas ahí, por eso era paradisíaco; pero ahora, últimamente, hemos estado haciendo hoteles en ese lugar perdido y cuando llegue el tsunami se llevará por delante el hotel y a quien está dentro. No te quejes, cretino, entérate por qué era paradisíaco ese infierno. A eso me refiero. Intento que no me absorba, que no se apodere de mí, pero ¿puedo evitarlo? No, entonces, claro, entonces la vejez es, como te he dicho, las dos cosas primeras y al mismo tiempo tener ese desdén porque al final te das cuenta y lo he dicho muchas veces: lo peor no es el mal, lo peor es la estupidez: cuenta un malo con mil tontos y son mil malos y un tonto. Yo pensaba cuando era joven que lo malo era Hitler, pero en realidad lo eran los idiotas alemanes que lo jaleaban porque encarnaba el alma alemana: eso es lo peor; no Hitler sino la gente que aplaudía y sin la cual Hitler no era sino un idiota que dijo que nos iba a llevar a la gran Alemania. 

Y en España está pasando igual, mucho también hoy en la vida social. Lo malo no es un fulano estadounidense, ruso o hispanoamericano, no, lo malo no es Abascal o Pablo iglesias, es los que jalean sin un análisis racional intelectualmente poderoso, porque está de moda, o porque es una tendencia, y saldrán cosas que ni siquiera comprendan; no, entonces, por eso, al final la verdad es que la senectud es sobre todo un desprecio profundo por la estupidez y un respeto enorme por la integridad.

Solo es buena la cortesía y la urbanidad que acercan a la gente y no la separan. También es una defensa para evitar la grosería, o que se propasen. Marcar las pautas sociales mantiene una especie de distancia, limita o hace retroceder la humanidad. La cortesía es una herramienta social y defensiva para hacer un mundo mejor, un mundo que no es agradable. A veces hay que ser violento o duro, pero nunca grosero.

Un niño educado que da las gracias no es un niño que hace lo que quiere; no se trata de que el niño coma con la mano, sino de que el padre lo ayude el día de mañana a tener las herramientas sociales adecuadas para que la gente lo respete y él respete a la gente. La educación no es algo arcaico. Perder esas cosas hace al mundo peor. Hablar bien es absolutamente necesario, pero por hablar mal no vas a ser más demócrata ni más liberal. Ni más esto que lo otro; las normas, los códigos, las maneras de comportarte ante la vida, el mundo y los demás son fundamentales. Kill them with kindness dicen los ingleses, mátalos con amabilidad. No es que yo sea mejor persona, sino por puro egoísmo: me hace la vida más fácil. A un camarero por ejemplo, a cualquier sacrificado. Está hasta arriba de llevar la bandeja, es un trabajo durísimo, de los más duros del mundo: Oye, por favor, qué tal, cómo está, bien, tal, mal. Bueno, sí, ya está, cuando puedas por favor nos trae una cerveza y tal. Y eso y después es una propina adecuada al trabajo que hace. No cuesta ningún trabajo y el camarero y cuando vas al día siguiente ese camarero o camarera estará pendiente de ti, te atenderá mejor y dirá el Reverte es un buen chico deja propina o no deja pero es simpático y te pregunta por la familia. Yo qué sé. O sea, hasta para ser egoísta, hasta para ser tácticamente egoísta es útil la amabilidad.

Quintero me preguntó aquello de qué es lo más inteligente que se puede hacer en esta vida. 

Yo creo que leer, leer, leer, porque leer entretiene, hace vivir cosas que uno viviría y sobre todo da herramientas para sobrevivir o vivir, y es verdad. El mundo es un lugar peligroso, poblado por muchos hijos de puta, y hay que estar artillado con herramientas de supervivencia. Entonces todo lo que te ayuda ebueno. En un teléfono móvil, de estos que te dan, tenéis tres mil años de civilización; está todo: literatura, ciencia, técnica: es una enciclopedia de bolsillo, es el mundo entero ahí, y no se utiliza más que para matar marcianos, lo que sea, o para mandar WhatsApps y fotos, posturas. Para eso, diablos, utilízalo; o sea, sácale partido a esa herramienta maravillosa que tienes en el bolsillo y que nuestros abuelos no tenían. Son herramientas para vivir y ser mejor, esa es la obsesión. Todavía tengo ilusiones, aún creo que el ser humano tiene lugares donde refugiarse; es verdad que no hay salvación general, no, pero hay islas, lugares, refugios, castillos, grupos donde refugiarse cuando hace el frío de sobrevivir, donde quererse, donde procrear, donde mantener la dignidad del ser humano; o sea, ayudemos a eso en vez de hacer del ser humano individuos aislados o conectados a una pantalla de ordenador; hagamos grupos, no de Whatsapp, que está muy bien, pero bueno no para decir "oye me he tomado una pizza y aquí está la foto", no, sino para decir "oye, estoy solo, estoy cansado, necesito esto, se me ha muerto fulano, ayúdame". Eso debería de ser el mundo y no lo es, y eso me da mucha pena.