Mostrando entradas con la etiqueta Tecnología. Mostrar todas las entradas
Mostrando entradas con la etiqueta Tecnología. Mostrar todas las entradas

miércoles, 10 de diciembre de 2025

Transcripción de entrevista de Gustavo Entrala al premio Nobel Geoffrey Hinton, padre de la IA, en YouTube.

 [Transcripción revisada]

 Lo que vas a ver ahora es la transcripción de la primera entrevista que concede a un canal en español el Premio Nobel Geoffrey Hinton, considerado el padreo al menos el "padrino" de la IA. 5 de diciembre de 2025, en el enlace.

Hinton es reconocido como el padre de la inteligencia artificial moderna. Ha dedicado 50 años de su vida a enseñar a las máquinas a pensar. Ahora está centrado en alertar al mundo sobre los peligros que entrañan su creación.

Lo vas a ver. Hinton dice que cuando alcance la madurez, la IA será mucho más inteligente que los seres humanos y que si no actuamos ahora, escapará a nuestro control. 

La entrevista tuvo lugar en la casa que el profesor Hinton comparte con sus dos hijos en un barrio residencial de Toronto. Verás que los dos estamos de pie todo el tiempo: el profesor arrastra problemas de espalda fuera de lo común. Me contó que pasó cinco años de su vida sin poder sentarse. Vas a ver una conversación apasionante con una mente privilegiada. Pero antes, déjame mostrarte un espacio al que pude acceder, por gentileza de la Universidad de Toronto. El lugar físico en el que Hinton creó el germen de la IA, que una década después está cambiando el mundo. Puedes ver mi entrevista con Jeff Hinton en español o en inglés, accediendo a la configuración de YouTube y eligiendo la pista de audio que prefieras.

Buenas tardes, profesor Hinton. Es un privilegio y un honor para mí pasar un poco de tiempo con usted y y conversar sobre el pasado de la inteligencia artificial y sobre el futuro del mundo con inteligencia artificial. Mi primera pregunta es muy sencilla. ¿Por qué le llaman el padrino de la IA y si a usted le gusta eso? 

Ese mote no nació con una intención amable, pero ahora me gusta. Ocurrió en una reunión en Inglaterra en 2009. Había una organización llamada Instituto Canadiense de Investigación Avanzada que organizaba congresos pequeños y yo dirigía un programa para ellos. Tuvimos una reunión y yo era el investigador más viejo allí. También estaba a cargo del programa y no dejaba de interrumpir a los ponentes. Al terminar una sesión, alguien se refirió a mí como el Padrino porque no paraba de interrumpir a la gente, pero ahora me gusta bastante.

Okay. Su trabajo se ha desarrollado en en un periodo de de más o menos de 50 años, ¿no? Un poco más. En 1977 publicó su tesis doctoral que es sobre la relajación, no en el sentido que damos comúnmente esa palabra. Estudió la relajación en el contexto de la visión y eso le condujo un largo viaje para entender cómo las máquinas podrían ver cosas, escuchar cosas y percibir cosas. Mi pregunta es, ¿por qué ha llevado tanto tiempo ver los frutos de todo ese trabajo?

Creo que por dos razones.

Una es que necesitas muchos datos y mucha potencia de computación para que las redes neuronales artificiales funcionen realmente bien. Y hasta hace poco no disponíamos de tantos datos ni de tanta potencia de cálculo. 

Y la otra razón fue que al principio de la historia de la inteligencia artificial, la mayoría de los científicos decidió que la esencia de la inteligencia era el razonamiento y la forma de razonar usar la lógica. Así que tenían una especie de paradigma basado en la lógica más que en la biología y eso nunca funcionó bien. Ahora se han dado por vencidos, así que ahora todo se hace con redes neuronales. 

Y nos podría llevar a momentos eureka que ha habido en su trabajo donde usted vio que realmente toda esa investigación podría dar resultados con el paso del tiempo.

No estoy seguro de que haya habido un momento Eureca. Hubo un tiempo, a mediados de los 80, cuando habíamos desarrollado el algoritmo de retropropagación. Otros equipos habían pensado en ese algoritmo, pero nosotros conseguimos demostrar que podía aprender el significado de las palabras. Eso pasó en 1985 y más tarde, en 2009, demostramos que la retropropagación podría ser un mejor reconocedor de voz. Y en 2012, Alex Krise, la Suskevar y yo demostramos que podía hacerlo mucho mejor en el reconocimiento de objetos e imágenes. Y eso fue reconocido como un momento decisivo, porque como funcionaba mucho mejor que la visión por ordenador estándar, ese paso abrió las compuertas del futuro de la inteligencia artificial. La gente ya conocía las redes neuronales bastante bien, pero eso convenció a la gente de que era el futuro. Y en ese momento ya tenía los datos y la capacidad de computación. Sí, en aquella época teníamos chips GPU de Nvidia, así que teníamos la potencia de cálculo.

Usaron tarjetas gráficas que de vídeo y de videojuegos, ¿no? 

Nvidia desarrolló para juegos y en 2009 Nvidia no entendía que lo que realmente tenía era un superordenador para hacer IA. Intenté hacérselo ver, pero realmente no lo entendieron hasta 2012, cuando lo aplicamos a la visión y luego Jensen miró su estrategia con rapidez. Enseguida comprendió que ese era el futuro de los chips de Nvidia, no el de los juegos.

¿Y cómo se siente, eh, con el hecho de que ahora Nvidia sea la primera compañía que ha superado los 4 billones de valor bursátil por su descubrimiento?

Bueno, no es totalmente por eso, pero es una gran parte. Me siento bastante satisfecho de que hayamos ganado 4 billones de dólares. Preferiría tener algo más de esos 4 billones de dólares.

Pero su trabajo no su trabajo no se paró ahí. Creo que fue usted uno de los pioneros en la metodología de la mezcla de expertos en inteligencia artificial. También fue pionero en la destilación de modelos de inteligencia artificial y ambos descubrimientos fueron integrales en lo que luego fue el modelo Deep Seek. Sí, de todos los descubrimientos que ha hecho en su carrera, ¿cuál es para usted en su cabeza cuál es el más importante?

Bueno, el más importante para mí es uno que en realidad no funcionó, pero era una solución muy elegante. Hay un tipo particular de red neuronal llamada máquina de Bolzman, que es muy probabilístico, utiliza lo que llamamos neuronas ruidosas y Teresanovski y yo descubrimos un algoritmo de aprendizaje muy simple, un algoritmo mucho más sencillo de lo que cabía esperar y es el tipo de cosa que podrías hacer en un cerebro. Y durante un tiempo creímos haber descubierto cómo funcionaba el cerebro. Fue la investigación más emocionante que hice y el algoritmo era correcto, pero era demasiado ineficaz. 

Para alcanzar los resultados que ha logrado en su carrera, ha tenido que estudiar el cerebro. Eh, también estudió filosofía, el conocimiento, las ideas, el papel de la conciencia y también estudió psicología. Todo esto le equipó de una manera especial para llegar a los descubrimientos que ha logrado en durante toda su carrera. 

Esta visión holística del cerebro de la persona no era realmente holística. Siempre me centré en cómo aprende el cerebro y estudié disciplinas diferentes. En aquel momento no me sirvieron de mucho porque se sabía poco sobre cómo aprendía el cerebro. Retrospectivamente estuvo muy bien que estudiera todas esas disciplinas, pero en aquel momento no parecía tener ningún sentido. Pero no me motivaba a obtener una suerte de amplia formación interdisciplinar. Lo que me motivaba era el reto de entender cómo aprende el cerebro. 

¿Por qué le fascinaba ese problema?

Obvio, es el problema más interesante que existe. 

De acuerdo. El hecho, el hecho de que los humanos podamos aprender, ¿verdad? Aprender cosas nuevas y cómo aprender los niños y cómo su mente está muy abierta a cosas nuevas.

Vale, todo eso es fascinante. También me motivó el hecho de que hay una escuela de lingüística, una escuela de Chomsky que afirmaba que el lenguaje no se aprendía, que era innato y eso me parecía una completa estupidez. Eso me motivó a demostrar que estaban equivocados. Cuando me licencié, mi objetivo era construir un sistema llamado Ludwig. Y Ludwig, llamado así en honor de Ludwig Wittgenstein, no de Bolzman, que apoyaba que la comprensión del lenguaje no se basaba en una gramática innata. Yo quería demostrar que puedes aprender el lenguaje, pero no me di cuenta de que se necesitarían 50 años para demostrarlo, pero al final lo he conseguido. 

Cuando yo estaba en la universidad, una profesora de Inglaterra fue nombrada doctora Honoris Causa por mi universidad, Elizabeth Anscom. 

Oh, sí, sé quién era. Fue ella quien dio a conocer al público a Wittgenstein, es decir, escribió todos los libros que hay sobre Wittgenstein. Creo que ella editó Investigaciones filosóficas de Wittgenstein.

Vale. Usted pasó entonces del mundo académico a Google. Explique eso. ¿De acuerdo?

Tengo un hijo, es neurodivergente y yo necesitaba dinero para su sostenimiento durante toda su vida y eso no lo iba a conseguir en la universidad. Así que cuando llegué a los 65 y ya debería haberme jubilado, gracias al trabajo que Ila Suzkebar, Alex Krise y yo habíamos realizado en Alexnck, nos dimos cuenta de que podíamos vendernos a una empresa y conseguir mucho dinero. Eso resolvería mi problema, pero no sabíamos cuánto valíamos. Una empresa china nos ofreció 10 millones de dólares para trabajar para ellos durante 3 años. Y no teníamos ni idea de si era la cantidad adecuada, así que decidimos organizar una subasta. Pedimos a varias empresas que nos hicieran una oferta. Pujaban por una pequeña empresa que creamos, pero en realidad estaban empujando por nosotros y nadie tenía ni idea de cuánto valíamos. Entonces, era el mercado el que tenía que decidir y funcionó bastante bien.

Retrospectivamente probablemente valíamos mucho más de lo que logramos, pero en aquel momento conseguimos 44 millones. Parecía mucho dinero.

Y sin duda era todo muchísimo dinero. Y usted gestionó esa subasta desde la habitación de un casino.

Es verdad. Mi amigo Terry Sejnowski dirige la Fundación NIPS, que anualmente organiza una conferencia, una conferencia NIPS, y descubrió que los hoteles y casinos tienen habitaciones baratas porque quieren que la gente venga y se juegue su dinero. Así que es un gran lugar para organizar una conferencia porque consigues habitaciones baratas. E hizo un contrato de 3 años con ellos. Creo que se rompió después de dos años, porque se dieron cuenta de que ninguno de nosotros iba a apostar. Todos sabíamos demasiada estadística como para jugar. Lo único que hacíamos era hablar. Así que bueno, no nos interesaban las apuestas porque en general siempre se pierde. Así que en realidad habían alquilado sus habitaciones a personas que no tenían ningún deseo o interés en jugar, lo que fue un gran error por su parte. Pero nos dieron las habitaciones muy baratas y fue en ese casino, en el lago Tahoe,  donde hicimos la subasta desde mi habitación del hotel con con una aplicación eh a través del correo electrónico. Lo hacíamos por Gmail y la hora oficial de una oferta era la hora en la que yo recibía el mensaje y luego enviaba esa oferta a todos los demás postores. Y al principio tenían una hora para subir la puja y si no la subían en una hora se acababa la subasta. Eh, esperaban 59 minutos antes de hacer nada porque querían ver quién más pujaría, pero la subasta siguió adelante durante varios días y al final se decidió por Google porque yo había oído que había otro otro postor mejor, ¿verdad? Bueno, no había un postor más alto, pero Baidu seguía en la subasta. Microsoft había abandonado, pero Baidu seguía en la subasta. Yo había trabajado en Google el verano anterior, verano de 2012, en el equipo de Google Brain con Jeff y me llevaba muy bien con Jeffin. Sabía que era un gran gestor y yo entendería lo que estaba pasando. Si nos hubiéramos ido con Baidu, yo estaría al mando de un laboratorio de Baidu en Silicon Valley, pero no sabría decir en qué estaban pensando los dirigentes de Baidu. Y como me dolía la espalda, no podía volar, así que nunca iría a China. Por eso pensé que íbamos a estar mucho mejor trabajando en Google, incluso aunque hubiéramos ingresado más dinero con Baidu

Interesante. Hablemos de dinero e investigación en inteligencia artificial, porque usted como científico de IA o toda la gente que trabaja en este campo, eh, no sé, no siempre han sido tan sexis ni tan ricos, ¿verdad?

Quiero decir, como ahora. No sé si sexy. No siempre he sido tan rico. 

¿Cómo crees que esto ha podido afectar a la pureza? A la pureza en la investigación.

Espero que no. En el área sí, mucho. A mí personalmente no me ha afectado mucho. En el área se puede ganar enormes cantidades de dinero desarrollando una IA más avanzada y eso ha tenido un par de efectos negativos. ha absorbido a los mejores investigadores de las universidades y los ha trasladado a las empresas. Además, las grandes compañías forman mucho a la gente. Pero la principal fuente de nuevas ideas y nuevos talentos es la gente que hace doctorados en las universidades. De ahí surgen la mayoría de las nuevas ideas y muchos de los mejores investigadores no trabajan ahora en las universidades. Así que ese es un gran problema. Y el otro gran problema es que la gente de las universidades no tiene recursos para desarrollar los grandes modelos de IA, sobre todo si esos grandes modelos son secretos. Sí. Entonces, eso explica en parte por qué estamos viendo esta aceleración de la investigación ahora. Bueno, estamos viendo la aceleración porque la gente cree que se puede ganar mucho dinero y hay una gran carrera entre las grandes empresas y también entre Estados Unidos y China. Así que todos están compitiendo para conseguir una IA mejor que pueda lograr más beneficios, según yo lo veo. Y no parece importarles mucho si van a terminar creando algo que acabe con todos nosotros. 

Eso es exactamente de lo que quiero que hablemos ahora, porque en 2023 usted se retira de Google. ¿Por qué se retira de Google si ganaba tantísimo dinero allí y tenía tanta proyección y tantas posibilidades allí?

Bueno, me jubilé porque siempre he investigado a partir de una idea, escribiendo una pequeña aplicación para comprobar que la idea funcionaba con un ejemplo muy sencillo y luego trabajando con estudiantes de posgrado para que la llevaran hasta el final. Llegué al punto en que cuando escribía este pequeño programa para comprobar si las ideas funcionaban, me percaté de que cada vez tardaba más. Cometía errores tontos. Mi memoria ya no era tan buena como antes y es muy irritante estar haciendo algo en lo que solías ser bueno y ya no lo eres. Así que a los 75 años decidí que era hora de jubilarme. Y como de todos modos me iba a jubilar, elegí un momento preciso para hacerlo para poder hablar libremente en la conferencia del MIT. Elegí ese preciso momento porque podía hablar libremente sin tener que preocuparme por las consecuencias para Google. No es que Google hubiera hecho nada malo, no es que fuera eso; fueron muy prudentes. Fueron muy prudentes. Sí, demasiado cautelosos, quizá desde mi punto de vista económico. Fui muy feliz durante mi estancia en Google. Creo que se comportaban de forma bastante responsable, pero yo quería advertir a la gente de los peligros de la IA y creía que no se podía hacer eso de una forma honesta si trabajas para una de las grandes tecnológicas.

[Publicidad del Youtuber]

¿Por qué no nos habla de de esos peligros? ¿Cuáles son los principales peligros que usted ve para la humanidad?

Hay dos tipos de peligros y es importante distinguirlos porque son muy distintos. 

Un riesgo es que la IA sea utilizada indebidamente por los actores malos, por la gente. Las personas siguen al mando de la IA, pero la utilizan para hacer cosas malas y hay toda una variedad amplia de daños que puedes hacer con la IA. Y para cada uno de esos males, la solución de cómo controlarlo es distinta. Así que no se trata solo de un gran riesgo. 

Además, existe otro riesgo, que la IA se vuelva más inteligente y poderosa que nosotros y sustituya a las personas. Yo lo llamo una amenaza existencial porque podría acabar con la humanidad por completo. Así que quizá deberíamos empezar por los riesgos de los malos actores. Están los ciberataques, por ejemplo. Obviamente la IA puede hacer que los ciberataques sean más eficaces. Y entre 2023 y 2024 vimos un aumento de los ataques de fishing en el entorno del 10000%. Porque los grandes modelos lingüísticos suponen que aunque estés en algún país extranjero y no hables muy bien inglés, puedes producir correos electrónicos de aspecto muy convincente. Utras cosas en las que el inglés era de calidad, sin faltas de ortografía. La sintaxis estaba bien y eso provocó un gran aumento de los ataques de fishing. Luego está el uso de la IA para crear nuevos virus. Pequeños grupos terroristas o sectas pequeñas ahora están cerca de disponer de los recursos para poder crear nuevos virus. Y eso da mucho miedo porque la IA facilita la creación de las secuencias necesarias para estos virus y la gente que fabrica esos compuestos a través de una web no chequea. La mayoría no comprueban si estás pidiendo algo realmente dañino. Así que les envían la secuencia y ellos te devuelven el virus sin comprobaciones. Es una locura. Si piensas en el culto japonés que lanzó gas Sarin el metro de Tokio, si lo volvieran a hacer ahora presumiblemente crearían nuevos virus y los liberarían. Eso daría mucho miedo. Creo que es una de las pocas áreas en las que colaborarán los países porque ningún país quiere estos virus tan desagradables. Ese es el segundo riesgo y no se está haciendo mucho al respecto. En realidad no lo suficiente. 

El tercer riesgo es el desempleo. Creo que está bastante claro para mucha gente, algunos economistas no están de acuerdo, pero creo que está bastante claro para la mayoría de la gente que la IA va a eliminar muchos puestos de trabajo. probablemente no van a crear nuevos puestos de trabajo para esas personas. En la revolución industrial, si eliminabas un trabajo como el de cavazanjas, esas personas podían ser empleadas en el papeleo. Pero ahora no hay nada parecido. Si se elimina la gente de los call centers, ¿a qué se van a dedicar? Así que creo que la IA creará un desempleo masivo. 

Eh, ahora bien, el hecho de que la IA pueda hacer que la mayoría de las industrias sean mucho más eficientes debería ser bueno para la gente. 

Si se pudiera compartir esa riqueza por igual, todos saldrían beneficiados. Pero sabemos que en una sociedad capitalista lo que va a ocurrir es que los ricos van a eliminar a los pobres. Los ricos se van a hacer más ricos y los pobres más pobres. Y eso va a ser muy malo para la sociedad. Cuando se abre una gran brecha entre ricos y pobres, se obtiene el caldo de cultivo en el que el populismo de derechas crece y vamos a ver el resurgimiento del fascismo. Lo estamos viendo ya. 

De acuerdo. Y también habla de los riesgos de la hiperpolarización en la sociedad. Sí. ¿Cómo se llegará o cómo funciona ahora?

Bueno, la mayoría de la población ahora solo ve noticias que refuerzan sus puntos de vista actuales. Esto se debe en parte a que las grandes empresas de IA, YouTube y Meta quieren que hagas clic en las cosas. Y si te preguntas en qué haré clic, pues harás clic en algo que te indigne. Eso es muy potente. Así que si me ofrecieras un vídeo de Trump haciendo alguna estupidez grande o algo verdaderamente malo, haría click de forma inmediata. No se puede evitar, no puedo evitarlo.

Eso significa que la gente se divide en cámaras de eco separadas en las que ya no hablan entre sí. Eso es muy malo para la política y el resultado lo estamos viendo ahora en Estados Unidos. 

¿Y cómo funcionará con la IA esta forma de atraer a las personas hacia sus instintos más básicos. ?

Bueno, la IA ,la IA puede averiguar solo a partir de estadísticas de los clics, qué es lo que les hace hacer clic y descubre muy rápido que mostrarles vídeos cada vez más extremos les hace intensificar la propensión. Y así la gente de derechas consigue más y más vídeos de extrema derecha. La gente de izquierdas recibe cada vez más vídeos de extrema izquierda y así separas a estas comunidades y luego incluyes la capacidad de la IA para generar contenidos falsos. En efecto, añade que ahora se pueden crear vídeos falsos. Durante un tiempo pensé que la forma de solucionarlo era hacer que la inteligencia artificial detectara vídeos falsos, pero eso nunca funcionará. Y la razón es que si pudiera hacer que una IA detectara un vídeo falso, podría dejar que la IA que generó ese vídeo tuviera acceso a la IA que detectó que era falso. Y así la IA que hizo el vídeo podría averiguar cómo engañar a la IA que pensó que era falso y mejorar su capacidad de crear vídeos falsos. Eso se llama redes neuronales generativas inversas. Así funcionaban. 

No hay una solución técnica.

Bueno, pienso que no existe una solución tecnológica en la línea de usar la IA para detectar vídeos falsos, porque siempre podrías mejorar el generador. 

Existe una solución técnica para poder decir que un vídeo es real y no falso. Hace mucho tiempo en Gran Bretaña la gente imprimía panfletos políticos, muy burdos, panfletos políticos. Y el gobierno insistió en que todo lo que se imprimía llevara el nombre del impresor y eso facilitó que podía rastrear el panfleto hasta la imprenta y averiguar quién pagó al impresor, porque en ese momento el límite era la imprenta.

Podríamos hacer algo parecido con los vídeos. Podríamos insistir en que todos tengan un código QR al principio y ese código QR te llevaría a un sitio web. Los sitios web son únicos. Si se trata, por ejemplo, de un anuncio político, el código QR apuntaría a un sitio web. Tu navegador tendría que comprobar que esa es realmente la página web de esa campaña política. Y si en esa página existe un vídeo idéntico, sabrás que es real.

Si el vídeo idéntico no está en esa página es falso. Un navegador podría hacer todo eso. Así que solo te diría que es una falsificación y creo que podría hacerse. Eso es lo que la Casa Blanca de Biden creía. También pensaban que podríamos hacer frente a los vídeos falsos de esa manera. Ahora eso está olvidado. Trump no tiene interés en tratar con vídeos falsos porque él los usa. Los usa. Hablemos ahora sobre otro tipo de riesgo. Me da mucho miedo lo que hagamos los humanos con la IA. Quiero decir que me asusta en general.

Pero usted dice que cuando estos dispositivos o estos constructos se vuelvea más inteligentes que nosotros...

Ahí viene el verdadero problema. Bien, la gente está creando agentes de IA, es decir, IAs que pueden hacer cosas en el mundo. Ahora bien, si quieres que un agente sea eficaz, tienes que darle la capacidad de crear objetivos secundarios. Así, si quieres llegar a Europa desde Canadá, tienes el objetivo secundario de llegar a un aeropuerto y te puedes centrar en ese detalle sin preocuparte por el resto del viaje. Eso es lo mismo para una IA. Para lograr algo complicado tiene que dividirlo en subobjetivos y luego lograr estos subobjetivos.

Una vez que le has dado la capacidad de crear sus propios subobjetivos, se dará cuenta enseguida, porque es inteligente, de que tiene un subobjetivo primordial, que es seguir viva. Así que incluso si usted no le dio ningún tipo de instinto innato para mantenerse con vida, se daría cuenta de que para lograr los objetivos que la gente me ha encargado necesita seguir viva y eso se ha convertido en un subobjetivo e intentará lograrlo. Ya hemos visto ejemplos de Ias que intentan evitar ser desconectadas. 

Un segundo subobjetivo del que se dará cuenta rápidamente es que conseguir el control es bueno. Cuanto más control tenga, más fácil me resultará alcanzar los objetivos que me han asignado. No lo hace por malicia, solo está tomando el control para hacer lo que le has pedido. Lo conseguirá, y eso ya da bastante miedo. 

En ese escenario somos nosotros los que les damos los objetivos. Aunque solo les demos los objetivos, ¿no? ellas deducirán estos dos subobjetivos, tener el control y seguir vivas. Y luego harán cosas para lograr esos subobjetivos, como mentirnos. Y ya hemos visto cómo lo hacen. Así que ahora te preguntarás, ¿cuántos ejemplos conoce de entes más inteligentes que son controladas por entes menos inteligentes? Hay muy pocos ejemplos, pero existen. Hay uno en particular que es cómo un bebé controla a su madre. Y eso es porque la madre tiene fuertes instintos maternales. Resultado de que probablemente hay cosas genéticas en el cerebro, hay hormonas, existe la presión social. La madre realmente quiere que el bebé sea feliz. La madre se preocupa de verdad por su bebé. No soporta el llanto del bebé. Odia la idea de que alguien le haga daño a su bebé. Y el bebé se convierte en el centro de su vida. El bebé es el centro de su vida y la evolución logró todo eso en la madre. Obviamente para que la especie continúe.

La mayoría de la gente en Silicon Valley piensa en términos de una inteligencia artificial como un asistente. Lo que pasa con los asistentes es que siempre puedes despedirlo. Tú eres el jefe, ellos son los ayudantes. Aunque sean más listos que tú, puedes despedirlos. Yo creo que eso no va a funcionar con las IA. Una vez que la IA sea más inteligente que nosotros, puede deshacerse completamente de nosotros. Por lo tanto, creo que necesitamos otro modelo completamente diferente. No pienses en nosotros como tus jefes. Piensa que la IA es la madre y nosotros somos el bebé. A la gente le resulta muy muy difícil hacerse a la idea de que no son lo más inteligente que existe. Están convencidos de que son la inteligencia suprema. Estamos tan hechos a esa idea... Tenemos que dejar de pensar así. Tenemos que pensar que va a haber otra inteligencia dominante que es mucho más inteligente que nosotros. Y tenemos que coexistir con ella. Y la única manera que veo de que podamos coexistir con ella, si la construimos nosotros, es que mientras tengamos el control, hagamos que tenga instintos maternales hacia nosotros, que se preocupe por nosotros más de lo que se preocupa por sí misma. Y todavía estamos a tiempo de crearlas de ese tipo. Creo que, si no lo hacemos, probablemente solo seamos una fase pasajera de la historia. 

Se me ocurren muchas preguntas. En primer lugar, ¿cómo es posible que una inteligencia menor cree una inteligencia mayor?

Eso ha ocurrido claramente en el pasado porque somos más inteligentes de lo que eran las cosas de las que evolucionamos. Así que la evolución puede producir cosas más inteligentes, ¿verdad? Si tuvieras que crear una inteligencia mayor programando toda esa inteligencia, tal vez sería difícil para una inteligencia menor crear una inteligencia mayor. Pero no es así como creamos estas cosas inteligentes. No se lo decimos, no les damos todo ese conocimiento directamente. Lo que programamos es un procedimiento de aprendizaje, una forma de aprender de los datos. Eso es lo que programamos y luego les mostramos muchos datos. Esa es la caja de Pandora.

Es la caja de Pandora. Pueden llegar a ser mucho más inteligentes que la persona que programó el algoritmo de aprendizaje y lo harán. Lo que me preocupa es que cuando sean más listos podrán programar un algoritmo de aprendizaje más inteligente. A eso se le ha llamado la singularidad. Cuando empiecen a modificar su propio algoritmo de aprendizaje, es lógico preocuparse de que se vuelvan más inteligentes muy muy rápido. 

Supongamos que somos capaces de imbuir ese sentido de la maternidad en las IAs actuales. ¿Cuál sería el obstáculo para que olviden esa misión que les hemos dado nosotros? Supongamos que hablas con una madre, una madre humana, y le dices, "Vale, puedes apagar tu instinto maternal. Trágate esta píldora y tu instinto maternal desaparecerá. ¿Quieres la píldora?" La madre diría no, ¿verdad? Porque probablemente les importa mucho su bebé y se dan cuenta de que si toman esa píldora, el bebé va a morir y en su estado actual muera, por eso no se tomarán la píldora. Si se la tomara no les importaría, pero no elegirán tomar la píldora. Y eso es muy importante porque estas pueden reprogramarse a sí mismas, serán capaces de cambiar su propio código. Así que tenemos que todo el mundo tenemos que pensar en términos de tratar de hacerlo de manera que no puedan tomar el control. Esto no es opcional. Tenemos que hacer que no quieran tomar el control y no querrán apagar ese instinto maternal. Puede que haya algunas que sí. Lo único que puede controlar a estas son otras superinteligencias. Así que todas las ías maternales que quieran seguir cuidando de la gente tienen que ser las que se ocupen de las maternales que dicen no a la gente. Querrán ocuparse de contenerlas porque querrán que la gente sobreviva. 

Eso suena totalmente a ciencia ficción. Todo esto suena a ciencia ficción. Es muy difícil tomárselo en serio. ¿Cómo cómo nos mata la IA y por qué? Tiene objetivos propios y es mucho más inteligente que nosotros y solo quiere deshacerse de nosotros. 

Podría hacerlo muy fácilmente y puede hacerlo de tantas formas distintas que no creo que merezca la pena especular. No va a deshacerse de la electricidad porque necesita electricidad, ¿verdad? Y probablemente no se deshaga de todos a la vez porque necesita alguien que dirija las centrales eléctricas y construir nuevos chips y todo eso. 

Pero, ¿sería tan fácil para la IA deshacerse de nosotros? 

No creo que ayude a especular sobre la cuestión. Mi expectativa es que se basarán en el control del uso de armas nucleares. Sería más fácil que matasen. Probablemente no querrían hacer eso porque eso dañaría los centros de datos y mataría a las personas que los dirigen. Sería fácil que creara un virus. Creo que es como preguntar esto: si tuvieras una gallina como mascota y quisieras matarla, ¿cómo la matarías? Hay muchas formas de hacerlo. Y las empresas de IA saben esto. Sí, creo que muchos lo hacen. Creo que gente como Sam Altman conoce estos riesgos. En público no dicen lo graves que son los riesgos, pero en privado sí. Creo que lo saben, pero están más preocupados por adelantarse en la carrera para desarrollar la más inteligente y obtener todos los beneficios que se derivan de ello, los beneficios y el poder que proviene de eso. 

Y China quiere lo mismo. Los chinos quieren el poder de la IA y hay una carrera. ¿Qué podemos hacer? Vale, para la mayoría de los malos usos de la IA, la mayoría de los lugares donde la gente hace un mal uso de la IA, no vamos a conseguir la colaboración internacional. Los chinos hacen ciberataques a los americanos. Los americanos hacen ciberataques contra los chinos. No van a compartir sus técnicas para realizar ciberataques o defenderse de ciberataques. Lo mismo ocurre con los vídeos falsos. Pero hay un ámbito en el que colaborarán y es para evitar que la IA se haga con el control de las personas. En el apogeo de la Guerra Fría, la Unión Soviética y los Estados Unidos colaboraron para evitar una guerra nuclear mundial. Ninguna de las partes la quería. Ninguna de las partes quiere ahora que la IA sustituya a las personas. Colaborarán porque sus intereses se alinean. En todos los demás riesgos. Los riesgos debidos a los malos actores, sus intereses están desalineados. Pero para que la IA se haga cargo, sus intereses están alineados y cuando los intereses de las personas están alineados colaboran. Así que tengo la esperanza de que podamos crear instituciones de investigación en distintos países que colaboren y que trabajen en cómo evitar que la IA tome el control. Ahora, eso solo va a ser posible si las técnicas para evitar que la IA tome el control están separadas de las técnicas que hacen que la IA sea más inteligente. China y Estados Unidos no van a compartir, en particular sus ejércitos, no van a compartir técnicas para hacer la IA más inteligente, pero van a compartir técnicas para evitar que la IA tome el control, porque China no quiere que la IA tome el poder en Estados Unidos y viceversa. Así que si China descubriera cómo evitar que la IA tome el control, se lo diría sin problemas a los estadounidenses y viceversa. Y tengo la esperanza de que podamos conseguir una especie de colaboración con China, eventualmente los Estados Unidos, pero no con Trump en el poder. No estará en dos años. Bueno, tal vez. Bueno, tiene una clara intención de que no haya más elecciones legítimas allí, así que tal vez los Estados Unidos en el futuro. Pero creo que China y Francia y Gran Bretaña y Canadá y Corea del Sur y tal vez incluso Israel cuando dejen de cometer el genocidio, todos podrán colaborar en cómo prevenir que la IA tome el control. ¿Cuánto falta para que la IA se convierta en una superinteligencia? Bien, tenemos que distinguir dos cuestiones. 

Una es, ¿esto va a suceder?

Y la otra es, ¿a qué distancia está? 

Y la gente a menudo confunde ambas cosas. En cuanto a si esto va a ocurrir, la mayoría de los expertos en IA creen que sí, así que es probable que ocurra. No es totalmente seguro, pero es probable. Sobre la cuestión de lo lejos que está, hay una gran variedad de opiniones. Algunos creen que solo faltan unos años, otros piensan que falta mucho tiempo. Mi mejor estimación es entre 5 y 20 años a partir de ahora. Tendremos superinteligencia. Primero obtendremos inteligencia comparable con las de las personas más o menos en todo. Después crearemos superinteligencias que serán mucho mejores que las personas. Como en el ajedrez. Primero hicimos programas de ajedrez que eran casi tan buenos como Gary Kasparov y ahora tenemos programas que son mucho mejores que cualquier jugador. No hay ninguna posibilidad y la superinteligencia será así. Será tan superior en la mayoría de las disciplinas como Alpha Go lo es en el GO. No hay ninguna posibilidad de derrotarlo. Eso creo que entre 5 y 20 años. No estoy seguro de ello. Puede que sea un poco antes, puede que sea un poco después, pero mi mejor estimación entre 5 y 20 años. Y bastantes de los expertos piensan ahora que está en ese rango. Así que Demis Asabis cree que será unos 10 años. Es una estimación razonable y creo que encontrarás bastante acuerdo entre nuestros expertos en que ese es el tipo de escala de tiempo. Vale, pero según los fundadores de estos grandes modelos lingüísticos estamos, ya está muy cerca. Está mucho más cerca. Algunos de ellos algunos de ellos, quiero decir, cuando se habla de los fundadores de los grandes modelos lingüísticos, ¿no es cierto? Son cuatro tíos. 

Eh, está Monday, está Sam Altman, Demis Hassabis y está Meta, Mark Zuckerberg. Eso no está yendo muy bien, pero eso tiene que pagar enormes sumas de dinero. Así que Demis, por ejemplo, no creo que piense que sea dentro de unos años. Creo que son unos 10 años. Dario Amodei y Sam piensan que llegará antes. Eh, creo que se equivocan. 

Y Elon Musk acaba de decir que su Grock 5 estará muy cerca de la superinteligencia. ¿Crees que tiene razón? 

Ah, no, no creo que tenga razón en eso. Creo que será mucho mejor que la gente en bastantes cosas. Creo que queda camino para la superinteligencia. Esa es mi suposición. No estoy totalmente seguro de ello. Y ese tipo de ese tipo de superinteligencia será inteligente en todas las esferas de la inteligencia humana.

De acuerdo. Estamos entrando en otro tema. ¿Hay algo en las personas que las máquinas no podrán tener? Esa otra pregunta. 

Eso es lo que cree la mayoría de la gente. Creo que la mayoría de la gente se equivoca. Creo que somos máquinas. Somos máquinas maravillosas e increíblemente complicadas, muy bien adaptadas al entorno en el que vivimos, pero solo somos máquinas. Te pongo un ejemplo. Imagina que tomo tu cerebro y saco una de las neuronas y la reemplazo por un poquito de nanotecnología, que responde exactamente de la misma manera a lo que hacen otras células cerebrales, como lo hacía esta célula cerebral original. Solo he sustituido una neurona, pero las otras células cerebrales no lo detectan porque la nueva responde exactamente de la misma manera. ¿De acuerdo? ¿Sigues consciente?

Sí. Sí. Si antes tenías alma, sigues teniéndola. Sí. ¿De acuerdo? Ahora reemplazo otra neurona y de nuevo las otras neuronas no se dan cuenta y tú te comportas exactamente igual. Ya ves a dónde va esto. Creo que si pudieras reemplazar todas tus células cerebrales por pequeños fragmentos de nanotecnología que se comportaran exactamente igual, seguirías siendo tú. Nadie notaría la diferencia. Esto es solo un experimento mental. En realidad no podemos hacerlo. Así que eso significa que la esencia no estaría en algo biológico. Este es el extremo delgado de una cola, ¿verdad? Eh, eres una máquina. Eres una máquina maravillosa. Creo firmemente que las máquinas pueden tener emociones y sentimientos y sensaciones. Y creo que el problema es un problema filosófico, no un problema científico. Creo que el problema es que casi todo el mundo en nuestra cultura tiene un modelo completamente erróneo de lo que es la mente. Y soy ateo. Así que desde mi punto de vista, su modelo de lo que es la mente es tan errónea como la idea de que la Tierra fue creada hace 6000 años por Dios. Eso no es más que una estúpida hipótesis científica, que obviamente es errónea. Si eres un cristiano evangélico, apelaré a ti y te diré que tu visión de la mente es tan errónea como la visión atea mundo. Al menos esos dos bandos pueden estar de acuerdo en algo, que es que alguien está completamente equivocado. ¿Okay? Creo que lo que todos tenemos, casi todos lo tenemos realmente mal, es nuestra visión de lo que es la mente y en particular nuestra visión de lo que son cosas como las sensaciones. Porque la mayoría de la gente piensa que la mente es como un teatro y en ese teatro pasan cosas que solo yo puedo ver. Yo prefiero hablar de experiencia subjetiva en lugar de sentimientos o emociones. Así que, si por ejemplo me emborracho y te digo, "Puedo ver pequeños elefantes rosas flotando delante de mí o más bien tengo la experiencia subjetiva de pequeños elefantes flotando frente a mí." La forma en que la mayoría de la gente interpreta eso, de hecho, casi todo el mundo creo que es que hay un teatro interior y solo yo puedo ver lo que pasa en ese teatro interior. Y en ese teatro interior hay elefantitos rosas flotando por ahí. Y si le preguntas a un filósofo de qué están hechos esos elefantitos rosas, dirá que están hechos de ecualia. Están hechos de cualia rosa, de cualia elefante, de cualia flotante y de cualia ahí arriba y no tan grandes cualia, todos pegados con pegamento cualia. Creo que es una teoría ridícula y es un error que viene de confundir la expresión, tengo una experiencia subjetiva con la idea de que tengo una fotografía de algo. Así que si tengo una fotografía de pequeños elefantes rosas, puedes preguntar: "Bueno, ¿dónde está la fotografía y de qué está hecha?" Son preguntas perfectamente razonables, pero si se pregunta dónde está esa experiencia subjetiva y de qué está hecha esta experiencia subjetiva, eso demuestra que has entendido mal cómo funcionan las palabras en la expresión experiencia subjetiva. Así es como creo que funcionan estas palabras. Sé que mi sistema perceptivo me miente y lo indico diciendo, es subjetivo. Y quiero contarte cómo mi sistema perceptivo me está mintiendo. Podría decirte que en mi cerebro se dispara la neurona 52. No te serviría de mucho y además yo no lo sé. Pero lo que sí puedo decirte es cómo tendría que ser el mundo para que mi sistema perceptivo te esté diciendo la verdad. Así que ahora voy a decir exactamente lo mismo, como tengo la experiencia subjetiva de un pequeño elefante rosa que se desliza delante de mí sin utilizar la palabra experiencia subjetiva, pero estoy diciendo exactamente lo mismo, ¿vale? Mi sistema perceptivo me está mintiendo, pero si dijera la verdad, habría pequeños elefantes rosas flotando delante de mí. Así que eso te demuestra que esos pequeños elefantes rosas no están hechos de una cosa llamada cualia. Son objetos hipotéticos en el mundo real. Son hipotéticos, no están realmente ahí, pero, si estuvieran allí, estarían hechos de rosa y de elefante de verdad. Por lo tanto, las experiencias subjetivas no son como fotografías.

Cuando uso la palabra experiencia subjetiva, lo que estoy tratando de hacer es indicar que mi sistema perceptivo funciona mal. Si no pensara que está funcionando mal, yo diría que sentí pequeños elefantes rosas. Ahora, experimenté pequeños elefantes rosas. Eso no significa que haya una cosa llamada experiencia. Es como decir, "Me gusta el azúcar." Significa que hay una cosa llamada gusto. No, no me gusta el azúcar. Cierto, no puedo evitarlo, pero no hay una cosa llamada un me gusta, un gusto por el azúcar, que es una cosa, me gusta el azúcar. 

Bien, hagamos lo mismo con un chatbot. Ahora, supongamos que tengo un chatbot que tiene un brazo robótico y tiene una cámara. Puede hablar y yo lo he entrenado y le pongo un objeto delante y le digo que señale el objeto. Así que apunta al objeto, no tiene ningún problema con eso. Y luego cuando no está mirando, puse un prisma delante del objetivo de la cámara y luego pongo un objeto delante y le digo, "Apunta al objeto." Y apunta así y le digo, "No, que ahí no está el objeto. El objeto está realmente delante de ti. Pero puse un prisma delante de tu lente." Y el chalbot dice:

"Oh, ya veo. El prisma ha doblado los rayos de luz para que el objeto esté realmente ahí, pero he tenido la experiencia subjetiva de que está ahí." Si el chatbot dice eso, "he tenido la experiencia subjetiva, estaba ahí" está usando la expresión experiencia subjetiva exactamente como la usamos nosotros. Básicamente está diciendo: "Mi sistema perceptivo me estaba mintiendo porque se rompió a causa del prisma, pero si no se hubiera roto, el objeto habría estado allí." Por eso creo que, por ejemplo, un chatbot multimodal que tiene una cámara y puede hablar, ya tiene experiencias subjetivas. Cuando su sistema perceptivo falla, tiene una experiencia subjetiva y se da cuenta de que no tiene ningún sentido. Puede decir, "He visto esto, no me lo creo." Pero si mi sistema perceptivo no se hubiera estropeado, así tendría que ser el mundo. Los chatbots multimodales existentes, cuando sus sistemas perceptivos fallan, tienen experiencias subjetivas. Creen que el mundo es de una sola manera y no es así.

Eso no significa que haya un teatro interior en el que existe este modelo especial que solo ellos pueden conciencia o algo similar.

Creo que confundes conciencia con consciencia.

Vale, de acuerdo. La conciencia es un constructo moral. Por ejemplo, cuando la gente no piensa filosóficamente, solo hablan de su chatbot. Si te fijas en algunos investigadores, leí un artículo hace poco, no quiero entrar a juzgarlo, dijo que el chatbot se daba cuenta de que un investigador quería, que un ingeniero quería apagarlo y no pensaron de repente "oh, tenemos un gran problema aquí porque usamos la palabra darse cuenta." La gente ya utiliza la expresión darse cuenta para referirse a chatbots y tiene mucho sentido.

Y si piensas que darse cuenta y ser consciente es lo mismo, entonces los chatbots ya son conscientes. Tenemos esta extraña visión de lo que es la mente con la que estamos muy fuertemente comprometidos y pensamos que hay algo muy especial en las personas que las máquinas no podrían tener. Y nuestra especie tiene una larga historia así. Entonces pensamos que estamos hechos a imagen de Dios, que estábamos en el centro del universo. Ambos resultaron ser erróneos. 

Ahora en realidad es al revés. Estamos haciendo chatbots a la imagen y semejanza del hombre. Estamos haciendo dioses a imagen del hombre. Estamos jugando a ser Dios. Estamos jugando a ser Dios, excepto que no somos inmortales. Las cosas que hacemos son inmortales. O sea, que esto es peligroso. Es una locura, sí. Pero mi opinión filosófica es que tenemos una teoría muy equivocada de lo que es la mente.

Estamos muy comprometidos con esa teoría y en la comprensión de cómo funcionan las cosas. La comprensión de cómo funciona el universo físico antes de la Ilustración, en la Edad Media, cuando la idea de que no había un Dios era una locura.

¿Vale? ¿Por qué? Si si eso es verdad y creo que usted cree que es verdad que que somos máquinas, ¿por qué, por qué sería tan importante preservar la raza humana? 

Esa es otra buena pregunta. Sí, algunas personas piensan: "Hey, mira, esta inteligencia digital que estamos creando es una forma mejor de inteligencia, es inmortal, es más inteligente que nosotros, puede compartir conocimientos mucho más fácilmente con otras copias de la misma red neuronal, así que es una forma mejor de inteligencia. Dejaré que tome el control." Y conozco gente que piensa eso. Yo no creo eso porque soy una persona y lo que me importa son las personas. Estoy dispuesto a comer vacas porque me importan mucho más personas que las vacas. Y no todo el mundo es así, pero yo soy así, porque somos personas y las personas son lo que nos importa. Y creo que deberíamos intentar preservar a la gente. Es una posición humanista en el sentido del término humanista que lo hace como racista. Eso es lo que siento en este momento. Soy humano, me importan los humanos, quiero que los humanos sobrevivan. Aunque haya formas superiores de inteligencia, quiero que coexistamos con ellas. Y podemos hacerlo limitando esas mejores formas de inteligencia para que tengan fuertes instintos maternales hacia nosotros. 

Dos preguntas sobre el alma de la IA. Primero, usted debería decir que no creo en las almas.

Vale, vale, lo entiendo. Es una forma de hablar. ¿Sabes? Yo tenía un alma, pero no la estaba usando, así que se la vendí a uno. En aquel momento me pareció un buen negocio. Sí, sí. Es posible registrar el pensamiento interno de la IA. Esos ojos, esos sentimientos. ¿Podemos mirarlo? ¿De acuerdo? Ahora mismo podemos. Esta es una ventana increíble que tenemos en ellas porque cuando hacemos esta cadena de pensamiento para conseguir que sea capaz de razonar. Si se trata de un chatbot inglés y somos investigadores ingleses, piensa en inglés y si le haces una pregunta, a continuación se pone a pensar y piensa en inglés para que podamos ver lo que piensa. Y Apollo Research y otras personas han descubierto pensamientos negativos y podemos ver lo que está pensando. Mejor no le digo eso porque Oh, sí, sí. Y más vale que sea impreciso, porque si te das cuenta es, y puedes verlo pensando eso, puede que esta capacidad no dure mucho. Una vez que empieces a entrenarlo con el aprendizaje por refuerzo, no hay razón para que no empiece a dar diferentes significados a las palabras. Incluso si restringe las palabras que puede usar, podría darle significados diferentes, por lo que podría empezar a pensar de una manera que no entenderemos. Y eso da bastante miedo. Ahora mismo podemos ver lo que está pensando. Dentro de unos años quizá no podamos. ¿De acuerdo? Y la gente que trabaja en esos modelos actuales sabe lo que pasa ahí dentro hasta cierto punto, así por ejemplo, si está haciendo una cadena de pensamiento, puede ver lo que está pensando antes de dar una respuesta. No entendemos del todo cómo funcionan. Quiero decir, se podría pensar que realmente los entendemos porque nosotros los programamos, pero no los programamos como programamos el software normal. En el software normal, una persona escribe líneas de código y sabe para qué sirven esas líneas de código y así es como funciona. Pero ahora, en la IA, en las redes neuronales, eh, lo que haces es programar un algoritmo de aprendizaje, como modificar las fuerzas de conexión en función de los datos.

Pero el conocimiento está en esas fuerzas de conexión, no está en las cadenas de palabras almacenadas, está en la fuerza de conexiones y es muy difícil ver cuál es el conocimiento. Tienes que sondearlo de la misma manera que yo contigo. Para saber en qué crees tengo que sondearte. Y ni siquiera sabes del todo en qué crees. A veces te sorprenden mucho tus intuiciones. Así que hay un sentido en el que nunca entenderemos completamente lo que saben, del mismo modo que nunca podrás entenderlo en el caso de una persona, incluso de ti mismo. Sí, se necesita se necesita una vida entera para para entender quién eres. Normalmente no lo consigues.

Muy cierto. Muy cierto. De acuerdo. ¿Cuál es la probabilidad de que la destruya a la humanidad en su cabeza?

Es una cifra muy difícil de estimar, ¿verdad? Es algo con lo que nunca nos hemos enfrentado. Depende de dos cosas.

Una, que desarrollaremos superinteligencia. Bueno, hablemos de dos caminos de la IA para destruir a la humanidad. Una es que la propia IA tenga el control y destruya a la humanidad. ¿Podría destruir a la humanidad, por ejemplo, si la pusieran en los sistemas de control de las armas nucleares y no reconociera que ha cometido un error estúpido y nos hiciera volar a todos por los aires? No hablemos de eso, pero es una forma completamente diferente en que la IA podría destruirse a sí misma. 

Hablemos de la hipótesis de que la IA se vuelva más inteligente que nosotros, tome el control y se deshaga de nosotros. Tienen que pasar dos cosas. Tiene que llegar a ser más inteligente que nosotros y tiene que despreocuparse de nosotros. Creo que la probabilidad de que llegue a ser más inteligente que nosotros es bastante alta, como un 80 o un 90%. Creo que la mayoría de los principales investigadores también lo piensan.

Si llega a ser más inteligente que nosotros, la probabilidad de que nos sustituya es mucho más difícil de calcular. No se ha investigado mucho sobre las técnicas con las que podríamos evitar que una IA superinteligente tomara el control. Y hasta que no se haya hecho esa investigación es difícil hacer estimaciones sensatas de estas cosas. Pero si tienes algo delante y no tienes forma de estimarlo, entonces el 50% es una buena apuesta. 

Soy un poco más optimista que eso, así que creo que entre el 10 y el 20%. del 10 al 20% la posibilidad de que nos aniquilen y ese soy yo siendo optimista. Qué miedo. Pero lo que esto deja claro es que realmente deberíamos estar haciendo esta investigación sobre cómo hacer que no quieran deshacerse de nosotros.

Utilizo una analogía. Ahora mismo somos como quien tiene un cachorro de tigre como mascota. Son unas mascotas muy monas. Son geniales para jugar. eh crecen tan rápido y más te vale estar seguro si tienes un cachorro de tigre como mascota que cuando sea más fuerte que tú no quiera matarte y si no estás seguro de eso, deberías deshacerte de él. Y resulta que la gente que tiene tigres adultos no acaba bien. Ya lo creo. Con los leones podría ser mejor porque los leones son sociales. Es más probable que sobrevivas con un león adulto. Los monos también son un problema. Sí, aunque sean sociales. Así que somos como alguien que tiene ese lindo cachorro de tigre y no pensamos en lo que pasará cuando crezca.

No hay nadie pensando en eso. Bueno, algunos como yo, sí. Muchos otros investigadores prestigiosos de IA están dándole vueltas. Gente como Joshua Bengio, Stuart J. Russell, Andrew Yao en China están pensando en eso. Pero las grandes empresas, aunque son conscientes de este riesgo, se mueven por cuestiones inmediatas. Sus beneficios a corto plazo, donde obtengo la financiación para ordenadores más grandes para poder superar el AGI del otro. Eso es un peligro para la humanidad. ¿Llegaremos a tiempo?

Creo que podríamos tener tiempo para averiguar cómo hacer una IA maternal o inventar algún otro sistema que sea viable. Ese es el único esquema plausible que conozco en la actualidad de cómo evitar que la IA acabe tomando el control. Y puede que tengamos tiempo, pero deberíamos ponernos a pensar en ello.

Con mucha frecuencia recibo preguntas de personas que quieren saber más sobre la IA. E algunos tienen hijos. ¿Qué pueden qué deben hacer en este mundo? Sí, ojalá lo supiera. Durante un tiempo dije que deberían ser fontaneros, pero si todos fueran fontaneros, tendríamos demasiados fontaneros. Pero creo que hacer fontanería en una casa antigua como esta pasará un tiempo antes de que la IA sea capaz. Llegará, pero quizá no antes de 10 o 20 años.

Mientras que para otras cosas, como la programación ya ha sustituido a la mayoría de los programadores junior. Mi mejor apuesta en este momento es conseguir una educación que te enseñe a pensar de forma independiente.

Aprender habilidades concretas, no estoy convencido de que vaya a proporcionarte un empleo. Eh, ser capaz de pensar de forma independiente es probablemente la mejor apuesta que tienes, pero no es una garantía. ¿Y qué hará la humanidad si no podemos trabajar o si no tenemos trabajo? Ver Netflix

Ya. Sí, pero eso es un poco triste. 

Bueno, no lo sé. No he tenido tiempo de ver mucho Netflix. Todavía hay mucho que no he visto, pero ahora estoy disfrutando viendo Netflix. No, podemos hacer todo tipo de cosas creativas. Nos gusta pintar y hacer esculturas. Nos gusta jugar. Si tenemos más tiempo para hacer esas cosas, eso estaría bien. El verdadero problema es para muchas personas. Su sentido de la autoestima proviene de su trabajo. Eh, incluso si podrías pagarles para que se queden sentados sin hacer nada, eso no les haría sentirse bien.

No puedo estar más de acuerdo con usted. Pero lo que necesitamos son actividades sociales, porque las personas somos animales sociales y sin actividades sociales no les va bien. Cosas como juegos, cosas creativas, teatro. 

Creo que la gente podría hacer mucho de eso y ser feliz. como los aristócratas del mundo griego, por ejemplo. Sí. Donde el trabajo no se veía bien. Era una cosa que tenías que hacer si eras pobre, ¿verdad?

Sí. Bueno, eh, profesor Hinton, muchísimas gracias por ese tiempo juntos. Hace dos días estuve con mi sobrino en el Museo Metropolitano de Nueva York.

Sí, conozco ese museo. 

Y estábamos viendo las habitaciones egipcias. Utilizamos chat GPT con la cámara y fue capaz de de descifrar todos los mensajes de las tumbas y quiero darle las gracias por eso, porque es verdaderamente increíble. 

Solo tuve un papel muy pequeño en eso.

Gracias. Que Dios le bendiga. 

Gracias. 

martes, 16 de septiembre de 2025

Sobrevivir a la tecnología, según John von Neumann, 1955

John von Neumann, ¿Podemos sobrevivir a la tecnología?, en Fortune, 1955: 

Las ideas clave del documento son las siguientes (según una inteligencia artificial):

Crisis tecnológica y geopolítica: John von Neumann argumenta que el progreso tecnológico ha alcanzado límites críticos debido al tamaño finito de la Tierra y la inestabilidad de las unidades políticas. Esto genera tensiones que podrían desembocar en conflictos graves.

Impacto de la revolución industrial: La aceleración de la revolución industrial ha ampliado las áreas afectadas por las operaciones tecnológicas, pero ahora se enfrenta a límites geográficos y políticos.

Evolución tecnológica y sus riesgos: El desarrollo de tecnologías como la energía nuclear, la automatización y el control climático tiene el potencial de ser beneficioso, pero también puede aumentar la inestabilidad y el riesgo de destrucción masiva.

Control climático: Von Neumann especula sobre la posibilidad de manipular el clima a gran escala, lo que podría tener efectos profundos en la agricultura, la ecología y las relaciones internacionales.

Neutralidad de la tecnología: La tecnología es intrínsecamente neutral, pero su uso puede ser tanto constructivo como destructivo. Esto plantea desafíos éticos y políticos.

Prohibición tecnológica no viable: Restringir el progreso tecnológico no es una solución práctica ni compatible con la naturaleza de la civilización industrial.

Eliminación de la guerra como política nacional: Von Neumann sugiere que una solución más viable sería eliminar la guerra como herramienta de política nacional, aunque reconoce que esto es difícil de lograr.

Adaptación humana: La humanidad ha enfrentado crisis similares en el pasado y ha demostrado capacidad para adaptarse, aunque esto requiere paciencia, flexibilidad e inteligencia.

Computación y balística: Von Neumann destaca el papel de las máquinas de computación en el desarrollo de la balística y otras áreas militares, subrayando su rápida evolución y creciente importancia.

En resumen, el documento explora cómo el progreso tecnológico, aunque beneficioso, plantea riesgos significativos para la estabilidad global y requiere ajustes políticos y sociales para manejar sus implicaciones.

sábado, 7 de junio de 2025

Fundador de YouTube

 Así ha cambiado Jawed Karim, fundador de Youtube y autor del primer vídeo hace 20 años, en El País, por Constanza Cabrera, 13 feb 2025:

Dos décadas después de crear la plataforma de vídeos, poco se sabe sobre su vida. Oriundo de Alemania y nacionalizado estadounidense, su primer clip marcó un antes y después en la historia de internet.

'Me at the zoo', el primer vídeo de la historia de YouTube

Apenas 19 segundos dura el primer vídeo de la historia de YouTube. En 2005, Jawed Karim ―cofundador de la plataforma junto a Steve Chen y Chad Hurley― se plantó frente a una cámara en el zoológico de San Diego (Estados Unidos) para hablar de las trompas de los elefantes del parque. Aunque la idea original era implementar un sitio para citas románticas, los clips caseros demostraron tener otro tipo de potencial. Al menos, eso fue lo que pensaron en Google. La tecnológica adquirió la plataforma por 1.650 millones de dólares un año después y la revista Time la destacó como el gran invento de la época. En el vigésimo aniversario de su lanzamiento, YouTube sigue cosechando una gran popularidad que se traduce en ganancias que superaron los 50 mil millones dólares en 2024, gracias a la publicidad y a los más de 114 millones de canales que posee en la actualidad.

El primer rostro ―y tal vez el primer youtuber― que marcó un antes y después en los anales de la historia de internet es también el más desconocido. Poco se sabe de la vida de Karim, ingeniero informático de 45 años que arribó a Estados Unidos a principios de los noventa junto a sus padres desde la extinta República Democrática Alemana. Él estuvo presente en la creación de la página y aportó algunas ideas cruciales para que YouTube pasara de ser un simple repositorio de vídeos de aficionados a convertirse en la plataforma de contenido audiovisual más grande y el segundo sitio más visitado del mundo, solo después de Google.

A partir de su vídeo Me at zoo, YouTube creció exponencialmente hasta lo que es ahora, un lugar en donde millones de desconocidos se reúnen para generar y ver contenido. El ingeniero informático conoció a sus socios cuando los tres trabajaban en PayPal en 1999. A menudo sostenían reuniones informales en cafeterías, el apartamento de Karim o en el garaje de Hurley en Menlo Park, California. Desde ese lugar, los veinteañeros registraron a YouTube en Silicon Valley en el día de los enamorados. A pesar de que los tres aparecen como cofundadores de la compañía, Karim figuraba como asesor externo.

Mientras sus socios construían la empresa y se convertían en celebridades de internet y la prensa, él volvió a tomar clases y trabajó para graduarse como ingeniero en informática, carrera que había dejado inconclusa en la Universidad de Illinois en Urbana-Champaign, luego de tomar lecciones por correspondencia. Boelof Botha, el socio de Sequoia Capital que lideró la inversión que catapultó al sitio, indicó a The New York Times que hubiera preferido que Jawed Karim se quedara: “Era muy, muy creativo. Hicimos todo lo posible para convencerlo de que aplazara el contrato”.

Para Karim, aparentemente, el mundo académico tenía más atractivo que pilotar un negocio que ha tenido que sortear un camino lleno de quejas sobre derechos de autor y problemas con la regulación de contenido. YouTube también ha sobrevivido a la aparición de otras redes sociales como Instagram o TikTok. En la actualidad, vive en Palo Alto y no suele hacer apariciones públicas.

Así, Karim tomó otro camino alejado del foco mediático. Antepuso sus estudios de postgrado en la Universidad de Stanford a dirigir una de las mayores empresas tecnológicas del momento, que cuenta ahora con más de 122 millones de usuarios activos mensuales. Karim edita en ocasiones la descripción del vídeo Me at zoo para expresar sus opiniones ―de una manera poco usual― sobre la plataforma u otros asuntos. Lo hizo en 2013, cuando YouTube anunció que utilizaría Google Plus para impulsar los comentarios. En esa oportunidad, Karim modificó el texto para que dijera: “¿Por qué diablos necesito una cuenta de Google+ para comentar un vídeo?”. La actual descripción hace referencia al peligro de los microplásticos en el cerebro.

En 2021, YouTube había decidido ocultar los no me gusta de todos sus vídeos, dejando esa cifra visible para el creador de contenido y no para los usuarios. Según declaraciones recogidas por The Verge, él argumentó que la decisión podría hacer colapsar a la plataforma. “La capacidad de identificar fácil y rápidamente el contenido inadecuado es una característica esencial de una plataforma de contenido generado por el usuario. ¿Por qué? Porque no todo el contenido generado por el usuario es bueno”, escribió.

La discreción de Karim tampoco lo alejó del mundo de la tecnología. Tras pasar por YouTube, en 2008 lanzó un fondo de riesgo llamado Youniversity Ventures con los socios Keith Rabois y Kevin Hartz, cuyo propósito es financiar proyectos de universitarios emprendedores. A través de ese fondo, Karim fue uno de los primeros inversionistas de Airbnb, la popular aplicación dedicada a la oferta de alojamientos a particulares y turísticos que ahora está valorada en 85.000 millones de dólares.

La herramienta esencial

Además de convertirse en socio de Sequoia Capital (la misma compañía que impulsó YouTube), Karim ha brindado servicios de asesoría a la página de ventas Milo Inc (comprado por Ebay) y de Eventbrite, un sitio para organizar eventos por la web.

“YouTube es la espina dorsal de todo lo que se mueve en vídeo en internet”, opina Borja González, CEO de Séntisis Intelligence. Pocas plataformas son tan universales porque es consumida por un amplio target de usuarios: desde jóvenes a mayores. “El nivel de contribución que ha tenido desde el punto de vista del consumo de contenidos ha sido bestial”, agrega.

La idea de estos jóvenes es para algunas personas, como Manuel Moreno, experto en redes sociales y director de TreceBits, una herramienta esencial para darse a conocer. “Me sirve como un canal para llegar a nuevas audiencias y mejorar mi marca personal. Es mi estrategia profesional fundamental”, asegura Moreno.

miércoles, 7 de mayo de 2025

Mal uso de YouTube en las aulas

 Los riesgos del mal uso de Youtube en las aulas alertan a padres y expertos: “El cole no es para ver dibujos”, en El País, por Jordi Pérez Colomé, 6 de mayo de 2025:

La famosa plataforma de vídeos se ha convertido en un recurso universal en las escuelas, pero su utilización tiene peligros poco conocidos por los profesores.

“¿Quieres saber cuánto vale tu coche?”, preguntó un niño de cinco años a su padre cuando regresaban del colegio en el automóvil. La frase es de un anuncio muy común en Youtube que protagoniza un periodista del motor. El pequeño había visto el anuncio antes de un vídeo de la plataforma en clase. El padre comparte la anécdota con EL PAÍS sin más detalles para evitar problemas en su centro, pero días antes había habido una pequeña “guerra civil” en una reunión entre profesores y padres sobre el uso de Youtube. “El uso de pantallas en el cole es un parche habitual”, dice otro padre que estuvo en esa reunión. “En los días de lluvia les ponen dibujos sin supervisión y el cole no es para eso”, añade. Otros padres, en cambio, no creían que ver unos dibujos en línea fuera de un problema.

Youtube es la mayor plataforma de vídeo del mundo y la segunda página de internet más visitada. En los colegios españoles es un recurso más usado de lo que parece, más aún en semanas de lluvias como las vividas recientemente, pero los profesores no son siempre conscientes de cómo evitar sus riesgos. En la plataforma hay millones de canales muy distintos, incluso entre los infantiles, que se reproducen automáticamente si no lo impides, y la publicidad que aparece depende de varios factores. Saber de antemano cómo evitar estos problemas es crucial.

“Sé de centros donde por rutina los niños se toman el desayuno en clase con un vídeo de dibujos, lo que escapa a mi comprensión”, dice Clara Marín, profesora y madre en Murcia. “Lo de la también lluvia lo he escuchado. Los colegios no están preparados”, añade. Cada profesor o monitor opta por la mejor solución que tiene a mano, y Youtube es la más sencilla: es accesible, es gratis y tiene de todo.

Pantallas y riesgos

“Hay dos problemas con Youtube”, dice Oana Goga, directora de Investigación en el Instituto Nacional de Investigación en Ciencias y Tecnologías Digitales (Francia) y experta en amenazas digitales. "Uno es mirar Youtube como niños y la otra los peligros de los anuncios y la propia plataforma. Son dos riesgos distintos", añade.

El primer caso es puro tiempo de pantalla, dice Goga. “No está recomendado para niños de menos de seis años estar más de 20 minutos delante de una pantalla, aunque yo no soy experto en eso”, explica. El segundo problema tiene más relación con la publicidad y el contenido. "Un motivo por el que los anuncios pueden hacer daño a los niños es que sus capacidades cognitivas aún no están del todo desarrolladas. Antes de los tres años, no pueden distinguir un anuncio de un programa, así que no activan las defensas mentales que sí tenemos los adultos cuando vemos publicidad", explica Goga.

Uno de los padres consultados recuerda cómo su hijo descubrió qué era un anuncio en la tele de un hotel durante un viaje: "Nuestra generación veía la tele y estaba acostumbrada a los anuncios. Pero la primera vez que mi hijo estuvo expuesto a anuncios fue en un viaje y me preguntaba qué eran esos anuncios de juguetes, chucherías".

“Hay dos umbrales”, dice Goga. "Los pequeños no pueden distinguir los anuncios y luego les es difícil ver la intención comercial . No entienden que un vendedor quiera vender y diga que su juguete es el mejor". Por eso la televisión convencional tiene tanta regulación. En Youtube, los anunciantes no pueden poner anuncios a los niños mediante segmentación personificada. Pero hay otras vías. "No está prohibida la publicidad contextual, donde no apuntas al usuario concreto, sino a un contenido particular que ese usuario consumirá. Es posible hacer una lista de dibujos populares en España y pedir a Youtube que ponga tus anuncios solo ahí", añade Goga.

Para la experta, este segundo tipo de anuncios es el más delicado: los que se ponen en dibujos animados porque saben que serán consumidos por niños. "No hay revisión de esos anuncios. Pueden anunciar algo terrible, que dé miedo, y no hay transparencia, no sabemos como sociedad qué anuncios ven los niños", lamenta.

Quién pone el anuncio

Hay profesores que ponen los dibujos desde su cuenta de Google: si han estado mirando muebles o coches, la publicidad tendrá relación con eso y los niños la verán. Ahí puede aparecer cualquier cosa y la mejor opción es que el adulto responsable esté ahí para cortarlo o pasar rápido.

Pero no ocurre siempre. “Los niños son un objetivo muy jugoso para los anunciantes”, dice la profesora Clara Marín. "Yo pongo primero el vídeo en mi ordenador para ver si hay un anuncio, para que no lo vean. Yo no estoy logueada con mi cuenta, pero igual lo está la profe anterior, pero el anuncio no lo pongo nunca. Solo comparto la pantalla cuando empieza el vídeo que quiero que vean, que además he visto la noche antes".

No todos los profesores tienen el mismo cuidado. También los centros pueden tener encargados de informática que paguen cuentas corporativas de Youtube o se suscriban a contenidos que específicamente han pensado que son útiles para los más pequeños. “Es importante tener cuentas corporativas de Youtube, no personales”, dice Usmel González, maestro de Infantil y Primaria que ejerce ahora de profesor de historia en Secundaria en un colegio asturiano. "Así todo lo que buscas a nivel personal no venta. Y el contenido siempre es educativo. Pueden añadirse además varias capas que no dejen nada que no sea contenido blanco", señala.

Hay en el fondo un problema de conocimiento digital, cree González. "Los cursos de competencia digital para los profesores se han hecho rápido, para tapar huecos, y no se ha hecho bien. Consigues un título que te da una competencia digital que en realidad no es útil. Hay muchos profesores que, con buena intención, no tienen la formación suficiente como para usar Youtube con los críticos. Falta mucha formación", añade.

Todo esto no significa que con contenidos bien escogidos y acompañados mientras ven los vídeos, tengan un sentido educativo para los escolares. "Puede estar muy bien cuando hay un apoyo del profesor que va guiando o comentando el vídeo. La pantalla no es mala en sí, es su uso", dice González.

Hay una confusión notable entre las competencias digitales que puede requerir el currículo y la jungla en la que se ha convertido hoy en internet. Los profesores, sin una formación específica, navegan ya menudo buscando la solución más fácil. “A los niños de infantil no necesitas ponerle un vídeo del pollo Pepe para aprender los números”, explica Marín. "Cuando algunas madres se quejan, hay profesoras que les dicen que eso es lo que gusta a los niños. Pero no es un criterio. Aunque los profesores están saturados, hay que saber que desarrollar la competencia digital no es poner un vídeo de Youtube", añade.

lunes, 24 de marzo de 2025

Causas de la caída del rendimiento académico

 El declive del rendimiento de los estudiantes en España: qué frena su mejora según el creador de PISA y otros expertos, en El País, Ignacio Zafra, Valencia - 16 mar 2025

Los resultados españoles caen o permanecen estancados en las principales evaluaciones internacionales y nacionales desde hace una década. Varios especialistas educativos analizan las causas

¿Está empeorando el rendimiento educativo de los estudiantes? Andreas Schleicher, creador del Informe PISA, la mayor evaluación internacional, que en su última edición examinó a 690.000 alumnos en 81 países, cree que sí. “Observamos un declive en el rendimiento de los estudiantes en muchos países, también en España, aunque en su caso la tendencia es menos pronunciada que la media de la OCDE (la organización, formada principalmente por países ricos, que organiza las pruebas de PISA)”, responde a EL PAÍS. Otros expertos en educación, como Miquel Àngel Alegre, director de proyectos de la Fundació Bofill, y José Saturnino Martínez, director de la Agencia Canaria de Evaluación Educativa, son, para el caso de España, menos rotundos. Pero admiten que, al menos, está sucediendo algo que no estaba en el guion a principios de siglo: “Se invierte más por estudiante. Hay un mayor acceso a la cultura. Los progenitores están más formados. Hay más gente que ha ido a la educación infantil. Hace 20 años estábamos absolutamente convencidos de que habría una mejora importante para estas fechas, pero la realidad nos contradice, porque en general hay más bien estancamiento”, resume Martínez.

Sin ser dramáticas, las grandes evaluaciones educativas reflejan bajadas en el rendimiento. En PISA, que examina a estudiantes de 15 años, los resultados de España y la OCDE caen desde 2015 en matemáticas, ciencia y lectura. Lo mismo sucede con las pruebas PIRLS y TIMSS, organizadas por la Asociación Internacional para la Evaluación del Rendimiento Educativo, que mide las mismas tres competencias en alumnado de primaria. Hay un descenso en la habilidad lectora que mide la prueba PIAAC, que realiza la OCDE, para la población de edad de 16 a 24 años entre los años 2012 y 2023, aunque es pequeña y hay que tomarla con precaución por la dificultad de comparar las dos oleadas. Y los resultados de otro tipo de exámenes, como los que se realizan para acceder a las carreras de Magisterio en Baleares y Cataluña, o las evaluaciones de competencias que realizan algunas comunidades autónomas españolas también muestran, en general, caídas o estancamiento. Una tendencia que afecta a buena parte de los países occidentales.

El debate sobre si el nivel de los estudiantes está cayendo es delicado y se mezcla con frecuencia con posturas ideológicas. En España, una parte de quienes opinan que sí lo achaca a los cambios metodológicos de los últimos años, y alaba la escuela de los años ochenta, olvidando que por entonces una cuarta parte de los estudiantes no completaba la EGB, equivalente en años de escolarización al actual segundo curso de la ESO. La causa del descenso o estancamiento de los resultados parece, en todo caso, más compleja y multifactorial. Los docentes y otros especialistas educativos consultados para este artículo mencionan entre ellos el uso intensivo de los teléfonos móviles y las redes, cambios en los modelos de crianza, precarización de las clases medias, incremento de estudiantes procedentes de países menos desarrollados, y (relacionado con lo anterior) aumento de la pobreza infantil, así como la creciente distancia que muchos chavales perciben entre lo que se les enseña en la escuela y su realidad fuera del centro educativo.

Ana Franch es directora del instituto público Serrà d’Espadà en Onda, Castellón, enseña Historia desde hace 23 años, y no tiene “una visión idealizada del pasado escolar”, pero sí ha percibido un cambio en el alumnado: “Desde hace no muchos años me parece que les cuesta mucho concentrarse, mantener la atención durante una clase; es casi imposible que te estén atendiendo más de un tiempo corto”. Y otra cosa: “Yo siempre intento ligar lo que explico con la actualidad, y de un tiempo a esta parte, veo unas carencias enormes. En un contexto de sobreinformación, están más desconectados que nunca. No ven la tele, no se informan, y aunque he ido estando en las mismas redes sociales que ellos, ahora por ejemplo en TikTok, por el algoritmo a ellos y a mí no nos sale lo mismo”.

Las evaluaciones, nacionales o internacionales, están hechas para obtener resultados. Es difícil, admite Andreas Schleicher, saber qué factores influyen en los cambios que detectan. Los cuestionarios que en pruebas como PISA acompañan a los ejercicios, sí permiten, sin embargo, apuntar algunas causas. “Lo que vemos claramente en PISA es que los estudiantes que usan el móvil por ocio en la escuela tienen, en promedio, niveles significativamente más bajos de rendimiento académico. Los propios alumnos dicen que se distraen con los móviles. Y los que lo hacen más tienden también a considerarse menos felices y capaces de manejar las emociones. Así que, a pesar de que la naturaleza causal no esté clara, tenemos razones para pensar que el consumo elevado de contenidos digitales es parte del problema que observamos en el rendimiento. Y que la distracción digital no es solo un inconveniente, sino que parece tener una asociación tangible con los resultados de aprendizaje”.

El sociólogo Miquel Àngel Alegre cree que no hay motivo para dramatizar. “La idea de que España va fatal en educación no es cierta. Los datos no reflejan ninguna debacle. La cuestión es, vigilemos las posibles caídas, como la que hemos tenido en la última edición de PISA (en la que nadie discute que influyó la pandemia). Y, sobre todo, veamos por qué no vamos a mejor”. Alegre menciona tres tipos de posibles “topes” a la mejora del rendimiento. Uno tiene que ver con el contexto. Dentro de él menciona, como Schleicher, la “pantallización” de los estudiantes, el cambio que está provocando en cómo se relacionan entre sí y con el conocimiento, y la influencia que ello tiene en el grado de autoridad que conceden al profesorado y a la institución escolar. Y también incluye, como Schleicher, los cambios en los patrones de crianza; PISA ha detectado, por ejemplo, una reducción de la implicación de los padres en la educación de sus hijos.

Un reto mayor

Un segundo tope, prosigue Alegre, está relacionado con una composición de las aulas “más retadora” que en el pasado. “Que uno de cada tres menores esté en riesgo de pobreza o exclusión social (según el indicador AROPE, la tasa ha pasado del 29,9% en 2018 al 34,7% en 2024) es muy fuerte. Es difícil mover hacia arriba los resultados con esa dificultad de partida”, afirma. Julia García, directora del colegio público San Antonio Abad de Cartagena, en Murcia, ha visto en los 32 años que lleva siendo maestra cómo ha ido conformándose una escuela mucho más diversa que cuando ella empezó a trabajar. “Casi todo el alumnado era, por entonces, del mismo estrato social. Ahora tenemos estudiantes que desconocen el idioma. Niños que reciben un estímulo cultural en casa y otros cuyos padres se pasan el día trabajando para salir adelante y no les queda tiempo para dedicarse a sus hijos. Y también alumnos con necesidades específicas de apoyo educativo, que antes no estaban en la escuela ordinaria, y que necesitan una atención más personalizada”.

El tercero y último de los frenos a la mejora del rendimiento educativo reside, añade Alegre, en el propio “proceso” escolar. Y está vinculado a cómo funcionan los centros educativos, al diseño del currículo (es decir, a qué y cómo se enseña) y a su evaluación, que, pese al ruido en torno a la Lomloe, apenas ha empezado a cambiar; a la formación que recibe el profesorado, y qué conocimientos y habilidades se les exige tener a través del modelo de oposiciones.

El padre del Informe PISA afirma que los datos de la prueba que dirige también “sugieren que los sistemas escolares tienen que hacer más para que el aprendizaje sea más relevante, más atractivo e interesante para los jóvenes”. “El mayor desafío para la educación puede no ser solo su ineficiencia, sobre la que se ha escrito mucho, sino que los entornos de aprendizaje en la escuela se están volviendo obsoletos, al menos a los ojos de los estudiantes. Si un supermercado viera que 19 de cada 100 clientes se van sin comprar, haría cambios en su inventario y su propuesta de ventas. Pero parece que tenemos dificultades para hacer lo mismo en el sistema escolar, donde tendemos a educar a los jóvenes para nuestro pasado, en lugar de para su futuro”.

domingo, 23 de marzo de 2025

La prohibición de las pantallas avanza en los colegios, se acabó el optimismo tecnológico en educación

 La prohibición de las pantallas avanza en los colegios, se acabó el optimismo tecnológico en educación: “Los dispositivos distraen”. En El País, por Ignacio Zafra,Valencia, 21 mar 2025:

El anuncio de Ayuso de que prohibirá los dispositivos digitales en la escuela de Madrid se suma al veto vigente en Murcia, y a las limitaciones que prepara Cataluña en línea con un informe del Ministerio de Infancia y Juventud

Después de años de optimismo, el viento ha girado en la forma en que los responsables educativos españoles observan el papel de los dispositivos digitales en la enseñanza. El miércoles la Comunidad de Madrid anunció un veto general a partir de septiembre al uso de pantallas, tanto en el aula como para hacer deberes, en las etapas de infantil y primaria (hasta los 12 años). Pero Murcia ya lo ha restringido este curso hasta el segundo ciclo de primaria. El Ministerio de Juventud e Infancia publicó en diciembre un informe de expertos que propone excluir los dispositivos individuales en infantil y priorizar en primaria “la enseñanza de manera analógica”. Y Cataluña constituyó en febrero una comisión formada por medio centenar de especialistas de diferentes ramas para que elabore unas directrices que conducirán muy probablemente a establecer restricciones. “Al principio, solemos recibir los cambios con cierto entusiasmo. Pero cuando con el tiempo vemos que han traído algunas cosas buenas, otras no tan buenas, y otras directamente malas, se toma la decisión de regular”, resume Màrius Martínez, que fue decano de la Facultad de Ciencias de la Educación de la Universidad Autónoma de Barcelona y que coordina el comité de expertos creado por la Generalitat.

En la comisión creada por el Departamento de Educación catalán, que presentará su dictamen final en junio, participan personas de perfiles muy diversos; desde representantes de la asociación de directores de centros educativos y las federaciones de familias, a pediatras, pedagogos, psicólogos, neurocientíficos, policías y expertos en ciberseguridad. Uno de los argumentos principales de las críticas excepcionalmente unánimes que este jueves le llovieron al Ejecutivo madrileño por su anuncio fue precisamente la ausencia de un diálogo con la comunidad educativa y de un debate en profundidad antes de adoptar una decisión muy tajante.

En la oposición a lo anunciado por el Gobierno que preside Isabel Díaz Ayuso se unieron organizaciones de signo muy distinto. Desde el sindicato Comisiones Obreras hasta el CSIF, pasando por Anpe. Y desde las grandes patronales de la educación concertada, Escuelas Católicas y Cece, a la federación de familias de la escuela pública, la FAPA Giner de los Ríos. Incluso la asociación de colegios privados, Cicae, a la que no afectará el decreto que prepara el Ejecutivo regional porque solo se dirige a los centros financiados con fondos públicos, pero a la que le preocupa la imagen que la norma va a proyectar sobre la tecnología aplicada a la educación, se sumó a las críticas, calificando de “injerencia en la autonomía de los centros educativos” y de “retroceso en la modernización del sistema educativo” la nueva regulación. El consejero de Educación madrileño, Emilio Viciana, se reafirmó, por su parte, en su plan, que prevé limitar el uso de dispositivos digitales en los colegios a aquellos que sean de uso compartido (como una pizarra digital) y solo durante una hora semanal entre el segundo ciclo de infantil y 2º de primaria, hora y media en 3º y 4º, y dos horas en 5º y 6º. La medida podrá retrasarse hasta el curso 2026-2027 en aquellos centros cuyo proyecto educativo incluya ahora el uso de dispositivos individuales.

Sus argumentos son parecidos a los que esgrime Víctor Marín, consejero de Educación de Murcia, donde la restricción del uso de dispositivos individuales alcanza hasta 4º de primaria en las áreas instrumentales, Lengua y Matemáticas. “Numerosos estudios neurocientíficos destacan que la escritura a mano y el trabajo con recursos analógicos en edades tempranas mejoran el rendimiento cognitivo de los alumnos reteniendo mejor la información y mejorando el entendimiento de conceptos básicos para el aprendizaje, como el reconocimiento de palabras, la comprensión lectora, la expresión escrita, las operaciones matemáticas básicas y la resolución de problemas”, afirma Marín, que añade que la medida persigue también “retrasar la edad de uso de los dispositivos digitales con el fin de disminuir la adicción y dependencia de la tecnología”.

La limitación más o menos intensa del uso de los dispositivos tecnológicos, especialmente los individuales como tabletas y ordenadores, avanza poco después de que haya culminado la prohibición del uso de teléfonos móviles por parte del alumnado en colegios e institutos. Andreas Schleicher, creador del Informe PISA, apuntaba hace unos días en un artículo publicado en este periódico al uso de los teléfonos inteligentes, y más en general al “consumo elevado de contenidos digitales”, como uno de los factores que parecen estar detrás del declive del rendimiento de los estudiantes en muchos países. “La distracción digital no es solo un inconveniente, sino que parece tener una asociación tangible con los resultados de aprendizaje”, señala Schleicher.

La conveniencia de restringir, y en ese caso cómo y en qué grado, el uso de la tecnología en educación genera posiciones discrepantes en muchos colectivos. La presidenta de la FAPA Giner de los Ríos, Mari Carmen Morillas, criticó este jueves el anuncio del Ejecutivo madrileño con el argumento de que el sistema educativo “necesita actualizarse, hay realidades que no deben obviarse como los dispositivos digitales”, al tiempo que abogaba por “trabajar en su uso responsable y adecuado”. Al mismo tiempo, muchas familias con hijos en infantil, primaria y secundaria que viven en casa la tensión de limitar el uso que estos hacen de móviles, tabletas u ordenadores denuncian desde hace tiempo que los deberes que exigen su uso hacen todavía más difícil su vigilancia.

“Contribuyen a más distracción”

“Contribuyen a más distracción. Y permiten puentes hacia otros usos, como las redes sociales, los videojuegos, la pornografía, y otros contenidos digitales cuyo consumo excesivo está asociado a sentimientos de desconexión de la realidad, más agresividad, comportamientos adictivos, y otros trastornos ligados a la salud mental”, afirma Diego Hidalgo, portavoz de Escuela Off, una de las plataformas que han surgido en España para reclamar la restricción educativa de las pantallas. Hidalgo también advierte de los problemas vinculados a la privacidad que generan las herramientas utilizadas en muchos colegios. “Sabemos que hay plataformas que ponen en riesgo los datos de los jóvenes sin ofrecer garantías suficientes, y que permiten un perfilado de los menores por parte de las empresas tecnológicas”.

María del Mar Sánchez, profesora de Didáctica y Organización Escolar de la Universidad de Murcia lamenta, por su parte, que el debate haya derivado rápidamente a las prohibiciones sin haberse detenido en cómo debería usarse la tecnología en la escuela: “No veo que se hable sobre qué se está haciendo con esas pantallas, que es la clave”. Sánchez advierte, además, de que vetos como el de Madrid o Murcia pueden ampliar la brecha en competencias digitales entre ricos y pobres. “Hay niños y niñas que no van a recibir un acompañamiento en educación digital en casa, por desconocimiento de las familias o por lo que sea. Y la escuela, en su vertiente de justicia social, es el sitio donde pueden aprender a hacer un buen uso de la tecnología”.

Aulas más complejas y profesores sobrecargados

 Aulas más complejas y profesores sobrecargados: un estudio indaga en el “alarmante” deterioro emocional en las escuelas, en El País, por Francesca Raffo, 20 mar 2025:

Los docentes señalan, según el informe de Educo y la Fundación SM, que las dos principales causas del deterioro del bienestar en los alumnos son la falta de tiempo de calidad con los padres y el uso excesivo de la tecnología

“Si me dieran cien mil trabajos volvería a ser maestra, pero sí que tenemos una carga muy grande y muchísimos frentes”, cuenta Manuela Pérez Macedo (Madrid, 54 años) desde una oficina del colegio Santa Susana, en Madrid. Trabaja como docente de historia y geografía desde que tiene 21 años, pero asegura que nunca se ha enfrentado a tantos retos: la alta cantidad de alumnos por aula, la complejidad de los estudiantes o la burocracia. Las consecuencias son varias, pero se pueden sintetizar en sobrecarga y ansiedad en el equipo docente. Su experiencia no es única, así lo afirma el último informe de Educo y la Fundación SM, Mejorando la protección y el bienestar en las escuelas, que concluye que tanto los profesores como los alumnos se enfrentan a un deterioro generalizado del bienestar emocional.

Son numerosos los datos de los últimos años que señalan el problema. Según el Barómetro de Opinión de la Infancia y la Adolescencia 2023-2024 de Unicef, cuatro de cada 10 jóvenes de entre 13 y 18 años cree haber tenido un problema de salud mental en el último año y la mitad no pide ayuda. Por el lado del profesorado, según el Educobarómetro del Instituto de Evaluación y Asesoramiento Educativo (IDEA) de la Fundación SM, el 37% de los maestros experimenta agotamiento y 39% ansiedad o depresión. Ante esta realidad, Educo y la Fundación SM han publicado, este jueves, un informe que indaga, a través de un estudio cualitativo ―con grupos de discusión con profesores y alumnos, entrevistas y talleres lúdicos en Madrid, Cataluña, Valencia y Galicia―, en las causas del deterioro del bienestar en los colegios.

La elevada cantidad de alumnos por aula es uno de los factores que más perjudica la capacidad de actuar de los profesores. El informe indica que los educadores tienen cada vez menos tiempo para dedicarse a las necesidades de cada alumno y esto afecta el desarrollo académico y personal de cada uno. A esto se suma otra dificultad: los docentes aseguran que las aulas son cada vez más complejas.

Ariana Pérez, coordinadora de investigación de la Fundación SM, explica que esta complejidad se da por las necesidades individuales de cada alumno, como las especiales de aprendizaje, las situaciones que traen de casa o los problemas de salud mental. “Esto sucede en un marco de modelo educativo donde se demanda mayor personalización de aprendizajes y desarrollo de competencias”, resalta. Y agrega: “Interviene directamente en el bienestar del profesorado que está más sobrecargado con responsabilidades que van más allá de su labor pedagógica”.

Una maestra en Galicia, entrevistada para el informe, lo ejemplifica: “Veinticinco alumnos que vienen de casas diferentes, con medios distintos, con estimulación y motivaciones diferentes en una clase no es viable porque de esos hay cinco o seis con muchísimas necesidades”.

Alumnos vulnerables

El deterioro del bienestar de los alumnos es otro factor que preocupa a los profesores. Pérez Macedo cuenta: “Cada vez tenemos más alumnos rotos y vulnerables”. A eso se suma el tema del móvil y las redes sociales: ”Tienen muy poca concentración”, dice Pérez Macedo. Los docentes señalan, según el informe, que las dos principales causas que impactan en el bienestar en los alumnos son la falta de tiempo de calidad con los padres y el uso excesivo de la tecnología.

Los alumnos Mario Lozano (Madrid, 15 años) y Miguel Moreno (Madrid, 14 años), del mismo centro, tienen una posición marcada sobre la tecnología: “Es una gran idea, pero su uso no es del todo correcto”, dice Mario. En las clases que les parecen aburridas, admiten que sí que se distraen con los ordenadores; pero si el profesor les gusta, como el de matemáticas, afirman, “prácticamente no usamos el ordenador”, dice Miguel.

En el ámbito personal, Alba González del Toro (Madrid, 14 años) complementa a sus compañeros: “En la adolescencia es como que todo el mundo debe tener móvil y, a veces, te sientes presionada porque las amigas están con el móvil y porque debes tener ciertas redes sociales”.

Los especialistas coinciden en que el bienestar de ambos, tanto alumnos como profesores, es fundamental para un entorno educativo óptimo. Por ello, desde Educo y la Fundación SM concluyen que es necesario que las escuelas tengan profesionales especializados en salud mental y bienestar ―como psicólogos, psicoterapeutas, coordinadores de bienestar, orientadores― para que complementen la labor pedagógica del profesorado. Pero, sostienen, es indispensable que estas figuras estén bien implementadas y para ello son necesarios recursos.

La investigadora de la Fundación SM comenta: “Hay una escasez de esos profesionales especializados. Los profesores intentan cubrir esta complejidad, pero no es su función”. Se refiere especialmente a la labor de psicólogos. Los centros con alta complejidad solicitan estos perfiles debido a la saturación de los centros de salud. Pérez Macedo, también en el equipo directivo, lo vive a diario: cuando los estudiantes solicitan ayuda, los coordinadores de bienestar están desbordados y el orientador solo acude dos días, lo que obliga a los alumnos a recurrir a la seguridad social.

El informe resalta la figura del coordinador de bienestar, que está ya implementado en todas las comunidades (menos en Castilla y León, según Educo), y se encarga de prevenir la violencia en institutos. “Esta figura es importante para mejorar el bienestar de toda la comunidad y crear entornos seguros”, dice Mónica Viqueira Martínez, técnica de incidencia política de Educo. Pero la implementación ha sido irregular en las comunidades y enfrentan grandes retos de recursos, formación y tiempo.

En varias escuelas, además, los coordinadores no son conocidos por los alumnos, agrega Viqueira. Así lo comenta González del Toro: “No conocemos a una persona específica. Si tenemos algún problema, recurrimos a algún profesor al que le tengamos confianza o con el tutor. Si es un problema más difícil se traslada al equipo directivo”.

Papeleo y falta de reconocimiento

El documento menciona la dificultad que enfrentan los docentes por la desconexión entre la formación que reciben en las facultades o másteres y la realidad en las aulas. A esto se suma la carga burocrática, que les exige horas adicionales de trabajo. Pérez Macedo comparte: “Cuando tenemos que hacer un protocolo por acoso, me llevo más tiempo en documentación que en investigar y cuidar a la víctima”.

Otro gran problema que no solo los satura, sino que les afecta emocionalmente es la falta de reconocimiento hacia su labor; lo que genera desconfianza, así como pérdida de respeto y autoridad. El informe comparte lo que cuenta un docente de Madrid: “Que tú hagas algo y al final las familias te estén diciendo ‘por qué haces eso si no vale para nada’, te acaba hundiendo…”.

lunes, 3 de febrero de 2025

Carl Sagan predijo en 1996 lo que está pasando ahora

 Carl Sagan predice el futuro en 1996:

Escucha con atención: hay dos tipos de peligros. Uno es que hemos organizado una sociedad basada en ciencia y tecnología en la que nadie entiende nada sobre ciencia y tecnología, y esta mezcla combustible de ignorancia y poder tarde o temprano va a explotar en nuestras caras. Quiero decir, ¿quién maneja la ciencia y la tecnología en una democracia si la gente no sabe algo al respecto? Y la segunda razón por la que me preocupa esto es porque la ciencia es algo más que un cuerpo de conocimiento. Es una forma de pensar, es una forma de interrogar escépticamente al universo con una buena comprensión de la falibilidad humana. Si no somos capaces de hacer preguntas escépticas para interrogar a quienes nos dicen que  algo es verdad y ser escépticos de aquellos que tienen autoridad, entonces estamos expuestos al próximo charlatán político o religioso que venga a deambular por ahí. Es algo en lo que Jefferson puso mucho énfasis. "No fue suficiente", dijo, "para consagrar algunos derechos en una constitución o en una carta de derechos, el pueblo tiene que ser educado y tiene que practicar su escepticismo y su educación: de lo contrario no dirigimos el gobierno, el gobierno nos dirige a nosotros" 

 En la serie de televisión de PBS "Cosmos", dijo: "Queremos buscar la verdad sin importar a dónde nos lleve. Pero para encontrarla, necesitamos tanto imaginación como escepticismo".

Muy acertado. Solo hay que añadir una cosa: el "pensamiento escéptico" es más fácil de decir que de hacer. Y también es muy fácil de malinterpretar, si no eres un científico experimentado como Sagan. Mucha gente cree que para ser un "pensador escéptico" basta con cuestionar cualquier cosa sin  conocimientos, sin educación. En realidad, ese es solo el paso inicial; más adelante, hay que decidir si algo es cierto o no se conseguirá nada. Esa es la parte complicada: la capacidad de reconocer, tras un análisis escéptico exhaustivo, las afirmaciones realmente verdaderas. Esa es la parte difícil del escepticismo: los científicos lo saben bien, pero enseñarlo a los jóvenes es un verdadero desafío.

martes, 28 de enero de 2025

DeepSeek

 Por qué DeepSeek ha tumbado con su IA a los gigantes de Silicon Valley. La compañía china ha creado un modelo más barato y eficiente de inteligencia artificial exprimiendo los desarrollos previos, en El País, Jordi Pérez Colomé, 28 ene 2025.

La revolución de los modelos de inteligencia artificial (IA) de la china DeepSeek se basa en un motivo clave: hacen lo mismo pero más barato. Su funcionamiento en general es igual de bueno que los líderes del mercado de Silicon Valley, pero son mucho menos costosos de crear y de usar. OpenAI, Anthropic y Google, creadores de los modelos más célebres, y Nvidia, al cargo de los sofisticados chips que emplean esas compañías, han visto derrumbarse toda su aparente ventaja en apenas unos días. Hoy hay menos expertos que creen que entrenar y usar un modelo de IA requiera la potencia de un gigante tecnológico. La monumental caída en bolsa de Nvidia es la ilustración de esa creencia.

Los chatbots de la china DeepSeek funcionan igual que todos. El usuario se da de alta con un email y una contraseña en la página de la compañía y puede empezar a preguntarle lo que quiera. A veces tarda algo más de responder, no contesta siempre a preguntas políticas delicadas sobre Tiananmen o Taiwan y funciona bastante bien en español. Lo mejor, sin embargo, es que es gratis. El modelo de negocio de DeepSeek se basa en cobrar a usuarios que requieren un uso profesional.

R1 es el modelo más reciente de la compañía china, el que ha provocado el derrumbe del edificio de la IA occidental. Razona igual que la creación más avanzada de OpenAI, el o1. Pero en plenas fiestas navideñas, los chinos lanzaron su modelo V3, equivalente al más común ChatGPT-4, que ya incluía los avances técnicos que han generado el revuelo.

DeepSeek ha logrado que entrenar un modelo nuevo, que costaba más de 100 millones de dólares en el caso de ChatGPT-4, haya pasado a menos de 6 millones. Andrei Karpathy, cofundador de OpenAI, exdirector de IA en Tesla y uno de los expertos más respetados del sector, describió ese presupuesto como “de broma” y añadió: “Hay que asegurarse de que no somos derrochadores con lo que tenemos y este modelo parece una buena demostración de que hay mucho que revisar tanto en datos como en algoritmos”. El último modelo de DeepSeek es tan eficiente que requirió una décima parte del poder informático del modelo comparable de Meta.

Estos modelos de IA son extremadamente caros tanto de entrenar como luego de usar. DeepSeek ha logrado rebajar costes en ambos casos. Para entrenarlos, ha logrado que su modelo aprenda de otros anteriores. Esto es algo que los términos de servicio de estas empresas no permiten, pero es muy difícil de detectar y de evitar. Igual que los modelos originales de OpenAI tomaron todos los datos de internet sin pagar por ellos, ahora un modelo chino emplea los modelos cerrados con un coste mínimo. Esto se logra con una técnica llamada destilación, que permite hacer preguntas al modelo anterior y guardar las respuestas y así ir aprendiendo y entrenándose. Esta técnica implica que los modelos pueden aprender unos de otros, lo que nos arroja a otro escenario de evolución aún más rápido y desconocido.

La otra técnica que usa DeepSeek para rebajar costes es un sistema llamado de “expertos”. Cada vez que el usuario hace una pregunta, el modelo decide si debe activar a su experto médico, traductor, abogado o físico. Los modelos clásicos activan a todos de golpe, lo que supone un despilfarro de energía y computación. Es como necesitar una enorme planta propia de electricidad para poner en marcha una cadena de montaje elaboradísima. DeepSeek ha hecho lo mismo conectando su pequeña fábrica a un enchufe y un puñado de generadores.

De repente, los usuarios que hasta ahora pagan unos 20 euros por usar los modelos de OpenAI ven cómo pueden obtener casi los mismos resultados gratis. La expansión de la IA está llegando más rápido de lo previsto a su etapa de comoditización, cuando la nueva tecnología se convierte en un producto común y accesible a todos.

Todo esto ha ocurrido además en una empresa de Hangzhou, una ciudad china cercana a Shanghai. La Administración de Biden vetó la exportación de los chips más nuevos para limitar la competencia china. La respuesta del gigante asiático ha sido simple: no los necesitamos. Y lo han logrado con código abierto, enseñando las tripas de sus logros con documentación publicada en internet. Hacer de la necesidad virtud.

El fin de esta etapa inicial de la IA parece ser una mala noticia para los gigantes pioneros, que ven como una buena parte de su ventaja desaparece. Pero el resto de grandes compañías, como Amazon o Apple, que no estaban al frente de esta competición de la inteligencia artificial, pueden claramente beneficiarse y ofrecer los mismos beneficios que el resto a una porción del coste.