Mostrando entradas con la etiqueta Tecnología. Mostrar todas las entradas
Mostrando entradas con la etiqueta Tecnología. Mostrar todas las entradas

lunes, 30 de septiembre de 2024

¿Por qué el cerebro prefiere los libros en papel?

De Pedro Pizarro, en Quora, y, a su vez, tomado de Ivonne María Valdez en Tribuna Económica, 2024:

 ¿Por qué el cerebro prefiere los libros en papel?

Porque el cerebro humano es capaz de percibir un texto en su totalidad, como si se tratara de una especie de paisaje físico. Y es que cuando leemos, no solo estamos recreando un mundo con las palabras del relato, sino que construimos una representación mental del mismo texto.

Al pasar las páginas de un libro de papel, realizamos una actividad similar a dejar una huella tras otra por un sendero, hay un ritmo, una cadencia y un registro visible en el transcurrir de las hojas impresas.

La prestigiosa revista Scientific American publicó un artículo con el que se busca dar una explicación a esta paradoja: en la época de la hiperconectividad, cuando cada vez tenemos más equipos que nos permiten leer con mayor facilidad y contamos con acceso a bibliotecas enteras en formato electrónico, muchos siguen prefiriendo al formado de papel.

El libro tradicional, la revista, el diario, siguen siendo los favoritos del público en general. Aunque resulte difícil de creer, siendo que los formatos digitales nos abren las puertas a muchas libertades.

Papel versus píxeles Muchos trabajos hablan de que en pantalla se lee más lentamente y, además, se recuerda menos. Hay “fisicabilidad” en la lectura, dice Maryanne Wolf de la Universidad de Tufts. Las personas necesitan sentir el papel al leer, el cerebro lo pide inconscientemente.

Nosotros no hemos nacido con circuitos cerebrales dedicados a la lectura, porque la escritura se inventó hace relativamente poco tiempo en nuestra evolución: alrededor de cuatro milenios antes de Cristo.

En la niñez, el cerebro improvisa nuevos circuitos para leer y para ello usa parte de otros dedicados al habla, a cuya habilidad se suma la coordinación motora y la visión.

El cerebro comienza a reconocer las letras con base en líneas curvas y espacios y utiliza procesos táctiles que requieren los ojos y las manos. Los circuitos de lectura de los niños de 5 años muestran actividad cuando practican la escritura a mano, pero no cuando se escriben las letras en un teclado.

Más allá de tratar a las letras individuales como objetos físicos, el cerebro humano puede percibir un texto en su totalidad como una especie de paisaje físico. Cuando leemos, construimos una representación mental del texto.

La naturaleza exacta de tales representaciones permanece clara, pero algunos investigadores creen que son similares a un mapa mental que creamos de un terreno, como montañas y ciudades, y de espacios físicos de interior, tales como departamentos y oficinas.

En paralelo, en la mayoría de los casos, los libros de papel tienen una topografía más evidente que el texto en pantalla. Un libro de papel abierto presenta dos dominios claramente definidos: páginas de izquierda y derecha y un total de ocho esquinas en las que uno se orienta.

Al pasar las páginas de un libro de papel se realiza una actividad similar a dejar una huella tras otra por un sendero, hay un ritmo y un registro visible del transcurrir de las hojas. Todas estas características permiten formar un mapa mental, coherente, del texto.

En contraste, la mayoría de los dispositivos digitales interfieren con la navegación intuitiva de un texto y a pesar de que los e-readers (libros electrónicos) y tabletas replican el modelo de páginas, estas son efímeras. Una vez leídas, esas páginas se desvanecen.

“La sensación implícita de dónde usted está en un libro físico se vuelve más importante de lo que creíamos”, dice el artículo de la Scientific American.

También pone en cuestión que los fabricantes de libros electrónicos hayan pensado lo suficiente sobre cómo es posible visualizar dónde está el lector en un libro.

En un trabajo sobre comprensión de texto, al comparar alumnos que leyeron en papel con otros que leyeron un texto en versión PDF en la pantalla, se concluyó que los primeros tuvieron mejor rendimiento.

Otros investigadores están de acuerdo con que la lectura basada en pantallas puede empeorar la comprensión, ya que es mentalmente más exigente e incluso físicamente más cansadora que la lectura en papel.

La tinta electrónica refleja la luz ambiental al igual que la tinta de un libro de papel, pero las pantallas de ordenadores, teléfonos inteligentes y tabletas hacen brillar la luz directamente en los rostros de las personas y la lectura puede causar fatiga visual, dolores de cabeza y visión borrosa.

En un experimento realizado por Erik Wästlund, de la Universidad de Karlstad en Suecia, las personas que tomaron una prueba de lectura comprensiva en un equipo electrónico obtuvieron calificaciones más bajas e informaron mayores niveles de estrés y cansancio que las personas que completaron en papel.

Las investigaciones más recientes sugieren que la sustitución del papel por pantallas a una edad temprana tiene desventajas. En 2012, un estudio en el Joan Ganz Cooney Center en la ciudad de Nueva York reclutó 32 parejas de padres e hijos de 3 a 6 años de edad.

Los niños recordaron más detalles de las historias que leyeron en el papel, pese a que las digitales estaban complementadas con animaciones interactivas, videos y juegos, que en realidad desviaban la atención lejos de la narrativa.

Como resultado de un trabajo que involucró el seguimiento de una encuesta de 1.226 padres, se informó que, al leer juntos, la mayoría de ellos y sus niños prefirieron libros impresos sobre los libros electrónicos.

Al leer los libros de papel a sus niños de 3 a 5 años de edad, los niños podían relatar la historia de nuevo a sus padres, pero al leer un libro electrónico con efectos de sonido, los padres con frecuencia tuvieron que interrumpir su lectura para pedir al niño que dejara de jugar con los botones y recuperara la concentración en la narración. Tales distracciones finalmente impidieron comprender incluso la esencia de las historias.

Muchas personas aseguran que cuando realmente quieren centrarse en un texto, lo leen en papel. Por ejemplo, en una encuesta realizada en 2011 entre estudiantes de posgrado en la Universidad Nacional de Taiwán, la mayoría aseguró que navegaba algunos párrafos de un artículo en línea antes de imprimir todo el texto para una lectura más a fondo.

Y en una encuesta realizada en 2003 en la Universidad Nacional Autónoma de México, cerca del 80 por ciento de los 687 estudiantes dijo preferir leer el texto impreso.

Encuestas e informes sobre los consumidores sugieren que los aspectos sensoriales de la lectura en papel importan a la gente más de lo que cabría suponer: la sensación de papel y tinta; la opción de suavizar o doblar una página con los dedos, el sonido distintivo de pasar una página, la posibilidad de subrayar, de detenerse y tomar nota, hacen que se elija más el papel.

Para compensar este déficit sensorial, muchos diseñadores digitales tratan de hacer que la experiencia de los lectores electrónicos –en inglés, e-reader– esté tan cerca de la lectura en formato de papel como sea posible.

La composición de la tinta electrónica se asemeja a la química típica de la tinta, y el diseño sencillo de la pantalla del Kindle (una marca de libro electrónico) se parece mucho a una página en un libro de papel. Sin embargo, estos esfuerzos –que fueron replicados por su competidora Apple iBooks– hasta ahora tienen más efectos estéticos que prácticos.

El desplazamiento vertical puede no ser la forma ideal de navegar un texto tan largo y denso como en los libros de muchas páginas, pero medios como el New York Times, el Washington Post y ESPN crearon atractivos artículos, altamente visuales, que no pueden aparecer en la impresión, ya que combinan texto con películas y archivos de sonido.

Es probable que el organismo de los nuevos nativos digitales cree otras redes neuronales que les permitan preferir lo electrónico al papel, pero mientras tanto, hoy el resto de la población sigue prefiriendo el contacto con las históricas hojas.

sábado, 30 de diciembre de 2017

La robotización, la inteligencia artificial y la impresión 3-D son las tres patas de la nueva revolución industrial, la que causará un aumento sin igual del paro

José Ángel Plaza López, "La mayor disrupción de la IA radica en medir su poder y saber quién lo ostentará. Existen diversos ámbitos que pueden ser revolucionados por la inteligencia artificial, pero antes de lanzar propuestas es necesario evaluar adecuadamente sus capacidades".
Madrid  29 DIC 2017

En 2030, la inteligencia artificial provocará un incremento adicional de 15,7 billones de dólares (15,7 trillones americanos) del PIB mundial. Así lo predice un reciente informe de PwC, que puntualiza que este impacto obedecerá a tres factores fundamentales: el aumento de la productividad por la automatización de procesos, incluido el uso de robots y de vehículos autónomos; el crecimiento de esa misma productividad debido al apoyo de la fuerza laboral en aplicaciones de inteligencia artificial; y el incremento del consumo gracias a la existencia de productos y servicios de mayor calidad y más personalizados.

¿Qué áreas serán las protagonistas de las mayores disrupciones? Para José Hernández-Orallo, catedrático de Sistemas Informáticos y Computación de la Universitat Politècnica de València y profesor visitante de la Universidad de Cambridge, la IA no es una tecnología más, sino “la tecnología detrás de la tecnología y, por lo tanto, en el futuro impactará en todos los aspectos de la vida, igual que la inteligencia misma, en general, ha sido disruptiva en todos los ámbitos: desde cómo hemos cambiado el planeta como especie hasta cómo se transforma la cultura y la sociedad”.

Hernández-Orallo, autor del libro The Measure of All Minds, explica a EL PAÍS RETINA que a corto plazo es más fácil imaginar las disrupciones de la IA, como las provocadas por los vehículos autónomos o la traducción en tiempo real. Sin embargo, las predicciones a medio plazo ya son más complejas, aunque en su opinión podrían estar marcadas, además de por la automatización, por “una combinación e hibridación mayor entre humanos y sistemas de IA donde estos últimos se convertirán en una extensión de nuestras capacidades cognitivas, con el fin de modelar desde nuestra red de contactos a nuestras actividades diarias y ayudarnos a tomar mejores decisiones y tener experiencias diferentes en todos los ámbitos”.

Por lo que respecta al largo plazo, según Hernández-Orallo sólo podemos elucubrar, aunque este catedrático recalca dos aspectos que conviene tener siempre presentes: “En primer lugar, sería una temeridad, además de una aberración científica y tecnológica, diseñar sistemas de IA sin saber evaluar adecuadamente sus capacidades; y en segundo lugar, el impacto de la inteligencia artificial depende no sólo de lo que se pueda realizar con ella, sino de quién esté detrás. ¿Seguirá la inteligencia distribuida, como aún lo está actualmente, en millones de mentes de aproximadamente las mismas capacidades o se concentrará en un oligopolio de gigantes tecnológicos con un poder, ese que da la inteligencia, sin precedentes ni contrapesos?”.

Sea como fuere, el informe de PwC desgrana ocho sectores donde no sólo ya se está aplicando la IA, sino que además incluyen áreas con grandes posibilidades de desarrollo en torno a esta tecnología.

Sanidad

La identificación temprana de pandemias para ayudar a prevenirlas o evitar su propagación, la mejora del diagnóstico por imágenes y la detección anticipada de posibles variaciones en la salud de los pacientes a través del análisis de datos son algunos de los objetivos en este ámbito. Además, José Santos, profesor de Ciencias de la Computación e Inteligencia Artificial de la Universidad de La Coruña, afirma que en la industria farmacéutica la IA ayudará a descifrar las estructuras nativas tridimensionales de las proteínas, uno de los actuales retos de la biología computacional. “Una vez que esto sea posible, gracias a la aplicación de algoritmos de aprendizaje automático que analizan diferentes modelos de posibles composiciones de esas estructuras, se acelerará y simplificará el desarrollo del fármaco más adecuado contra un componente específico. Se trata de una aplicación que aún está en una fase incipiente, pero ya se están entrenando sistemas de IA con algoritmos de búsqueda inspirados en sistemas biológicos y en modelos de representación atómica”, comenta Santos.

Automoción

Las flotas autónomas para compartir viajes marcan el futuro de la automoción. En este sentido, durante su intervención en Retina LTD, el encuentro para los líderes de la transformación digital celebrado el pasado 28 de noviembre, Thomas Beermann, CEO de car2go Europe, vaticinó que en 2030 el carsharing será “autónomo y eléctrico”, para lo cual su compañía está trabajando en una gestión inteligente de su flota de vehículos a través de algoritmos que permiten predecir la demanda de los clientes y mejorar su experiencia de usuario.

Los vehículos con funciones semiautónomas para prestar asistencia al conductor y la monitorización del motor a través de IA para un mantenimiento predictivo son otras de las predicciones apuntadas por PwC.

Servicios financieros

Los bancos ya están recurriendo a robo advisors para asesorar a sus clientes y automatizar las carteras de inversión. Pero, además, en los próximos años, gracias a la IA veremos nuevos avances en la configuración de planes financieros personalizados, en la detección de fraudes y blanqueo de dinero y en la automatización de operaciones orientadas al cliente.

Establecimientos comerciales

Según PwC, las tres áreas con mayores posibilidades de desarrollo de la IA en el sector retail son la oferta de productos con diseños personalizados; la gestión automatizada del inventario y las entregas; y la anticipación a la demanda de los clientes. En relación a este último punto, muchos comercios ya han comenzado a aplicar algoritmos de aprendizaje automático para predecir pedidos.

Tecnología, comunicaciones y entretenimiento

En este ámbito, la computación afectiva y el aprendizaje automático están logrando la aparición de dispositivos cada vez más empáticos, de tal modo que serán capaces de ofrecer contenidos personalizados en función del estado de ánimo del usuario o del contexto. Este es el caso de los nuevos móviles Huawei Mate 10, cuyo procesador Kirin 970 simula el pensamiento humano y es capaz de analizar el entorno, lo cual hace que estos teléfonos sean más “conscientes” de las necesidades de los usuarios en cada momento. Además, gracias a la inclusión de la IA dentro del propio chipset del terminal, estos smartphones se caracterizan por unas capacidades muy avanzadas: asistentes personales mucho más veloces, traducción simultánea sin conexión a Internet, visión artificial en tiempo real en la palma de la mano o identificación de objetos y personas en las imágenes, entre otras.

Fabricación

Estíbaliz Garrote, responsable de Computer Vision en el centro de investigación y desarrollo tecnológico Tecnalia, recuerda que “cada día hay más ejemplos en los que la IA ayuda a solucionar problemas y a generar nuevos productos y negocios en el sector industrial, donde está presente en muchas líneas de producción y logística”. En este sentido, Tecnalia ha colaborado en el desarrollo de un equipo que inspecciona el 100% de la producción de tubos de acero, lo que en una economía tan competitiva ayuda a generar un producto de la máxima calidad.

La supervisión y autocorrección de los procesos de fabricación, la optimización de la cadena de suministro y la producción bajo demanda son los principales aspectos que se verán revolucionados de aquí a 2030.

Energía

Desde el punto de vista del consumo, la medición inteligente mostrará al usuario información en tiempo real sobre el uso de las distintas fuentes de energía, lo que ayudará a reducir las facturas. Por lo que respecta al suministro, la IA se aplicará para conseguir un funcionamiento y almacenamiento más eficientes, así como el mantenimiento predictivo de las infraestructuras.

Transporte y logística

Desde hace años, gracias a la inteligencia artificial se han construido máquinas con diferentes grados de autonomía destinadas al transporte y la logística: desde el metro de la ciudad japonesa de Sendai hasta los populares drones. Ahora, las principales revoluciones en este ámbito por mejorar el seguimiento de cada entrega, por obtener un mayor control del tráfico, incluida la reducción de atascos, y por incrementar la seguridad durante los desplazamientos.

lunes, 18 de diciembre de 2017

Entrevista a Antonio Escohotado

Entrevista de Jorge G. García a "Antonio Escohotado": “Cuanta más inteligencia desarrolle un robot, mejor para el ser humano” en El País, 15-XII-2017: 

El filósofo, autor de la obra icónica ‘Historia general de las drogas’, disecciona el mundo tecnológico que nos rodea y comparte sus pensamientos sobre androides y la inteligencia artificial. Ha publicado toda su obra online en su web La Emboscadura
Madrid  18 DIC 2017 - 09:09 CET

Desde el retiro en un pueblo a unos 35 kilómetros de Madrid, el filósofo Antonio Escohotado (Madrid, 1941) huye del mundanal ruido para seguir la escondida senda de la sabiduría, como ya escribiera Fray Luis de León en su Vida retirada. Detrás de una pantalla de ordenador y rodeado por estanterías repletas de libros agolpados, el autor de la celebérrima Historia general de las drogas discurre sus días divulgando su pensamiento hasta por las redes sociales. Fumador empedernido, cae un cigarrillo detrás de otro, como un pitillo inagotable, deja silencios reflexivos antes de responder a cualquier pregunta. Hace 50 años lo entrevistaron con su padre. Como si del eterno retorno de Nietzsche se tratara, ahora le ocurre lo mismo; pero, en esta ocasión, con él como progenitor y con su hijo llamándole Escota.

¿Cómo fue su llegada a las nuevas tecnologías?

Serendipia pura. En el caso del teléfono móvil, por pura necesidad. Comencé a darme cuenta de que no tenía que peregrinar a las bibliotecas y librerías para encontrar libros. El 99,9% ya estaban en la red. Con respecto a las redes sociales, me las montó mi hijo Jorge y gracias a él estoy ahí dentro ahora.

¿Comprende que haya miedo a la robótica?

No. Como en tantos otros campos, tener miedo y alarmar alimenta la industria amarillista que convirtió en multimillonarios a Victor Hugo y Dickens, supuestos testigos del mundo real. Bien porque parece más vendible, o porque el resentimiento se apoderó del ánimo, ver el lado malo de los asuntos crece a costa de la objetividad, como demuestra Steven Pinker en su monumental y reciente estudio sobre la violencia. Resulta que en todos los órdenes –individual, familiar, social- no alcanza un 10% de la prevaleciente hace un siglo, pero los llamados medios de información dedican una línea a noticias como esa por cada mil centradas en catástrofes. ¿Por qué lo llaman información? Puestos a buscarle causas, la primera podría ser la maldita manía de manipular la mente ajena.

¿Debería existir una ética de la inteligencia artificial?

La única es asegurarse de que piense ecuánimemente, no para confirmar sofismas –bien identificados ya por la lógica aristotélica- sino para acumular inteligencia objetiva. Cuanto más predomine lo razonable y razonado mejor nos irá, aunque el folletín venda en teoría más.

¿Considera que los robots pueden ser más racionales que los seres humanos?

El ataque que pueda protagonizar un androide a la especie homo sapiens solo puede dirigirse a sus facetas irracionales, mostrando cuánto le falta para ser sapiente en vez de demente a ratos. Y es lo que necesitamos. La voluntad se obstina en someter a la inteligencia con dogmas y otros embustes, pero mientras ella duerme el espíritu objetivo sigue tejiendo su malla de innovación e invención. Los despiertos solo supuestamente se aprovechan de esa malla sin identificar la libertad como su origen, y pagan su afán de control recelando por ejemplo de la química -¡los paraísos artificiales!- y de la genética, donde ya están prohibidas cosas hoy por hoy imposibles. El miedo sigue teniendo muy buena salud, pero sospecho que la robótica no acabará de darle motivo.

¿En qué cree que los androides pueden ayudarnos?

En la zona pasional. Seguimos en buena medida a merced de impulsos como los celos, o un fratricidio disfrazado como anhelo de limpieza social, racial e ideológica. ¿Qué hacer con los émulos de Caín? Quizá una inteligencia no lastrada por la inercia de cerebros reptilianos descubra modos de mejorar en ese orden de cosas.

¿Qué entiende por innovación?

Convertir la potencia en acto, una ley de vida. No le falta componente de violencia, porque actualizar equivale a dejar atrás, como unas células sustituyen a sus predecesoras, sin evitar con ello la finitud general de cada organismo. Pero sin innovar no habría llegado a nacer.

¿Y siempre tiene que ser violenta?

Querríamos lo contrario, pero no hay otro modo de mitigar la coerción que partiendo del realismo. Estudiando y sabiendo ampliaremos la paz, pero la pretensión de alguna vía suavecita y políticamente correcta olvida que la realidad procede a saltos, como dirían los cuánticos.

El miedo sigue teniendo muy buena salud, pero sospecho que la robótica no acabará de darle motivo.

¿Le interesa la física cuántica?

Mucho, pero quizá se quedó empantanada desde finales de los años veinte, cuando Einstein advirtió que se permitía divorciar formulación e intuición. La obra de Dirac, en particular, muestra cómo convertirse en orientación canónica descarga de apelar a los sentidos, como si lo real pudiera perseguirse desde entonces con números sobre números.

¿La computación cuántica le parece diferente?

No tengo ni idea de ese campo específico. Solo me pregunto, ¿dónde están las imágenes cuánticas? ¿Nos ayuda a entender el mundo pasar de las tres dimensiones a n dimensiones? Prigogine y Mandelbrot aportan un formidable caudal intuitivo a sus investigaciones, pero no veo nada parecido en la teoría de las supercuerdas. Solo percibo autoconfirmaciones de hipótesis.

¿Los conclusiones cuánticas son erróneas?

Dios me libre de pontificar. Me quejo solo de los resultados, porque nada me dice que el electrón no sea un punto sino una cuerda con forma de lazo. Dada la formidable cantidad de observaciones ¿cómo no se traducen en una visión más nítida? Estudiar de cerca cualquier periodo histórico, por ejemplo, galvaniza y altera todo cuanto pensaba antes de hacerlo. ¿Por qué no ocurre algo análogo en física?

¿Cómo se imagina el futuro que está por venir?

Puestos a imaginar, y considerando que la función crea al órgano, lo ocurrido con el vello, las uñas y los dientes quizá anuncie cambios morfológicos más radicales, apoyados sobre el progreso técnico. ¿Para qué dos piernas, dos brazos, incluso un aparato digestivo y respiratorio, si el medio deja de ser inclemente y podemos dedicarnos a sentir y pensar libremente?

‘La emboscadura’, el pensamiento digital de Escohotado

La expansión del pensamiento del filósofo Antonio Escohotado carecería de sentido sin la figura de su hijo, Jorge. Gracias a las redes sociales se dio cuenta de que toda la obra de su padre antes de Historia general de las drogas estaba descatalogada o a precios desorbitantes. Para corregir este rumbo, decidió abrir la página web. “En los contratos con las editoriales no aparece nada con respecto al libro electrónico y decido digitalizar toda la obra”, argumenta. Con esta iniciativa, ha conseguido que todas las trabas para llegar a un mercado como el sudamericano por la logística de los envíos queden en un segundo plano. “No se trata de oportunismo, sino de desidia de las editoriales, que no todo son bestsellers”, zanja.

Para comprender qué ha llevado a Jorge a volcarse con la red, pone un ejemplo muy gráfico de cómo un hacker pretendía apropiarse de la obra de su padre. “Un pirata argentino hackeó Historia general de las drogas y la estaba comercializando. Si hubiera sido gratuita, no habríamos hecho nada, pero ahora le hemos dado de su propia medicina utilizando su versión con algunas adaptaciones. No creo que se atreva a denunciarnos (risas)”, explica. Para el año que viene, el reto tecnológico que afrontará es el de la impresión bajo demanda. Con el fin de evitar los gastos de almacenamiento, buscará alianzas en todos los países del mundo hispanoparlante para que, en 72 horas, el lector tenga el libro que desea de Antonio Escohotado.

martes, 12 de diciembre de 2017

Las redes sociales y los móviles son intrínsecamente malos

I

R. J. C., "El primer presidente de Facebook dispara contra la red social. El polémico Sean Parker considera que explora una vulnerabilidad humana", en El País, San Francisco 10 NOV 2017 

Sean Parker ha reaparecido. El primer presidente de Facebook vuelve a la escena para criticar a la compañía, alertando del supuesto daño que hace en el cerebro. Durante un evento organizado por Axios en Filadelfia. Parker se basa en su conocimiento de la gestación de la red social para avisar del daño a gran escala que podrían hacer en varias generaciones.

Parker se considera a sí mismo un objetor de conciencia de las redes sociales: “Recuerdo a gente que me decía que se había salido de Facebook y de las redes sociales. Y yo pensaba que volverían, pero ahora valoro más la presencia, la intimidad, el vivir el momento. Realmente, no sé las consecuencias de lo que decía porque ha cambiado la forma en que se relaciona la sociedad. Solo Dios sabe lo que está haciendo con el cerebro de los niños”.

El ejecutivo sostiene que Facebook se fundó así de manera consciente: “¿Cómo podemos consumir la mayor parte de tu tiempo consciente? Esto significa que teníamos que dar un poquito de dopamina cada rato. O bien porque alguien había dado a me gusta o porque habían comentado tu foto. Y a eso contribuye la creación de contenido para, de nuevo, crear más comentarios y me gusta”.

Otro de los ingredientes de este cocktail es el factor social: “La validación en bucle de los contactos, eso es exactamente lo que se buscaba. Eso explota una vulnerabilidad de la psicología humana. Los inventores de esto, tanto yo, como Mark (Zuckerberg) como Kevin Systrom (Instagram), y toda esa gente, lo sabíamos. Y lo hicimos igualmente”.

La validación en bucle de los contactos, eso es exactamente lo que se buscaba. Eso explota una vulnerabilidad de la psicología humana
Parker es uno de los personajes más controvertidos de Silicon Valley. Sus escándalos y fiestas se cuentan como hazañas entre los asistentes a sus desmanes. En la película que recrea la gestación de Facebook, equipo al que se sumó en 2004, su papel lo ejerce Justin Timberlake. Su nombre ha estado relacionado en escándalos de drogas. En 2005 fue detenido por posesión de cocaína.

Fue uno de los grandes villanos de Internet en la primera ola de Internet, cuando creó Napster, un sistema de intercambio de archivos, utilizado sobre todo para piratear archivos MP3. Su última aparición pública relevante fue durante su boda, en junio de 2013, evento en que desembolsó 7,5 millones de dólares y reunió a la sociedad techie y del espectáculo de California en Big Sur.

Multimillonario gracias a sus acciones de Facebook hoy es fundador y presidente del Parker Institute for Cancer Immunotherapy. Su riqueza se estima en más de 2.600 millones de dólares.


La nueva misión que afronta es alargar la vida humana: “Como soy multimillonario voy a tener acceso a mejor sanidad. Es posible que llegue a 160 años y siga siendo parte de esta nueva clase de señores inmorales. Yo quiero vivir más años y ser productivo más tiempo, pero también que más gente lo consiga”.

II

"“Las redes sociales están desgarrando a la sociedad”, dice un exejecutivo de Facebook. Chamath Palihapitiya lamenta haber participado en la construcción de herramientas que destruyen el tejido socia"l en El País, Madrid 12 DIC 2017

El primer presidente de Facebook dispara contra la red social
Instagram, la peor red para la salud mental de los adolescentes

Un antiguo alto ejecutivo de Facebook ha entonado el mea culpa por su contribución al desarrollo de unas herramientas que, a su juicio "están desgarrando el tejido social". Chamath Palihapitiya, que trabajó en la compañía de Mark Zuckerberg de 2007 a 2011 y que llegó a ser su vicepresidente de crecimiento de usuarios, opina que "los ciclos de retroalimentación a corto plazo impulsados por la dopamina que hemos creado están destruyendo el funcionamiento de la sociedad. Sin discursos civiles, sin cooperación, con desinformación, con falsedad".

Palihapitiya hizo estas declaraciones sobre la adicción a las redes sociales y sus efectos en un foro de la Escuela de Negocios de Stanford el pasado 10 de noviembre, pero la web de tecnología The Verge las ha recogido este lunes y, a través, de ella, diarios como The Guardian. Palihapitiya, que en su día trabajó para aumentar el número de personas que usan las redes sociales, recomendó a su audiencia que se tomara un "descanso" en su uso.

Aclaró que no hablaba solo de Estados Unidos y de las campañas de intoxicación rusas en Facebook. "Es un problema global. Está erosionando las bases fundamentales de cómo las personas se comportan ante sí y entre ellas", subrayó, para añadir que siente "una gran culpa" por haber trabajado en Facebook. Habló de cómo las interacciones humanas se están limitando a corazones y pulgares hacia arriba y de cómo las redes sociales han conducido a una grave falta falta de "discurso civil", a la desinformación y a la falsedad.

En la charla, Palihapitiya, ahora fundador y CEO de Social Capital, desde la que financia a compañías de sectores como la salud y la educación, se declaró una especie de objetor de conciencia del uso de redes sociales y anunció que quiere usar el dinero que ganó en Facebook para hacer el bien en el mundo. "No puedo controlar [a Facebook] pero sí puedo controlar mi decisión, que es que no usar esa mierda. También puedo controlar las decisiones de mis hijos, que no pueden usar esa mierda", declaró, para aclarar que no se ha borrado del todo de las redes pero que sí trata de usarlas lo menos posible.

El ex alto cargo de Facebook alertó de que los comportamientos de las personas están siendo programados sin que se den cuenta. "Ahora tienes que decidir a cuánto vas a renunciar", añadió. Palihapitiya hizo referencia a lo sucedido en el Estado indio de Jharkhand le pasado mayo, cuando unos mensajes falsos de WhatsApp sobre la presencia de supuestos secuestradores de niños acabaron con el linchamiento de siete personas inocentes. "A esto nos enfrentamos", criticó Palihapitiya, que añadió que este caso "llevado al extremo" implica que unos delincuentes "puedan manipular a grandes grupos de personas para que hagan lo que ellos quieran".


Pero Palihapitiya no solo censuró los efectos de las redes en cómo funciona la sociedad, sino todo el sistema de funcionamiento de Silicon Valley. A su juicio, los inversores inyectan dinero en "empresas estúpidas, inútiles e idiotas", en lugar de abordar problemas reales como el cambio climático y las enfermedades curables.

Las críticas de Palihapitiya a las redes se suman a las del primer presidente de Facebook, Sean Parker, que censuró la forma en que la compañía "explota una vulnerabilidad en psicología humana" al crear un "ciclo de retroalimentación de validación social". Además, un exgerente de producto de la empresa, Antonio García-Martínez, acusó a Facebook de mentir sobre su capacidad para influir en las personas en función de los datos que recaba sobre ellos, y escribió un libro, Chaos Monkeys, sobre su trabajo en la empresa. En el último año se ha producido una creciente preocupación por el poder de Facebook, su papel en las elecciones estadounidenses y su capacidad para amplificar noticias falsas.

III

Javier Salas, "Instagram, la peor red para la salud mental de los adolescentes. Un estudio británico le da la peor nota por su capacidad para generar ansiedad entre los jóvenes", en El País, 21 de mayo de 2017:


Las redes sociales más populares son fuente de innumerables beneficios y ventajas para sus usuarios, pero también generan efectos secundarios poco saludables. Un nuevo estudio, realizado entre jóvenes británicos, se centra en un problema muy particular: el bienestar y la salud mental de los usuarios de estas aplicaciones. Según este trabajo, Instagram podría terminar siendo la más nociva entre los adolescentes, por su impacto en la salud psicológica de este grupo de edad más vulnerable. Por detrás, aunque con notas también negativas, estarían Snapchat, Facebook y Twitter. La única red analizada con valoración positiva es YouTube, el portal de vídeos del gigante Alphabet.

"Instagram logra fácilmente que las niñas y mujeres se sientan  como si sus cuerpos no fueran lo suficientemente buenos", denuncia un joven en el estudio

"Los jóvenes que pasan más de dos horas al día en redes sociales como Facebook, Twitter o Instagram son más propensos a sufrir problemas de salud mental, sobre todo angustia y síntomas de ansiedad y depresión", recogen en el estudio, realizado por la Royal Society of Public Health y la Universidad de Cambridge. Para analizar el posible impacto en la juventud británica, los especialistas estudiaron las actitudes hacia estas redes en 1.500 británicos de entre 14 y 24 años. España es el país con mayor penetración de redes sociales y de telefonía móvil de la Unión Europea.

Se valoraron 14 factores, tanto positivos como negativos, en los que estas aplicaciones impactan en la vida de este grupo de edad en el que su personalidad aún está en formación. Instagram suspendió en siete de estos aspectos: notablemente, los jóvenes reconocían que esta app para compartir fotografías afecta muy negativamente en su autoestima (imagen corporal), en sus horas de sueño (asociado a múltiples problemas que se derivan de dormir poco) y en su miedo a quedarse fuera de eventos sociales (conocido por las siglas en inglés FoMO). Además, consideran que fomenta el ciberacoso, que les genera ansiedad y, en menor medida, síntomas depresivos y sensación de soledad.

"Instagram logra fácilmente que las niñas y mujeres se sientan como si sus cuerpos no fueran lo suficientemente buenos mientras la gente agrega filtros y edita sus imágenes para que parezcan perfectas", asegura uno de los jóvenes estudiados. "El ciberacoso anónimo a través de Twitter sobre temas personales me ha llevado a autolesionarme y a tener miedo de ir a la escuela. El acoso en Instagram me ha llevado a intentar suicidarse y también a lesionarme. Las dos me hicieron experimentar episodios depresivos y ansiedad", confiesa un menor de 16 años que participó en el estudio.

"Ser un adolescente es ya suficientemente difícil, pero las presiones a las que se enfrentan online los jóvenes son sin duda únicas para esta generación digital", aseguran los autores
Snapchat obtiene unas notas casi tan negativas como Instagram, aunque es más perjudicial para las horas de sueño y para la ansiedad social que genera perderse eventos sociales. En el ranking negativo le sigue Facebook, que es la red más propicia para el ciberacoso, según el estudio. Twitter mejora levemente las notas de las anteriores y casi compensa sus efectos negativos con sus aportaciones positivas. YouTube, finalmente, logra el aprobado gracias a que sus efectos tóxicos son más escasos, según la encuesta, salvo en el caso de las horas de sueño: este portal para ver vídeos es el que menos deja dormir a los jóvenes.

No todo es malo en estas redes: los aspectos más positivos en los que destacaron estas apps fueron la capacidad de tomar conciencia (sobre todo en YouTube), de expresarse y encontrar una identidad propia (Instagram) y de crear comunidad y de dar con apoyo emocional (Facebook).


"Ser un adolescente es ya suficientemente difícil, pero las presiones a las que se enfrentan online los jóvenes son sin duda únicas para esta generación digital. Es de vital importancia que intervengamos poniendo medidas preventivas", aseguran las autoras del estudio. El informe propone algunas de estas medidas, como que los usuarios reciban una notificación de la propia aplicación avisándoles del exceso de uso, que la red advierta cuando una foto está manipulada o que se realicen campañas de formación sobre estos riesgos en el ámbito escolar.

IV

Cariño, hemos creado un monstruo
Dos de los fundadores de Facebook reniegan del invento. Recopilamos sus frases explicando que quizá su idea se les haya ido de las manos.
BEGOÑA GÓMEZ URZAIZ | 19 DIC 2017 07:50
FacebookMark Zuckerberg. FOTO: GETTY
0
Se cree que cinco meses antes de morir, en noviembre de 1954, Albert Einstein dijo que sólo había cometido un gran error en su vida: enviarle una carta al presidente Roosevelt recomendándole crear la bomba atómica utilizando sus descubrimientos en torno a la relatividad. El científico se justificó, porque existía el peligro de que los nazis la crearan antes. Algunos de los creadores de Facebook no han tardado tanto en arrepentirse de su creación. Hace apenas unos días, Chamath Palihapitiya, ex vicepresidente de crecimiento de usuarios en la empresa de Mark Zuckerberg, declaró que siente una “culpa tremenda” por haber creado las herramientas que están “destrozando el tejido social” y “erosionando la misma base del comportamiento de las personas”.

Palipahitiya, que se unió a Facebook en 2007, unos meses después de que la red social se expandiera de los campus universitarios estadounidenses a cualquiera que tuviera un correo electrónico, hizo esas declaraciones en un foro de graduados de la universidad de Stanford, el vivero intelectual de Silicon Valley, ante los que se presentó como un profeta que había visto el mal desde demasiado cerca.

“No os dais cuenta, pero estáis siendo programados –dijo a los estudiantes– Tenéis que decidir a cuánto estáis dispuestos a renunciar, a cuánta de vuestra independencia intelectual”. Él, que ahora es el presidente ejecutivo de una sociedad de inversiones, ya no usa “esta mierda” y a sus hijos tampoco se lo permite, por lo que recomendó a los presentes romper ya con todas las redes sociales. “Organizamos nuestras vidas alrededor de esta sensación de perfección, porque recibimos premios a corto plazo. Corazones, me gusta, pulgares alzados los igualamos a un valor, los igualamos a la verdad. Pero en realidad ocultan una popularidad falsa y amarga que te deja, admitidlo, más vacío de lo que estabas antes”, exhortó.

El ex vicepresidente no es el único miembro emérito de la empresa que ahora pone seriamente en duda la red social. Sean Parker, el inversor inicial y primer presidente de Facebook, al que interpretó Justin Timberlake en la película La red social, declaró en una entrevista reciente que el principal objetivo que tenían al fundarla era “consumir la mayor cantidad de tiempo y atención posible” de cada usuario, y que en consecuencia, Facebook y el resto de redes “literalmente cambian nuestra relación con la sociedad e interfieren con nuestra productividad”. “Dios sabe qué estamos haciendo con los cerebros de nuestros hijos”, lanzó al aire. Parker reconoció que Facebook cuadraba con una mentalidad de hacker como la suya “porque estás explotando la vulnerabilidad de la psicología humana”.

La pregunta es: ¿sabían lo que hacían cuando legaron al mundo este juguete irresistible? Claro que lo sabían. “Lo entendimos conscientemente y lo hicimos de todas maneras”, dijo en la misma entrevista. Palihapitiya se expresó en términos parecidos: “en el fondo, en los lugares recónditos de nuestras mentes, sabíamos que algo malo podía pasar”.

Una portavoz de Facebook, Susan Glick, le respondió de inmediato señalando que el ex vicepresidente lleva seis años fuera de la empresa, que era entonces muy distinta. “Ahora hemos crecido y nos hemos dado cuenta de nuestras responsabilidades y estamos trabajando para mejorar”, dijo. Mark Zuckerberg lleva todo el año inmerso en un tour “de crecimiento personal” por cada uno de los estados de su país, que se leyó inmediatamente como una precampaña presidencial a larguísimo plazo. Lo que sí admitió Zuckerberg en septiembre es que fue demasiado rápido cuando ridiculizó la idea de que Facebook había tenido un rol fundamental en la elección de Trump. Entonces, tildó esa noción de “loca”, pero después reconoció que el asunto es “demasiado importante” para ser tan derogatorio. Cuando pareció evidente que Rusia había gastado al menos 100.000 dólares en anuncios de Facebook para promover mensajes divisivos y anti-Trump, la empresa recolectó 3000 de esos anuncios para presentarlos ante una comisión en el Congreso estadounidense.

En las últimas semanas también se ha señalado el papel de la red social en la crisis de los Rohingya, donde habría servido para amplificar la propaganda contra esta minoría. Y desde el Brexit hasta la crisis catalana, no ha habido acontecimiento político significativo donde no haya aparecido la sombra de Twitter y Facebook. Palipahitiya también se refirió a eso en su exabrupto y puso el ejemplo de un suceso que tuvo lugar en India la pasada primavera, cuando uno de los mensajes virales de Whatsapp (propiedad de Facebook) llevó al linchamiento de siete personas. “Esto es lo que tenemos entre manos. Imaginad que lo llevamos al extremo en el que los agentes malos pueden manipular a enormes cantidades de personas para hacer lo que ellos quieren. Es un estado muy, muy malo de las cosas”.


Artículo actualizado el 20 diciembre, 2017 | 12:18

jueves, 19 de octubre de 2017

La inteligencia artificial supera al fin y desfasa a la humana.

Javier Salas "La inteligencia artificial ya aprende sola a ser invencible", en El País, 18-X-2017:

El último algoritmo de Google prescinde del conocimiento humano y señala que puede ser un lastre.

Es solo un juego de mesa. Pero el tablero del go, este complejo ajedrez oriental, es el terreno elegido para explorar las fronteras de la inteligencia artificial que en el futuro ayuden a "resolver todo tipo de problemas apremiantes del mundo real", en palabras de Demis Hassabis, líder de Google DeepMind. Esta división de la multimillonaria tecnológica ya logró crear un programa ganador de go, AlphaGo, capaz de derrotar a los campeones mundiales desnudando muchos secretos de la mente humana. Ahora han ido un paso más allá al desarrollar un programa capaz de aplastar a todas las versiones previas del todopoderoso AlphaGo aprendiendo de cero y sin ayuda. Una máquina que se enseña a sí misma, sin ejemplos de partidas reales ni intervención humana, hasta convertirse en invencible. Y además lo logró con una fuerza incomparable, en un tiempo récord y consumiendo una cantidad mínima de recursos informáticos.

Esta nueva versión desarrollada por DeepMind cuenta con un algoritmo que le permite aprender a ganar de la nada, practicando consigo misma

El programa original se había entrenado estudiando millones de movimientos reales de miles de partidas jugadas entre humanos, un monumental paso previo antes de comenzar a entrenarse jugando contra sí mismo hasta convertirse en imbatible. Pero esta nueva versión desarrollada por DeepMind, denominada AlphaGo Zero, cuenta con un nuevo algoritmo que le permite aprender a ganar de la nada, a solas con el tablero y las fichas. El nuevo algoritmo se apoya en una red neuronal basada en el aprendizaje por refuerzo: la máquina sabe enseñarse sola practicando consigo misma hasta alcanzar una capacidad muy superior a la de sus versiones previas.

El equipo de DeepMind quería ilustrar cómo la inteligencia artificial puede ser eficiente frente a aquellos retos en los que no se cuente con datos suficientes o conocimientos previos para guiar a la máquina hacia una solución óptima, como explican en el estudio que les publica la revista Nature. "Nuestros resultados demuestran", escriben, "que un enfoque de aprendizaje por refuerzo puro es completamente factible, incluso en los dominios más exigentes: es posible entrenar a un nivel sobrehumano, sin ejemplos humanos ni orientación, sin más conocimiento del campo que las reglas básicas". La idea ya no es superar a los humanos subiendo sobre sus hombros, sino llegar donde ellos no están ni pueden ayudar.

La máquina autodidacta derrotó a una máquina igual de potente pero enseñada con información de partidas humanas en solo 24 horas

Partiendo de cero, con movimientos aleatorios, AlphaGo Zero comenzó a entender las nociones de este complejísimo juego de piedras blancas y negras que deben ir ganando territorio en un tablero de 19 por 19 cuadrantes. En solo tres días, tras jugar contra sí misma casi cinco millones de veces, esta máquina venció a la exitosa versión previa que derrotó por primera vez a un campeón de talla mundial. Aquella máquina original necesitó meses de entrenamiento y 30 millones de jugadas. El algoritmo actual es tan eficiente que se hizo invencible con tan solo cuatro chips especializados frente a los 48 que necesitaba su predecesora de 2015. AlphaGo Zero derrotó a AlphaGo por 100 a cero.

Lo más interesante es lo que esta nueva máquina nos enseña sobre el aprendizaje, sobre (lo prescindible de) nuestros conocimientos y nuestra inteligencia. "A las 3 horas, el juego se centra en comer piedras con avaricia, como un principiante humano", detalla el estudio. "A las 19 horas, el juego exhibe los fundamentos de vida y muerte, la influencia y el territorio", continúa. A las 70 horas, la máquina es extraordinariamente capaz, a niveles sobrehumanos, capaz de visualizar estrategias sofisticadas impensables para los jugadores de carne y hueso. Y en 40 días es invencible. 

La idea ya no es superar a los humanos subiendo sobre sus hombros, sino llegar donde ellos no están ni pueden ayudar

De forma intuitiva, la máquina fue descubriendo tácticas, posiciones y movimientos que el talento humano había ido perfeccionando durante miles de años. Pero descubrió por sí misma otras estrategias innovadoras desconocidas que le resultaban más eficientes y optó por abandonar los movimientos clásicos humanos. Esa creatividad del algoritmo, uno de los hallazgos más notables de DeepMind, ya pudo verse en su famosa batalla contra el campeón Lee Sedol, de quien siempre se recordará su gesto, ojiplático y boquiabierto, al observar un brillante movimiento ganador de AlphaGo.

Es más, AlphaGo Zero ha demostrado que el conocimiento humano puede incluso ser un lastre a la hora de alcanzar mayores niveles de efectividad. Los especialistas de DeepMind alimentaron a una copia de este algoritmo con información de partidas reales entre humanos, para comparar su rendimiento con la versión autodidacta. El resultado: la máquina autodidacta derrotó a la máquina enseñada por humanos en las primeras 24 horas de entrenamiento. "Esto sugiere que AlphaGo Zero puede estar aprendiendo una estrategia que es cualitativamente diferente del juego humano", concluyen los investigadores de Google.

La verdadera capacidad de las máquinas

DeepMind ya había logrado que las máquinas aprendieran solas a ganar, como hizo con videojuegos clásicos. Pero el nivel de sofisticación del go, con más posibilidades en el tablero que átomos en el universo, lo convierte en mejor prueba que los marcianitos. Sobre todo si, como asegura Hassabis, pretenden usar estos desarrollos para solucionar cuestiones tan difíciles como el plegamiento de proteínas o el desarrollo de nuevos materiales: "Si podemos lograr con estos problemas el mismo progreso que con AlphaGo, tiene el potencial de impulsar el conocimiento humano e impactar positivamente en todas nuestras vidas"

"AlphaGo Zero puede estar aprendiendo una estrategia que es cualitativamente diferente al juego humano", concluyen los investigadores de Google

Conocidos los resultados de DeepMind, conviene recordar la Ley de Amara, propuesta por el científico Roy Amara: "Tendemos a sobrestimar el efecto de una tecnología a corto plazo y subestimar su efecto en el largo plazo". Este algoritmo de Google no tiene rival a la hora de enseñarse a sí mismo a ganar al go, pero hoy por hoy está muy limitado por la tarea encomendada. Así lo reconocieron sus desarrolladores hace unos meses, preguntados por qué pasaría si de pronto le cambiaran a AlphaGo las dimensiones del tablero de 19x19 a 29x29: "Estaríamos muertos". Un jugador humano sabría adaptarse sin mayores problemas al cambio.

Como contexto, un estudio del mes pasado publicado por investigadores de la Academia de Ciencias de China sobre el riesgo real de la inteligencia artificial analizando sus actuales capacidades. Así, estudiaron cuál sería el coeficiente intelectual de los distintos sistemas de inteligencia artificial, llegando a la conclusión de que son como niños pequeños: el de Google es de 47, el doble que el de Siri (24). Tomando en consideración las habilidades de los sistemas en torno a su "dominio del conocimiento, aprendizaje, uso y creación", llegaron a la conclusión de que la inteligencia general de AlphaGo (la versión de 2016) está por debajo de la humana. Eso sí, señalaban que para subir un peldaño en sus capacidades intelectuales AlphaGo necesitaba demostrar la creatividad necesaria para enseñarse a sí mismo a ganar. Y ese reto ya lo ha superado.

viernes, 28 de julio de 2017

Una inteligencia artificial se inventa un inglés mejor para hablar con otras máquinas y es apagada.

Ángel Jiménez de Luis, "Facebook apaga una inteligencia artificial que había inventado su propio idioma", en El País, 28-VII-2017:

La máquina se comunicaba en un inglés incorrecto y repetitivo que, sin embargo, para ella tenía un sentido muy concreto. Lejos de ser una mera curiosidad, subraya un problema con esta tecnología: que en el futuro no comprendamos la comunicación entre máquinas.

En el laboratorio de investigación de inteligencia artificial de la Universidad Tecnológica de Georgia, un proyecto para crear una inteligencia artificial capaz de aprender y desarrollar nuevas tácticas de negociación ha dado un giro inesperado, para sorpresa de la empresa que lo ha financiado en parte: Facebook.Los responsables del proyecto han tenido que apagar el proceso porque la inteligencia artificial había desarrollado su propio lenguaje, casi imposible de descifrar para los investigadores pero mucho más apto y lógico para la tarea que debía desempeñar.El lenguaje parece una corrupción del inglés -el idioma en el que originalmente se programó la inteligencia artificial- pero carente de sentido por la extraña repetición de pronombres y determinantes.Al analizar las oraciones, sin embargo, los investigadores descubrieron que en el aparente desorden había una estructura lógica coherente que permitía a la inteligencia artificial negociar entre distintos agentes usando menos palabras o con menor riesgo de equivocación."No programamos una recompensa para que la inteligencia artificial no se desviara de las reglas del lenguaje natural" y por tanto su red neural -el conjunto de rutinas que optimiza su funcionamiento- fue favoreciendo abreviaturas y nuevas expresiones que hacían mucho más rápida o sencilla su tarea, asegura en la publicación FastCo uno de los responsables del proyecto.

lunes, 26 de junio de 2017

El móvil es patógeno para los niños pequeños


La atención es la ventana a través de la cual el cerebro se asoma al mundo que le rodea. Cuando el niño nace, apenas es capaz de dirigir su interés hacia el mundo exterior. Inicialmente sólo presta atención a sus propias sensaciones llorando cuando tiene hambre, sueño, frío o se siente solo. Poco a poco comienza a fijarla en el pezón de la madre que destaca como una forma más oscura en el horizonte. A partir de ahí comienza un largo viaje en el que el niño va aprendiendo que atender ciertos estímulos conlleva una serie de beneficios.

Quítale el móvil al niño El smartphone, un arma de distracción masiva
A las pocas semanas el niño reconoce con facilidad objetos que emiten ruido o se mueven; por eso los sonajeros captan su interés. Los padres hacen todo tipo de carantoñas con juguetes o con las manos para dirigir su atención, de ahí los cinco lobitos. Pero también comienzan, de manera instintiva a ayudarle a fijarla en estímulos inmóviles. Primero un árbol que mece sus hojas con suavidad, luego una foto en la que sale junto a su mamá y, más adelante, un cuento en el que casi no pasa nada.

Así, el niño comienza a desarrollar una habilidad tremendamente compleja, que es la de controlar la propia atención y dirigirla no sólo a aquellos estímulos que se mueven, sino también a aquellos que están más quietos o son más aburridos. De esta forma crecerá siendo capaz de atender a su profesor, aunque el compañero de al lado esté haciendo el tonto. Aprenderá a abstraerse con el libro que lee, aunque una mosca lo sobrevuele, y llegará a ser capaz de concentrarse al volante, a pesar de que la carretera sea una larga recta y su cerebro esté cansado.

Dominar la atención y ser capaz de eliminar otros estímulos que intentan distraernos es una habilidad que ofrece múltiples ventajas. Nos permite concentrarnos en lo que realmente queremos o deseamos, detectar detalles y matices que otros pasan por alto, aprender idiomas con más facilidad, persistir en nuestras metas hasta alcanzarlas o reducir los niveles de estrés.

Los padres pasan menos tiempo con los hijos y esto parece interferir en el desarrollo del autocontrol

Desde hace años vivimos un auténtico auge de un diagnóstico que provoca sufrimiento entre los más pequeños: el trastorno por déficit de atención (TDA). Desde los años setenta hasta 2010, el número de niños diagnosticados en Estados Unidos se multiplicó por siete. Desde 2000 hasta 2012, el número de recetas expedidas en Reino Unido para tratar este trastorno cognitivo se multiplicó por cuatro. Los factores que han provocado esta alza son muchos y complejos. Por una parte, la sensibilización de los pediatras ha hecho que se detecten con más eficacia. Por otra, la posibilidad de diagnosticarlo a partir de los tres años (en lugar de a los seis años) ha sido otro motivo para el aumento de la prevalencia.

Sin embargo, también hay otras razones que son más difíciles de entender. La más preocupante de todas ellas es el sobrediagnóstico: los expertos más alarmistas estiman que como mucho un 4% de la población infantil podría sufrir este trastorno y, sin embargo, la realidad es que un 10% de los niños en nuestro país tomarán medicación para el TDA en algún momento de su vida escolar.

Las razones que llevan al sobrediagnóstico parecen ser muchas. Los padres pasan menos tiempo con los hijos y esto parece interferir en el desarrollo de habilidades como el autocontrol o la capacidad para sobrellevar la frustración. Los colegios tienen menos paciencia con los alumnos difíciles o que no están tan motivados para aprender, en muchos casos presionados por los resultados académicos de la escuela en su conjunto.

Los móviles se usan para distraerles mientras se terminan la papilla, pero así no aprenden a concentrarse

También nos encontramos con la intrusión de las nuevas tecnologías en el cerebro en desarrollo de nuestros hijos. Desde los años ochenta sabemos que más tiempo frente al televisor se traduce en menos paciencia y autocontrol, peor desarrollo madurativo de la atención y mayores tasas de fracaso escolar. La razón es muy sencilla, cuando el niño juega, dibuja o interacciona con sus padres o hermanos, su cerebro debe dirigir la atención voluntariamente a aquellos estímulos o personas con los que interacciona. Cuando se sienta frente al televisor es la tele la que atrapa el interés del niño y hace todo el trabajo.

Por eso nos gusta ver la tele y engancharnos al móvil, no porque estimulen nuestro cerebro, sino porque nos entretienen, nos relajan. Hoy, los dispositivos móviles se utilizan para distraer al niño cuando se tiene que concentrar en terminar una papilla. Para entretener al niño cuando tiene que esperar en el pediatra. Para despistar al niño cuando tiene que esforzarse en ponerse el pijama al final del día. Con este tipo de estrategias parece sensato que el cerebro aprenda que cada vez que tiene que esforzarse, concentrarse o esperar quieto…, tiene permiso para distraerse.

Sin lugar a dudas estamos educando niños menos pacientes, menos atentos y con menor capacidad de esfuerzo, reflejo de una generación de padres menos pacientes y que damos menos valor a hacer las cosas despacio.

Todo ello lleva a que muchos niños sean llevados a un especialista que observa en él todos los síntomas necesarios para el diagnóstico: poco autocontrol, distracción o falta de motivación. En el caso de muchos niños el diagnóstico y el tratamiento son acertados. Para muchos otros, creemos, el trastorno por déficit de atención es un estigma de una sociedad que va demasiado deprisa para educar despacio.

Algunos niños, con ayuda de sus padres, profesores o terapeutas van desarrollando habilidades cognitivas como un mayor autocontrol o paciencia que permiten reducir y compensar las dificultades atencionales. A medida que se hacen mayores suelen preferir y encajar bien en trabajos que les permiten moverse y hacer cosas diversas a lo largo del día.

Pero pueden seguir existiendo desafíos en la vida cotidiana. Muchos los encuentran cuando tienen sus propios hijos y la paciencia, el orden o la organización vuelve a ser un elemento adaptativo fundamental. Algunos adultos con dificultades de atención no experimentan ninguna dificultad en su vida cotidiana, otros se regulan gracias a la medicación y un tercer grupo sufre muchas de estas dificultades pero no tiene ni idea de que el origen esté en una alteración de sus procesos atencionales y ejecutivos, ni conoce cómo compensarlos.

Álvaro Bilbao, neuropsicólogo, es autor de ‘El cerebro del niño explicado a los padres’.

sábado, 17 de diciembre de 2016

Creada carne artificial

Martín Caparrós, "La revolución de la ‘carne cultivada’", en El País, 15 DE DICIEMBRE DE 2016

Es posible que se dé un salto comparable al principio de la agricultura. La carrera está lanzada y podría terminar con el hambre.

LOS PRIMEROS prefirieron la sorpresa, el asombro, y la llamaron carne cultivada o carne limpia o incluso carne inanimal. Pero últimamente algún marquetinero recordó las lecciones de su curso de ingreso y empezó a llamarla supercarne –supermeat–. El nombre todavía es materia discutible pero la cosa parece decidida: se trata de fabricar carne –verdadera carne– comestible en un tubo de ensayo.

El primero en proponerlo seriamente fue un holandés, Willem van Eelen, que, muy joven, se pasó cinco años prisionero de guerra en un campo de concentración japonés en Indonesia. Allí, medio muerto de hambre, se le ocurrió la idea; cuando la guerra terminó, Van Eelen se recibió de médico y se pasó décadas imaginando cómo hacerlo hasta que, hacia 1990, los avances en las técnicas de clonación –y la llamada “ingeniería de tejidos”– se fueron acercando a sus fantasías: células madre, alimentadas con las proteínas adecuadas en un medio propicio, podrían reproducirse infinitamente.

Hace tres años Van Eelen se dio el gusto: discípulos suyos presentaron, en Londres, la primera hamburguesa de carne cultivada. Pesaba un cuarto de libra y había costado un cuarto de millón de libras –pagados por Sergei Brin, el dueño de Google–, pero los catadores dijeron que sabía a verdadera carne. El desafío, entonces, era mejorar la producción para hacerla accesible. En Estados Unidos, Europa, Israel, Corea, laboratorios de punta de pequeñas empresas ambiciosas lo están intentando; dicen que en 10 o 15 años la supercarne se venderá en supermercados. Y que nada impediría que, en unas décadas, reemplazara a la clásica.

Que la carne, lo más natural, lo más animal, se vuelva un artificio es una idea muy contra natura –y muchos fruncen la nariz cuando lo evocan–. Es probable que esas carnes nunca consigan los matices de un buen cordero, pero sería una revolución sólo comparable al principio de la agricultura. Entonces los hombres descubrieron la forma de hacer que la naturaleza se plegara a sus voluntades; ahora descubrimos que ya no necesitaremos a la naturaleza. Y los efectos son casi incalculables.

Más de un tercio de las tierras útiles del mundo están dedicadas a la cría de ganado: entonces quedarían libres para el cultivo o, incluso, para oxigenar el planeta. El efecto invernadero cedería, y más aún si se tiene en cuenta que el 18% de los gases que lo producen vienen de las vacas y los chanchos. Y, sobre todo, más de la mitad de las cosechas del mundo se usan para alimentarlos: si ya no fuera necesario, esa comida podría terminar con el hambre de una vez por todas.

La carrera está lanzada: los laboratorios que la protagonizan suelen ser start-ups que consiguen inversores de esos que les ponen dinero a proyectos más o menos delirantes para perder un millón o ganar miles. Ahí está el riesgo: que quien por fin lo logre se convierta en un nuevo Monsanto, dueño de una tecnología que todo el mundo necesita; que un gran avance técnico no beneficie a los miles de millones que lo necesitan sino a una junta de accionistas. Es ahora, mientras todo está por verse, cuando los Estados y sus organismos internacionales tienen la ocasión de cambiar el modelo: de decidir que serán ellos los que desarrollen la nueva comida para que no sea propiedad de unos pocos sino patrimonio de todos; para que no le sirva a una corporación sino a la humanidad. Sería una gran oportunidad –una oportunidad única– para cambiar los mecanismos que hacen que cientos de millones de personas no coman suficiente. Parecen grandes palabras; quizá sea, también, un gran proyecto.

domingo, 11 de diciembre de 2016

Avances en Inteligencia Artificial

Javier Sampedro "Construyendo mentes artificiales", en El País, 11-XII-2016:

Los últimos grandes avances en el campo de la inteligencia artificial se inspiran en el cerebro. Pero su objetivo no es imitarnos, sino superarnos en ciertas cosas

Si la inteligencia artificial persiguiera imitar el funcionamiento del cerebro humano, se enfrentaría a un escollo formidable: que aún no sabemos cómo funciona el cerebro humano. Pero ni el objetivo de esta tecnología vigorosa es solo ese, ni la estrategia de imitar al cerebro tiene que esperar a que lo entendamos todo sobre ese órgano fabuloso que llevamos dentro del cráneo. Incluso con el conocimiento fragmentario que tenemos sobre él, nuestro cerebro está sirviendo como una fuente de inspiración muy eficaz para los ingenieros, los científicos de la computación y los expertos en robótica. Y los resultados ya nos rodean por entero.

Como un pasajero asomado a la borda de un transatlántico, pasamos el día viajando sobre una maquinaria prodigiosa de la que entendemos muy poca cosa. El sistema de reconocimiento de voz con el que podemos hablar a Google es inteligencia artificial (AI, en sus siglas en inglés), como lo es ese circulito que identifica las caras de tus primas cuando vas a hacerles una foto. Que sean AI quiere decir que nadie ha programado allí tu voz ni la cara de tu prima, sino que el sistema aprende a reconocerlas a partir de la experiencia, como hace nuestro cerebro con la realidad impredecible de ahí fuera.

Hay gente obsesionada por definir las cosas, y el lector podrá encontrar en la red una docena de definiciones distintas de la inteligencia artificial. Mi favorita es la de Marvin Minsky, un pionero del campo que murió en enero. La AI, dijo Minsky, “es la ciencia que investiga para que las máquinas hagan cosas que requerirían inteligencia si las hubiera hecho un humano”. La definición de Minsky parece gratuitamente enrevesada, pero en realidad es un dardo envenenado. Va con retranca, y es importante que veamos por qué.

A principios de los años noventa, todo el mundo habría considerado que ganar al campeón mundial de ajedrez sería una prueba de inteligencia. En esos mismos años, sin embargo, los científicos de IBM estaban desarrollando un ingenio destinado a vencer a Gari Kaspárov, el número uno de la época. Se llamaba Deep Blue, contaba con 256 procesadores trabajando en cadena que evaluaban 200 millones de jugadas por segundo y dio el campanazo el vencer al gran Kaspárov. ¿Debemos concluir que Deep Blue era inteligente?

No, de ningún modo, respondió todo el mundo al unísono. El ajedrez, al fin y al cabo, es un juego acotado, con un número enorme pero finito de soluciones posibles, y sus reglas son simples y matemáticamente consistentes. Este es el campo de juego óptimo para un cerebro de silicio con superpoderes como Deep Blue.

El sistema de reconocimiento de voz, o el de identificación de caras del smartphone son ejemplos de inteligencia artificial que usamos diariamente 

Pero nuestro cerebro no funciona así. Ni tiene 256 procesadores en cadena ni puede evaluar 200 millones de jugadas por segundo. El éxito del ingenio de IBM se atribuyó a la fuerza computacional bruta. Nuestra percepción del ajedrez dio un vuelco, pero no para declarar inteligente a Deep Blue, sino para excluir al ajedrez de la definición de inteligencia. Si una máquina podía ganar a Kaspárov, ser el campeón mundial de ajedrez no debía ser para tanto, después de todo.

Justo ahí iba Minsky con el dardo de su definición. Si quien hubiera ganado a Kaspárov hubiera sido un joven talento, todos le habríamos admirado por su inteligencia extrema. Pero ninguno de nosotros estuvimos dispuestos a concederle la misma consideración a Deep Blue. La AI no es la ciencia que investiga para que las máquinas hagan cosas inteligentes, sino para que las máquinas hagan cosas que requerirían inteligencia si las hubiera hecho un humano. Es una importante lección de Minsky que conviene tener muy presente al reflexionar sobre la inteligencia de las máquinas.

Los sistemas de inteligencia artificial aprenden con nosotros gracias a la experiencia 

Hay otro criterio clásico sobre la misma cuestión, formulado por el gran padre de la inteligencia artificial, Alan Turing (algunos lectores le recordarán con la cara de Benedict Cumberbatch en la película Descifrando Enigma). Tendremos que considerar que una máquina es inteligente cuando logre hacerse pasar por un humano, por ejemplo por correo electrónico. Los científicos de la computación veneran a Turing, pero ya no creen que su test de Turing sea un criterio válido. Ni aprobarlo demuestra inteligencia, ni suspenderlo implica la falta de ella. ¿Entonces?

Entonces, como casi siempre, lo mejor es prescindir de los grandes principios matemáticos o filosóficos y ponerse las botas para hundirlas en el barro. Caso a caso, con un sentido práctico y una mente abierta. Los ordenadores ya nos superan en capacidad de cálculo, en velocidad de gestión y en otras cosas. Nos ganan al ajedrez e incluso al Go, el juego chino que seguramente es el más complejo que hemos inventado los humanos.

Podemos, por supuesto, aducir que eso no es la verdadera inteligencia. Pero la verdadera inteligencia, por todo lo que sabe la neurociencia, está hecha de cosas como esas. No sabemos de cuántas, no sabemos cuándo la tecnología logrará emularlas a todas ellas, pero no parece haber ningún problema de principio, o frontera infranqueable, para que las máquinas lleguen ahí.

Si el cerebro es un objeto físico (como los científicos saben que es), no puede haber ningún escollo filosófico para que la tecnología lo pueda emular. O superar.

'Deep Blue', el ordenador que ganó a Kasparov al ajedrez no era inteligencia artificial

De inteligencia artificial se habla desde los años cincuenta, pero los avances recientes que explican su afloramiento en los medios —y que usted esté leyendo esto— proponen dos enfoques que se basan en ciertos aspectos del funcionamiento del cerebro. El primero es un tipo de programa informático —o de arquitectura de sistemas— que se llama red neural y que, como indica su nombre, emula el tipo de computación que hacen las neuronas biológicas.

Todo el mundo está familiarizado hoy con la forma de una neurona. Sus entradas (dendritas) forman un árbol de ramificación frondosa y fractal, de modo que de un solo tronco pueden llegar a formar 10.000 ramas que rastrean la información de su entorno local y de media distancia. En contraste, el cable de salida (axón) es único, de modo que cada neurona tiene que integrar masas de información procedente de sus miles de dendritas para generar una respuesta sintética a través de su axón. Esta es la arquitectura que imitan las redes neurales de silicio.

La inteligencia artificial es la ciencia que investiga para que las máquinas hagan cosas que requerirían inteligencia si las hicieran humanos 

La segunda inspiración que proviene del cerebro es más compleja, y más poderosa. Se llama deep learning (aprendizaje profundo), y es el fundamento de los grandes avances que nos han asombrado en los últimos tres o cuatro años. De manera paradójica, lo más fácil es explicar primero el funcionamiento del cerebro y después el del deep learning.

Cuando el premio Nobel Francis Crick, codescubridor de la doble hélice del ADN y neurocientífico, le dijo a una amiga que su interés profesional era comprender el mecanismo cerebral de la visión, la amiga se mostró estupefacta:

—No sé qué interés tiene eso. A mí me basta imaginar que el cerebro forma una especie de imagen de televisión.

La clave de la inteligencia artificial es que las máquinas sean capaces de aprender, lo que se conoce como 'deep learnig'

—Sí —respondió Crick—, pero ¿quién está viendo la televisión?

Nuestras intuiciones sobre el funcionamiento de nuestra propia mente siempre son garrafales. La verdadera forma en que procesamos la información visual (cómo formamos imágenes mentales del mundo) hubo que descubrirla con experimentos sofisticados. La imagen que capta la retina se transmite por el nervio óptico a la parte posterior del cerebro, la más próxima a la nuca (V1, por área visual uno, en la jerga). V1 solo ve líneas entre luz y sombra, horizontales, verticales o con cierto ángulo de inclinación. Eso es todo lo que entra.

Subiendo desde la nuca hacia la coronilla, se sucede un encadenamiento de áreas visuales (V2, V3 y otras con nombres más caprichosos) que va abstrayendo la información progresivamente. Si V1 solo veía líneas inclinadas, las siguientes áreas las abstraen en ángulos, luego en polígonos, después en poliedros y al final en una gramática de las formas que nos permite construir un modelo interno de la persona que vemos, ya esté de frente o de medio perfil, enfadada o partida de risa. Ese es el que está viendo la televisión.

En eso se basa también el deep learning (aprendizaje profundo) de las máquinas. Las neuronas de silicio se organizan en muchas capas (decenas o cientos) que van abstrayendo progresivamente la información. Cada capa, por así decir, infiere un concepto a partir de la jungla que le transmite la capa anterior y, capa a capa, la información se va haciendo más abstracta, menos pendiente de los detalles que de las propiedades invariantes de los objetos del mundo. Es como poner un nombre a las cosas, y esto es lo que hacen los actuales sistemas expertos.

Pueden leer en los artículos de este suplemento cosas interesantes sobre las oportunidades y los riesgos, los sueños y las pesadillas. Pero recuerden los conceptos básicos expuestos aquí. Les seguirán sirviendo dentro de 10 años.

martes, 22 de noviembre de 2016

Las farmacéuticas bloquean las investigaciones contra el cáncer que no les benefician

Nuño Domínguez, Chris Sander, investigador del Instituto de Cáncer Dana-Farber: “Las farmacéuticas impiden el desarrollo de nuevas terapias contra el cáncer”, en El País, 22-XI-2016:

El padre de la bioinformática explica cómo la computación puede ayudar a comprender la complejidad de cada tumor y buscar tratamientos especializados.

Los grandes proyectos de secuenciación del genoma del cáncer iniciados hace una década han demostrado que cada tipo de tumor es tan diferente de otro a nivel genético y molecular que parecen enfermedades distintas. Esa heterogeneidad también se da dentro de cada paciente, una célula de un tumor puede ser muy distinta de la de al lado. Y toda esta variabilidad genética puede explicar por qué unas personas (y células) responden a los tratamientos oncológicos y otras no.

“Con tanta complejidad, sólo utilizando ordenadores se podrá resolver el problema”, explica Fátima Al-Shahrour, investigadora del Centro Nacional de Investigaciones Oncológicas (CNIO). Al-Shahrour es especialista en bioinformática, una disciplina en expansión que mezcla el poder de cálculo de los ordenadores actuales con herramientas prestadas de las matemáticas y la estadística para analizar la inmensidad del Big Data genético del cáncer. Al-Shahrour ha sido una de las organizadoras de un congreso internacional del CNIO y La Fundación La Caixa que se ha centrado en cómo entender y combatir la heterogeneidad del cáncer gracias a la bioinformática.

Chris Sander, uno de los padres de esta disciplina, ha sido la estrella del congreso. Es investigador del Instituto de Cáncer Dana-Farber de Boston (EEUU) y uno de los líderes del Atlas del Genoma del Cáncer, un consorcio estadounidense que ha estudiado las variaciones genómicas de 30 tipos de tumores en 20.000 personas. “Esta base de datos nos abre ahora la visión a los detalles microscópicos de lo que sucede cuando hay un cáncer”, resalta Sander. Físico teórico, se pasó a la biomedicina hace más de cuatro décadas. Sander ha dearrollado algortimos capaces de resolver problemas de biología que se le resistían a los mayores superordenadores del mundo y creado unidades de bioinformática en el Laboratorio Europeo de Biología Molecular y el Centro de Cáncer Memorial Sloan-Kettering de Nueva York. En esta entrevista explica cómo la bioinformática puede ayudar a encontrar nuevas terapias combinadas más efectivas y asequibles.

Pregunta. ¿Qué le diría a una persona con cáncer sobre cómo la bioinformática puede mejorar los tratamientos?

Respuesta. Por ejemplo, hemos demostrado que hay tumores cerebrales que parecen muy similares, pero cuando los analizas desde el punto de vista molecular y genético resulta que cada persona tiene un tumor diferente. Es la heterogeneidad del cáncer, lo que implica que cada uno necesitará una terapia diferente. Nosotros podemos relacionar el paisaje complejo de cada tumor y el número de drogas disponibles para encontrar la combinación correcta. Inicialmente lo vamos a estudiar en ensayos clínicos con pacientes y después comenzará a hacerse en los hospitales, como terapia.

P. Usted defiende que los pacientes también pueden tener un papel más activo en la lucha contra el cáncer

Mi petición a los pacientes es que que dejen captar su información de salud a través de sus teléfonos inteligentes

R. Sí. Por ahora el poder de la genómica en el cáncer son los más de 60.000 tumores analizados a nivel de genética molecular. Esa es la montaña de datos que tenemos. Lo que nos falta es una información equiparable sobre personas. Esa información está bloqueada en los hospitales y es incompleta. Tenemos que trabajar para estructurarla bien, publicarla y compartirla, de forma que podamos pasar de una montaña de datos genéticos a otra de datos de salud personales, historias médicas, estilos de vida, etc. Mi petición a los pacientes es que trabajen con la comunidad de ingenieros informáticos, los geeks, y que les dejen captar su información de salud a través de sus teléfonos inteligentes, de forma que podamos obtener esa información directamente de ellos. Esto ya está pasando, hay programas pilotos en marcha.

P. ¿Debe la gente preocuparse porque se expongan sus datos de salud?

R. Deberíamos crear un derecho constitucional de cada persona a la propiedad sobre su información genómica y de salud. Una vez tengas ese derecho podrás guardarte los datos solo para ti o compartirlos. Hay gente con un cáncer muy agresivo que quiere compartir sus datos mientras estén vivos porque esperan ayudar a otras personas conectadas, igual que en Facebook. Si conseguimos proteger ese derecho, creamos la libertad de compartir información. Y si lo hacemos bien, tendremos una base de datos extremadamente poderosa. Podremos multiplicar por 10 o por 100 los beneficios que ya permite la bioinformática en el tratamiento de tumores.

A Trump le llamo basura [dump]

P. ¿Los ordenadores también pueden encontrar nuevos usos a fármacos ya existentes?

R. Sí. Especialmente con las llamadas terapias combinadas, cuando usas varias drogas juntas para combatir tumores que son resistentes a un fármaco. Una derivada de esto es que puedes evitar usar los fármacos más caros, de digamos unos 200.000 euros, y sustituirlos por una combinación de otros ya aprobados mucho más baratos. Este reposicionamiento ofrece una enorme oportunidad. Pero las grandes farmacéuticas se oponen. Han hecho grandes contribuciones para curar el cáncer, pero no están interesadas en hacer ensayos clínicos si no tienen la oportunidad de sacar un montón de dinero. Si una combinación contiene un medicamento barato, las grandes farmacéuticas no harán el ensayo porque no aumentará sus beneficios. Por eso tenemos que encontrar la forma de hacer ensayos clínicos alternativos, financiados con dinero público. Es un problema social y político, pero hay la oportunidad de aportar un enorme beneficio a los pacientes con cáncer si hacemos ensayos públicos, por ejemplo sobre tumores muy especializados que no les interesan a las grandes compañías.

P. ¿Así que las grandes farmacéuticas se oponen al desarrollo de nuevos tratamientos?

Estamos permitiendo que haya muertes por cáncer totalmente innecesarias

R. Sí. Están poniendo el foco en una sección demasiado pequeña, debemos ampliar las miras.

P. ¿Cuándo llegarán las terapias mejoradas gracias a la bioinformática?

R. Ya. Es parte del sistema global de desarrollo de nuevas terapias. Por ejemplo, considera el melanoma, una enfermedad mortífera y muy rápida. Los nuevos ensayos clínicos de inmunoterapia han tenido una tasa de éxito de entre el 40% y el 50% dos años después del tratamiento, es decir, hay gente que potencialmente se ha curado o al menos no se morirá de melanoma. Es un logro rompedor. No se desprende directamente de la bioinformática, pero esta está ayudando a mejorar los resultados relacionando los tratamientos con el perfil genético de la gente y mostrando quién puede responder mejor.

P. ¿Cómo cree que afectará la victoria de Donald Trump a la ciencia en EE UU?

R. Yo le llamo basura [dump, en inglés], por razones obvias. Hace 77 años ya vimos dónde llevan ciertos movimientos políticos. Creo que ese es el mayor riesgo. Alguno de los políticos que han ganado las elecciones han negado la base científica del cambio climático, incluso en sus filas cuestionan la evolución. Si esa enemistad a la ciencia se traduce en recortes, habrá un problema en la investigación del cáncer. Como científicos debemos alzar al voz para que no haya un nuevo movimiento anticientífico.

P. ¿La medicina personalizada podría incrementar la desigualdad en algo tan importante como la salud?

R. Hay un problema sin resolver. Si quisiéramos reducir las muertes por cáncer en el mundo con una sola acción, esa sería una campaña mundial contra el tabaco y a favor de cambios en la dieta y los hábitos de vida. En una conferencia científica reciente en Singapur hubo una ponencia de Phillip Morris, una de las empresas del cáncer, que aseguraban estar haciendo investigación positiva en biología de sistemas. Cuando miré de qué se trataba, estaban desarrollando nuevos cigarrillos un poquito menos peligrosos ¡y los presentaban como si fuera ciencia! Como seres humanos estamos permitiendo que haya muertes por cáncer totalmente innecesarias y deberíamos pararlo. A no ser que solucionemos estos problemas sociales, la ciencia no podrá cambiar las cosas.