Mostrando entradas con la etiqueta Ciencia. Mostrar todas las entradas
Mostrando entradas con la etiqueta Ciencia. Mostrar todas las entradas

miércoles, 27 de abril de 2016

Se empieza a estudiar la red semántica del cerebro

Miguel ángel Criado, "El cerebro tiene un atlas para las palabras" en El País 27 de abril de 2016:

Un estudio demuestra que las palabras similares activan las mismas áreas cerebrales y que el lenguaje no solo es cosa del lado izquierdo del cerebro

El cerebro usa un atlas para las palabras. Los términos con significados parecidos o relacionados activan las mismas áreas cerebrales. Según un estudio basado en imágenes de la actividad cerebral mientras se escuchan historias, esta colección de mapas de conceptos es similar entre distintas personas. La investigación también contradice la idea generalizada de que el lenguaje solo es cosa del lado izquierdo del cerebro.

El lenguaje es una de las funciones más elevadas del cerebro humano. Del procesamiento de sus distintos componentes (fonemas, morfemas, sintaxis o significados) se encarga la corteza cerebral, la estructura cerebral más compleja y reciente desde el punto de vista evolutivo. Un subconjunto de áreas cerebrales del córtex, denominado sistema semántico, está especializado en el significado de lo que se oye, lee o piensa.

Ahora, un grupo de científicos de EE UU han mapeado el sistema semántico del cerebro. Descubrieron que el procesamiento del significado de las palabras activa patrones cerebrales muy complejos en el que intervienen decenas de áreas neuronales. Pero, dentro de esa complejidad, encontraron que los términos pertenecientes a una misma categoría (personas, lugares, números, conceptos sociales, emociones...) activan las mismas áreas del sistema.

"Nuestros modelos semánticos son buenos prediciendo las respuestas al lenguaje en amplias zonas del córtex", dice el investigador de la Universidad de California Berkeley y coautor de la investigación, Alex Huth. "Pero también logramos información detallada que nos revelaba qué tipo de significados eran representados en cada área del cerebro", añade.

Para llegar hasta este diccionario cerebral, los neurocientíficos reclutaron a siete voluntarios. Estos tuvieron que meter la cabeza en un escáner cerebral mientras escuchaban dos horas de The Moth Radio Hour, un popular programa radiofónico estadounidense en el que los intervinientes cuentan historias personales. Mediante una técnica de imagen por resonancia magnética funcional, los investigadores registraron la actividad cerebral durante la sesión.

En paralelo, según explican en la revista Nature, descompusieron las historias del programa para tener el guión completo, con todas y cada una de las palabras, cuándo y cuántas veces aparecían. En total, obtuvieron 10.470 palabras. Aunque con la ayuda de potentes ordenadores pudieron relacionar casi cada palabra con determinada zona del cerebro, las agruparon en 12 grandes categorías a modo de continentes para que su atlas fuera legible.

Las palabras (en inglés) madre, esposa, hogar, compañeros, padres... aparecen, por ejemplo, relacionadas con un aumento de la actividad en la zona donde se unen el lóbulo temporal derecho y el lóbulo parietal. Los términos con diferentes significados como top (en inglés puede significar lo más alto/encima, blusa, cumbre...) provocaban un aumento de actividad en diversas zonas en función del contexto en el que se usaba la palabra.

Los investigadores comprobaron además que estos mapas de significados se reproducen en cada cerebro. Aunque siete individuos suponen una muestra muy pequeña y más siendo todos de la misma cultura occidental, los distintos participantes activaban las mismas áreas cerebrales ante los mismos fragmentos de las narraciones. "Aunque los mapas muestran una gran coherencia entre los individuos, también hay sustanciales diferencias individuales", aclara en una nota el autor sénior de la investigación Jack Gallant, también de la universidad californiana.

De hecho, ya planean profundizar en este campo para despejar muchas de las preguntas que esta investigación suscita. ¿Hay más de común que de diferente entre los mapas de cada individuo? ¿existen también atlas para los sonidos (fonética) o los aspectos sintácticos y gramaticales del lenguaje? ¿La representación cerebral de las palabras de un discurso es la misma que las de la letra de una canción? ¿El atlas de palabras del cerebro de un anglohablante es similar al de un hispanohablante?

Para el investigador del Basque Center on Cognition, Brain and Language (BCBL) David Soto, este estudio, del que destaca su uso intensivo de los datos y su rigor, sienta las bases para responder a muchas de estas preguntas. "El modelo que han creado sobre esos datos es capaz de predecir cómo va a representar el cerebro una información que aún no se le ha presentado".


En efecto, tras crear su atlas de palabras, los investigadores quisieron comprobar su valor predictivo. Para ello, hicieron que los participantes oyeran una historia del mismo programa pero que nunca habían oído antes. Los patrones que registró el escáner eran muy similares a los que que el modelo había previsto.

Hay, por último, un efecto colateral de esta investigación que puede soliviantar a algún neurocientífico. Hasta ahora, se consideraba demostrado que hay un marcado efecto de lateralización del lenguaje: la mayoría de las estructuras y el trabajo neuronal implicado en el procesamiento del lenguaje se encontrarían en el hemisferio izquierdo del cerebro. Las evidencias de esta lateralización son clínicas. Tras una lesión en el lado izquierdo, muchos pierden la capacidad de hablar o procesar el lenguaje.

Sin embargo, este estudio muestra que de las más de 100 áreas activadas durante las sesiones de radio, casi la mitad se encuentran en el lado derecho del cerebro. Para los investigadores, el dogma de la lateralización viene heredado de estudios sobre la producción del lenguaje, no de la comprensión del lenguaje como han estudiado ellos.

Para Soto, no relacionado con esta investigación, en los últimos años, "la neurociencia ha venido demostrando que, aunque el cerebro cuenta con nodos claves que intervienen en cada categoría de estímulos, todo forma parte de una red neural más amplia".

viernes, 25 de marzo de 2016

Creada vida artificial por primera vez

Nuño Domínguez, "Creada vida artificial más sencilla que la vida misma", El País, 24 de marzo 2016:

Un equipo de EE UU desarrolla una bacteria sintética con 473 genes, el genoma más pequeño para existir y reproducirse.

Desde hoy, la forma de vida más sencilla que se conoce en el planeta es artificial. Se trata de una bacteria microscópica capaz de reproducirse y que ha sido creada por un equipo de científicos en EE UU. Entre ellos está el Nobel de Medicina Hamilton Smith y el científico multimillonario Craig Venter, posiblemente el mayor gurú de la biología sintética.

Desde hace años Venter pregona que el ADN, el libro de instrucciones que regula las funciones vitales de todos los seres vivos, es como un programa de ordenador. El genoma sería a su vez el sistema operativo que hace que un organismo funcione y se reproduzca. Uno de los objetivos de este carismático científico es reescribir el código usando un ordenador para diseñar nuevas formas de vida y luego producir su genoma en el laboratorio mezclando los cuatro componentes bioquímicos básicos del ADN. Ese genoma sintético se trasplanta después a otra célula vaciada de todo su contenido genético y hace que se reinicie y comience a existir de acuerdo con su nueva programación.

En 2010, Venter anunció haber creado así la primera forma de vida con genoma sintético, una bacteria que llevaba codificado en su ADN todo lo necesario para vivir, además de varias direcciones de correo electrónico y una frase premonitoria de James Joyce: "vivir, errar, caer, intentar y, después, crear vida a partir de la vida". Era en parte una medida de seguridad para saber distinguirla de formas de vida naturales en caso de fuga o escape. El objetivo final es el diseño de vida a la carta, microbios con genomas programados para realizar funciones impensables, como producir fármacos o combustible por un precio irrisorio y con mayor eficiencia que los métodos actuales.

El nuevo estudio del equipo de Venter, publicado hoy en Science, presenta un importante paso hacia ese futuro: la creación de vida mínima. En concreto presenta una bacteria del tipo mycoplasma que tiene un genoma sintético de 473 genes. En la naturaleza, los mycoplasmas son los seres vivos autorreplicantes con un genoma más pequeño. El menor de todos ellos hasta ahora era el de una bacteria parasitaria que vive en la entrepierna de los humanos: la Mycoplasma genitalium, con 525 genes. Según el equipo de 22 científicos del Instituto Craig Venter de La Jolla, en California, y otras tres instituciones que firman el estudio, la nueva bacteria tiene la lista de genes mínima para vivir y replicarse, la expresión más simplificada de lo que es estar vivo, con permiso de los virus.

Las nuevas células, apodadas JCVI-syn3.0, se dividen para dar lugar a una hija cada tres horas, cinco veces más rápido que las mycoplasmas naturales. A cambio, la vida artificial y mínima es mucho más vulnerable, pues solo subsiste en un cultivo de laboratorio repleto de azúcar y otros nutrientes sin los que no podría existir, pues su genoma no está preparado para adaptarse a imprevistos como hacen el resto de seres vivos de este planeta.

El equipo llevaba intentando crear esta vida mínima desde 1995. Más de 20 años en los que la tecnología para secuenciar y sintetizar ADN ha dado un salto comparable al que va de los teléfonos móviles tamaño ladrillo adosados a un maletín a los smartphones de hoy. Si en la década de 1980 se necesitaban cinco años y un escuadrón de científicos para sintetizar un solo gen a partir de sus ingredientes básicos, el equipo de Venter produce una célula con genoma sintético cada tres semanas.

El equipo ha ido descartando genes superfluos con un método aleatorio que requiere mucho tiempo y dinero. Introducen en el genoma de las mycoplasmas sintéticas una cosa llamada transposones, genes “saltarines” que aterrizan en un lugar al azar y desactivan el gen que allí se encuentre. Los científicos han ido quedándose con el paquete mínimo de genes, ni uno más, ni uno menos, para que la célula siga viva y se divida para generar hijas. Muchos de los genes eliminados tienen la misma función que otros esenciales, es decir, son repuestos. El genoma mínimo al que han llegado carece de todos los genes capaces de modificar la secuencia de ADN original, pero conserva la mayoría de genes que hacen falta para leer ese ADN, preservarlo y transmitirlo a las nuevas generaciones. Posiblemente la mayor aportación científica del estudio es que la vida mínima requiere 149 genes cuya función es totalmente desconocida, nada menos que el 30% de todo su genoma.

“El método que describimos puede aplicarse a la construcción de una célula con las propiedades que se deseen”, dicen los autores. Este método, llamado DBT por las iniciales en inglés de diseñar, construir y probar, “está solo limitado por nuestra habilidad de producir diseños con una probabilidad razonable de éxito”, añaden. Ese éxito aumentará a medida que se conozcan las funciones de todos los genes y se gane experiencia en reorganizar un genoma a voluntad, añaden. En otras palabras, la vida a la carta ya tiene libro de instrucciones.

CUANTIFICAR LA IGNORANCIA
Es un estudio “espectacular”, opina Juli Peretó, experto en biología sintética de la Universidad de Valencia cuyo estudio sobre el genoma mínimo necesario para la vida publicado en 2004 ha sido citado por Venter y el resto de su equipo como uno de los antecedentes de su investigación actual. Ese genoma era de solo 206 genes, pero, al probarlo, Venter ha demostrado que no basta, hacen falta esos 473 elementos, ni uno menos. “Se trata de un esfuerzo titánico” y es algo “muy importante para entender cómo funciona la vida”, opina este bioquímico. “En cierta forma este estudio es una cuantificación de nuestra ignorancia”, añade, en referencia a todos esos genes cuya función es desconocida y que resultan ser necesarios para que una célula exista. Esa ignorancia es equiparable a la que tenemos respecto al genoma humano, opina Luis Serrano, director del Centro de Regulación Genómica y experto en biología sintética. “Yo diría que solo conocemos a la perfección la función de un cuarto de todos nuestros genes”, reconoce. En su opinión, el nuevo estudio no presenta “ni vida sintética, ni artificial”, pues aún no se logra que los microbios tengan exactamente las funciones nuevas que ideen sus creadores.

sábado, 19 de marzo de 2016

Avances en inteligencia artificial

Javier Salas, "Una victoria de la inteligencia artificial que desnuda los secretos de la mente. La derrota frente a la máquina de Google revela detalles de la complejidad del cerebro humano", El País, 19 MAR 2016:

Hace justo medio siglo, mientras en las radios de todo el mundo triunfaban las Supremes, el pensador Michael Polanyi publicó un libro (La dimensión tácita) en el que proponía una vistosa idea: debíamos reconsiderar la noción de conocimiento humano partiendo de la base de que "sabemos más de lo que podemos explicar". Para construir esta paradoja, Polanyi ponía ejemplos como la conducción de coches y el reconocimiento de rostros: sabemos conducir o identificar a una persona al ver su cara, pero no sabemos muy bien cómo lo hacemos. Hay intuiciones, capacidades e instintos que se manifiestan en cada cosa que hacemos y que nos permiten ser humanos eficientes.

La inteligencia artificial necesitó visionar millones de imágenes para captar lo que es un gato. "¿Cuántos gatos necesita ver un niño para entender lo que es un gato? Uno", zanja López de Mántaras

Hoy, 50 años después, los coches se conducen solos, los ordenadores reconocen caras y una máquina de Google ha derrotado a uno de los mejores jugadores de Go, algo así como un ajedrez oriental cargado de misticismo y tan complejo como la mente humana. Su tablero permite que las fichas se dispongan en más combinaciones distintas que átomos hay en el universo. Según reconocían los líderes de Deepmind —la empresa que ha logrado este reto para Google— se trataba del Santo Grial de la inteligencia artificial desde que DeepBlue quebró los nervios de Gari Kaspárov hace justo dos décadas.

Esta victoria de la máquina, AlphaGo, frente al campeón Lee Sedol nos ha ayudado a descubrir muchas cosas sobre la mente humana. La primera, que somos muy malos con las previsiones. Hace un año, uno de los expertos que iba tras este logro calculaba que nadie lo lograría hasta 2025. Al comenzar la contienda, Sedol aseguró que vencería 5 a 0 a la máquina: perdió 4 a 1. Es impagable la grabación de la primera partida del torneo, en la que el campeón coreano permanece 20 segundos con la boca abierta tras asistir a un movimiento ordenado por la máquina. Después sonríe, con la inesperada satisfacción de tener delante un rival tan bueno como imprevisible, y se inclina sobre el tablero para concentrarse, como si hasta ese momento no se tomara muy en serio el reto (ver vídeo).

Demis Hassabis, el líder de Google Deepmind, habla con naturalidad de que han logrado imitar la "intuición" que necesitan los grandes jugadores de Go para plantear las partidas. En este tablero —de 19 por 19— no se puede utilizar la "fuerza bruta" computacional que usó IBM contra Kaspárov: es imposible calcular todas y cada una de las posibles combinaciones para escoger la óptima. AlphaGo debía jugar como haría un humano: obviar una mayoría abrumadora de las posibilidades y acudir directamente a un puñado de movimientos que le recomienda su olfato.

"Cuando un humano echa un vistazo al tablero, en este juego o cualquier otro, intuitivamente sabe lo que tiene que hacer", afirma Ramón López de Mántaras, director del Instituto de Investigación en Inteligencia Artificial del CSIC. Y puntualiza: "Pero AlphaGo no tiene intuición; me vale como metáfora, pero solo está haciendo funciones matemáticas". Este importante matiz que diferencia cerebro humano y de silicio tiene mucho que ver con la paradoja de Polanyi: seguimos sin saber cómo intuimos que vamos a ganar al mirar el tablero pero Hassabis publicó en Nature, con todo lujo de detalles, cómo lo hace su máquina: si tienen tiempo y recursos, podrían replicar el éxito de AlphaGo siguiendo las instrucciones de este estudio.

Deepmind combinó tres técnicas distintas de inteligencia artificial. Por un lado, el aprendizaje profundo, basado en la suma de cantidades masivas de información que permitan reconocer patrones: en este caso cientos de miles de partidas reales. También el aprendizaje por refuerzo, que permite a la máquina jugar contra sí misma para instruirse ejercitándose. Además, se sirvieron del llamado árbol de búsqueda de Monte Carlo, que selecciona aleatoriamente las posibilidades más prometedoras. "Conceptualmente no han inventado nada", asegura López de Mántaras, "esos sistemas eran conocidos desde hace mucho tiempo , pero hasta ahora no había los suficientes datos para alimentarlos. La diferencia es la ingente cantidad de datos con los que contamos ahora. Y Google es datos".

En este tablero —de 19 por 19— no se puede utilizar la "fuerza bruta" computacional que usó IBM contra Kaspárov: es imposible calcular todas y cada una de las posibles combinaciones

La empresa del buscador (ahora Alphabet) decidió descubrir en 2012 lo que daba de sí la inteligencia artificial: puso a 16.000 ordenadores a trabajar en su aprendizaje profundo para identificar elementos en vídeos de YouTube, sin ayuda ni aprendizajes previos. Después de 10 millones de visionados, comenzó a identificar a los reyes de la red: los gatitos. Hizo falta un esfuerzo descomunal de datos masivos para captar lo que es un gato. "¿Cuántos gatos necesita ver un niño para entender lo que es un gato? Uno. No tenemos ni idea de cómo lo hace, pero a partir de un solo ejemplo ya los puede reconocer", subraya el investigador del CSIC.

Las redes neuronales de AlphaGo se sometieron al visionado de 160.000 partidas de jugadores reales de alto nivel y 30 millones de movimientos para estar listas para la batalla. Si Lee Sedol hubiera jugado una partida al día desde los 10 años apenas tendría 8.500 encuentros a sus espaldas (un juego puede durar cinco horas fácilmente). Estas redes neuronales de aprendizaje profundo funcionan como capas que van reconociendo patrones haciendo abstracciones de la anterior capa: una identifica píxeles con formas, la siguiente formas de líneas horizontales, la siguiente líneas horizontales que se cierran, la siguiente concluye que son óvalos horizontales... hasta identificar ojos en las caras de la gente.

"Cuantas más redes neuronales, más difícil es entrenarlas", advierte López de Mántaras. A Hassabis le gusta comparar su método con el aprendizaje que realiza un niño. Cuando hay que mejorar la comprensión de la máquina, no es tan sencillo como programar más líneas de código: hay que enseñarle más y más ejemplos para que refine su entendimiento. Como en el ejemplo de los gatitos, la eficiencia de un niño en el aprendizaje es casi mágica a su lado. Para el juego, AlphaGo se terminó haciendo con patrones de posiciones ganadoras, ese vistazo intuitivo de los humanos. Y así derrotó a Sedol.

La mejor jugada del humano es tan buena como la más brillante que puede hacer la inteligencia artificial: una entre 10.000 posibilidades

"En los últimos años asistimos al fenómeno de la inteligencia artificial ganando a los humanos en distintas situaciones que no se esperaban tan pronto", afirma Amparo Alonso, presidenta de la Asociación Española para la Inteligencia Artificial, recordando casos como los de IBM con Jeopardy o el test de Turing. Pero cuando se habla de los logros de este campo, se olvida que las derrotas humanas tienen una incidencia clara en la forma de pensar de los propios humanos. Después de Deep Blue, el ajedrez no volvió a ser el mismo: las máquinas rompieron todos los esquemas y gracias a ellas ahora se juega mejor (a veces demasiado). Fan Hui, el campeón europeo de Go que ha servido de sparring para Google estaría mejorando a pasos agigantados su juego gracias a estos cinco meses de partidas contra la máquina, según Wired.

A pesar de sus buenos resultados, los expertos recuerdan que estas máquinas ganadoras son prototipos, no productos acabados, y por eso son susceptibles de cometer errores impropios de cerebros humanos campeones. El día que el superordenador de IBM Watson venció a los campeones de Jeopardy, ubicó Toronto en EE UU. Deep Blue cometió un extraño error al mover una torre cuando podría haber dado jaque, dejando noqueado a Kaspárov, que se obsesionó con la jugada porque no la entendía. En la cuarta partida contra Sedol, AlphaGo metió la pata en el movimiento 79. El jugador humano ganó esa única partida.

Pero ese movimiento fallido que la máquina no pudo remontar es consecuencia de otro detalle revelador de este enfrentamiento entre humanos y ordenadores. En el movimiento 37 de la segunda partida, AlphaGo realizó un movimiento tan brillante e inesperado que rompió por completo el juego y obligó a hincar la rodilla a Sedol. Según los cálculos de Deepmind, fue un movimiento tan ganador como improbable: solo en 1 de cada 10.000 partidas se le hubiera ocurrido algo así a un jugador. En la cuarta partida, justo antes del error de la máquina, Sedol hizo en el movimiento 78 algo tan extraordinario que levantó de sus asientos a los expertos y aficionados: un movimiento bello y ganador. Los de Google calcularon su valor: era una jugada entre 10.000, exactamente igual de improbable que la de la máquina. La mejor jugada del humano es tan buena como la más brillante que puede hacer la inteligencia artificial.

"Este logro es muy importante, pero no nos acerca en absoluto a la inteligencia artificial general, a la singularidad: estamos igual de lejos que antes"

"Este logro es muy importante, pero no nos acerca en absoluto a la inteligencia artificial general, a la singularidad: estamos igual de lejos que antes", asegura, en referencia a ese punto en el que el cerebro de la máquina sea capaz de aprender y desenvolverse por sí solo en distintos entornos. "No compro para nada la idea de que están consiguiendo mimetizar cómo funciona el cerebro, no tiene nada que ver", insiste López de Mántaras. Al hablar de inteligencia artificial, hay quien cree que se puede replicar el funcionamiento de la materia gris. En los comienzos de la aviación, hubo quien intentó desarrollar aviones que imitaran el aleteo de los pájaros, pero esa inspiración biológica no fue la mejor solución.

El proyecto Human Brain Project, financiado generosamente por la Comisión Europea, quería llegar a imitar con superordenadores el cerebro humano en 10 años, pero una revisión oficial les obligó a reconocer que tenían "expectativas poco realistas". Una encuesta realizada en 2014 por Nick Bostrom, el gurú de la superinteligencia, mostraba que el 82% de los expertos en esta materia creían que las máquinas nunca serán capaces de emular el aprendizaje y los demás aspectos de la inteligencia humana o al menos tardará más de 50 años (PDF). "Yo no lo veré, eso seguro", dice el investigador del CSIC, que cree que el gran hito sería que las máquinas comprendan el lenguaje natural y adquieran sentido común, que quizá sea una forma de denominar a la paradoja de Polanyi. 

¿Qué es lo que puede aportar? "Ya está haciendo muchas cosas, hoy, por nosotros", asegura Alonso, catedrática en la Universidad de A Coruña, y señala motores de búsqueda, monitorización de la industria, cortes de tejidos eficientes en el textil, detectores de spam y aplicaciones clínicas. Este último campo, el de la medicina, es el más prometedor. Ahí es donde Hassabis quiere aportar "metasoluciones" en el diagnóstico visual y en la búsqueda de fármacos. Deepmind ya tiene un acuerdo con el Sistema de Salud de Reino Unido, del mismo modo que IBM ya tiene a Watson trabajando con el laboratorio Merck. Aunque en medicina no es tan sencillo lo bueno y lo malo, no es un escenario binario en el que elegir una jugada que lleva a la victoria o a la derrota. Lo resume López de Mántaras: "El mundo es mucho más complicado que un tablero"

viernes, 4 de marzo de 2016

Nueva y revolucionaria terapia contra todos los cánceres

La Universidad de Londres y el MIT descubren el 'talón de Aquiles' del cáncer

POR MARTA BARDÓN  

04/03/2016 - 10:42

Un descubrimiento histórico en la composición genética de los tumores tiene el potencial de abrir un nuevo frente en la guerra contra el cáncer y la entrega de potentes terapias que se adapten a los pacientes individuales, según han confirmado los científicos del MIT y la Universidad de Londres.

La investigación realizada por la Universidad de Londres aprovecha el sistema inmunológico del cuerpo para acabar con cada célula cancerígena de una manera "potencialmente revolucionaria".

Los científicos británicos están próximos a  tratar de manera personalizada o incluso curar el cáncer utilizando una técnica innovadora que encuentra y ataca "talón de Aquiles" de los tumores. 

La investigación realizada por investigadores del University College de Londres, con la colaboración de científicos de Harvard y del MIT, pretende curar el cáncer entrenando el sistema inmunológico del paciente para combatir la 'bandera' común en todas las células cancerígenas. 

Tratamientos a medida

La técnica investigada se adaptará a cada paciente en función de cómo responda su sistema inmunológico.

Charles Swanton, experto en la historia evolutiva del cáncer dirigió el estudio más reciente en el Instituto Francis Crick en Londres. Gracias a la investigación de Swanton fue posible descubrir que existen proteínas comunes en la superficie de todas las células cancerosas, lo que supone un 'talón de Aquiles' al que apuntar con futuras terapias.

"Los tumores siembran su propia destrucción"

"Lo que hemos encontrado por primera vez es que los tumores siembran las semillas de su propia destrucción", declaró Swanton.

Esta nuevo estudio promete ser eficaz contra la rápida mutación de la enfermedad, como el cáncer de pulmón, que hasta ahora ha eludido la mayoría de los tratamientos. Los científicos albergan la esperanza de que el tratamiento funcione en todos los casos, sea cual sea el tipo de cáncer que sufre el paciente.

Un descubrimiento histórico

Un descubrimiento histórico. Así podría calificarse el hallazgo de que entrenando el sistema inmunológico es el mismo cuerpo del paciente el que puede vencer al cáncer.

El cáncer es la enfermedad más letal en Reino Unido, donde causa más de 35.000 muertes al año. Según publica la revista Science, el primer ensayo humano en paciente con cáncer se realizará en los próximos dos o tres años.

La investigación, financiada por Cancer Reasearch UK, plantea dos escenarios posibles.

Multiplicación de células entrenadas y vacuna

Por un lado, los médicos tomarían una biopsia del tumor de un paciente y la analizarían para comprobar cuál es la 'bandera' que comparten todas las células cancerígenas. Posteriormente, verían si existen células inmunes dentro del tumor que reconozcan la 'bandera' para multiplicarlas en el laboratorio e introducirlas en el cuerpo del paciente para hacer desaparecer las células cancerosas. 

Por otro lado, los científicos trabajarían en detectar las proteínas que comparten todas las células cancerosas para crear una vacuna contra dicho elemento común. Después, podrían los médicos inyectaría la vacuna en el paciente cuyas células inmunes identificaría como invasoras a las cancerosas contra las que lanzaría un ataque.

jueves, 14 de enero de 2016

La educación y mister Feynman

Guillermo Orts-Gil "Educación, ciencia y éxito según el fantástico Mr. Feynman" Huffington Post, 14/01/2016

Fui a Princeton y al MIT y seguía sin saber responder a las preguntas de mi padre.

Richard Feynman

Olvidemos la opinión de los expertos, las definiciones académicas y el nombre de las cosas. En ocasiones, esto es necesario porque, tal como explicaba un genio al que le gustaba tocar los bongos, "uno puede estudiar en la mejor universidad del mundo pero no ser capaz de responder a las preguntas de una persona sin estudios". Para que ustedes entiendan de qué les estoy hablando, permítanme contarles una historia sobre el físico, profesor y artista Richard Feynman.

Feynman y el nombre de las cosas

Durante una excursión familiar a las montañas, un chico se acercó al todavía niño Richard Feynman, para preguntarle: ¿sabes cómo se llama ese pájaro? Feynman respondió: "no tengo ni la más remota idea". El chico más mayor, complacido con esto, afeó a Feynman con indisimulada suficiencia: "Tu padre debería enseñarte algo de ciencia". Años más tarde, no sabemos qué pasó con el chico que conocía el nombre de algunos pájaros, pero sí sabemos que Feynman se convirtió en uno de los físicos más reconocidos del mundo, siguiendo precisamente algunos consejos de su padre: olvidemos el nombre de las cosas, porque éste no nos dice casi nada sobre ellas. Feynman sabía que lo importante de un pájaro no era su nombre (éste podría diferir de un idioma o región a otro), lo imperturbable y valioso era conocer sus hábitos, y entender cómo éstos respondían a necesidades, a causas. De este modo, Feynman, quien llegó a ganar el premio Nobel de Física, no consideraba importante acordarse del nombre de muchas de las teorías que utilizaba, para jolgorio de sus colegas científicos.

"Tengo mucha experiencia enseñando, y lo único que sé es que no sé cómo enseñar", R. Feynman

La educación, la ciencia y el éxito según Feynman

Según muchos de sus contemporáneos, Richard Feynman era un gran profesor. En palabras de D. Goodstein y G. Neugebauer, del Instituto Tecnológico de California, Feynman llegó incluso a ser el mejor de su era. Tal como relatan en el prefacio especial del libro Seis piezas fáciles, "cuando Feynman impartía una clase, el aula era un teatro, el conferenciante un actor y el acto un espectáculo cautivador". Según escribía The New York Times, "Feynman se comportaba como una combinación imposible de físico teórico, artista de circo, todo movimiento corporal y efectos de sonido".

Pese a toda esa maravillosa reputación como docente, cuando en cierta ocasión se le pidió a Feynman que diera una charla sobre ciencia a profesores de ciencias de escuelas elementales, éste no tuvo reparos en sincerarse: "Tengo mucha experiencia enseñando a estudiantes de física, y lo único que sé es que no sé cómo enseñar". Durante el resto de la charla, Feynman les contó a los profesores la historia sobre el nombre de los pájaros que yo les exponía anteriormente, con el propósito de dar a entender que tal vez habría que dejar de lado las definiciones durante las primeras fases del aprendizaje.

Es posible aprender definiciones y, al mismo tiempo, no aprender nada

[Vídeo sobre la vida de Richard Feynman (es posible activar los subtítulos en español)]

Durante esa charla, Feynman trató de responder a lo que podría parecer una pregunta simple: ¿qué es la ciencia? Es posible que tras su visión de la ciencia se esconda uno de los grandes mensajes de Feynman sobre educación: "La ciencia es el resultado de redescubrir, a base de de comprobar una y otra vez por experiencia propia, las cosas que valen la pena, sin confiar ciegamente en las experiencias pasadas de otros humanos". 

En otra ocasión, se le preguntó a Feynman sobre cómo el ganar el premio Nobel había cambiado su vida, a lo que él respondió: "El éxito es hacer cosas interesantes y divertidas; el mejor premio: el placer de descubrir y entender".

Una herramienta para entender lo que se oculta tras los nombres

Dejamos atrás 2015, pero lo cierto es que, según la idea de Feynman sobre los nombres, este número no nos dice prácticamente nada sobre lo que ha sucedido en los últimos doce meses (algunas voces incluso sostienen que ni siquiera ese número coincide con el tiempo transcurrido desde el nacimiento del mesías). Supongo que Feynman también estaría de acuerdo con lo siguiente: por suerte, tenemos algunas herramientas para tratar de discernir entre el nombre de las cosas y lo que las cosas son, una de las más poderosas: la ciencia. Y ha sido precisamente con esa intención, la de descubrir lo que se esconde tras el nombre de las cosas, que en este 2015 me he dedicado a investigar y compartir con ustedes algunas cosas que conocemos bajo el nombre de educación, éxito, miedo, ética, soledad, amor, sexo, creatividad, humanidad, verdad y felicidad.

Mi lectura de Feynman: nombres y palabras que no dicen mucho sobre las cosas

Intuyo que, como consecuencia de la ignorancia sobre la realidad de las cosas que se ocultan tras sus nombres utilizamos éstos, con mucha frecuencia, de forma errónea o interesada. Por ejemplo, lo realmente importante tal vez no sea si a personas que matan a otros seres humanos les colgamos el cartel de "asesinos" o de "militares" (Feynman explica que su padre le enseñó a no dar valor a los uniformes ni a las medallas). También etiquetamos concienzudamente como "refugiados" o "inmigrantes" a millones de personas, sin entender que hay seres humanos que, por distintas razones, buscan una vida mejor. Más aún, es posible que lo importante en política no sea dirigir gobiernos propios y ajenos en nombre de algo llamado "democracia", sino entender el concepto que sustenta tal palabra y tratar de recuperar su esencia. Lo vital, a lo mejor, no es que te digan que te quieren, sino sentir que alguien lo hace de verdad (Feynman se casó con su novia, gravemente enferma de tuberculosis). Es posible que, lo necesario de verdad, sea tener a algunas personas que harían casi cualquier cosa por ti sin dudarlo un segundo, en lugar de acumular a cientos/miles de amigos virtuales. Es posible, también, que en ocasiones confundamos las palabras y que lo que llamamos "normal" sea solamente lo que deberíamos llamar "habitual".

También seguimos llamando "deporte" a lo que en realidad deberíamos llamar "competición", y "solidaridad" a algo que probablemente sea más parecido a la "caridad". Continuamos apreciando algo que llamamos "éxito", sin saber lo que esto significa, y separando, por tanto, a las personas entre "ganadores y perdedores" sin demasiado criterio (Feynman dijo que no creía en los premios, ni siquiera en el Nobel).

El legado de Feynman

El legado de Feynman es extenso y no se limita a la ciencia o a la enseñanza de ésta, sino que se expande hasta aspectos artísticos y humanísticos. Pero el tema de hoy era presentarles un concepto que Feynman fue capaz de transmitir en una sola clase, ante un buen número de profesores de ciencias: todos conocemos muchas palabras, muchos nombres, pero en realidad sabemos poco sobre las cosas que se esconden tras de ellos.

Por todo ello, doy gracias por el año que dejamos atrás, porque he podido invertir tiempo y energías en tratar de entender un poco mejor lo que se esconde tras el nombre de las cosas.

Doy gracias a Richard Feynman por recordarme que esta tarea tiene sentido. Gracias a ustedes también por interesarse por las cosas que se ocultan tras los nombres.

sábado, 2 de enero de 2016

IMind, Otro programa robot para entender el lenguaje humano


Un pastor alemán puede ser un perro o un señor que tiene ovejas: el análisis del contexto nos permite comprender la diferencia entre ambos significados. A partir de esta idea, un grupo de emprendedores españoles han creado iMind Technology, una spin off apadrinada por la empresa tecnológica Full on Net que durante ocho años ha trabajado en un programa informático sobre inteligencia artificial.

Su producto es, según sus fundadores, “un cerebro artificial sin conciencia que permite a la máquina ir aprendiendo a medida que se interactúa con ella”. El Banco Santander y Vodafone han adoptado esta herramienta, capaz de procesar el lenguaje e interpretar lo que una persona quiere decir, y que se anuncia como un asistente para realizar ventas, un sustituto de un centro de atención telefónica o un programa para el servicio interno de cualquier compañía. “Es una herramienta enfocada a cómo pensamos las personas, intenta amoldarse a nuestros mecanismos psicológicos”, señala David Martínez, ingeniero informático y uno de los creadores. “Esa mente artificial interactúa con los clientes y los entiende. Comprende su situación emocional. Se diferencia de Siri [el asistente de Apple] en que Siri sólo entiende el idioma, no el sentido de las frases”.

Su director, Ramón J. Fonte, psicólogo de profesión, cree que esa tecnología “puede ayudar tanto a las organizaciones como a las personas”. Pone como ejemplo una empresa que venda 1.000 referencias de productos. Semantics, su software, se informa sobre todas ellas y aprende a asesorar al cliente que busca un producto concreto: “Eso consigue unos importantes ahorros de costes”, señala su director.

“Es capaz de aprender de lo que está ocurriendo y tomar decisiones basándose en lo que tú le pides”. Una de sus características es que incorpora un análisis de sentimientos por medio de la biometría de la voz, “lo que abre las puertas al procesamiento de aspectos típicamente humanos, como la ironía o el sarcasmo”. También recuerda las distintas voces, lo que le ayuda a mejorar la interac­ción gracias a que almacena experiencias previas. Pero no necesita ser entrenado por una voz concreta, como algunos GPS: su índice de acierto es independiente del hablante gracias a una serie de algoritmos que extrapolan las características de cualquier voz y establecen un patrón general.

Se comparan, e incluso dicen estar por delante de grandes multinacionales. “Hay algunas herramientas similares en el mercado, pero no están tan avanzadas como la nuestra en la interacción mental, es decir, en lo que va más allá de la tecnología, la capacidad de comprender”, señala Martínez. Más de 20 desarrolladores y 2,5 millones de euros de inversión han sido necesarios para que Semantics llegue al mercado. “No existe nada en castellano que funcione con esta precisión”, señalan sus creadores, que este año facturarán cinco millones de euros. El producto permite incorporar diccionarios temáticos en su memoria (con terminología técnica procedente de áreas como la financiera o la científica). Es compatible con todo tipo de programas de otros fabricantes y cumple con las normas de seguridad estándar del mercado. Su implantación puede realizarse en unos tres meses, y responde a los humanos tanto por voz como a través de la escritura.

Información clave

Semantics se alimenta de los datos de la empresa, pero también es capaz de leer otro tipo de información heterogénea contenida en blogs, redes sociales o vídeos. “Puede organizar toda esa información y alinearla con el objetivo que tenga una compañía. La calidad de los datos es su punto fuerte”, asegura Fonte. “Está orientada al big data, así que cuanto más contenido existe en el sistema, más eficaz resulta”.

Los emprendedores, afincados en Madrid, quieren hacer que 2016 sea el verdadero año de lanzamiento, aunque llevan tres comercializando el software. No se han planteado vender la empresa: “Nos interesa desarrollarla, esa es nuestra principal preocupación”. Su reto comercial es llegar a grandes clientes internacionales compitiendo con tecnológicas como Facebook, Google o IBM. Todo desde una pequeña oficina de Madrid.

El imperio de los datos

Hace exactamente dos años, IBM anunciaba el lanzamiento del Grupo Watson, una nueva unidad de negocio dedicada al desarrollo y comercialización de “innovaciones cognitivas en la nube”. El proyecto, en el que ha invertido 1.000 millones de dólares, quiere hacer llegar al mercado “una nueva clase de software, servicios y aplicaciones capaces de aprender y dar respuesta a preguntas complejas gestionando una gran cantidad de información (big data)”. Hace dos semanas la compañía anunciaba que Múnich será la sede de su centro de Watson para Internet de las cosas. Allí trabajarán unos 1.000 expertos desarrolladores, consultores, investigadores y diseñadores en industria 4.0.

Otras grandes multinacionales han apostado por investigar en este gran nicho de mercado. Según los analistas de Gartner, las máquinas inteligentes van a ser las protagonistas de la próxima revolución tecnológica en sectores como sanidad, la distribución, los servicios financieros, los viajes o las telecomunicaciones. Las aplicaciones son infinitas: los centros de atención al cliente clásicos, por ejemplo, suelen presentar tasas de abandono de los usuarios muy elevadas, y un alto porcentaje termina por afectar a la imagen de las compañías.

En el comercio electrónico, la mitad de las ventas por Internet se acaban perdiendo porque el cliente no es capaz de encontrar exactamente lo que busca en los catálogos de las plataformas online. Aunque por ahora, como explican en iMind, el nivel de penetración de los sistemas que incorporan inteligencia artificial es escasa, ya que en ocasiones están poco desarrollados o son incompatibles con herramientas de otras marcas. Además, sus precios suelen ser altos.

viernes, 25 de diciembre de 2015

Entrevista con el físico Kip Thorne

Nuño Domínguez, entrevista con el físico Kip Thorne. El País, hoy.

“Si caes en un agujero negro es posible que sobrevivas”
 
Kip Thorne (Logan, EE UU, 1940) experto en relatividad y asesor científico en Hollywood, escribe una película con Stephen Hawking y espera captar muy pronto las ondas gravitacionales que predijo Einstein. Es uno de los mayores expertos mundiales en agujeros negros. Últimamente también se ha convertido en una estrella de la divulgación como asesor de Interstellar, la película que plantea una expedición humana a un agujero de gusano, seguida de una caída en un agujero negro, seguida de un viaje hacia la quinta dimensión. La semana pasada, este físico teórico del Instituto Tecnológico de California acudió a Londres para la presentación de la medalla Stephen Hawking, impulsada por el Festival Starmus. Después de la ceremonia, el físico explicó a Materia sus próximos proyectos.
 
Pregunta. ¿Por qué cree que los agujeros negros son tan atractivos para la gente?

Respuesta. Bueno, son misteriosos, son extraños, llevan la marca personal de Stephen Hawking... Para los científicos, son únicos. Aunque se crearon por la implosión de una estrella, la materia desaparece en la singularidad en el centro del agujero negro. Por eso están hechos solo de tiempo y espacio curvos, no tienen materia, son completamente diferentes de ti y de mí.
 
P. Para Interstellar hizo cálculos reales de qué sucede si caes en un agujero negro. ¿Qué es lo más interesante que descubrió?
 
R. Lo más excitante fue ver cuál sería el aspecto de Gargantúa, el agujero negro. Es maravillosa, con ese halo alrededor y el disco que lo cruza. Otra cosa muy interesante es cuando Cooper [Matthew McConaughey] entra en el agujero negro. En ese momento dice: estoy cruzando el horizonte de sucesos [el punto de no retorno en un agujero negro]. Claro, nada escapa de un agujero negro, ni siquiera la luz, por lo que de frente no verías nada, pero, si miras atrás y ya estás dentro de él, sí verías el universo exterior. Y es una imagen maravillosa en la que el disco de gas caliente en torno al agujero negro es un anillo en el cielo que contiene al universo.

P. ¿Y qué pasa después?
 
R. Pues sabemos que hay tres singularidades diferentes dentro de un agujero negro. Una singularidad es un punto en el que la curvatura del espacio-tiempo se hace infinitamente fuerte. Hay una singularidad descubierta por tres físicos teóricos rusos alrededor de 1970. Si caes en esa, estás totalmente destruido, te haces trizas de forma caótica y salvaje. Una segunda singularidad está hecha de todas las cosas que caen al agujero negro después de ti. Este material cae durante miles de millones de años, pero el tiempo va tan lento dentro de un agujero negro que todo ese material se te cae encima en una fracción de segundo, como si fuera una plancha. No me gustaría que eso me pasase. Cooper encuentra la tercera singularidad, que es la más débil de todas. Esta singularidad la causa todo lo que cayó al agujero negro antes que tú. Una fracción pequeña de todo ese material rebotará como si fuera una piedra que da saltos sobre el agua de un estanque. Esa pequeña fracción de toda la materia que cayó al agujero negro sale despedida y saca con él a Cooper en una fracción de segundo. Así que hay una posibilidad de que sobrevivas a un agujero negro.
 
P. ¿Qué será lo siguiente para usted en este campo?
 
R. Stephen Hawking, Lynda Obst, una productora de Hollywood, y yo, hemos escrito nueve borradores de una nueva película. Es muy diferente de Interstellar. Estamos empezando a hablar con posibles guionistas y estudios sobre ella. Es aún en un momento inicial del proyecto
 
P. ¿De qué tratará?
 
R. Algo que aprendí de Christopher Nolan es que no dices nada a la gente sobre una película antes de tiempo. Vas filtrando la información en el momento adecuado para aumentar la expectación, así que por ahora solo puedo decir esto. Y que tendrá física interesante.
 
P. ¿Cuál es el próximo gran reto en la física de los agujeros negros?
 
R. Hay algo que nunca hemos visto: cómo se comportan dos agujeros negros que chocan y crean una tormenta en el espacio-tiempo. La colisión hace que, por un breve periodo, el paso del tiempo acelere, desacelere, vuelva a acelerar... todo de una forma salvaje, caótica. Esto deforma el espacio en una dirección y otra, que gire en el sentido de las agujas del reloj y después al revés, crea vórtices que curvan el espacio y que luchan unos con otros. Hemos visto esto muy recientemente en simulaciones por ordenador y empezamos a entender cómo se comporta una tormenta en la que el tiempo y el espacio oscilan de forma salvaje. Nunca lo hemos observado, pero lo vamos a hacer muy pronto.
 
P. ¿Cómo?

R. Cuando estos agujeros negros chocan crean ondas en el tejido del espacio-tiempo que se llaman ondas gravitacionales. Estas nos darán suficiente información como para ir hacia atrás en el tiempo partiendo de la onda que vemos y las simulaciones y probar si estas predicen de forma correcta lo que está pasando.
 
P. ¿Cuándo esperan captarlas?
 
R. Para hacerlo hemos construido los detectores LIGO. El equipo comenzó su primera tanda de búsquedas de ondas gravitacionales con los detectores avanzados en septiembre de 2015 y seguirá haciéndolo hasta enero de 2016. Estos detectores, incluso en la primera búsqueda, son tan sensibles que pueden captar un choque de agujeros negros a 1.000 millones de años luz de la Tierra, es decir, un décimo de la distancia hasta el límite del universo observable. Si tenemos suerte, captaremos algo en la primera búsqueda.
 
P. ¿Cuál es la próxima gran frontera de la física? 
R. Entender las leyes de la gravedad cuántica que derivan de combinar la Relatividad General con la física cuántica. No entendemos esas leyes bien, podría ser alguna variante de la teoría de cuerdas o la teoría M. Si tuviera que hacer una predicción diría que ese es el camino por el que iremos. Una vez entendamos esas leyes nos contarán de una forma muy clara el nacimiento del universo, qué pasa en la singularidad dentro de un agujero negro y si es posible retroceder en el tiempo.
 
P. ¿Cree que eso abrirá los viajes en el tiempo?
 
R. Abrirá una puerta a los viajes en el tiempo... o la cerrará [risas].
 
P. En uno de sus libros especulaba que si la humanidad quiere sobrevivir debería irse a un agujero negro ¿Cree que es es nuestro futuro?
 
R. Hará falta mucho tiempo hasta que los humanos podamos explorar un agujero negro. Pero es verdad que en el giro de un agujero negro hay una enorme cantidad de energía rotacional que la naturaleza extrae para producir los gigantes brotes que salen de los núcleos de las galaxias. Los humanos de una civilización avanzada podrían usarlos como una descomunal fuente de energía mucho más potente que la fusión nuclear que sucede en el interior de las estrellas.
 
P. ¿Piensa que hay otras formas de vida inteligente en el universo?
 
R. Es muy probable que haya vida inteligente en el universo, civilizaciones más avanzadas que las nuestras. Pero las distancias entre las estrellas son tan enormes que el viaje interestelar es cada vez más difícil. Dudo mucho que otra civilización haya visitado la Tierra, pero creo que es muy probable que nos comuniquemos con ellos algún día, quizás antes de que yo muera, quizás no. Buscar señales de civilizaciones extraterrestres es una de los empeños científicos más importantes que hay.
 
P. ¿Qué fue lo más importante que nos dejó Albert Einstein, de cuya Relatividad General se cumplen ahora 100 años?

R. Nos dio una ley que controla las leyes de la naturaleza. Es el principio de relatividad, que dice que sean cuales sean las leyes de la naturaleza, tienen que ser la mismas vistas por cualquier persona en cualquier lugar del universo si se están moviendo libremente. Creo que ese puede ser el mayor logro intelectual de todos los tiempos.

miércoles, 16 de diciembre de 2015

Últimos avances científicos y tecnológicos


Han pasado tantas cosas propias de una novela de ciencia ficción que uno se pregunta si la ciencia ficción empieza a resultar aburrida respecto a la realidad. Por ejemplo, en estos últimos diez años tuvo lugar el experimento global más importante, y costoso, de la historia de la humanidad: el inicio del Gran Colisionador de Hadrones. Localizamos a Higgs, entendiendo un poco mejor la estructura de la realidad, y también se creó antimateria. Concretamente se atraparon treinta y ocho átomos de antihidrógeno: un gramo de esta antimateria, si entrara en contacto con un gramo de materia, generaría la energía equivalente a la bomba de Hiroshima.

Hace veinte años ni siquiera habíamos detectado ningún planeta fuera del sistema solar. La madrugada del 6 de marzo de 2009 lanzamos al espacio un satélite artificial que orbita alrededor del Sol que busca planetas extrasolares, Kepler, y ya ha detectado 1705.

Tras analizarse el meteorito Murchison, descubrimos que en la roca había quince aminoácidos que se habían formado fuera de la Tierra. Ello otorga aún más validez a la teoría de la panspermia, pues algunos de estos aminoácidos todavía no se han encontrado en nuestro planeta. También nos empuja a preguntarnos de nuevo si hay vida allí afuera.

Reino Unido es el primer país del mundo donde será legal concebir a un ser humano a partir del ADN de tres personas, a fin de erradicar algunas enfermedades hereditarias. La técnica de modificación genética ha sido desarrollada por científicos de la inglesa Universidad de Newcastle, y el primer bebé con el ADN de dos mujeres y un hombre podría llegar al mundo en otoño de 2016. Incluso se ha creado ya esperma artificial.

En 2008 había mil millones de dispositivos de internet conectados a la red. En 2012 había más dispositivos móviles conectados a internet que habitantes en la Tierra. Son cifras inconcebibles si las comparamos con las de 1985, un año donde nadie tenía internet, y los teléfonos móviles eran un privilegio del que apenas disfrutaba un millón de personas.

Pero todas estas noticias son solo las crestas de un tsumani hipertecnológico que cambiará el mundo en pocos años, como ya abordamos en El STEM está cambiando el mundo mucho más de lo que crees. Todavía hay más.

Personajes alucinantes

Esta es una lista de hombres y mujeres casi sobrenaturales que están cambiando el mundo. Lo más sorprendente es que casi ninguno de ellos suena demasiado en los medios de comunicación de masas. Como bien sabe Dean Kamen (y por eso fundó el FIRST), pregúntale a un joven acerca de algún deportista vivo y te dirá decenas. Pregúntale acerca de algún científico vivo y probablemente responderá Albert Einstein (¿está vivo?).

Personajes como George Church, el hombre que tiene más patentes que cromosomas en su cuerpo. Sara Seager, la astrónoma que más exoplanetas ha descubierto y que también asesora a Planetary Resources, una empresa de minería espacial (hay más de mil quinientos asteroides que están más cerca que la Luna, una fuente inagotable de, por ejemplo, platino, lo que reducirá los costes de aparatos electrónicos y de motores eléctricos). El director de esta empresa de ciencia ficción es Chris Lewicki, un visionario al que también asesora uno de los fundadores de Google, otro de Yahoo, el director de cine James Cameron y un puñado de astronautas y científicos de reconocido prestigio.

Elon Musk, creador de Paypal, SolarCity (la empresa de energía solar más importante de Estados Unidos), la batería Tesla, el transporte futurista Hyperloop o Space X. Uno de sus planes futuros es enviar a ochenta mil colonos a Marte a un coste de quinientos mil euros por colono. Quizá Marte está muy lejos, por eso Norman Foster ya está diseñando los edificios que las impresoras robot 3D D-Shaper deberán construir en la Luna.

Peter Diamandis, uno de los propulsores de la Singularity University junto a Google y NASA y creador del XPrize, que ha fundado Zero G, una empresa que ya ha llevado a más de diez mil personas, entre ellas a Stephen Hawking, a probar la gravedad cero en un vuelo parabólico. Según su criterio, la búsqueda de recursos y el turismo son las dos grandes fuerzas que han abierto todas las fronteras. También lo hará la frontera espacial gracias a los nuevos planteamientos de Burt Rutan.

Uno de los mayores expertos en computación cuántica (que multiplicará por miles de millones el número de operaciones por segundo de los ordenadores actuales) es Ignacio Cirac, director de la División Teórica del Instituto Max Planck de Óptica Cuántica, Premio Príncipe de Asturias 2006 y Medalla Benjamin Franklin (un galardón que también han recibido Stephen Hawking, Albert Einstein o Marie Curie).

La lista es interminablemente desconocida por el público general, y aquí tenéis aún más ejemplos.

Finalmente encontramos a los tecnofilántropos, una nueva casta de millonarios que se han enriquecido gracias a la tecnología y que, a diferencia de los ricos de rancio abolengo, suelen invertir parte de su fortuna en producir más desarrollos tecnológicos que favorezcan a la humanidad (ya sea por verdadero altruismo como por proyectar una mejor imagen pública). La Fundación Bill y Melinda Gates es la que más ha invertido en investigación médica. Mark Zuckerberg ha donado también el 99% de sus acciones de Facebook. Google ha hecho la mayor inversión de la historia para acabar con las enfermedades cardiovasculares, que matan a más personas en la Tierra que cualquier otra cosa. Jeff Bezos, el fundador de Amazon, consiguió por primera vez en la historia, en noviembre de 2015, que un cohete reutilizable llegara al espacio y más tarde regresara. Este hito reducirá el coste de los viajes espaciales y abrirá la frontera a otros planetas. Elon Musk estaba intentando hacer justo lo mismo, y si Bezos no hubiera existido él lo habría conseguido semanas o meses más tarde.

En 2012 nació la competición Qualcomm Tricorder XPRIZE, cuyo ganador será el que presente un prototipo capaz de registrar datos médicos críticos y diagnosticar al menos trece enfermedades diferentes. El dispositivo tendrá una masa inferior a los 2,3 kg y recordará al tricorder que se usaba en la serie Star Trek.

Google quiere hacer llegar internet a todo el mundo, incluso a los países más pobres, con el Proyecto Loon, y así conseguir que la tecnología permita a los habitantes de dichos países prosperar por sí mismos. Cuatro mil millones de personas nuevas están a punto formar parte de la aldea global 2.0, y ello acelerará todavía más todo lo que internet está provocando. Como escriben Eric Schmidt y Jared Cohen en su reciente libro El futuro digital:

Pronto estaremos todos conectados en la Tierra. Con los cinco mil millones más de personas que se van a unir al mundo virtual, el boom de la conectividad digital aportará beneficios en productividad, salud, educación, calidad de vida, y otras innumerables posibilidades en el mundo físico. Y esto será así para todos, desde los usuarios más elitistas hasta los que están en la base de la pirámide económica.

Por su parte, Facebook ya ha terminado la construcción de Aquila 1, un gigantesco dron que se mantendrá a unos veintisiete kilómetros con energía solar. El dron podrá permanecer en la estratosfera durante tres meses y su labor será radiar internet de banda ancha en las zonas rurales y de difícil acceso con los emisoras terrestres.

Neurociencia

En estos últimos diez años se ha realizado el primer mapa del cerebro humano, y posee más de cien millones de puntos que señalan la expresión genética y la bioquímica de cada punto, lo que permitirá desarrollar fármacos más eficaces.

Daryl Kipke y Takashi Kizo han creado un electrodo que tiene 0,007 mm de diámetro (un cabello humano tiene un diámetro de 0,8 mm). Es tan diminuto que puede conectarse a una sola neurona humana. Esto permitirá observar qué ocurre en el cerebro a nivel celular, asistiendo en directo a las señales eléctricas que construyen nuestros pensamientos. También permitirá que muy pronto podamos controlar artefactos externos como ordenadores o una silla de ruedas simplemente pensando en ello, como demostraron en 2005 científicos de la Universidad de Brown, del Hospital General de Massachusetts y el Centro Médico de Providence.

Una nanoprótesis devolvió la capacidad de hablar a una persona que había sufrido un ataque. Otra neuroprótesis controlaba la obesidad anulando el deseo de seguir comiendo compulsivamente.

Johnny Matherny se ha convertido en el primer hombre en usar una prótesis robótica controlada por la mente, es decir, como si la prótesis realmente fuera su brazo. La nueva actualización de esta prótesis también permitirá al portador sentir lo que toca.

Un ensayo con escáner cerebral realizado por la Universidad de California, y publicado en la revista científica Journal of Neuroscience, podía predecir que tres cuartas partes de las personas sometidas a la prueba iban a utilizar el producto determinado más activamente de lo que afirmaron. Es decir, que se logró predecir el comportamiento de las personas mejor que ellas mismas.

Nanociencia

Los nanorrobots más pequeños que se han diseñado hasta ahora son creación de científicos de la Universidad de Michigan y miden lo mismo que el punto final de esta oración. Muy pronto navegarán por el interior de nuestro cuerpo. El profesor de química T. Ross Kelly ha construido un nanomotor impulsado químicamente con setenta y ocho átomos. Ben Feringa, de la Universidad de Groningen, ha creado otro motor de cincuenta y ocho átomos, que además se impulsa con energía solar. Son tamaños tan inconcebiblemente pequeños que podríamos tener millones de estos dispositivos en la palma de la mano sin ni siquiera reparar en ello.

El primer paso de estos nanorrobots que viajarán por nuestro cuerpo, como en la película Un viaje alucinante o El chip prodigioso, mejorando nuestro organismo se produjo en la Universidad de Chicago, donde Tejal Desai curó la diabetes de tipo 1 en ratas con un dispositivo de nanoingeniería que incorporaba células pancreáticas. Este dispositivo permitía que entrase la insulina, pero no los anticuerpos que la destruyen. En Harvard, Shawn M. Douglas ya ha creado también un robot de tamaño molecular que envía medicamentos a células específicas, y siete mujeres de Dinamarca ya han probado un nanomédico del tamaño de una cabeza de alfiler que les inyecta cada veinticuatro horas una droga que revierte la osteoporosis (y así se evita que los pacientes abandonen el exigente tratamiento). Ya ha sido aprobado por la FDA.

Un equipo de la Universidad de Nueva Gales del Sur ha concebido un transistor funcional que tiene el tamaño de un solo átomo. Este será el primer paso de una nueva era informática: la atómica.

La nanotecnología es una de las ramas de la ciencia que más rápidamente está creciendo. En 2009, el mercado mundial de la nanotecnología facturaba 11.671 millones de euros. En 2001, el doble. Las previsiones para 2018 son de 3,3 billones.

Robert Freitas propone incrementar nuestros mil billones de conexiones neuronales con nexos de alta velocidad por medio de nanorrobots. Las nanocélulas sanguíneas llevarán doscientas treinta y seis veces más oxígeno a los tejidos por unidad de volumen que las normales. También nos valdremos de leucocitos artificiales, más eficaces que los naturales, lo que permitirá fortalecer nuestro sistema inmunitario. Freitas también estima que lograremos eliminar gracias a la nanotecnología el 50% de los trastornos médicos prevenibles y nuestra expectativa de vida superará holgadamente los ciento cincuenta años. Cuando prevengamos el 90% viviremos quinientos años. Con el 99%, más de mil años.

Enviar nanosatélites al espacio es tan barato que ya se lo pueden permitir incluso las universidades. Ya existen las primeras empresas que alquilan servicios de nanosatélites para tareas específicas. Por primera vez en la historia, los satélites ya no son una competición entre superpotencias económicas, sino un ejemplo más del poder del abaratamiento de la tecnología y la filosofía maker. La colaboración 2.0 también está fuertemente implicada en este movimiento nanosatelital: Skycube, por ejemplo, se patrocina a través de campañas de micromecenazgo a través de Kickstarter.

Ya hay robots de nueve gramos capaces de levantar por una pared de cristal un objeto de un kilo a su espalda, el equivalente a que un humano escalara un rascacielos cargando con un elefante. El modelo denominado µTug de doce gramos puede cargar dos mil veces su propio peso. Si este robot tuviera el tamaño de un ser humano, el equivalente sería arrastrar el animal más grande de todos los tiempos, con ciento veinte toneladas de masa (mucho más que cualquier dinosaurio conocido).

Inteligencia artificial

En 2008, el neurocientífico Henry Markram recreó el modelo de la neocorteza del cerebro de una rata gracias al ordenador Blue Gene de IBM, que es capaz de realizar veintitrés mil millones de operaciones por segundo (un 4% de la capacidad del ser humano).

El Proyecto Cerebro Humano aspira a simular las funciones de los ochenta y seis mil millones de neuronas del cerebro humano, así como los mil billones de conexiones neuronales. Probablemente será un gran paso para crear una mente artificial, y por el camino se averiguarán las causas de seiscientas enfermedades del cerebro.

De momento, los robots ya hacen cosas que parecían inconcebibles hace una década. Es el caso de Baxter, un robot que aprende a trabajar fijándose en otros robots. Es decir, aprende por imitación. Que una inteligencia artificial conduzca el coche por nosotros también parecía una idea propia de películas de ciencia ficción, pero los coches autónomos de Google ya habían conducido, en 2010, más de 1,5 millones de kilómetros por California y Nevada. Coches sin conductor que ruedan a sus anchas tanto por zonas montañosas como por autopistas o entornos urbanos. Incluso han circulado por Lombard Street, en San Francisco, la calle más sinuosa del mundo, esquivando peatones, ciclistas y runners, parándose en los pasos de cebra, obedeciendo los semáforos, siguiendo las normas de tráfico. LIDAR es el responsable de este milagro.

Pero lo que todos queremos es ver a Skynet funcionando (aunque sin sus ínfulas de dominación mundial). Todavía no existe, pero en esta última década nos estamos acercando mucho. Deep Blue, de IBM, perdió al ajedrez contra el campeón mundial, Gary Kasparov. Eso fue en 1997. Deep Blue solo era fuerza bruta, no era capaz de aprender. Pero la siguiente generación de ordenadores de IBM, WATSON, sí que es capaz de hacerlo.

Ahora ya no hay seres humanos capaces de ganar al ajedrez a un ordenador, pero tampoco al juego Jeopardy! Este concurso de la televisión estadounidense consiste en adivinar la pregunta que corresponde a una determinada respuesta, jalonado todo ello con dobles sentidos, juegos de palabras y formulaciones abstrusas. Por ejemplo: «Con mucha “gravedad”, este becario del Trinity College se convirtió en profesor de la Cátedra Lucasiana de Matemáticas de la Universidad de Cambridge en 1669». La respuesta es: «¿Quién es Isaac Newton?». WATSON resultó imbatible en el concurso, ganando incluso a los campeones.

WATSON usa la técnica del machine learning, y ahora ha empezado a estudiar medicina. Le están introduciendo cientos de miles de trabajos médicos, millones de páginas de ensayos clínicos y publicaciones médicas, millones de historiales médicos de pacientes reales… y está aprendiendo. El objetivo es que WATSON se convierta en el mejor médico del mundo, y que un médico de Nairobi o uno de Madrid pueda acceder, por igual, a través de su smartphone, a sus diagnósticos online. El mejor médico del mundo estará así en todos los rincones del planeta, y con un coste marginal próximo a cero. De momento, el Centro de Cáncer MD Anderson de la Universidad de Texas ya usa WATSON para asesorarse acerca de la leucemia. Y el Centro del Cáncer Memorial Sloan Kettering de Nueva York lo está probando para el diagnóstico y tratamiento de cáncer de pulmón, colorrectal y de mama.

Del machine learning estamos también evolucionando al deep learning, que pasa de un aprendizaje automático a un aprendizaje que imita al máximo el hardware y el software del cerebro humano. El deep learning permite analizar imágenes (documentos, vídeos, fotos, etc.) mucho mejor que un ser humano, localizando patrones, tendencias, errores y posibles mejoras. ImagenNET es un concurso anual que premia a la red neuronal artificial que clasifique mejor un grupo de imágenes. En 2011, el ganador clasificó imágenes con una tasa de error del 25,8%. En 2012, la tasa de error solo era del 16,4%. En 2013, fue del 11,7%. En 2014, del 6,7%. En enero de 2015, Baidu logró una tasa de error en el reconocimiento de imágenes del 6%. En febrero, Microsoft alcanzó el 4,9%. En marzo, Google alcanzó el 4,8%. El ser humano tiene una tasa de error que ronda el 5%.

Microsoft ya trabaja en Project Adam, que usa una red neuronal de dos mil millones de conexiones y una base de datos de quince millones de imágenes. Según explica Josep Maria Mainat en su libro Ciencia optimista:

Microsoft ha demostrado que, gracias al aprendizaje profundo, su sistema no solo es capaz de reconocer un perro en cualquier imagen, sino que puede decir con total precisión qué raza es.

Annabell, concebida en 2015 por investigadores de las universidades de Sassari, en Italia, y Plymouth, en el Reino Unido, es ya una inteligencia artificial que aprende por sí misma a hablar y logra una fluidez verbal de un niño de cuatro años. Inicialmente, Annabell respondía con frases aleatorias, pero a partir de las reacciones de los humanos («me gusta lo que dices») fue aprendiendo qué respuestas eran correctas en cada caso. Cada vez está aprendiendo más.

Na Yang y Emre Eskimez, de la Universidad de Rochester, han creado un software que no solo capta las emociones más o menos ocultas en las palabras de las personas, sino que lo hace mejor que los propios humanos en el tono de voz, fijándose en el tono, el timbre o la intensidad del mensaje. Tal y como señala Tyler Cowen en su libro Se acabó la clase media:

En la actualidad, incluso estamos encontrando programas de ordenador capaces de superar las pruebas de Turing estéticas, por así decirlo. Los ordenadores están componiendo música y no siempre es fácil saber qué canción es obra de un ser humano y cuál ha sido compuesta por un ordenador.

No sabemos qué «finisterres» alcanzaremos, pero Stephen Hawking, Elon Musk y Bill Gates advierten ya acerca de los peligros potenciales que presenta el desarrollo descontrolado de una inteligencia artificial. Linus Torvalds, padre de Linux, considera que no debemos tener miedo, y que no nacerá Skynet, sino desarrollos concretos para ciertas áreas: aprendizaje, conducción, reconocimiento de patrones, etc. Para Raymond Kurzweil, sin embargo, la singularidad está muy cerca.

Sea como fuere, según un estudio de la consultora japonesa NRI, que analizó más de seiscientos puestos laborales que ahora realizan humanos, en 2030 el 49% de los mismos los llevarán a cabo de forma automatizada software y/o elementos ruborizados de algún tipo. Esto obligará a que aparezcan nuevos tipos de trabajos humanos aún inimaginables, pero también a la asunción de que el abaratamiento general de los procesos y los productos permitirá que un porcentaje de la población ya no necesite trabajar o trabaje menos horas. Un buen libro para profundizar en este escenario es La sociedad del coste marginal cero, de Jeremy Rifkin. Tal y como señalan también los especialistas Eric Schmidt y Jared Cohen en Futuro digital:

A medida que vayan implantándose las garantías de seguridad para proteger la privacidad y evitar la pérdida de datos, estos sistemas nos liberarán de muchas pequeñas cargas; incluyendo recados, listas de cosas para hacer y diversas tareas de «supervisión»; que a día de hoy añaden estrés y nos ocupan la mente a lo largo del día. Nuestros propios límites neurológicos, que nos llevan a olvidos y descuidos, serán suplementados por sistemas de información diseñados para facilitar nuestras necesidades. Dos de estos ejemplos son las «prótesis» de memoria; los calendarios y las listas de cosas para hacer; y «prótesis» sociales, que nos conectan instantáneamente con ese amigo que tiene los conocimientos relevantes para esa tarea que hay que afrontar.

Biotecnología

Craig Venter ha creado la primera vida sintética de la historia, escribiendo desde cero el ADN e introduciéndolo en una bacteria previamente vaciada de información genética. La bacteria se reprodujo posteriormente con normalidad, replicando ese ADN sintético a la perfección, como una imprenta biotecnológica del siglo XXI. Venter, un tanto egocéntrico (algunos le llaman Darth Venter), codificó su nombre en ese ADN, así puede comprobarse inconfundiblemente que las nuevas generaciones de bacterias tienen ese copyright escrito en sus genes. Todavía no es una vida artificial completa (porque requirió de una bacteria real), pero se le acerca bastante.

La investigación en células madre embrionarias se ha visto frenada por diversos credos políticos y religiosos, también morales, pero los investigadores ya han logrado rodear ese problema creando células madre pluripotentes inducidas (iPSC) a partir de células adultas (el descubrimiento hizo que Shinya Yamanaka y John B. Gurdon obtuvieran el Nobel de Medicina y Fisiología en 2012). Así, en 2013, científicos de la Universidad de Kioto crearon un ratón a partir de células madre, por primera vez en la historia. En 2014, se realizó el primer implante en humanos para tratar a una mujer que sufría degeneración macular. Las células madre se obtuvieron de la piel de la paciente y se retrogradaron en el laboratorio para transformarlas en células de la retina.

También se han creado órganos artificiales con iPSC que se introducen en un molde de plástico poroso que, a continuación, se introduce en un biorreactor, una suerte de incubadora, donde permanece sumergido en una solución de nutrientes. En 2011, en el Instituto Karolinska de Suecia se creó así una tráquea artificial que trasplantaron con éxito a un paciente. En ratones ya se han implantado huesos artificiales creados por investigadores de la Universidad de Granada y el CSIC gracias a unas plantillas porosas de carbón activado.

Todavía es más impresionante el logro de Sara Rankin, del Imperial College de Londres, que solo necesitó estimular la médula ósea de ratones para liberar una corriente de células madre de tejidos adultos concretos en la circulación sanguínea. Si sufrimos cualquier lesión en el cuerpo, pues, sin ninguna intervención recibiremos células madre generadas por nosotros mismos para formar nuevos tejidos, huesos, cartílagos, venas, arterias, etc.

Ya se ha creado la primera carne artificial, lo que permite sortear los problemas morales y medioambientales que supone alimentar y matar animales para su consumo (las vacas son las principales emisoras de gases de efecto invernadero). Fundada en 2011, Modern Meadow es una empresa especializada en el desarrollo en laboratorio de carne animal cultivada. La carne artificial está creada con las mismas células que la carne natural. En 2013, investigadores de la Universidad de Maastricht ya anunciaban la primera hamburguesa obtenida de células madre de vacuno. Este tipo de hamburguesa tendrá un un 96% menos de emisiones de gases de efecto invernadero y supondrá un 99% menos de superficie cultivada.

Energía solar

Una de las principales fuentes de energía del futuro será el Sol, y esa idea ya no suena a flower power. La razón, de nuevo, se la debemos al crecimiento exponencial de la eficiencia de las placas solares. Entre 1975 y 2012, las placas fotovoltaicas han pasado del 2 al 45% de su tasa de conversión de energía solar en electricidad, según explica Juan Scaliter en su libro Exploradores del futuro. El coste se ha reducido en la misma proporción. De seguir creciendo a esta velocidad, en 2027 ya podríamos generar toda la energía actual exclusivamente con la luz solar.

Esta curva de aprendizaje muestra el llamado efecto Swanson (en honor a su creador, Richard Swanson, fundador de SunPower), que establece que el coste por vatio cae un 20% cada vez que se dobla la capacidad solar mundial. Paralelamente, un «internet de la energía» cambiará la forma de generarla y distribuirla. Las personas se autoabastecerán de energía solar y producirán excedentes que podrán compartir con sus semejantes, en un sistema similar al peer-to-peer que nos permite compartir archivos digitales.

Impresión 3D

En 2014 algunas patentes muy importantes sobre impresión 3D se han hecho públicas, lo que permite usar la tecnología laser sintering, que produce un acabado perfecto en las muestras. Tanto herramientas como comida saldrán de impresoras cada vez más económicas. Organovo es una empresa que ya comercializa para investigación tejido hepático impreso en 3D. Antes de 2020, su director, Keith Murphy, asegura que ya imprimirán órganos completos para ser trasplantados. Tal y como lo explica Josep Maria Mainat en su libro Ciencia optimista:

La cosa funciona así: primero se crean una serie de «biotintas» con diferentes tipos de células madre humanas. Entonces una impresora 3D adaptada especialmente para esta tarea empieza a colocar los materiales biológicos, capa a capa, siguiendo un modelo digital del órgano humano deseado, diseñado previamente por ordenador con un programa de modelaje en 3D.

Chris Anderson, en su libro Makers, se muestra profundamente optimista con esta tecnología. También Peter H. Diamandis en Abundancia:

Mientras que las primeras máquinas eran simples y lentas, las versiones actuales son rápidas y ágiles y capaces de imprimir con un amplio abanico de materiales: plástico, vidrio, acero e incluso titanio. Los diseñadores industriales utilizan las impresoras 3D para hacer cualquier cosa, desde pantallas para lámparas y gafas hasta prótesis artificiales a medida. Incluso se utilizan en hobbies, produciendo robots que funcionan y aviones que vuelan autónomamente. Las empresas de biotecnología están experimentando con la impresión de órganos en 3D, mientras, el inventor Behrokh Khoshnevis, un profesor de ingeniería de la Universidad del Sur de California, ha desarrollado una impresora 3D a gran escala que suelta cemento para la construcción de casas baratas con varias habitaciones en los países en vías de desarrollo.

Educación

Mientras continuamos con ideas pedagógicas del siglo XIX y profesores del siglo XX para enseñar a alumnos del siglo XXI, los MOOC o Masive Open Online Courses ya han desembarcado en medio planeta. Las clases tradicionales y presenciales están siendo complementadas por decenas de iniciativas (de las que también se aprovechan alumnos de cualquier rincón del mundo sin recursos para asistir a tales clases), como son MITX (la unión online de MIT y Harvard), Khan Academy, Tor, Altius, Latimer Education, ITunesU, Capella University, Minerva Project…

Este tipo de educación no solo es más universal y más barata, sino que permite que se prodiguen las clases grabadas de los mejores profesores, que las evaluaciones las realicen los propios alumnos corrigiéndose mutuamente, que las aulas rompan sus paredes para proyectos mayores (Skype in Classroom) y, sobre todo, mejore la eficiencia: los alumnos aprenden un 60% más rápido, y son capaces de adquirir cinco veces más información que sus compañeros de educación presencial.

Hasta la democracia está siendo revolucionada desde hace unos años desde organizaciones políticas como el Partido Pirata sueco. Una de las ideas que podrían implantarse en breve es la llamada democracia líquida, que además de ser en tiempo real permitirá delegar nuestro voto a las personas que consideremos más competentes en los asuntos sobre los que debemos decidir. En este escenario ni siquiera serían importantes los políticos profesionales o los partidos.

Conexión

Si en 2011 había quinientos millones de teléfonos móviles en África y quince millones de smartphones, en 2015 se estima que haya más de setecientos millones de teléfonos móviles y ciento veintisiete millones de smartphones. En Kenia, por ejemplo, KAZI 560, una agencia de contratación, emplea móviles para conectar a trabajadores potenciales con empleadores potenciales. Sesenta mil keniatas encuentran trabajo a través de internet. En Zambia, los campesinos usan el teléfono móvil para comprar semillas y fertilizantes. Ushahidi («testigo» en swahili) es una ONG que se aprovecha de la enorme penetración de los teléfonos móviles, el smartphone y el WiFi en los países en vías de desarrollo para que ellos mismos prosperen. Kiva conecta a los países ricos y pobres sin intermediarios en forma de ONG, como describe Yochai Benkler en El pingüino y el Leviatán: «Kiva lo logra proporcionando información para humanizar los receptores».

Tal y como también escribe Frederic Martel en su libro Smart:

Sin electricidad, los móviles se recargan con las baterías de los camiones o con pequeños paneles solares. La conexión a internet pasa en general por una llave 3G. En un bungaló del Kliptown Youth Program, unos jóvenes andrajosos consultan su página de Faceook en unos PC conectados con gruesos cables a internet. Otros utilizan una aplicación, muy popular en Sudáfrica, denominada Mixit, que permite enviar gratuitamente mensajes instantáneos a los amigos desde cualquier teléfono móvil. También veo a unos chiquillos sentados en el suelo que matan el tiempo con videojuegos en pequeños portátiles de cien dólares de plástico verde manzana, los famosos portátiles XO regalados por la ONG americana One Laptop per Child.

La Primavera Árabe puso en evidencia hasta qué punto la conexión 2.0 es poderosa, tal y como explica Noel Ceballos en Internet Safari:

… cuando el 0,26% de la población egipcia que estaba activa en la red social (según un estudio de la Escuela de Gobierno de Dubái) consiguió convertir su lucha en trending topic a nivel global. Tras el 25E se produjo un boom de bebés llamados Twitter y Facebook en Egipto, casi al mismo tiempo que las calles de Libia se llenaban de pintadas con el logotipo del pájaro piando. Para algunos habitantes del Tercer Mundo, Twitter se había convertido en un icono de la revolución.

El Internet de las Cosas (IoT) todavía es un concepto vago para la población general. El concepto fue propuesto por Kevin Ashton en el Auto-ID Center del MIT en 1999. El IoT solo consiste en una serie de sensores diminutos que podrán incorporarse a toda las cosas que nos rodean, desde la ropa hasta un coche, pasando por el hilo dental. En 2003 apenas había tantos sensores como un cuarto de la población mundial. En 2007, la cifra se dobló. A finales de la década de 2010, Cisco pronostica que habrá un billón de sensores. Según ABI Research, más de treinta mil millones de dispositivos se conectarán de forma inalámbrica a la Internet de las Cosas para el año 2020. Todo ello cambiará la estructura económica y energética, como explica Jeremy Rifkin en su libro La sociedad del coste marginal cero:

… serán procesados mediante análisis avanzados y transformados por algoritmos predictivos que se programarán en sistemas automatizados para mejorar la eficiencia termodinámica, aumentar drásticamente la productividad y reducir casi a cero el coste marginal de producir y distribuir toda una gama de bienes y servicios por toda la economía.

En Futuro perfecto, Steven Johnson nos recuerda con datos, estadísticas y un enfoque centrado en cómo internet está convirtiendo a los individuos en una red o un superorganismo más inteligente y armónico, que el futuro de la humanidad es la colaboración 2.0. Ya hemos empezado a comprobarlo en creaciones como Wikipedia (hace una década nadie habría apostado que la gente no profesional y sin remuneración conseguiría dejar sin trabajo a los enciclopedistas profesionales, e incluso ser tan exacta como la Encyclopaedia Britannica). Hace diez años tampoco existía Kickstarter, que incluso consigue superar a empresas como Sony en el campo de la innovación. No en vano, Kickstarter, que fue fundado en 2008 por Perry Chen, Yancey Strickler y Charles Adler, fue considerado por la revista Time como uno de los «Mejores Inventos de 2010».

Porque internet ha propulsado el llamado crowdsourcing, que se define como el hecho de externalizar tareas que normalmente son llevadas a cabo por individuos concretos a un grupo de personas o comunidad (multitud) a través de una convocatoria abierta.

Cuando Shoshana Zuboff escribía en la década de 1980 el profético libro In the Age of the Smart Machine, advirtiendo que los ordenadores suprimirían las jerarquías de las organizaciones, otorgando el conocimiento (el poder) al pueblo, todavía no existía internet. En la última década, es justo lo que está ocurriendo. Clay Shirky, autor de Excedente cognitivo, lo tiene claro: esta clase de organización, la hiperconectada, permite que la suma de inteligencias genere una inteligencia emergente más flexible, eficiente y, en suma, brillante, que las inteligencias individuales en las que ahora depositábamos nuestra confianza. Yochai Benkler en su libro La riqueza de las redes sociales es aún más optimista, y cree que las civilizaciones futuras serán mentes colmena. Tal y como abunda en ello el psicólogo Dan Ariely en su libro Las trampas del deseo:

Merkaat ha democratizado la emisión de vídeo en streaming en cualquier momento y en cualquier sitio, como si dispusiéramos de nuestra propia productora de televisión. Tripadvisor y Foursquare ha democratizado la crítica gastronómica, hotelera y de cualquier otro servicio. Lo que caracteriza a todos estos servicios es que no los enriquece ningún experto, ni profesional, ni persona que cobra dinero por sus servicios. Los servicios se enriquecen y ofrecen más información que nunca antes en la historia debido a la colaboración entre pares, entre semejantes.

La mente colmena, además, será millones de veces más eficiente, e inteligente, gracias al apoyo del Big Data. El diagnóstico médico a través del Big Data, por ejemplo, eliminará en breve a la mayoría de los profesionales médicos (y sus alarmantes cifras de errores diagnósticos).

Cosas que no dejan de pasar

Este artículo, que puedes complementar con la lectura de El STEM está cambiando el mundo mucho más de lo que crees, es solo una porciúncula de lo que está ocurriendo ahora mismo en el mundo. En realidad están pasando millones de cosas más, algunas de las cuales seguramente son más asombrosas.

Dentro de poco habrá más personas que nunca participando en este cambio, incluidos miles de millones que aún ni siquiera tienen internet y que muy pronto sí podrán participar en la aldea global. Los próximos diez años, ley de Moore mediante, crecimiento exponencial extrapolado a cosas, tecnologías y personas, serán mil veces más excitantes.