Mostrando entradas con la etiqueta Tecnología. Mostrar todas las entradas
Mostrando entradas con la etiqueta Tecnología. Mostrar todas las entradas

martes, 9 de agosto de 2016

La ciencia demuestra que quienes usan redes sociales son alumnos malos y los que usan solo juegos son sobresalientes

ISABEL F. LANTIGUA, "Los videojuegos te aprueban", El Mundo, 09/08/2016 

Los retos online obligan a poner en práctica conocimientos y habilidades aprendidos en clase

El interés por la relación entre el uso de videojuegos y redes sociales y el rendimiento académico no es nuevo. Pero los resultados de una investigación que se acaba de publicar sí son novedosos. Resulta que los adolescentes que usan Facebook y otras redes sociales a diario sacan peores notas en matemáticas, ciencia y comprensión lectora que el resto. Sin embargo, los alumnos que dedican el mismo tiempo a divertirse con determinados videojuegos sacan más puntuación en esas asignaturas que los demás."La verdad es que me esperaba que existiera una relación negativa entre el uso de redes sociales y las calificaciones en las tres materias, pero no pensé que los videojuegos ayudaran a mejorar las notas", confiesa sorprendido a EL MUNDO Alberto Posso, profesor del Instituto de Tecnología de Melbourne (Australia) y autor del estudio, publicado en la revista International Journal of Communication. "Claro que después de encontrar mucha literatura sobre el tema, empecé a verle más sentido a los resultados. Está bastante documentado que el uso de estos juegos puede reforzar habilidades existentes aprendidas en clase y ayudar a los usuarios a utilizar los números y la lógica, como si estuvieran estudiando ¡pero sin darse cuenta!", continúa Posso.La investigación se basa en una muestra de 12.000 estudiantes australianos de 15 años de 772 colegios diferentes y usa las evaluaciones obtenidas por el informe PISA (Programa Internacional para la Evaluación de Estudiantes), que además de calificar el rendimiento de los alumnos en matemáticas, ciencias y comprensión lectora, recoge información sobre las actividades online de los chavales. Tras analizar todos los datos, Posso observó que los estudiantes que utilizaban las redes sociales diariamente sacaban "hasta 20 puntos menos en matemáticas" que los que no las usaban. Y "cuanto más tiempo pasaban en Facebook y páginas similares peor era el resultado del examen. Si dedicaban a las redes sociales un rato una o dos veces al mes, sacaban ocho puntos menos que la media, pero no 20". Y las notas en ciencia y comprensión lectora también fueron más bajas, en una proporción similar. Por el contrario, "los estudiantes que juegan online a diario obtuvieron 15 puntos más en matemáticas y 17 puntos más en ciencia que el resto de alumnos y mostraban mejor capacidad de comprensión en las lecturas", indica Posso. "Cuando juegas y compites con otras personas te obligas a superarte, a resolver los enigmas más rápido que el resto para pasar al siguiente nivel y esto implica que se pongan en práctica habilidades y conocimientos que a lo mejor se han escuchado en el aula", cuenta el investigador, que piensa que "los profesores deberían considerar utilizar en sus clases videojuegos populares -no violentos- para mejorar el rendimiento de sus alumnos". Aunque la población australiana tiene algunas peculiaridades, como que el 97% de sus habitantes entre los 15 y 17 años usan Internet habitualmente, frente al 93% de los estadounidenses y el 86% de los europeos, Posso cree que "estos resultados podrían extrapolarse a otros países desarrollados".Para Sergio García Soriano, psicólogo especialista en adicciones, este estudio es "muy acertado". Según explica a este diario, "hasta ahora había muchísimos prejuicios sobre los videojuegos y muchas cosas negativas sobre ellos, que tienen que ver más con la moral imperante que con la ciencia. Este trabajo demuestra, sin embargo, que se puede aprender mucho de ellos". En cuanto a la diferencia observada entre las redes sociales y los juegos online, García Soriano indica que "las redes te ponen en contacto con otras personas y permiten ejercitar tus habilidades sociales. Pero los juegos, además de eso (se puede competir online con gente de todos los países) ponen retos y contribuyen a desarrollar la inteligencia, la rapidez de respuesta, las capacidades sensoriales y motrices... Al someterte a un objetivo y una gradación aumenta la exigencia, el afán de superación y la competitividad sin notarlo". "Deberíamos estar más a favor de la gamificación, lo que pasa es que los profesores y los padres están en contra. Si el chaval llega a casa y le dice a sus padres que ha estado una hora jugando a videojuegos en clase ponen el grito en el cielo. Pero hay que usarlos y usarlos bien. Los chavales son nativos digitales y hay que aprovechar esta tecnología para sacarles provecho", concluye.

jueves, 2 de junio de 2016

Los blogueros resucitan la literatura

Un buen artículo sobre la resurrección de la literatura a través de los blogueros.

martes, 3 de mayo de 2016

Análisis y comprensión artificial de textos

I

Antonio Moreno, "¿Cómo puede un ordenador entender el lenguaje natural?", en  Huffington Post, 3/05/2016:

¿Cómo entrenan los investigadores de la Inteligencia Artificial a los ordenadores para leer y extraer información de documentos escritos? ¿Cómo consiguen que un ordenador realice análisis automático de textos?

La comprensión de una lengua natural es una tarea clave para dotar de inteligencia a agentes computacionales. El lenguaje es probablemente el mecanismo de entrada de datos más importante y eficiente de los seres humanos, superando incluso a la visión. Un buen ejemplo de un sistema de comunicación hombre-máquina sería uno en el que una máquina puede leer una pregunta de un humano y procesarla para proporcionar una respuesta.

Hoy estamos inundados de Big Data, es decir, cantidades enormes de datos en diversos formatos, incluido el textual, y sería un disparate leer y procesar toda esa información de forma manual. Es por eso por lo que los sistemas de análisis automático de texto (Text Analytics) están teniendo mucho éxito en los últimos tiempos, ya que su función es entender la información no estructurada expresada en una lengua y convertirla en información estructurada como resumen de su contenido, como una relación entre sus elementos más significativos o clasificando un documento por su temática.

La tecnología se aplica ya a sectores muy diversos, desde la medicina a las finanzas o la legislación. Hay aplicaciones que leen millones de emails y los clasifican como spam, y otras que clasifican tuits como positivos o negativos. Algunos ejemplos de ello son el sistema Watson, que ha ganado a los mejores competidores humanos en el concurso Jeopardy, o la aplicación Lynguo, que analiza textos de forma automática para perfilar a los clientes y detectar opiniones o emociones.

¿Cómo es todo esto posible? Naturalmente, con décadas de investigación y desarrollo, pero sobre todo con aproximaciones híbridas e interdisciplinarias: combinando razonamiento lógico y lingüístico, análisis estadístico e innumerables bases de conocimiento.

Sin embargo, todavía estamos lejos de llegar a un funcionamiento fluido y satisfactorio similar a la capacidad analítica de un ser humano medio. Como dice John Sowa, los sistemas inteligentes necesitan integrar un ciclo cognitivo de percepción, aprendizaje, razonamiento y acción. La parte del procesamiento del lenguaje natural se centra sobre todo en la comprensión del contenido y en el aprendizaje, es decir, cómo conseguir interpretar mensajes nunca antes analizados por el ordenador.

Esto es precisamente lo que realizan los niños: con pocos estímulos e instrucción, son capaces de ir aprendiendo estructuras lingüísticas y contenido semántico y pragmático muy rápidamente. Sin embargo, los ordenadores todavía tienen una capacidad de aprendizaje de fenómenos lingüísticos nuevos muy reducida.

Si quieres saber un poco más sobre el análisis automático de texto, consulta este artículo: El análisis automático de texto con 'Big Data' e Inteligencia Artificial.

II


Este post trata de cómo los investigadores de la Inteligencia Artificial (IA) entrenan a los ordenadores a leer y extraer información de documentos escritos. Es decir, sobre cómo conseguir que un ordenador realice análisis automático de textos.

La comprensión de una lengua natural como el español o el chino (Natural Language Understanding, en la jerga de la IA) es una de las tareas claves para dotar de inteligencia a agentes computacionales. El lenguaje es probablemente el mecanismo de entrada de datos más importante y eficiente de los seres humanos, superando a la visión (aunque no suplantándola).

Leer una pregunta de un usuario y buscarla en una fuente de información (ya sea en una base de datos o en Internet) para proporcionar una respuesta es un buen ejemplo de un sistema de comunicación hombre-máquina. Con la extensión global de Internet estamos inundados de Big Data (cantidades enormes de datos en diversos formatos, incluido el textual). Nadie es capaz ni de imaginarse leyendo y procesando toda esa información.

Por ello, los sistemas de Análisis automático de texto (Text Analytics) han florecido en los últimos tiempos. Su objetivo es entender la información no estructurada expresada en una lengua y convertirla en información estructurada, bien como resumen de su contenido, como una relación entre sus elementos más significativos o clasificando un documento por tu tipología temática. La tecnología está madura y se aplica a muy diversos sectores, desde la medicina a las finanzas o la legislación. Hay aplicaciones que leen millones de emails y los clasifican como spam o analizan tuits como positivos o negativos. Incluso hay un sistema (Watson) que ha ganado en el concurso Jeopardy a los mejores competidores humanos. Otro ejemplo es la herramienta Lynguo, que analiza textos de forma automática para perfilar a los clientes, detectar opiniones, sentimientos, intenciones o emociones. 

¿Cómo se ha conseguido todo esto? Naturalmente con décadas de investigación y desarrollo, pero sobre todo de aproximaciones híbridas e interdisciplinarias: desde razonamiento lógico y lingüístico hasta análisis estadístico, e innumerables bases de conocimiento.

Cualquier niño de la escuela infantil, antes de aprender a escribir, ya habla su lengua materna con una fluidez y destreza muy superiores a las de un adulto que está aprendiendo una segunda lengua a la que le ha dedicado varios años de estudio. La aparente paradoja cognitiva entre la capacidad de aprendizaje y el nivel de experiencia e inteligencia del niño y el adulto es la pregunta que ha inspirado a numerosos psicólogos y lingüistas durante décadas.

Por supuesto, todavía estamos lejos de llegar a un funcionamiento fluido y satisfactorio similar a la capacidad analítica de un ser humano medio. Como dice John Sowa, los sistemas inteligentes necesitan integrar un ciclo cognitivo de percepción, aprendizaje, razonamiento y acción. La parte del procesamiento del lenguaje natural se centra sobre todo en la percepción (entender el contenido) y en el aprendizaje, es decir, cómo conseguir interpretar mensajes nuevos nunca antes analizados por el ordenador. Esto es precisamente lo que realizan los niños: con pocos estímulos y escasa instrucción directa son capaces de ir aprendiendo muy rápidamente estructuras lingüísticas y contenido semántico y pragmático. Sin embargo, los ordenadores tienen todavía una capacidad de aprendizaje de fenómenos lingüísticos nuevos muy reducida. De hecho, el coste de adaptar un sistema a un nuevo dominio semántico es todavía muy alto en términos de tiempo y esfuerzo.

Si te interesa adentrarte en el Análisis automático de texto, te animamos a que te descargues la publicación Text Analytics: the convergence of Big Data and Artificial Intelligence.

miércoles, 30 de marzo de 2016

Informática informe e informal. Un horror educativo.

Una escueta información aparecida en California me ha hecho pensar: casi todos los gurús de la informática del Valle del silicio y de Palo Alto llevan a sus hijos a escuelas sin medios informáticos y con la condición expresa de que no los utilicen. Y lo entiendo: es demencial que los niños aprendan a escribir antes con las teclas del móvil que con los dedos de la mano sobre el papel.

Es espantoso, de verdad: en casi todos los institutos y escuelas nadie se ocupa de que los equipos informáticos tengan buena salud y puedan usarse sin perder tiempo para enseñar a los chavales. Los inspectores se desentienden de esas cuestiones; quizá no les competan o hayan sido "formateados" para poder solventarlas. Y en los Institutos bastante tenemos con adaptarnos a la reforma educativa de este año (que invalidará la del año siguiente, como es norma) para encima preocuparnos de erradicar virus, troyanos o programas malignos, o actualizar la programación (ahora no sirven XP y Vista de Windows, y hay que pagar "otra vez" por obtener... el mismo resultado: es la obsolescencia programada; ¡ojalá los sueldos se actualizaran con tanta rapidez como los programas informáticos!)

Los equipos informáticos de la mayoría de los centros están obsoletos. Hay que modernizar un aparataje (el hardware, que dicen los anglófilos) que ya pertenece a tiempos de la abuelita, y a estas limitaciones se suma la de la programación o software cuya caducidad exige un desembolso continuo, al contrario que el Línux). Es más: no existe suficiente ancho de banda para que los programas puedan "correr" lo suficiente: se lo comen los móviles de los alumnos, por si no fueran ya un coco los cuellos de botella de la mezquina red telefónica que nos asiste y que nadie parece interesado en ampliar... Y por ahí.

Un ejemplo más. Si quiero enseñar a los alumnos qué es la Edad Media y me ingenio la forma más explosiva y estimulante de hacerlo, pienso de inmediato en El séptimo sello de Ingmar Bergman, una película de contenido muy literario que alude a las cruzadas, con un quijotesco y filosófico caballero y un no menos filosófico y sanchopancesco escudero, una compañía de teatro medieval, la Peste negra por fondo y un ambiente que contiene teocentrismo, jerarquización social, didactismo, retórica, alegorías, devotio moderna... no hay más que pedir. Ideal para que luego puera hilarlo con Jorge Manrique y las danzas de la muerte.

En la mayoría de los centros educativos disponemos de lo que se llama un "cañón" proyector de imágenes del ordenador, pero si el ordenador no va, los piratas, con diez cañones por banda, nos van a hundir. Aún hay más. Ya he dicho que el ancho de banda es minúsculo. No da para demasiadas alegrías en cuestión de unidades de información (bits, para los anglómanos). Pero tampoco tengo necesidad de "bajar" la película o el material complementario. Tengo esa película porque la compré. Y tampoco tengo necesidad de contar con el material del instituto que ya sé que nunca me lo va a poner fácil: gentilmente la Consejería nos alguiló unos portátiles a los profesores para que nos fuéramos haciendo con estas cosas de la informática. El problema es que el software ya no está actualizado y el volumen de sonido no es suficiente para que los alumnos se enteren. El señor Gates se las ha arreglado para que sus programas no se puedan utilizar sin problemas cuando caduquen. Otro problema: los cables de conexión no existen o se han perdido. Y si voy a otra aula, especializada en eventos informáticos, hay tal maraña de cables y tal confusión de protocolos que pierdes una hora preparando el tinglado (eso si ya no está ocupada para otra actividad, puestas estas cosas hay que programarlas con antelación) y aun  así siempre hay algún problema añadido. No hay enchufes adecuados, ni instalación eléctrica moderna en las aulas que facilite el uso de todos estos medios. Nadie lleva el mantenimiento de estos costosos y ya anticuados equipos. Si ya es difícil para un profesor fijo, imaginaos a un interino que no se conoce las manías ni los protocolos ni tiene formación específica ni sabe dónde estarán las llaves matarile-rile-rile de las aulas, los armarios (móviles o fijos), ni ha manejado los mandos, ni sabe con quién específicamente hablar, y demás follones, más que técnicos, psicotécnicos, porque vuelven loco al más pintado. Por no hablar de claves y accesos que te piden continuamente para ir a cualquier lado en Internet y que todo el mundo quiere cobrarte por eso.

Pues bueno, el ordenador que hay en el aula no funciona. Se enciende, pero tiene un virus que impide conectarse. Se avisó de que lo arreglaran... Y hasta hoy. El ordenador es antiguo: va más lento incluso que la Administración o la cabeza de Rajoy. Los filtros que impone la nefanda conexión del Instituto, impuestos por la Consejería en Toledo, son tan estrechos y cabrones que no se puede tampoco acceder a la mayoría de los portales (wbsites, para los anglómanos) con información educativa. Quienes contrataron esos filtros no tenían ni idea. Los que fueron contratados, tampoco. Y los que tenemos idea, los profesores, no fuimos consultados. Es tan desastrosa la gestión informática que ni siquiera pudimos procesar los datos para el informe Pisa, y otras incompetencias, por lo cual no asoman los datos de Castilla-La Mancha en los estadillos conjuntos. De todas formas, ¿para qué? ¿Importa esto a alguien, si ni siquiera les importa a las autoridades? ¿Se sentirían siquiera avergonzados? ¿Alguien dimitiría? ¿Se solucionarían los problemas? ¿Cuándo ha solucionado un problema educativo la Administración? ¿Podría, además? ¿Es que acaso hay dinero? ¿No se podría recortar algo, por ejemplo, en corrupción, en vez de en Educación? Bah, es pedir peras al olmo. Ayer mismo el PP echó por tierra un proyecto para suprimir los aforamientos. Una de las que votó en contra fue una tal Rita Barberá, implicada en una trama para financiar ilegalmente a un partido político sustrayendo dinero destinado a la construcción de colegios.

Aún hay más: hay cursos para usar programas informáticos nuevos que la lían parda. Cuando aprendes a utilizar uno malo (el Delphos, que dicen), sacan otro peor (el Delphos papas, que siguen diciendo) y te lo venden como más moderno y tienes que volver a empezar y a volver a topar con los errores, torpezas e ineficiencias a los que el otro te tenía ya acostumbrado y que habías aprendido a solventar. Multiplica, no reduce, la burocracia, y no atiende a los alumnos que son pobres y carecen de medios para tener acceso a medios digitales: si alguno cree que no, que lo diga. El profesor, más que preparar clases, corregir exámenes y ensuciar la pizarra, ahora tiene que andar preparando clases virtuales y entornos informáticos que no va a usar en la vida porque están llenos de los tropezones como los que voy enumerando (y solo son unos pocos). En cuanto a los programas de capacitación, desde que el PP se cargó irremediablemente los Centros de Profesores y Recursos, la calidad de los cursos ha pasado de ser mediana o buena a ser directamente pésima o una simple mierda. Ni siquiera hay abanico donde elegir. Si quieres un buen curso y adecuado a tus intereses tienes que pagártelo o aprender por tu cuenta.

Creo hablar por muchos al decir que solo una cosa es cierta: un antiguo dicho que acuñaron los profesores abandonware (profesores quemados con la informática, en hispano): "La informática es estupenda para arreglar problemas que no teníamos antes de la informática".

martes, 29 de marzo de 2016

sábado, 19 de marzo de 2016

Avances en inteligencia artificial

Javier Salas, "Una victoria de la inteligencia artificial que desnuda los secretos de la mente. La derrota frente a la máquina de Google revela detalles de la complejidad del cerebro humano", El País, 19 MAR 2016:

Hace justo medio siglo, mientras en las radios de todo el mundo triunfaban las Supremes, el pensador Michael Polanyi publicó un libro (La dimensión tácita) en el que proponía una vistosa idea: debíamos reconsiderar la noción de conocimiento humano partiendo de la base de que "sabemos más de lo que podemos explicar". Para construir esta paradoja, Polanyi ponía ejemplos como la conducción de coches y el reconocimiento de rostros: sabemos conducir o identificar a una persona al ver su cara, pero no sabemos muy bien cómo lo hacemos. Hay intuiciones, capacidades e instintos que se manifiestan en cada cosa que hacemos y que nos permiten ser humanos eficientes.

La inteligencia artificial necesitó visionar millones de imágenes para captar lo que es un gato. "¿Cuántos gatos necesita ver un niño para entender lo que es un gato? Uno", zanja López de Mántaras

Hoy, 50 años después, los coches se conducen solos, los ordenadores reconocen caras y una máquina de Google ha derrotado a uno de los mejores jugadores de Go, algo así como un ajedrez oriental cargado de misticismo y tan complejo como la mente humana. Su tablero permite que las fichas se dispongan en más combinaciones distintas que átomos hay en el universo. Según reconocían los líderes de Deepmind —la empresa que ha logrado este reto para Google— se trataba del Santo Grial de la inteligencia artificial desde que DeepBlue quebró los nervios de Gari Kaspárov hace justo dos décadas.

Esta victoria de la máquina, AlphaGo, frente al campeón Lee Sedol nos ha ayudado a descubrir muchas cosas sobre la mente humana. La primera, que somos muy malos con las previsiones. Hace un año, uno de los expertos que iba tras este logro calculaba que nadie lo lograría hasta 2025. Al comenzar la contienda, Sedol aseguró que vencería 5 a 0 a la máquina: perdió 4 a 1. Es impagable la grabación de la primera partida del torneo, en la que el campeón coreano permanece 20 segundos con la boca abierta tras asistir a un movimiento ordenado por la máquina. Después sonríe, con la inesperada satisfacción de tener delante un rival tan bueno como imprevisible, y se inclina sobre el tablero para concentrarse, como si hasta ese momento no se tomara muy en serio el reto (ver vídeo).

Demis Hassabis, el líder de Google Deepmind, habla con naturalidad de que han logrado imitar la "intuición" que necesitan los grandes jugadores de Go para plantear las partidas. En este tablero —de 19 por 19— no se puede utilizar la "fuerza bruta" computacional que usó IBM contra Kaspárov: es imposible calcular todas y cada una de las posibles combinaciones para escoger la óptima. AlphaGo debía jugar como haría un humano: obviar una mayoría abrumadora de las posibilidades y acudir directamente a un puñado de movimientos que le recomienda su olfato.

"Cuando un humano echa un vistazo al tablero, en este juego o cualquier otro, intuitivamente sabe lo que tiene que hacer", afirma Ramón López de Mántaras, director del Instituto de Investigación en Inteligencia Artificial del CSIC. Y puntualiza: "Pero AlphaGo no tiene intuición; me vale como metáfora, pero solo está haciendo funciones matemáticas". Este importante matiz que diferencia cerebro humano y de silicio tiene mucho que ver con la paradoja de Polanyi: seguimos sin saber cómo intuimos que vamos a ganar al mirar el tablero pero Hassabis publicó en Nature, con todo lujo de detalles, cómo lo hace su máquina: si tienen tiempo y recursos, podrían replicar el éxito de AlphaGo siguiendo las instrucciones de este estudio.

Deepmind combinó tres técnicas distintas de inteligencia artificial. Por un lado, el aprendizaje profundo, basado en la suma de cantidades masivas de información que permitan reconocer patrones: en este caso cientos de miles de partidas reales. También el aprendizaje por refuerzo, que permite a la máquina jugar contra sí misma para instruirse ejercitándose. Además, se sirvieron del llamado árbol de búsqueda de Monte Carlo, que selecciona aleatoriamente las posibilidades más prometedoras. "Conceptualmente no han inventado nada", asegura López de Mántaras, "esos sistemas eran conocidos desde hace mucho tiempo , pero hasta ahora no había los suficientes datos para alimentarlos. La diferencia es la ingente cantidad de datos con los que contamos ahora. Y Google es datos".

En este tablero —de 19 por 19— no se puede utilizar la "fuerza bruta" computacional que usó IBM contra Kaspárov: es imposible calcular todas y cada una de las posibles combinaciones

La empresa del buscador (ahora Alphabet) decidió descubrir en 2012 lo que daba de sí la inteligencia artificial: puso a 16.000 ordenadores a trabajar en su aprendizaje profundo para identificar elementos en vídeos de YouTube, sin ayuda ni aprendizajes previos. Después de 10 millones de visionados, comenzó a identificar a los reyes de la red: los gatitos. Hizo falta un esfuerzo descomunal de datos masivos para captar lo que es un gato. "¿Cuántos gatos necesita ver un niño para entender lo que es un gato? Uno. No tenemos ni idea de cómo lo hace, pero a partir de un solo ejemplo ya los puede reconocer", subraya el investigador del CSIC.

Las redes neuronales de AlphaGo se sometieron al visionado de 160.000 partidas de jugadores reales de alto nivel y 30 millones de movimientos para estar listas para la batalla. Si Lee Sedol hubiera jugado una partida al día desde los 10 años apenas tendría 8.500 encuentros a sus espaldas (un juego puede durar cinco horas fácilmente). Estas redes neuronales de aprendizaje profundo funcionan como capas que van reconociendo patrones haciendo abstracciones de la anterior capa: una identifica píxeles con formas, la siguiente formas de líneas horizontales, la siguiente líneas horizontales que se cierran, la siguiente concluye que son óvalos horizontales... hasta identificar ojos en las caras de la gente.

"Cuantas más redes neuronales, más difícil es entrenarlas", advierte López de Mántaras. A Hassabis le gusta comparar su método con el aprendizaje que realiza un niño. Cuando hay que mejorar la comprensión de la máquina, no es tan sencillo como programar más líneas de código: hay que enseñarle más y más ejemplos para que refine su entendimiento. Como en el ejemplo de los gatitos, la eficiencia de un niño en el aprendizaje es casi mágica a su lado. Para el juego, AlphaGo se terminó haciendo con patrones de posiciones ganadoras, ese vistazo intuitivo de los humanos. Y así derrotó a Sedol.

La mejor jugada del humano es tan buena como la más brillante que puede hacer la inteligencia artificial: una entre 10.000 posibilidades

"En los últimos años asistimos al fenómeno de la inteligencia artificial ganando a los humanos en distintas situaciones que no se esperaban tan pronto", afirma Amparo Alonso, presidenta de la Asociación Española para la Inteligencia Artificial, recordando casos como los de IBM con Jeopardy o el test de Turing. Pero cuando se habla de los logros de este campo, se olvida que las derrotas humanas tienen una incidencia clara en la forma de pensar de los propios humanos. Después de Deep Blue, el ajedrez no volvió a ser el mismo: las máquinas rompieron todos los esquemas y gracias a ellas ahora se juega mejor (a veces demasiado). Fan Hui, el campeón europeo de Go que ha servido de sparring para Google estaría mejorando a pasos agigantados su juego gracias a estos cinco meses de partidas contra la máquina, según Wired.

A pesar de sus buenos resultados, los expertos recuerdan que estas máquinas ganadoras son prototipos, no productos acabados, y por eso son susceptibles de cometer errores impropios de cerebros humanos campeones. El día que el superordenador de IBM Watson venció a los campeones de Jeopardy, ubicó Toronto en EE UU. Deep Blue cometió un extraño error al mover una torre cuando podría haber dado jaque, dejando noqueado a Kaspárov, que se obsesionó con la jugada porque no la entendía. En la cuarta partida contra Sedol, AlphaGo metió la pata en el movimiento 79. El jugador humano ganó esa única partida.

Pero ese movimiento fallido que la máquina no pudo remontar es consecuencia de otro detalle revelador de este enfrentamiento entre humanos y ordenadores. En el movimiento 37 de la segunda partida, AlphaGo realizó un movimiento tan brillante e inesperado que rompió por completo el juego y obligó a hincar la rodilla a Sedol. Según los cálculos de Deepmind, fue un movimiento tan ganador como improbable: solo en 1 de cada 10.000 partidas se le hubiera ocurrido algo así a un jugador. En la cuarta partida, justo antes del error de la máquina, Sedol hizo en el movimiento 78 algo tan extraordinario que levantó de sus asientos a los expertos y aficionados: un movimiento bello y ganador. Los de Google calcularon su valor: era una jugada entre 10.000, exactamente igual de improbable que la de la máquina. La mejor jugada del humano es tan buena como la más brillante que puede hacer la inteligencia artificial.

"Este logro es muy importante, pero no nos acerca en absoluto a la inteligencia artificial general, a la singularidad: estamos igual de lejos que antes"

"Este logro es muy importante, pero no nos acerca en absoluto a la inteligencia artificial general, a la singularidad: estamos igual de lejos que antes", asegura, en referencia a ese punto en el que el cerebro de la máquina sea capaz de aprender y desenvolverse por sí solo en distintos entornos. "No compro para nada la idea de que están consiguiendo mimetizar cómo funciona el cerebro, no tiene nada que ver", insiste López de Mántaras. Al hablar de inteligencia artificial, hay quien cree que se puede replicar el funcionamiento de la materia gris. En los comienzos de la aviación, hubo quien intentó desarrollar aviones que imitaran el aleteo de los pájaros, pero esa inspiración biológica no fue la mejor solución.

El proyecto Human Brain Project, financiado generosamente por la Comisión Europea, quería llegar a imitar con superordenadores el cerebro humano en 10 años, pero una revisión oficial les obligó a reconocer que tenían "expectativas poco realistas". Una encuesta realizada en 2014 por Nick Bostrom, el gurú de la superinteligencia, mostraba que el 82% de los expertos en esta materia creían que las máquinas nunca serán capaces de emular el aprendizaje y los demás aspectos de la inteligencia humana o al menos tardará más de 50 años (PDF). "Yo no lo veré, eso seguro", dice el investigador del CSIC, que cree que el gran hito sería que las máquinas comprendan el lenguaje natural y adquieran sentido común, que quizá sea una forma de denominar a la paradoja de Polanyi. 

¿Qué es lo que puede aportar? "Ya está haciendo muchas cosas, hoy, por nosotros", asegura Alonso, catedrática en la Universidad de A Coruña, y señala motores de búsqueda, monitorización de la industria, cortes de tejidos eficientes en el textil, detectores de spam y aplicaciones clínicas. Este último campo, el de la medicina, es el más prometedor. Ahí es donde Hassabis quiere aportar "metasoluciones" en el diagnóstico visual y en la búsqueda de fármacos. Deepmind ya tiene un acuerdo con el Sistema de Salud de Reino Unido, del mismo modo que IBM ya tiene a Watson trabajando con el laboratorio Merck. Aunque en medicina no es tan sencillo lo bueno y lo malo, no es un escenario binario en el que elegir una jugada que lleva a la victoria o a la derrota. Lo resume López de Mántaras: "El mundo es mucho más complicado que un tablero"

domingo, 6 de marzo de 2016

La agilización informática de la justicia la lentifica todavía más

Fernando Garea, "Dura crítica de la fiscal del Estado a un plan estrella del Gobierno. Consuelo Madrigal asegura que la informatización de la Justicia provoca "ineficiencia, retraso e inseguridad" El País, 5 MAR 2016 

La fiscal general del Estado, Consuelo Madrigal, ha dirigido una carta al Gobierno en funciones en la que lanza un duro reproche sobre una de las últimas decisiones que adoptó el Ejecutivo antes de las elecciones: un nuevo sistema informático para la Administración de Justicia que debe eliminar el papel. La misiva incluye un infome en el que critica que este sistema provoca “ineficiencia, retraso e inseguridad” y le pide que se replantee su mantenimiento y extensión. La denuncia de la fiscal se une a las críticas de otros sectores de la Justicia.

El Gobierno aprobó el 27 de noviembre un Real Decreto que establece un sistema informático denominado LexNet que debe extenderse a todas las Fiscalías. El sistema debe servir para aplicar la ley de Enjuiciamiento que prevé la presentación de escritos de forma solo telemática, uno de los proyectos estrella promovidos por el actual ministro de Justicia en funciones, Rafael Catalá.

Sin embargo, esta semana la fiscal general del Estado ha remitido una carta a Catalá con un informe técnico de la Fiscalía que asegura que ese sistema provoca “ineficiencia, retraso e inseguridad”. El documento de Consuelo Madrigal analiza el funcionamiento del LexNet y concluye que no resulta operativo y que, por ese motivo, debe plantearse frenar su implantación.

Madrigal enumera de la siguiente forma las principales disfunciones: “En resumen, la excesiva lentitud del sistema, sus constantes caídas, la reiterativa petición de usuario y contraseña, las obligadas salidas del sistema para volver a reiniciarlo, el ingente volumen de notificaciones recibidas en asuntos en los que la Fiscalía no es parte, las pérdidas temporales de notificaciones recibidas, los avisos de rechazos de escritos de trámite dos días después de su remisión, la imposibilidad de controlar y visualizar la entidad del expediente, la ausencia de firma de las resoluciones judiciales que se notifican, así como la insuficiente formación recibida y la imposibilidad de haberse familiarizado con el sistema entre otras”.

Todo ello, añade, “está generando en las Fiscalías tal ineficiencia, inseguridad e incremento de la carga tanto administrativa como en el despacho de asuntos, que obliga a replantearse su mantenimiento y/o extensión a un orden jurisdiccional como el penal en el que por su trascendencia y volumen el impacto de su implementación resulta mucho más gravoso”.

sábado, 5 de marzo de 2016

Nomofobia

Nomofobia

por Maria C. Orellana 5-III-2016

Al final de la tarde salgo agotada de una reunión de casi tres horas ininterrumpidas durante las cuales todos los presentes hemos tenido el móvil sobre la mesa o en el regazo. Nada más empezar, algunos ya habían empezado a mirar de soslayo sus dispositivos, a la media hora intercambiaban mensajes con disimulo y hacia el final de la sesión casi todos consultaban descaradamente las redes sociales o las noticias sobre el debate de investidura que había tenido lugar en el congreso de los diputados.

No parece muy educado y es estéticamente penoso que las personas a las que te diriges dentro de una sala estén consultando el móvil. Pero al parecer es inevitable, porque más del 50% de la población sufre “nomofobia” (del inglés no-mobile phobia) en mayor o menor grado, es decir, sienten angustia cuando no están conectados al mundo a través de su dispositivo móvil. Estudios recientes han demostrado que los niveles de estrés que sufren los nomofóbicos agudos si se agota su batería o pierden la cobertura son similares a los que se dan en una visita al dentista.

Es un hecho que todos estamos cada vez más enganchados al Smartphone, sin importar edad ni condición. Me incluyo, con salvedades: aunque el fin de semana logro dejarlo apartado para “desintoxicarme”, debo reconocer que en la oficina me llevo el móvil incluso al excusado, no vaya a ser que justo en ese momento reciba una llamada profesional urgente. De hecho, el otro día se me cayó por accidente dentro del inodoro y armándome de valor pude rescatarlo del fondo (por suerte bajé corriendo al comedor, donde una de las cocineras tuvo la amabilidad de darme un bol de arroz que me permitió resucitar el dispositivo in extremis).

Mi ex compañera Ainhoa, a la que siempre he admirado por su capacidad multitarea, solía aprovechar las visitas al lavabo para hacer esa llamadita imprescindible que los asuntos urgentes no le habían permitido realizar. Me aseguraba que al otro lado de la línea nadie se daba cuenta, ni siquiera cuando vaciaba la cisterna.

Pero esto no debe ser cierto, porque mi amigo Carlos me cuenta que al teléfono, cuando se percata de que su interlocutor está ocupado en el inodoro durante la conversación, se indigna y da por terminada la llamada. Le pregunto cómo se da cuenta, y efectivamente, me confirma que al otro lado se oye.

Tengo que decírselo a Ainhoa.

martes, 5 de enero de 2016

El desmesurado coste del narcisismo

Se está vendiendo mucho disco duro estas Navidades; antes un "tera" abarcaba muchísimo espacio de memoria, ahora ya es insuficiente. ¿Por qué motivo? Porque la gente quiere archivar imágenes, casi siempre de sí mismos o de sus imitaciones genéticas. La imagen sirve así para vender equipos informáticos y móviles más potentes y, por tanto, más caros. Antieconómico parece el texto: ocupa poca memoria y suele contener ideas nefandas y críticas y más viejas que el capitalismo o el hambre (no hay nada más antiguo que eso). Así que las innovaciones sobre los textos son despreciadas olímpicamente por la tecnología. Porque las ideas siempre son iguales, farrucas y desafiantes: carecen de la jeta y gestualidad de los que llamaban en el XIX "cambiacolores" y hoy chaqueteros, que todo es moda en chaquetas y envoltorios y aplicaciones. Todo se reduce a colorines y dibujitos y merchandising, todo se varía sobre fondo calcado, incluso Star wars, ahora incluso con matanza de padre incluida y chica en vez de chico. Las ideas "no se venden", es más, algunos las confunden con los vulgares y persistentes dolores de cabeza. 

Es, por ejemplo, mucho más barato tener un sistema operativo Linux que cualquiera con obsolescencia programada (Windows, por caso) cuya única diferencia consiste en el relumbrón y, sobre todo, la "visibilidad" publicitaria, algo que también llaman "viralidad"; la tiranía de lo que está más visto (como el ¡otra vez! desaparecido y reflotado Windows "Vista"), o lo más vistoso: no en vano no existe el adjetivo "ideoso". El Giligates es tan "fecundo en imágenes" como Ulises era "fecundo en ardides".

Todo el mundo se ha vuelto ahora fotógrafo y lo fotografea todo; es tan rentable para el ego como para el capitalismo, aunque no lo sea para nuestra salud mental o la de los demás eso de ser mismo a todas horas. La publicidad ponzoñosa y tóxica se ha adueñado incluso de nuestro espíritu (aunque eso le importe menos que nuestro bolsillo) y lo es todo, incluso en política: una capa, un vestido con trasparentes en el programa más "visto" del año no vende ideas, no vende nada: solo vende a su propietario; ¿quién vendería unas ideas honestas y cabezonas a lo Julio Anguita o, para ser ciudarrealeños, Emilio Calatayud? ¿Recordáis una sola frase memorable y persistente de un presentador de cualquier canal de televisión en la última semana o solamente su maldita estampa o el modelito que lució? El alzhéimer del concepto caracteriza la cultura de la imagen e incluso la cultura política, que es solo imagen. Se vende en ellos solo la "buena presencia" que piden los mezquinos anuncios de empleo, o la vulgar "jeta" del que se autovende como las putas. 

Y de la venta de imagen tienen también una gran culpa algunas mujeres que fomentan esta moral torticera de la falta de intimidad enseñando todo lo que pueden con su forma de vestir en vez de cultivar la simpatía, el don de gentes, los modales, la cultura, la inteligencia, la comprensión o la sensibilidad; se hacen mirar por detrás porque ya sabemos que de la gran mayoría solo podemos esperar un habla (no digo ya escritura) de alabardero: solo es posible mirarlas por el envés, pues tienen tanto culo como el diario deportivo As. La hola de pseudomariconería que nos embarga tiene origen en lo comercial que es la manera de ser de las mujeres, lo que vende su narcisismo y su costumbre de cambiar de imagen.

En retórica a esto se le llama "ethos". Si se quiere extraer el voto a un grupo, los retóricos sabemos que podemos intentarlo con tres tipos de palancas: el logos, el pathos y el ethos. El logos son simplemente las razones, que mueven según los sociólogos al veinte por ciento de la gente. El pathos (las emociones) y el ethos, (la apariencia, conducta y ejemplo), mueven al setenta por ciento restante. El diez por ciento restante corresponde a psicópatas y nihilistas que solo actúan impulsados por sus propios intereses egoístas; su característica más asentada es saber engañar e imitar estupendamente al otro noventa por ciento; muchos de ellos son delincuentes, pero también hay, y eso se sabe desde hace poco, bastantes políticos: saben imitar como nadie el ethos, el pathos y el logos... para aprovecharse de ellos. 

Los suecos, que sabían que no podían competir con los americanos en tecnología ni con los chinos en salarios bajos, inventaron Ikea: una empresa que te vende solo los elementos de una idea de forma que tengas que armarla tú y aprendas a valerte por ti mismo y a saber lo que cuesta el peine. Así venden solo materiales y elementos sueltos y ahorran salarios y costes de producción, dejando que la plusvalía se quede en el que compra. ¡Qué marca más educativa y antimoderna! ¡Al estilo del filósofo anarquista americano Henry David Thoreau! ¡Como los libros que dicen son objetos obsoletos pero son más baratos, no consumen energía ni pilas, son biodegradables y no contaminan ni se estropean ni se actualizan en cinco siglos! Otro invento mucho tan antiguo que parece casi fruto de la más audaz modernidad es el dinero en papel, o sea, el billete, así, como suena. ¡Qué ventajas tiene frente a la tarjeta! No te cobran comisiones por él, no te manipulan estadísticamente ni pueden hacer con él gráficas de consumo, no pueden usar tus datos para engañarte mejor. Ni siquiera se estropea o da problemas como las tarjetas, esos distintivos con número de campo de concentración. ¿Para qué tarjetas, si ahora es más fácil falsificar una tarjeta que un billete? Pero, claro, nuestra sociedad capitalista se mueve por intereses, no por ideas. Y por intereses de mangantes, que es lo peor.

Imaginemos que tenemos un gobierno al estilo de Ikea: nos gobernamos a nosotros mismos sin distancia respecto a los problemas y los resolvemos sin tener que contar con esos costosos chorizos intermediarios que viven de la política y permanecen hasta cuarenta años corrompiéndose en los tres poderes (el poder corrompe, y el poder que dura demasiado corrompe absolutamente). Esos, los políticos profesionales, que viven del cuento político o son incluso personajes de cuento, como el rey o las princesas, y no se ganan la vida con un medio honesto sin tentaciones de ruindad (algunos incluso carecen de trabajo reconocido que no sea el político y son meras larvas, garrapatas o rémoras del estado o del sistema). Imaginaos, como imaginó John Lennon, que nos gobernamos como en la pacifista Suiza, sin corruptos gobiernos intermediarios, consultando al pueblo de un modo que incluso ahora sería más fácil y económico hacer, mediante Internet. Pero ¡nada! nuestros profesionales de la política son tan antiguos que hay que dárselo todito hecho: sin respuestas, sin remedios, sin... vergüenza. La imaginación (que nunca irá al poder), la inteligencia se les gasta en chanchullos y no en resolver problemas que nunca estarían mejor resueltos que con nosotros. "Tenemos experiencia", dicen, pero lo que han tenido y tienen es todo el tiempo posible y aún más para corromperse. Lo dicho: hagamos a nuestros políticos en Ikea, dejémonos de dedazos y de políticos profesionaes y dejemos a los profesionales de la materra en el parque infantil mordiéndose, escupiéndose y cagándose unos en otros, funciones propias de su altísimo intelecto y sus gustos narcisistas.

sábado, 2 de enero de 2016

IMind, Otro programa robot para entender el lenguaje humano


Un pastor alemán puede ser un perro o un señor que tiene ovejas: el análisis del contexto nos permite comprender la diferencia entre ambos significados. A partir de esta idea, un grupo de emprendedores españoles han creado iMind Technology, una spin off apadrinada por la empresa tecnológica Full on Net que durante ocho años ha trabajado en un programa informático sobre inteligencia artificial.

Su producto es, según sus fundadores, “un cerebro artificial sin conciencia que permite a la máquina ir aprendiendo a medida que se interactúa con ella”. El Banco Santander y Vodafone han adoptado esta herramienta, capaz de procesar el lenguaje e interpretar lo que una persona quiere decir, y que se anuncia como un asistente para realizar ventas, un sustituto de un centro de atención telefónica o un programa para el servicio interno de cualquier compañía. “Es una herramienta enfocada a cómo pensamos las personas, intenta amoldarse a nuestros mecanismos psicológicos”, señala David Martínez, ingeniero informático y uno de los creadores. “Esa mente artificial interactúa con los clientes y los entiende. Comprende su situación emocional. Se diferencia de Siri [el asistente de Apple] en que Siri sólo entiende el idioma, no el sentido de las frases”.

Su director, Ramón J. Fonte, psicólogo de profesión, cree que esa tecnología “puede ayudar tanto a las organizaciones como a las personas”. Pone como ejemplo una empresa que venda 1.000 referencias de productos. Semantics, su software, se informa sobre todas ellas y aprende a asesorar al cliente que busca un producto concreto: “Eso consigue unos importantes ahorros de costes”, señala su director.

“Es capaz de aprender de lo que está ocurriendo y tomar decisiones basándose en lo que tú le pides”. Una de sus características es que incorpora un análisis de sentimientos por medio de la biometría de la voz, “lo que abre las puertas al procesamiento de aspectos típicamente humanos, como la ironía o el sarcasmo”. También recuerda las distintas voces, lo que le ayuda a mejorar la interac­ción gracias a que almacena experiencias previas. Pero no necesita ser entrenado por una voz concreta, como algunos GPS: su índice de acierto es independiente del hablante gracias a una serie de algoritmos que extrapolan las características de cualquier voz y establecen un patrón general.

Se comparan, e incluso dicen estar por delante de grandes multinacionales. “Hay algunas herramientas similares en el mercado, pero no están tan avanzadas como la nuestra en la interacción mental, es decir, en lo que va más allá de la tecnología, la capacidad de comprender”, señala Martínez. Más de 20 desarrolladores y 2,5 millones de euros de inversión han sido necesarios para que Semantics llegue al mercado. “No existe nada en castellano que funcione con esta precisión”, señalan sus creadores, que este año facturarán cinco millones de euros. El producto permite incorporar diccionarios temáticos en su memoria (con terminología técnica procedente de áreas como la financiera o la científica). Es compatible con todo tipo de programas de otros fabricantes y cumple con las normas de seguridad estándar del mercado. Su implantación puede realizarse en unos tres meses, y responde a los humanos tanto por voz como a través de la escritura.

Información clave

Semantics se alimenta de los datos de la empresa, pero también es capaz de leer otro tipo de información heterogénea contenida en blogs, redes sociales o vídeos. “Puede organizar toda esa información y alinearla con el objetivo que tenga una compañía. La calidad de los datos es su punto fuerte”, asegura Fonte. “Está orientada al big data, así que cuanto más contenido existe en el sistema, más eficaz resulta”.

Los emprendedores, afincados en Madrid, quieren hacer que 2016 sea el verdadero año de lanzamiento, aunque llevan tres comercializando el software. No se han planteado vender la empresa: “Nos interesa desarrollarla, esa es nuestra principal preocupación”. Su reto comercial es llegar a grandes clientes internacionales compitiendo con tecnológicas como Facebook, Google o IBM. Todo desde una pequeña oficina de Madrid.

El imperio de los datos

Hace exactamente dos años, IBM anunciaba el lanzamiento del Grupo Watson, una nueva unidad de negocio dedicada al desarrollo y comercialización de “innovaciones cognitivas en la nube”. El proyecto, en el que ha invertido 1.000 millones de dólares, quiere hacer llegar al mercado “una nueva clase de software, servicios y aplicaciones capaces de aprender y dar respuesta a preguntas complejas gestionando una gran cantidad de información (big data)”. Hace dos semanas la compañía anunciaba que Múnich será la sede de su centro de Watson para Internet de las cosas. Allí trabajarán unos 1.000 expertos desarrolladores, consultores, investigadores y diseñadores en industria 4.0.

Otras grandes multinacionales han apostado por investigar en este gran nicho de mercado. Según los analistas de Gartner, las máquinas inteligentes van a ser las protagonistas de la próxima revolución tecnológica en sectores como sanidad, la distribución, los servicios financieros, los viajes o las telecomunicaciones. Las aplicaciones son infinitas: los centros de atención al cliente clásicos, por ejemplo, suelen presentar tasas de abandono de los usuarios muy elevadas, y un alto porcentaje termina por afectar a la imagen de las compañías.

En el comercio electrónico, la mitad de las ventas por Internet se acaban perdiendo porque el cliente no es capaz de encontrar exactamente lo que busca en los catálogos de las plataformas online. Aunque por ahora, como explican en iMind, el nivel de penetración de los sistemas que incorporan inteligencia artificial es escasa, ya que en ocasiones están poco desarrollados o son incompatibles con herramientas de otras marcas. Además, sus precios suelen ser altos.

miércoles, 16 de diciembre de 2015

Últimos avances científicos y tecnológicos


Han pasado tantas cosas propias de una novela de ciencia ficción que uno se pregunta si la ciencia ficción empieza a resultar aburrida respecto a la realidad. Por ejemplo, en estos últimos diez años tuvo lugar el experimento global más importante, y costoso, de la historia de la humanidad: el inicio del Gran Colisionador de Hadrones. Localizamos a Higgs, entendiendo un poco mejor la estructura de la realidad, y también se creó antimateria. Concretamente se atraparon treinta y ocho átomos de antihidrógeno: un gramo de esta antimateria, si entrara en contacto con un gramo de materia, generaría la energía equivalente a la bomba de Hiroshima.

Hace veinte años ni siquiera habíamos detectado ningún planeta fuera del sistema solar. La madrugada del 6 de marzo de 2009 lanzamos al espacio un satélite artificial que orbita alrededor del Sol que busca planetas extrasolares, Kepler, y ya ha detectado 1705.

Tras analizarse el meteorito Murchison, descubrimos que en la roca había quince aminoácidos que se habían formado fuera de la Tierra. Ello otorga aún más validez a la teoría de la panspermia, pues algunos de estos aminoácidos todavía no se han encontrado en nuestro planeta. También nos empuja a preguntarnos de nuevo si hay vida allí afuera.

Reino Unido es el primer país del mundo donde será legal concebir a un ser humano a partir del ADN de tres personas, a fin de erradicar algunas enfermedades hereditarias. La técnica de modificación genética ha sido desarrollada por científicos de la inglesa Universidad de Newcastle, y el primer bebé con el ADN de dos mujeres y un hombre podría llegar al mundo en otoño de 2016. Incluso se ha creado ya esperma artificial.

En 2008 había mil millones de dispositivos de internet conectados a la red. En 2012 había más dispositivos móviles conectados a internet que habitantes en la Tierra. Son cifras inconcebibles si las comparamos con las de 1985, un año donde nadie tenía internet, y los teléfonos móviles eran un privilegio del que apenas disfrutaba un millón de personas.

Pero todas estas noticias son solo las crestas de un tsumani hipertecnológico que cambiará el mundo en pocos años, como ya abordamos en El STEM está cambiando el mundo mucho más de lo que crees. Todavía hay más.

Personajes alucinantes

Esta es una lista de hombres y mujeres casi sobrenaturales que están cambiando el mundo. Lo más sorprendente es que casi ninguno de ellos suena demasiado en los medios de comunicación de masas. Como bien sabe Dean Kamen (y por eso fundó el FIRST), pregúntale a un joven acerca de algún deportista vivo y te dirá decenas. Pregúntale acerca de algún científico vivo y probablemente responderá Albert Einstein (¿está vivo?).

Personajes como George Church, el hombre que tiene más patentes que cromosomas en su cuerpo. Sara Seager, la astrónoma que más exoplanetas ha descubierto y que también asesora a Planetary Resources, una empresa de minería espacial (hay más de mil quinientos asteroides que están más cerca que la Luna, una fuente inagotable de, por ejemplo, platino, lo que reducirá los costes de aparatos electrónicos y de motores eléctricos). El director de esta empresa de ciencia ficción es Chris Lewicki, un visionario al que también asesora uno de los fundadores de Google, otro de Yahoo, el director de cine James Cameron y un puñado de astronautas y científicos de reconocido prestigio.

Elon Musk, creador de Paypal, SolarCity (la empresa de energía solar más importante de Estados Unidos), la batería Tesla, el transporte futurista Hyperloop o Space X. Uno de sus planes futuros es enviar a ochenta mil colonos a Marte a un coste de quinientos mil euros por colono. Quizá Marte está muy lejos, por eso Norman Foster ya está diseñando los edificios que las impresoras robot 3D D-Shaper deberán construir en la Luna.

Peter Diamandis, uno de los propulsores de la Singularity University junto a Google y NASA y creador del XPrize, que ha fundado Zero G, una empresa que ya ha llevado a más de diez mil personas, entre ellas a Stephen Hawking, a probar la gravedad cero en un vuelo parabólico. Según su criterio, la búsqueda de recursos y el turismo son las dos grandes fuerzas que han abierto todas las fronteras. También lo hará la frontera espacial gracias a los nuevos planteamientos de Burt Rutan.

Uno de los mayores expertos en computación cuántica (que multiplicará por miles de millones el número de operaciones por segundo de los ordenadores actuales) es Ignacio Cirac, director de la División Teórica del Instituto Max Planck de Óptica Cuántica, Premio Príncipe de Asturias 2006 y Medalla Benjamin Franklin (un galardón que también han recibido Stephen Hawking, Albert Einstein o Marie Curie).

La lista es interminablemente desconocida por el público general, y aquí tenéis aún más ejemplos.

Finalmente encontramos a los tecnofilántropos, una nueva casta de millonarios que se han enriquecido gracias a la tecnología y que, a diferencia de los ricos de rancio abolengo, suelen invertir parte de su fortuna en producir más desarrollos tecnológicos que favorezcan a la humanidad (ya sea por verdadero altruismo como por proyectar una mejor imagen pública). La Fundación Bill y Melinda Gates es la que más ha invertido en investigación médica. Mark Zuckerberg ha donado también el 99% de sus acciones de Facebook. Google ha hecho la mayor inversión de la historia para acabar con las enfermedades cardiovasculares, que matan a más personas en la Tierra que cualquier otra cosa. Jeff Bezos, el fundador de Amazon, consiguió por primera vez en la historia, en noviembre de 2015, que un cohete reutilizable llegara al espacio y más tarde regresara. Este hito reducirá el coste de los viajes espaciales y abrirá la frontera a otros planetas. Elon Musk estaba intentando hacer justo lo mismo, y si Bezos no hubiera existido él lo habría conseguido semanas o meses más tarde.

En 2012 nació la competición Qualcomm Tricorder XPRIZE, cuyo ganador será el que presente un prototipo capaz de registrar datos médicos críticos y diagnosticar al menos trece enfermedades diferentes. El dispositivo tendrá una masa inferior a los 2,3 kg y recordará al tricorder que se usaba en la serie Star Trek.

Google quiere hacer llegar internet a todo el mundo, incluso a los países más pobres, con el Proyecto Loon, y así conseguir que la tecnología permita a los habitantes de dichos países prosperar por sí mismos. Cuatro mil millones de personas nuevas están a punto formar parte de la aldea global 2.0, y ello acelerará todavía más todo lo que internet está provocando. Como escriben Eric Schmidt y Jared Cohen en su reciente libro El futuro digital:

Pronto estaremos todos conectados en la Tierra. Con los cinco mil millones más de personas que se van a unir al mundo virtual, el boom de la conectividad digital aportará beneficios en productividad, salud, educación, calidad de vida, y otras innumerables posibilidades en el mundo físico. Y esto será así para todos, desde los usuarios más elitistas hasta los que están en la base de la pirámide económica.

Por su parte, Facebook ya ha terminado la construcción de Aquila 1, un gigantesco dron que se mantendrá a unos veintisiete kilómetros con energía solar. El dron podrá permanecer en la estratosfera durante tres meses y su labor será radiar internet de banda ancha en las zonas rurales y de difícil acceso con los emisoras terrestres.

Neurociencia

En estos últimos diez años se ha realizado el primer mapa del cerebro humano, y posee más de cien millones de puntos que señalan la expresión genética y la bioquímica de cada punto, lo que permitirá desarrollar fármacos más eficaces.

Daryl Kipke y Takashi Kizo han creado un electrodo que tiene 0,007 mm de diámetro (un cabello humano tiene un diámetro de 0,8 mm). Es tan diminuto que puede conectarse a una sola neurona humana. Esto permitirá observar qué ocurre en el cerebro a nivel celular, asistiendo en directo a las señales eléctricas que construyen nuestros pensamientos. También permitirá que muy pronto podamos controlar artefactos externos como ordenadores o una silla de ruedas simplemente pensando en ello, como demostraron en 2005 científicos de la Universidad de Brown, del Hospital General de Massachusetts y el Centro Médico de Providence.

Una nanoprótesis devolvió la capacidad de hablar a una persona que había sufrido un ataque. Otra neuroprótesis controlaba la obesidad anulando el deseo de seguir comiendo compulsivamente.

Johnny Matherny se ha convertido en el primer hombre en usar una prótesis robótica controlada por la mente, es decir, como si la prótesis realmente fuera su brazo. La nueva actualización de esta prótesis también permitirá al portador sentir lo que toca.

Un ensayo con escáner cerebral realizado por la Universidad de California, y publicado en la revista científica Journal of Neuroscience, podía predecir que tres cuartas partes de las personas sometidas a la prueba iban a utilizar el producto determinado más activamente de lo que afirmaron. Es decir, que se logró predecir el comportamiento de las personas mejor que ellas mismas.

Nanociencia

Los nanorrobots más pequeños que se han diseñado hasta ahora son creación de científicos de la Universidad de Michigan y miden lo mismo que el punto final de esta oración. Muy pronto navegarán por el interior de nuestro cuerpo. El profesor de química T. Ross Kelly ha construido un nanomotor impulsado químicamente con setenta y ocho átomos. Ben Feringa, de la Universidad de Groningen, ha creado otro motor de cincuenta y ocho átomos, que además se impulsa con energía solar. Son tamaños tan inconcebiblemente pequeños que podríamos tener millones de estos dispositivos en la palma de la mano sin ni siquiera reparar en ello.

El primer paso de estos nanorrobots que viajarán por nuestro cuerpo, como en la película Un viaje alucinante o El chip prodigioso, mejorando nuestro organismo se produjo en la Universidad de Chicago, donde Tejal Desai curó la diabetes de tipo 1 en ratas con un dispositivo de nanoingeniería que incorporaba células pancreáticas. Este dispositivo permitía que entrase la insulina, pero no los anticuerpos que la destruyen. En Harvard, Shawn M. Douglas ya ha creado también un robot de tamaño molecular que envía medicamentos a células específicas, y siete mujeres de Dinamarca ya han probado un nanomédico del tamaño de una cabeza de alfiler que les inyecta cada veinticuatro horas una droga que revierte la osteoporosis (y así se evita que los pacientes abandonen el exigente tratamiento). Ya ha sido aprobado por la FDA.

Un equipo de la Universidad de Nueva Gales del Sur ha concebido un transistor funcional que tiene el tamaño de un solo átomo. Este será el primer paso de una nueva era informática: la atómica.

La nanotecnología es una de las ramas de la ciencia que más rápidamente está creciendo. En 2009, el mercado mundial de la nanotecnología facturaba 11.671 millones de euros. En 2001, el doble. Las previsiones para 2018 son de 3,3 billones.

Robert Freitas propone incrementar nuestros mil billones de conexiones neuronales con nexos de alta velocidad por medio de nanorrobots. Las nanocélulas sanguíneas llevarán doscientas treinta y seis veces más oxígeno a los tejidos por unidad de volumen que las normales. También nos valdremos de leucocitos artificiales, más eficaces que los naturales, lo que permitirá fortalecer nuestro sistema inmunitario. Freitas también estima que lograremos eliminar gracias a la nanotecnología el 50% de los trastornos médicos prevenibles y nuestra expectativa de vida superará holgadamente los ciento cincuenta años. Cuando prevengamos el 90% viviremos quinientos años. Con el 99%, más de mil años.

Enviar nanosatélites al espacio es tan barato que ya se lo pueden permitir incluso las universidades. Ya existen las primeras empresas que alquilan servicios de nanosatélites para tareas específicas. Por primera vez en la historia, los satélites ya no son una competición entre superpotencias económicas, sino un ejemplo más del poder del abaratamiento de la tecnología y la filosofía maker. La colaboración 2.0 también está fuertemente implicada en este movimiento nanosatelital: Skycube, por ejemplo, se patrocina a través de campañas de micromecenazgo a través de Kickstarter.

Ya hay robots de nueve gramos capaces de levantar por una pared de cristal un objeto de un kilo a su espalda, el equivalente a que un humano escalara un rascacielos cargando con un elefante. El modelo denominado µTug de doce gramos puede cargar dos mil veces su propio peso. Si este robot tuviera el tamaño de un ser humano, el equivalente sería arrastrar el animal más grande de todos los tiempos, con ciento veinte toneladas de masa (mucho más que cualquier dinosaurio conocido).

Inteligencia artificial

En 2008, el neurocientífico Henry Markram recreó el modelo de la neocorteza del cerebro de una rata gracias al ordenador Blue Gene de IBM, que es capaz de realizar veintitrés mil millones de operaciones por segundo (un 4% de la capacidad del ser humano).

El Proyecto Cerebro Humano aspira a simular las funciones de los ochenta y seis mil millones de neuronas del cerebro humano, así como los mil billones de conexiones neuronales. Probablemente será un gran paso para crear una mente artificial, y por el camino se averiguarán las causas de seiscientas enfermedades del cerebro.

De momento, los robots ya hacen cosas que parecían inconcebibles hace una década. Es el caso de Baxter, un robot que aprende a trabajar fijándose en otros robots. Es decir, aprende por imitación. Que una inteligencia artificial conduzca el coche por nosotros también parecía una idea propia de películas de ciencia ficción, pero los coches autónomos de Google ya habían conducido, en 2010, más de 1,5 millones de kilómetros por California y Nevada. Coches sin conductor que ruedan a sus anchas tanto por zonas montañosas como por autopistas o entornos urbanos. Incluso han circulado por Lombard Street, en San Francisco, la calle más sinuosa del mundo, esquivando peatones, ciclistas y runners, parándose en los pasos de cebra, obedeciendo los semáforos, siguiendo las normas de tráfico. LIDAR es el responsable de este milagro.

Pero lo que todos queremos es ver a Skynet funcionando (aunque sin sus ínfulas de dominación mundial). Todavía no existe, pero en esta última década nos estamos acercando mucho. Deep Blue, de IBM, perdió al ajedrez contra el campeón mundial, Gary Kasparov. Eso fue en 1997. Deep Blue solo era fuerza bruta, no era capaz de aprender. Pero la siguiente generación de ordenadores de IBM, WATSON, sí que es capaz de hacerlo.

Ahora ya no hay seres humanos capaces de ganar al ajedrez a un ordenador, pero tampoco al juego Jeopardy! Este concurso de la televisión estadounidense consiste en adivinar la pregunta que corresponde a una determinada respuesta, jalonado todo ello con dobles sentidos, juegos de palabras y formulaciones abstrusas. Por ejemplo: «Con mucha “gravedad”, este becario del Trinity College se convirtió en profesor de la Cátedra Lucasiana de Matemáticas de la Universidad de Cambridge en 1669». La respuesta es: «¿Quién es Isaac Newton?». WATSON resultó imbatible en el concurso, ganando incluso a los campeones.

WATSON usa la técnica del machine learning, y ahora ha empezado a estudiar medicina. Le están introduciendo cientos de miles de trabajos médicos, millones de páginas de ensayos clínicos y publicaciones médicas, millones de historiales médicos de pacientes reales… y está aprendiendo. El objetivo es que WATSON se convierta en el mejor médico del mundo, y que un médico de Nairobi o uno de Madrid pueda acceder, por igual, a través de su smartphone, a sus diagnósticos online. El mejor médico del mundo estará así en todos los rincones del planeta, y con un coste marginal próximo a cero. De momento, el Centro de Cáncer MD Anderson de la Universidad de Texas ya usa WATSON para asesorarse acerca de la leucemia. Y el Centro del Cáncer Memorial Sloan Kettering de Nueva York lo está probando para el diagnóstico y tratamiento de cáncer de pulmón, colorrectal y de mama.

Del machine learning estamos también evolucionando al deep learning, que pasa de un aprendizaje automático a un aprendizaje que imita al máximo el hardware y el software del cerebro humano. El deep learning permite analizar imágenes (documentos, vídeos, fotos, etc.) mucho mejor que un ser humano, localizando patrones, tendencias, errores y posibles mejoras. ImagenNET es un concurso anual que premia a la red neuronal artificial que clasifique mejor un grupo de imágenes. En 2011, el ganador clasificó imágenes con una tasa de error del 25,8%. En 2012, la tasa de error solo era del 16,4%. En 2013, fue del 11,7%. En 2014, del 6,7%. En enero de 2015, Baidu logró una tasa de error en el reconocimiento de imágenes del 6%. En febrero, Microsoft alcanzó el 4,9%. En marzo, Google alcanzó el 4,8%. El ser humano tiene una tasa de error que ronda el 5%.

Microsoft ya trabaja en Project Adam, que usa una red neuronal de dos mil millones de conexiones y una base de datos de quince millones de imágenes. Según explica Josep Maria Mainat en su libro Ciencia optimista:

Microsoft ha demostrado que, gracias al aprendizaje profundo, su sistema no solo es capaz de reconocer un perro en cualquier imagen, sino que puede decir con total precisión qué raza es.

Annabell, concebida en 2015 por investigadores de las universidades de Sassari, en Italia, y Plymouth, en el Reino Unido, es ya una inteligencia artificial que aprende por sí misma a hablar y logra una fluidez verbal de un niño de cuatro años. Inicialmente, Annabell respondía con frases aleatorias, pero a partir de las reacciones de los humanos («me gusta lo que dices») fue aprendiendo qué respuestas eran correctas en cada caso. Cada vez está aprendiendo más.

Na Yang y Emre Eskimez, de la Universidad de Rochester, han creado un software que no solo capta las emociones más o menos ocultas en las palabras de las personas, sino que lo hace mejor que los propios humanos en el tono de voz, fijándose en el tono, el timbre o la intensidad del mensaje. Tal y como señala Tyler Cowen en su libro Se acabó la clase media:

En la actualidad, incluso estamos encontrando programas de ordenador capaces de superar las pruebas de Turing estéticas, por así decirlo. Los ordenadores están componiendo música y no siempre es fácil saber qué canción es obra de un ser humano y cuál ha sido compuesta por un ordenador.

No sabemos qué «finisterres» alcanzaremos, pero Stephen Hawking, Elon Musk y Bill Gates advierten ya acerca de los peligros potenciales que presenta el desarrollo descontrolado de una inteligencia artificial. Linus Torvalds, padre de Linux, considera que no debemos tener miedo, y que no nacerá Skynet, sino desarrollos concretos para ciertas áreas: aprendizaje, conducción, reconocimiento de patrones, etc. Para Raymond Kurzweil, sin embargo, la singularidad está muy cerca.

Sea como fuere, según un estudio de la consultora japonesa NRI, que analizó más de seiscientos puestos laborales que ahora realizan humanos, en 2030 el 49% de los mismos los llevarán a cabo de forma automatizada software y/o elementos ruborizados de algún tipo. Esto obligará a que aparezcan nuevos tipos de trabajos humanos aún inimaginables, pero también a la asunción de que el abaratamiento general de los procesos y los productos permitirá que un porcentaje de la población ya no necesite trabajar o trabaje menos horas. Un buen libro para profundizar en este escenario es La sociedad del coste marginal cero, de Jeremy Rifkin. Tal y como señalan también los especialistas Eric Schmidt y Jared Cohen en Futuro digital:

A medida que vayan implantándose las garantías de seguridad para proteger la privacidad y evitar la pérdida de datos, estos sistemas nos liberarán de muchas pequeñas cargas; incluyendo recados, listas de cosas para hacer y diversas tareas de «supervisión»; que a día de hoy añaden estrés y nos ocupan la mente a lo largo del día. Nuestros propios límites neurológicos, que nos llevan a olvidos y descuidos, serán suplementados por sistemas de información diseñados para facilitar nuestras necesidades. Dos de estos ejemplos son las «prótesis» de memoria; los calendarios y las listas de cosas para hacer; y «prótesis» sociales, que nos conectan instantáneamente con ese amigo que tiene los conocimientos relevantes para esa tarea que hay que afrontar.

Biotecnología

Craig Venter ha creado la primera vida sintética de la historia, escribiendo desde cero el ADN e introduciéndolo en una bacteria previamente vaciada de información genética. La bacteria se reprodujo posteriormente con normalidad, replicando ese ADN sintético a la perfección, como una imprenta biotecnológica del siglo XXI. Venter, un tanto egocéntrico (algunos le llaman Darth Venter), codificó su nombre en ese ADN, así puede comprobarse inconfundiblemente que las nuevas generaciones de bacterias tienen ese copyright escrito en sus genes. Todavía no es una vida artificial completa (porque requirió de una bacteria real), pero se le acerca bastante.

La investigación en células madre embrionarias se ha visto frenada por diversos credos políticos y religiosos, también morales, pero los investigadores ya han logrado rodear ese problema creando células madre pluripotentes inducidas (iPSC) a partir de células adultas (el descubrimiento hizo que Shinya Yamanaka y John B. Gurdon obtuvieran el Nobel de Medicina y Fisiología en 2012). Así, en 2013, científicos de la Universidad de Kioto crearon un ratón a partir de células madre, por primera vez en la historia. En 2014, se realizó el primer implante en humanos para tratar a una mujer que sufría degeneración macular. Las células madre se obtuvieron de la piel de la paciente y se retrogradaron en el laboratorio para transformarlas en células de la retina.

También se han creado órganos artificiales con iPSC que se introducen en un molde de plástico poroso que, a continuación, se introduce en un biorreactor, una suerte de incubadora, donde permanece sumergido en una solución de nutrientes. En 2011, en el Instituto Karolinska de Suecia se creó así una tráquea artificial que trasplantaron con éxito a un paciente. En ratones ya se han implantado huesos artificiales creados por investigadores de la Universidad de Granada y el CSIC gracias a unas plantillas porosas de carbón activado.

Todavía es más impresionante el logro de Sara Rankin, del Imperial College de Londres, que solo necesitó estimular la médula ósea de ratones para liberar una corriente de células madre de tejidos adultos concretos en la circulación sanguínea. Si sufrimos cualquier lesión en el cuerpo, pues, sin ninguna intervención recibiremos células madre generadas por nosotros mismos para formar nuevos tejidos, huesos, cartílagos, venas, arterias, etc.

Ya se ha creado la primera carne artificial, lo que permite sortear los problemas morales y medioambientales que supone alimentar y matar animales para su consumo (las vacas son las principales emisoras de gases de efecto invernadero). Fundada en 2011, Modern Meadow es una empresa especializada en el desarrollo en laboratorio de carne animal cultivada. La carne artificial está creada con las mismas células que la carne natural. En 2013, investigadores de la Universidad de Maastricht ya anunciaban la primera hamburguesa obtenida de células madre de vacuno. Este tipo de hamburguesa tendrá un un 96% menos de emisiones de gases de efecto invernadero y supondrá un 99% menos de superficie cultivada.

Energía solar

Una de las principales fuentes de energía del futuro será el Sol, y esa idea ya no suena a flower power. La razón, de nuevo, se la debemos al crecimiento exponencial de la eficiencia de las placas solares. Entre 1975 y 2012, las placas fotovoltaicas han pasado del 2 al 45% de su tasa de conversión de energía solar en electricidad, según explica Juan Scaliter en su libro Exploradores del futuro. El coste se ha reducido en la misma proporción. De seguir creciendo a esta velocidad, en 2027 ya podríamos generar toda la energía actual exclusivamente con la luz solar.

Esta curva de aprendizaje muestra el llamado efecto Swanson (en honor a su creador, Richard Swanson, fundador de SunPower), que establece que el coste por vatio cae un 20% cada vez que se dobla la capacidad solar mundial. Paralelamente, un «internet de la energía» cambiará la forma de generarla y distribuirla. Las personas se autoabastecerán de energía solar y producirán excedentes que podrán compartir con sus semejantes, en un sistema similar al peer-to-peer que nos permite compartir archivos digitales.

Impresión 3D

En 2014 algunas patentes muy importantes sobre impresión 3D se han hecho públicas, lo que permite usar la tecnología laser sintering, que produce un acabado perfecto en las muestras. Tanto herramientas como comida saldrán de impresoras cada vez más económicas. Organovo es una empresa que ya comercializa para investigación tejido hepático impreso en 3D. Antes de 2020, su director, Keith Murphy, asegura que ya imprimirán órganos completos para ser trasplantados. Tal y como lo explica Josep Maria Mainat en su libro Ciencia optimista:

La cosa funciona así: primero se crean una serie de «biotintas» con diferentes tipos de células madre humanas. Entonces una impresora 3D adaptada especialmente para esta tarea empieza a colocar los materiales biológicos, capa a capa, siguiendo un modelo digital del órgano humano deseado, diseñado previamente por ordenador con un programa de modelaje en 3D.

Chris Anderson, en su libro Makers, se muestra profundamente optimista con esta tecnología. También Peter H. Diamandis en Abundancia:

Mientras que las primeras máquinas eran simples y lentas, las versiones actuales son rápidas y ágiles y capaces de imprimir con un amplio abanico de materiales: plástico, vidrio, acero e incluso titanio. Los diseñadores industriales utilizan las impresoras 3D para hacer cualquier cosa, desde pantallas para lámparas y gafas hasta prótesis artificiales a medida. Incluso se utilizan en hobbies, produciendo robots que funcionan y aviones que vuelan autónomamente. Las empresas de biotecnología están experimentando con la impresión de órganos en 3D, mientras, el inventor Behrokh Khoshnevis, un profesor de ingeniería de la Universidad del Sur de California, ha desarrollado una impresora 3D a gran escala que suelta cemento para la construcción de casas baratas con varias habitaciones en los países en vías de desarrollo.

Educación

Mientras continuamos con ideas pedagógicas del siglo XIX y profesores del siglo XX para enseñar a alumnos del siglo XXI, los MOOC o Masive Open Online Courses ya han desembarcado en medio planeta. Las clases tradicionales y presenciales están siendo complementadas por decenas de iniciativas (de las que también se aprovechan alumnos de cualquier rincón del mundo sin recursos para asistir a tales clases), como son MITX (la unión online de MIT y Harvard), Khan Academy, Tor, Altius, Latimer Education, ITunesU, Capella University, Minerva Project…

Este tipo de educación no solo es más universal y más barata, sino que permite que se prodiguen las clases grabadas de los mejores profesores, que las evaluaciones las realicen los propios alumnos corrigiéndose mutuamente, que las aulas rompan sus paredes para proyectos mayores (Skype in Classroom) y, sobre todo, mejore la eficiencia: los alumnos aprenden un 60% más rápido, y son capaces de adquirir cinco veces más información que sus compañeros de educación presencial.

Hasta la democracia está siendo revolucionada desde hace unos años desde organizaciones políticas como el Partido Pirata sueco. Una de las ideas que podrían implantarse en breve es la llamada democracia líquida, que además de ser en tiempo real permitirá delegar nuestro voto a las personas que consideremos más competentes en los asuntos sobre los que debemos decidir. En este escenario ni siquiera serían importantes los políticos profesionales o los partidos.

Conexión

Si en 2011 había quinientos millones de teléfonos móviles en África y quince millones de smartphones, en 2015 se estima que haya más de setecientos millones de teléfonos móviles y ciento veintisiete millones de smartphones. En Kenia, por ejemplo, KAZI 560, una agencia de contratación, emplea móviles para conectar a trabajadores potenciales con empleadores potenciales. Sesenta mil keniatas encuentran trabajo a través de internet. En Zambia, los campesinos usan el teléfono móvil para comprar semillas y fertilizantes. Ushahidi («testigo» en swahili) es una ONG que se aprovecha de la enorme penetración de los teléfonos móviles, el smartphone y el WiFi en los países en vías de desarrollo para que ellos mismos prosperen. Kiva conecta a los países ricos y pobres sin intermediarios en forma de ONG, como describe Yochai Benkler en El pingüino y el Leviatán: «Kiva lo logra proporcionando información para humanizar los receptores».

Tal y como también escribe Frederic Martel en su libro Smart:

Sin electricidad, los móviles se recargan con las baterías de los camiones o con pequeños paneles solares. La conexión a internet pasa en general por una llave 3G. En un bungaló del Kliptown Youth Program, unos jóvenes andrajosos consultan su página de Faceook en unos PC conectados con gruesos cables a internet. Otros utilizan una aplicación, muy popular en Sudáfrica, denominada Mixit, que permite enviar gratuitamente mensajes instantáneos a los amigos desde cualquier teléfono móvil. También veo a unos chiquillos sentados en el suelo que matan el tiempo con videojuegos en pequeños portátiles de cien dólares de plástico verde manzana, los famosos portátiles XO regalados por la ONG americana One Laptop per Child.

La Primavera Árabe puso en evidencia hasta qué punto la conexión 2.0 es poderosa, tal y como explica Noel Ceballos en Internet Safari:

… cuando el 0,26% de la población egipcia que estaba activa en la red social (según un estudio de la Escuela de Gobierno de Dubái) consiguió convertir su lucha en trending topic a nivel global. Tras el 25E se produjo un boom de bebés llamados Twitter y Facebook en Egipto, casi al mismo tiempo que las calles de Libia se llenaban de pintadas con el logotipo del pájaro piando. Para algunos habitantes del Tercer Mundo, Twitter se había convertido en un icono de la revolución.

El Internet de las Cosas (IoT) todavía es un concepto vago para la población general. El concepto fue propuesto por Kevin Ashton en el Auto-ID Center del MIT en 1999. El IoT solo consiste en una serie de sensores diminutos que podrán incorporarse a toda las cosas que nos rodean, desde la ropa hasta un coche, pasando por el hilo dental. En 2003 apenas había tantos sensores como un cuarto de la población mundial. En 2007, la cifra se dobló. A finales de la década de 2010, Cisco pronostica que habrá un billón de sensores. Según ABI Research, más de treinta mil millones de dispositivos se conectarán de forma inalámbrica a la Internet de las Cosas para el año 2020. Todo ello cambiará la estructura económica y energética, como explica Jeremy Rifkin en su libro La sociedad del coste marginal cero:

… serán procesados mediante análisis avanzados y transformados por algoritmos predictivos que se programarán en sistemas automatizados para mejorar la eficiencia termodinámica, aumentar drásticamente la productividad y reducir casi a cero el coste marginal de producir y distribuir toda una gama de bienes y servicios por toda la economía.

En Futuro perfecto, Steven Johnson nos recuerda con datos, estadísticas y un enfoque centrado en cómo internet está convirtiendo a los individuos en una red o un superorganismo más inteligente y armónico, que el futuro de la humanidad es la colaboración 2.0. Ya hemos empezado a comprobarlo en creaciones como Wikipedia (hace una década nadie habría apostado que la gente no profesional y sin remuneración conseguiría dejar sin trabajo a los enciclopedistas profesionales, e incluso ser tan exacta como la Encyclopaedia Britannica). Hace diez años tampoco existía Kickstarter, que incluso consigue superar a empresas como Sony en el campo de la innovación. No en vano, Kickstarter, que fue fundado en 2008 por Perry Chen, Yancey Strickler y Charles Adler, fue considerado por la revista Time como uno de los «Mejores Inventos de 2010».

Porque internet ha propulsado el llamado crowdsourcing, que se define como el hecho de externalizar tareas que normalmente son llevadas a cabo por individuos concretos a un grupo de personas o comunidad (multitud) a través de una convocatoria abierta.

Cuando Shoshana Zuboff escribía en la década de 1980 el profético libro In the Age of the Smart Machine, advirtiendo que los ordenadores suprimirían las jerarquías de las organizaciones, otorgando el conocimiento (el poder) al pueblo, todavía no existía internet. En la última década, es justo lo que está ocurriendo. Clay Shirky, autor de Excedente cognitivo, lo tiene claro: esta clase de organización, la hiperconectada, permite que la suma de inteligencias genere una inteligencia emergente más flexible, eficiente y, en suma, brillante, que las inteligencias individuales en las que ahora depositábamos nuestra confianza. Yochai Benkler en su libro La riqueza de las redes sociales es aún más optimista, y cree que las civilizaciones futuras serán mentes colmena. Tal y como abunda en ello el psicólogo Dan Ariely en su libro Las trampas del deseo:

Merkaat ha democratizado la emisión de vídeo en streaming en cualquier momento y en cualquier sitio, como si dispusiéramos de nuestra propia productora de televisión. Tripadvisor y Foursquare ha democratizado la crítica gastronómica, hotelera y de cualquier otro servicio. Lo que caracteriza a todos estos servicios es que no los enriquece ningún experto, ni profesional, ni persona que cobra dinero por sus servicios. Los servicios se enriquecen y ofrecen más información que nunca antes en la historia debido a la colaboración entre pares, entre semejantes.

La mente colmena, además, será millones de veces más eficiente, e inteligente, gracias al apoyo del Big Data. El diagnóstico médico a través del Big Data, por ejemplo, eliminará en breve a la mayoría de los profesionales médicos (y sus alarmantes cifras de errores diagnósticos).

Cosas que no dejan de pasar

Este artículo, que puedes complementar con la lectura de El STEM está cambiando el mundo mucho más de lo que crees, es solo una porciúncula de lo que está ocurriendo ahora mismo en el mundo. En realidad están pasando millones de cosas más, algunas de las cuales seguramente son más asombrosas.

Dentro de poco habrá más personas que nunca participando en este cambio, incluidos miles de millones que aún ni siquiera tienen internet y que muy pronto sí podrán participar en la aldea global. Los próximos diez años, ley de Moore mediante, crecimiento exponencial extrapolado a cosas, tecnologías y personas, serán mil veces más excitantes.