Javier Salas, "Una victoria de la inteligencia artificial que desnuda los secretos de la mente. La derrota frente a la máquina de Google revela detalles de la complejidad del cerebro humano", El País, 19 MAR 2016:
Hace justo medio siglo, mientras en las radios de todo el mundo triunfaban las Supremes, el pensador Michael Polanyi publicó un libro (La dimensión tácita) en el que proponía una vistosa idea: debíamos reconsiderar la noción de conocimiento humano partiendo de la base de que "sabemos más de lo que podemos explicar". Para construir esta paradoja, Polanyi ponía ejemplos como la conducción de coches y el reconocimiento de rostros: sabemos conducir o identificar a una persona al ver su cara, pero no sabemos muy bien cómo lo hacemos. Hay intuiciones, capacidades e instintos que se manifiestan en cada cosa que hacemos y que nos permiten ser humanos eficientes.
La inteligencia artificial necesitó visionar millones de imágenes para captar lo que es un gato. "¿Cuántos gatos necesita ver un niño para entender lo que es un gato? Uno", zanja López de Mántaras
Hoy, 50 años después, los coches se conducen solos, los ordenadores reconocen caras y una máquina de Google ha derrotado a uno de los mejores jugadores de Go, algo así como un ajedrez oriental cargado de misticismo y tan complejo como la mente humana. Su tablero permite que las fichas se dispongan en más combinaciones distintas que átomos hay en el universo. Según reconocían los líderes de Deepmind —la empresa que ha logrado este reto para Google— se trataba del Santo Grial de la inteligencia artificial desde que DeepBlue quebró los nervios de Gari Kaspárov hace justo dos décadas.
Esta victoria de la máquina, AlphaGo, frente al campeón Lee Sedol nos ha ayudado a descubrir muchas cosas sobre la mente humana. La primera, que somos muy malos con las previsiones. Hace un año, uno de los expertos que iba tras este logro calculaba que nadie lo lograría hasta 2025. Al comenzar la contienda, Sedol aseguró que vencería 5 a 0 a la máquina: perdió 4 a 1. Es impagable la grabación de la primera partida del torneo, en la que el campeón coreano permanece 20 segundos con la boca abierta tras asistir a un movimiento ordenado por la máquina. Después sonríe, con la inesperada satisfacción de tener delante un rival tan bueno como imprevisible, y se inclina sobre el tablero para concentrarse, como si hasta ese momento no se tomara muy en serio el reto (ver vídeo).
Demis Hassabis, el líder de Google Deepmind, habla con naturalidad de que han logrado imitar la "intuición" que necesitan los grandes jugadores de Go para plantear las partidas. En este tablero —de 19 por 19— no se puede utilizar la "fuerza bruta" computacional que usó IBM contra Kaspárov: es imposible calcular todas y cada una de las posibles combinaciones para escoger la óptima. AlphaGo debía jugar como haría un humano: obviar una mayoría abrumadora de las posibilidades y acudir directamente a un puñado de movimientos que le recomienda su olfato.
"Cuando un humano echa un vistazo al tablero, en este juego o cualquier otro, intuitivamente sabe lo que tiene que hacer", afirma Ramón López de Mántaras, director del Instituto de Investigación en Inteligencia Artificial del CSIC. Y puntualiza: "Pero AlphaGo no tiene intuición; me vale como metáfora, pero solo está haciendo funciones matemáticas". Este importante matiz que diferencia cerebro humano y de silicio tiene mucho que ver con la paradoja de Polanyi: seguimos sin saber cómo intuimos que vamos a ganar al mirar el tablero pero Hassabis publicó en Nature, con todo lujo de detalles, cómo lo hace su máquina: si tienen tiempo y recursos, podrían replicar el éxito de AlphaGo siguiendo las instrucciones de este estudio.
Deepmind combinó tres técnicas distintas de inteligencia artificial. Por un lado, el aprendizaje profundo, basado en la suma de cantidades masivas de información que permitan reconocer patrones: en este caso cientos de miles de partidas reales. También el aprendizaje por refuerzo, que permite a la máquina jugar contra sí misma para instruirse ejercitándose. Además, se sirvieron del llamado árbol de búsqueda de Monte Carlo, que selecciona aleatoriamente las posibilidades más prometedoras. "Conceptualmente no han inventado nada", asegura López de Mántaras, "esos sistemas eran conocidos desde hace mucho tiempo , pero hasta ahora no había los suficientes datos para alimentarlos. La diferencia es la ingente cantidad de datos con los que contamos ahora. Y Google es datos".
En este tablero —de 19 por 19— no se puede utilizar la "fuerza bruta" computacional que usó IBM contra Kaspárov: es imposible calcular todas y cada una de las posibles combinaciones
La empresa del buscador (ahora Alphabet) decidió descubrir en 2012 lo que daba de sí la inteligencia artificial: puso a 16.000 ordenadores a trabajar en su aprendizaje profundo para identificar elementos en vídeos de YouTube, sin ayuda ni aprendizajes previos. Después de 10 millones de visionados, comenzó a identificar a los reyes de la red: los gatitos. Hizo falta un esfuerzo descomunal de datos masivos para captar lo que es un gato. "¿Cuántos gatos necesita ver un niño para entender lo que es un gato? Uno. No tenemos ni idea de cómo lo hace, pero a partir de un solo ejemplo ya los puede reconocer", subraya el investigador del CSIC.
Las redes neuronales de AlphaGo se sometieron al visionado de 160.000 partidas de jugadores reales de alto nivel y 30 millones de movimientos para estar listas para la batalla. Si Lee Sedol hubiera jugado una partida al día desde los 10 años apenas tendría 8.500 encuentros a sus espaldas (un juego puede durar cinco horas fácilmente). Estas redes neuronales de aprendizaje profundo funcionan como capas que van reconociendo patrones haciendo abstracciones de la anterior capa: una identifica píxeles con formas, la siguiente formas de líneas horizontales, la siguiente líneas horizontales que se cierran, la siguiente concluye que son óvalos horizontales... hasta identificar ojos en las caras de la gente.
"Cuantas más redes neuronales, más difícil es entrenarlas", advierte López de Mántaras. A Hassabis le gusta comparar su método con el aprendizaje que realiza un niño. Cuando hay que mejorar la comprensión de la máquina, no es tan sencillo como programar más líneas de código: hay que enseñarle más y más ejemplos para que refine su entendimiento. Como en el ejemplo de los gatitos, la eficiencia de un niño en el aprendizaje es casi mágica a su lado. Para el juego, AlphaGo se terminó haciendo con patrones de posiciones ganadoras, ese vistazo intuitivo de los humanos. Y así derrotó a Sedol.
La mejor jugada del humano es tan buena como la más brillante que puede hacer la inteligencia artificial: una entre 10.000 posibilidades
"En los últimos años asistimos al fenómeno de la inteligencia artificial ganando a los humanos en distintas situaciones que no se esperaban tan pronto", afirma Amparo Alonso, presidenta de la Asociación Española para la Inteligencia Artificial, recordando casos como los de IBM con Jeopardy o el test de Turing. Pero cuando se habla de los logros de este campo, se olvida que las derrotas humanas tienen una incidencia clara en la forma de pensar de los propios humanos. Después de Deep Blue, el ajedrez no volvió a ser el mismo: las máquinas rompieron todos los esquemas y gracias a ellas ahora se juega mejor (a veces demasiado). Fan Hui, el campeón europeo de Go que ha servido de sparring para Google estaría mejorando a pasos agigantados su juego gracias a estos cinco meses de partidas contra la máquina, según Wired.
A pesar de sus buenos resultados, los expertos recuerdan que estas máquinas ganadoras son prototipos, no productos acabados, y por eso son susceptibles de cometer errores impropios de cerebros humanos campeones. El día que el superordenador de IBM Watson venció a los campeones de Jeopardy, ubicó Toronto en EE UU. Deep Blue cometió un extraño error al mover una torre cuando podría haber dado jaque, dejando noqueado a Kaspárov, que se obsesionó con la jugada porque no la entendía. En la cuarta partida contra Sedol, AlphaGo metió la pata en el movimiento 79. El jugador humano ganó esa única partida.
Pero ese movimiento fallido que la máquina no pudo remontar es consecuencia de otro detalle revelador de este enfrentamiento entre humanos y ordenadores. En el movimiento 37 de la segunda partida, AlphaGo realizó un movimiento tan brillante e inesperado que rompió por completo el juego y obligó a hincar la rodilla a Sedol. Según los cálculos de Deepmind, fue un movimiento tan ganador como improbable: solo en 1 de cada 10.000 partidas se le hubiera ocurrido algo así a un jugador. En la cuarta partida, justo antes del error de la máquina, Sedol hizo en el movimiento 78 algo tan extraordinario que levantó de sus asientos a los expertos y aficionados: un movimiento bello y ganador. Los de Google calcularon su valor: era una jugada entre 10.000, exactamente igual de improbable que la de la máquina. La mejor jugada del humano es tan buena como la más brillante que puede hacer la inteligencia artificial.
"Este logro es muy importante, pero no nos acerca en absoluto a la inteligencia artificial general, a la singularidad: estamos igual de lejos que antes"
"Este logro es muy importante, pero no nos acerca en absoluto a la inteligencia artificial general, a la singularidad: estamos igual de lejos que antes", asegura, en referencia a ese punto en el que el cerebro de la máquina sea capaz de aprender y desenvolverse por sí solo en distintos entornos. "No compro para nada la idea de que están consiguiendo mimetizar cómo funciona el cerebro, no tiene nada que ver", insiste López de Mántaras. Al hablar de inteligencia artificial, hay quien cree que se puede replicar el funcionamiento de la materia gris. En los comienzos de la aviación, hubo quien intentó desarrollar aviones que imitaran el aleteo de los pájaros, pero esa inspiración biológica no fue la mejor solución.
El proyecto Human Brain Project, financiado generosamente por la Comisión Europea, quería llegar a imitar con superordenadores el cerebro humano en 10 años, pero una revisión oficial les obligó a reconocer que tenían "expectativas poco realistas". Una encuesta realizada en 2014 por Nick Bostrom, el gurú de la superinteligencia, mostraba que el 82% de los expertos en esta materia creían que las máquinas nunca serán capaces de emular el aprendizaje y los demás aspectos de la inteligencia humana o al menos tardará más de 50 años (PDF). "Yo no lo veré, eso seguro", dice el investigador del CSIC, que cree que el gran hito sería que las máquinas comprendan el lenguaje natural y adquieran sentido común, que quizá sea una forma de denominar a la paradoja de Polanyi.
¿Qué es lo que puede aportar? "Ya está haciendo muchas cosas, hoy, por nosotros", asegura Alonso, catedrática en la Universidad de A Coruña, y señala motores de búsqueda, monitorización de la industria, cortes de tejidos eficientes en el textil, detectores de spam y aplicaciones clínicas. Este último campo, el de la medicina, es el más prometedor. Ahí es donde Hassabis quiere aportar "metasoluciones" en el diagnóstico visual y en la búsqueda de fármacos. Deepmind ya tiene un acuerdo con el Sistema de Salud de Reino Unido, del mismo modo que IBM ya tiene a Watson trabajando con el laboratorio Merck. Aunque en medicina no es tan sencillo lo bueno y lo malo, no es un escenario binario en el que elegir una jugada que lleva a la victoria o a la derrota. Lo resume López de Mántaras: "El mundo es mucho más complicado que un tablero"
No hay comentarios:
Publicar un comentario