domingo, 11 de diciembre de 2016

Avances en Inteligencia Artificial

Javier Sampedro "Construyendo mentes artificiales", en El País, 11-XII-2016:

Los últimos grandes avances en el campo de la inteligencia artificial se inspiran en el cerebro. Pero su objetivo no es imitarnos, sino superarnos en ciertas cosas

Si la inteligencia artificial persiguiera imitar el funcionamiento del cerebro humano, se enfrentaría a un escollo formidable: que aún no sabemos cómo funciona el cerebro humano. Pero ni el objetivo de esta tecnología vigorosa es solo ese, ni la estrategia de imitar al cerebro tiene que esperar a que lo entendamos todo sobre ese órgano fabuloso que llevamos dentro del cráneo. Incluso con el conocimiento fragmentario que tenemos sobre él, nuestro cerebro está sirviendo como una fuente de inspiración muy eficaz para los ingenieros, los científicos de la computación y los expertos en robótica. Y los resultados ya nos rodean por entero.

Como un pasajero asomado a la borda de un transatlántico, pasamos el día viajando sobre una maquinaria prodigiosa de la que entendemos muy poca cosa. El sistema de reconocimiento de voz con el que podemos hablar a Google es inteligencia artificial (AI, en sus siglas en inglés), como lo es ese circulito que identifica las caras de tus primas cuando vas a hacerles una foto. Que sean AI quiere decir que nadie ha programado allí tu voz ni la cara de tu prima, sino que el sistema aprende a reconocerlas a partir de la experiencia, como hace nuestro cerebro con la realidad impredecible de ahí fuera.

Hay gente obsesionada por definir las cosas, y el lector podrá encontrar en la red una docena de definiciones distintas de la inteligencia artificial. Mi favorita es la de Marvin Minsky, un pionero del campo que murió en enero. La AI, dijo Minsky, “es la ciencia que investiga para que las máquinas hagan cosas que requerirían inteligencia si las hubiera hecho un humano”. La definición de Minsky parece gratuitamente enrevesada, pero en realidad es un dardo envenenado. Va con retranca, y es importante que veamos por qué.

A principios de los años noventa, todo el mundo habría considerado que ganar al campeón mundial de ajedrez sería una prueba de inteligencia. En esos mismos años, sin embargo, los científicos de IBM estaban desarrollando un ingenio destinado a vencer a Gari Kaspárov, el número uno de la época. Se llamaba Deep Blue, contaba con 256 procesadores trabajando en cadena que evaluaban 200 millones de jugadas por segundo y dio el campanazo el vencer al gran Kaspárov. ¿Debemos concluir que Deep Blue era inteligente?

No, de ningún modo, respondió todo el mundo al unísono. El ajedrez, al fin y al cabo, es un juego acotado, con un número enorme pero finito de soluciones posibles, y sus reglas son simples y matemáticamente consistentes. Este es el campo de juego óptimo para un cerebro de silicio con superpoderes como Deep Blue.

El sistema de reconocimiento de voz, o el de identificación de caras del smartphone son ejemplos de inteligencia artificial que usamos diariamente 

Pero nuestro cerebro no funciona así. Ni tiene 256 procesadores en cadena ni puede evaluar 200 millones de jugadas por segundo. El éxito del ingenio de IBM se atribuyó a la fuerza computacional bruta. Nuestra percepción del ajedrez dio un vuelco, pero no para declarar inteligente a Deep Blue, sino para excluir al ajedrez de la definición de inteligencia. Si una máquina podía ganar a Kaspárov, ser el campeón mundial de ajedrez no debía ser para tanto, después de todo.

Justo ahí iba Minsky con el dardo de su definición. Si quien hubiera ganado a Kaspárov hubiera sido un joven talento, todos le habríamos admirado por su inteligencia extrema. Pero ninguno de nosotros estuvimos dispuestos a concederle la misma consideración a Deep Blue. La AI no es la ciencia que investiga para que las máquinas hagan cosas inteligentes, sino para que las máquinas hagan cosas que requerirían inteligencia si las hubiera hecho un humano. Es una importante lección de Minsky que conviene tener muy presente al reflexionar sobre la inteligencia de las máquinas.

Los sistemas de inteligencia artificial aprenden con nosotros gracias a la experiencia 

Hay otro criterio clásico sobre la misma cuestión, formulado por el gran padre de la inteligencia artificial, Alan Turing (algunos lectores le recordarán con la cara de Benedict Cumberbatch en la película Descifrando Enigma). Tendremos que considerar que una máquina es inteligente cuando logre hacerse pasar por un humano, por ejemplo por correo electrónico. Los científicos de la computación veneran a Turing, pero ya no creen que su test de Turing sea un criterio válido. Ni aprobarlo demuestra inteligencia, ni suspenderlo implica la falta de ella. ¿Entonces?

Entonces, como casi siempre, lo mejor es prescindir de los grandes principios matemáticos o filosóficos y ponerse las botas para hundirlas en el barro. Caso a caso, con un sentido práctico y una mente abierta. Los ordenadores ya nos superan en capacidad de cálculo, en velocidad de gestión y en otras cosas. Nos ganan al ajedrez e incluso al Go, el juego chino que seguramente es el más complejo que hemos inventado los humanos.

Podemos, por supuesto, aducir que eso no es la verdadera inteligencia. Pero la verdadera inteligencia, por todo lo que sabe la neurociencia, está hecha de cosas como esas. No sabemos de cuántas, no sabemos cuándo la tecnología logrará emularlas a todas ellas, pero no parece haber ningún problema de principio, o frontera infranqueable, para que las máquinas lleguen ahí.

Si el cerebro es un objeto físico (como los científicos saben que es), no puede haber ningún escollo filosófico para que la tecnología lo pueda emular. O superar.

'Deep Blue', el ordenador que ganó a Kasparov al ajedrez no era inteligencia artificial

De inteligencia artificial se habla desde los años cincuenta, pero los avances recientes que explican su afloramiento en los medios —y que usted esté leyendo esto— proponen dos enfoques que se basan en ciertos aspectos del funcionamiento del cerebro. El primero es un tipo de programa informático —o de arquitectura de sistemas— que se llama red neural y que, como indica su nombre, emula el tipo de computación que hacen las neuronas biológicas.

Todo el mundo está familiarizado hoy con la forma de una neurona. Sus entradas (dendritas) forman un árbol de ramificación frondosa y fractal, de modo que de un solo tronco pueden llegar a formar 10.000 ramas que rastrean la información de su entorno local y de media distancia. En contraste, el cable de salida (axón) es único, de modo que cada neurona tiene que integrar masas de información procedente de sus miles de dendritas para generar una respuesta sintética a través de su axón. Esta es la arquitectura que imitan las redes neurales de silicio.

La inteligencia artificial es la ciencia que investiga para que las máquinas hagan cosas que requerirían inteligencia si las hicieran humanos 

La segunda inspiración que proviene del cerebro es más compleja, y más poderosa. Se llama deep learning (aprendizaje profundo), y es el fundamento de los grandes avances que nos han asombrado en los últimos tres o cuatro años. De manera paradójica, lo más fácil es explicar primero el funcionamiento del cerebro y después el del deep learning.

Cuando el premio Nobel Francis Crick, codescubridor de la doble hélice del ADN y neurocientífico, le dijo a una amiga que su interés profesional era comprender el mecanismo cerebral de la visión, la amiga se mostró estupefacta:

—No sé qué interés tiene eso. A mí me basta imaginar que el cerebro forma una especie de imagen de televisión.

La clave de la inteligencia artificial es que las máquinas sean capaces de aprender, lo que se conoce como 'deep learnig'

—Sí —respondió Crick—, pero ¿quién está viendo la televisión?

Nuestras intuiciones sobre el funcionamiento de nuestra propia mente siempre son garrafales. La verdadera forma en que procesamos la información visual (cómo formamos imágenes mentales del mundo) hubo que descubrirla con experimentos sofisticados. La imagen que capta la retina se transmite por el nervio óptico a la parte posterior del cerebro, la más próxima a la nuca (V1, por área visual uno, en la jerga). V1 solo ve líneas entre luz y sombra, horizontales, verticales o con cierto ángulo de inclinación. Eso es todo lo que entra.

Subiendo desde la nuca hacia la coronilla, se sucede un encadenamiento de áreas visuales (V2, V3 y otras con nombres más caprichosos) que va abstrayendo la información progresivamente. Si V1 solo veía líneas inclinadas, las siguientes áreas las abstraen en ángulos, luego en polígonos, después en poliedros y al final en una gramática de las formas que nos permite construir un modelo interno de la persona que vemos, ya esté de frente o de medio perfil, enfadada o partida de risa. Ese es el que está viendo la televisión.

En eso se basa también el deep learning (aprendizaje profundo) de las máquinas. Las neuronas de silicio se organizan en muchas capas (decenas o cientos) que van abstrayendo progresivamente la información. Cada capa, por así decir, infiere un concepto a partir de la jungla que le transmite la capa anterior y, capa a capa, la información se va haciendo más abstracta, menos pendiente de los detalles que de las propiedades invariantes de los objetos del mundo. Es como poner un nombre a las cosas, y esto es lo que hacen los actuales sistemas expertos.

Pueden leer en los artículos de este suplemento cosas interesantes sobre las oportunidades y los riesgos, los sueños y las pesadillas. Pero recuerden los conceptos básicos expuestos aquí. Les seguirán sirviendo dentro de 10 años.

No hay comentarios:

Publicar un comentario