Mostrando entradas con la etiqueta Tecnología. Mostrar todas las entradas
Mostrando entradas con la etiqueta Tecnología. Mostrar todas las entradas

viernes, 27 de diciembre de 2024

Aarón Swartz, Manfiesto por la guerrilla del acceso abierto, 2008

 Este es el famoso manifiesto del mártir por el acceso gratuito de todos a la información científica, San Aarón Swartz sensei. Está traducido en un lugar muy interesante por sus contenidos:

Freakstop

Manifiesto por la guerrilla del acceso abierto

La información es poder. Pero como todo poder, hay quienes quieren preservarlo solo para ellos. Todo el patrimonio cultural y científico del mundo, publicado durante siglos en libros y publicaciones, está siendo digitalizado y cerrado por un puñado de empresas privadas. ¿Quieres leer publicaciones que presentan los resultados científicos más conocidos? Tendrás que enviarle un montón de dinero a editoriales como Reed Elsevier.

Hay quienes luchan por cambiar esto. El movimiento por el acceso abierto ha luchado valientemente para asegurarse de que los científicos no cedan su derecho de autor, sino que en su lugar se aseguren de que su trabajo se publique en Internet, bajo términos que permitan su acceso a cualquiera. Pero incluso en los mejores escenarios, su trabajo solo servirá para cosas que se publiquen en el futuro. Todo lo que existe hasta este momento se habrá perdido.

Ese es un precio muy alto por el que pagar. ¿Obligar a los académicos a pagar dinero para leer el trabajo de sus colegas? ¿Escanear bibliotecas enteras y solo permitir leerlas a la gente en Google? ¿Proporcionar artículos científicos a quienes están en universidades selectas en el primer mundo y no a los niños del sur global? Es indignante e inaceptable.

«Estoy de acuerdo», dicen muchos, «¿pero qué podemos hacer? Las empresas tienen los derechos de autor, ganan enormes cantidades de dinero cobrando por el acceso, y es completamente legal —no hay nada que podamos hacer para detenerlas—». Pero sí hay algo que podemos hacer, algo que ya se está haciendo: podemos contraatacar.

Vosotros con acceso a estos recursos —estudiantes, bibliotecarios, científicos—, os han dado un privilegio. Podéis alimentaros de este banquete del conocimiento mientras el resto del mundo no puede entrar. Pero no es necesario —de hecho, moralmente no podéis— que mantengáis este privilegio solo para vosotros. Tenéis el deber de compartirlo con el mundo. Y lo habéis hecho: intercambiando contraseñas con colegas, rellenando solicitudes de descarga para amigos.

Mientras tanto, quienes han sido bloqueados no están de brazos cruzados. Os habéis colado por agujeros sigilosamente y habéis trepado vallas, liberando la información encerrada por las editoriales y compartiéndola con vuestros amigos.

Pero todas estas acciones se llevan a cabo en la oscura y oculta clandestinidad. Las llaman robo o piratería, como si compartir la riqueza del conocimiento fuera el equivalente moral de saquear un barco y asesinar a su tripulación. Pero compartir no es inmoral —es un imperativo moral—. Solo quienes están cegados por la codicia se negarían a que un amigo hiciera una copia.

Las grandes empresas, por supuesto, están cegadas por la codicia. Las leyes bajo las que operan lo exigen —sus accionistas se rebelarían por menos que eso—. Y los políticos a los que han sobornado las respaldan, aprobando leyes que les dan el poder exclusivo de decidir quién puede hacer copias.

No hay justicia en el cumplimiento de leyes injustas. Es hora de salir a la luz y, siguiendo la noble tradición de la desobediencia civil, declarar nuestra oposición a este robo privado de la cultura pública.

Necesitamos tomar la información, dondequiera que esté guardada, hacer nuestras copias y compartirlas con el mundo. Necesitamos tomar las cosas que están libres del derecho de autor y añadirlas a este archivo. Necesitamos comprar bases de datos secretas y ponerlas en la Red. Necesitamos descargar revistas científicas y subirlas a redes de intercambio de archivos. Necesitamos pelear por el acceso abierto de guerrilla.

Con suficientes de nosotros, alrededor del mundo, no solo enviaremos un mensaje fuerte que se oponga a la privatización del conocimiento; haremos que sea una cosa del pasado. ¿Te unes a nosotros?

Aaron Swartz, julio de 2008, Eremo, Italia

Efectos neurológicos del contenido basura en Internet

 Facundo Macchi, ‘Podredumbre cerebral’ o lo que el abuso de contenido basura en internet puede hacerle a la mente, en El País, 26 de diciembre de 2024:

La adicción a las redes sociales reduce la materia gris, acorta la capacidad de atención, debilita la memoria y distorsiona procesos cognitivos. Investigaciones recientes encontraron que el uso y abuso de internet está asociado con una disminución de la materia gris en las regiones prefrontales del cerebro.

Podredumbre cerebral: “Deterioro del estado mental o intelectual de una persona como resultado del consumo excesivo de material (particularmente contenido en línea) considerado trivial o poco desafiante”. La definición la ha dado el diccionario de Oxford que, tras los votos de más de 37.000 personas, eligió este concepto como su palabra del año. Los expertos del diccionario observaron que el término ganó relevancia en el último tiempo “para expresar las preocupaciones sobre el impacto del consumo excesivo de contenido de baja calidad en redes sociales”, dice la publicación. La frecuencia de uso del término aumentó un 230% entre 2023 y 2024.

La podredumbre cerebral no es solo un capricho lingüístico. En los últimos 10 años, la ciencia ha sido capaz de demostrar que el consumo excesivo de contenidos basura en internet —sensacionalismo, conspiración, vacío— está modificando nuestros cerebros, hasta el punto de que la palabra “podrido” tal vez no sea tan exagerada. La evidencia muestra que las redes sociales están reduciendo la materia gris, acortando la capacidad de atención, debilitando la memoria y distorsionando procesos cognitivos fundamentales, según recoge el diario británico The Guardian con citas a un gran número de investigaciones académicas de instituciones como la facultad de medicina de Harvard, la Universidad de Oxford y el King’s College de Londres.

El ‘escroleo’ infinito en redes sociales aumenta el aburrimiento

Una de esas investigaciones se publicó el año pasado y evidenció que la adicción a internet provoca cambios estructurales en el cerebro, lo que repercute de manera directa en el comportamiento y las capacidades de un individuo. Michoel Moshel, investigador de la Escuela de Ciencias Psicológicas de la Universidad de Macquarie (Australia) y coautor del estudio, explica que el consumo compulsivo de contenidos en redes sociales —el famoso doomscrolling— “aprovecha la tendencia natural de nuestro cerebro a buscar novedades, especialmente cuando se trata de información potencialmente dañina o alarmante, un rasgo que en su momento nos ayudó a sobrevivir”.

Moshel destaca que con algunas funciones, como el ‘desplazamiento infinito’, diseñadas para mantenerte enganchado al móvil, las personas, más que nada jóvenes, pueden quedar atrapadas en un ciclo de consumo de contenido durante horas. “Esto puede afectar gravemente la atención y las funciones ejecutivas al saturar nuestro enfoque y alterar la forma en que percibimos y reaccionamos ante el mundo”, sentencia el investigador.

Eduardo Fernández Jiménez, psicólogo clínico en el Hospital la Paz de Madrid, explica que el cerebro activa diferentes redes neuronales para configurar distintos tipos de atención. Y que el uso problemático de los móviles e internet está generando problemas en la llamada atención sostenida: “Te permite concentrarte en una misma tarea durante un período de tiempo más o menos largo. Es la que está vinculada a los procesos de aprendizaje académico”, dice. El problema, señala, está en que los usuarios de redes sociales suelen estar expuestos a estímulos muy cambiantes, variables (una notificación de Instagram, un mensaje de WhatsApp, una alerta de noticias) y con potencial adictivo. Eso hace que el foco de atención esté todo el tiempo saltando de un sitio al otro, afectando su propia capacidad.

La primera alerta fue el correo electrónico

Algunos expertos vienen alertando sobre este tema prácticamente desde comienzos de siglo, cuando el correo electrónico pasó a ser una herramienta de uso frecuente. En 2005, The Guardian tituló: “Los correos electrónicos ‘son una amenaza para el coeficiente intelectual’”. La historia contaba que un equipo de científicos de la Universidad de Londres se preguntó qué impacto podría tener sobre el cerebro el bombardeo incesante de información. Luego de 80 ensayos clínicos, encontraron que el coeficiente intelectual de los participantes que utilizaban el correo y el teléfono móvil a diario caía una media de 10 puntos. Los investigadores midieron que esta demanda constante de atención tenía efectos más negativos que el consumo de cannabis.

Esto fue antes de la llegada de los tuits, los reels de Instagram, los desafíos de TikTok y las notificaciones instantáneas. El panorama actual es aún menos alentador. Investigaciones recientes encontraron que el uso y abuso de internet está asociado con una disminución de la materia gris en las regiones prefrontales del cerebro. Es la zona que interviene en la resolución de problemas, la regulación emocional, la memoria y el control de los impulsos.

El trabajo de Moshel y sus colegas va en esa línea. Su último estudio revisó 27 investigaciones de neuroimagen y encontró que el consumo desmedido de internet está relacionado con una reducción en el volumen de materia gris en regiones del cerebro involucradas en el procesamiento de recompensas, el control de impulsos y la toma de decisiones. “Estos cambios reflejan patrones observados en las adicciones a sustancias”, asegura el científico, como las metanfetaminas y el alcohol.

Eso no es todo. La investigación también encontró que “estos cambios neuroanatómicos en adolescentes coinciden con la interrupción de procesos como la formación de identidad y la cognición social, aspectos críticos durante esta etapa del desarrollo”. Funciona casi como un bucle, donde los más vulnerables pueden ser los más afectados. Según los resultados de una investigación publicada en Nature en noviembre, las personas con peor salud mental son más propensas a navegar por contenidos basura, lo que agrava aún más sus síntomas.

En diciembre, el psicólogo Carlos Losada le sugirió a EL PAÍS algunas recomendaciones para evitar caer en el doomscrolling o, dicho de otra manera, evitar ser absorbido por el agujero negro del contenido chatarra que refuerzan los algoritmos: reconocer el problema, esforzarse por desconectar y hacer actividades que requieran una presencia física, como quedar con amigos o hacer deportes, son algunas de sus sugerencias.

Moshel dice: “Estas actividades son fundamentales para la salud cerebral y el bienestar general, ayudando a equilibrar los efectos potencialmente dañinos del uso prolongado de pantallas”. Enfatiza que el tipo de contenidos que se consumen es un factor clave para modular los cambios anatómicos en el cerebro. “Concéntrese tanto en la calidad como en la cantidad del tiempo frente a la pantalla. Priorice el contenido educativo que evite características adictivas. Establezca límites claros y apropiados para la edad sobre el uso diario de pantallas y fomente pausas regulares”, añade.

lunes, 30 de septiembre de 2024

¿Por qué el cerebro prefiere los libros en papel?

De Pedro Pizarro, en Quora, y, a su vez, tomado de Ivonne María Valdez en Tribuna Económica, 2024:

 ¿Por qué el cerebro prefiere los libros en papel?

Porque el cerebro humano es capaz de percibir un texto en su totalidad, como si se tratara de una especie de paisaje físico. Y es que cuando leemos, no solo estamos recreando un mundo con las palabras del relato, sino que construimos una representación mental del mismo texto.

Al pasar las páginas de un libro de papel, realizamos una actividad similar a dejar una huella tras otra por un sendero, hay un ritmo, una cadencia y un registro visible en el transcurrir de las hojas impresas.

La prestigiosa revista Scientific American publicó un artículo con el que se busca dar una explicación a esta paradoja: en la época de la hiperconectividad, cuando cada vez tenemos más equipos que nos permiten leer con mayor facilidad y contamos con acceso a bibliotecas enteras en formato electrónico, muchos siguen prefiriendo al formado de papel.

El libro tradicional, la revista, el diario, siguen siendo los favoritos del público en general. Aunque resulte difícil de creer, siendo que los formatos digitales nos abren las puertas a muchas libertades.

Papel versus píxeles Muchos trabajos hablan de que en pantalla se lee más lentamente y, además, se recuerda menos. Hay “fisicabilidad” en la lectura, dice Maryanne Wolf de la Universidad de Tufts. Las personas necesitan sentir el papel al leer, el cerebro lo pide inconscientemente.

Nosotros no hemos nacido con circuitos cerebrales dedicados a la lectura, porque la escritura se inventó hace relativamente poco tiempo en nuestra evolución: alrededor de cuatro milenios antes de Cristo.

En la niñez, el cerebro improvisa nuevos circuitos para leer y para ello usa parte de otros dedicados al habla, a cuya habilidad se suma la coordinación motora y la visión.

El cerebro comienza a reconocer las letras con base en líneas curvas y espacios y utiliza procesos táctiles que requieren los ojos y las manos. Los circuitos de lectura de los niños de 5 años muestran actividad cuando practican la escritura a mano, pero no cuando se escriben las letras en un teclado.

Más allá de tratar a las letras individuales como objetos físicos, el cerebro humano puede percibir un texto en su totalidad como una especie de paisaje físico. Cuando leemos, construimos una representación mental del texto.

La naturaleza exacta de tales representaciones permanece clara, pero algunos investigadores creen que son similares a un mapa mental que creamos de un terreno, como montañas y ciudades, y de espacios físicos de interior, tales como departamentos y oficinas.

En paralelo, en la mayoría de los casos, los libros de papel tienen una topografía más evidente que el texto en pantalla. Un libro de papel abierto presenta dos dominios claramente definidos: páginas de izquierda y derecha y un total de ocho esquinas en las que uno se orienta.

Al pasar las páginas de un libro de papel se realiza una actividad similar a dejar una huella tras otra por un sendero, hay un ritmo y un registro visible del transcurrir de las hojas. Todas estas características permiten formar un mapa mental, coherente, del texto.

En contraste, la mayoría de los dispositivos digitales interfieren con la navegación intuitiva de un texto y a pesar de que los e-readers (libros electrónicos) y tabletas replican el modelo de páginas, estas son efímeras. Una vez leídas, esas páginas se desvanecen.

“La sensación implícita de dónde usted está en un libro físico se vuelve más importante de lo que creíamos”, dice el artículo de la Scientific American.

También pone en cuestión que los fabricantes de libros electrónicos hayan pensado lo suficiente sobre cómo es posible visualizar dónde está el lector en un libro.

En un trabajo sobre comprensión de texto, al comparar alumnos que leyeron en papel con otros que leyeron un texto en versión PDF en la pantalla, se concluyó que los primeros tuvieron mejor rendimiento.

Otros investigadores están de acuerdo con que la lectura basada en pantallas puede empeorar la comprensión, ya que es mentalmente más exigente e incluso físicamente más cansadora que la lectura en papel.

La tinta electrónica refleja la luz ambiental al igual que la tinta de un libro de papel, pero las pantallas de ordenadores, teléfonos inteligentes y tabletas hacen brillar la luz directamente en los rostros de las personas y la lectura puede causar fatiga visual, dolores de cabeza y visión borrosa.

En un experimento realizado por Erik Wästlund, de la Universidad de Karlstad en Suecia, las personas que tomaron una prueba de lectura comprensiva en un equipo electrónico obtuvieron calificaciones más bajas e informaron mayores niveles de estrés y cansancio que las personas que completaron en papel.

Las investigaciones más recientes sugieren que la sustitución del papel por pantallas a una edad temprana tiene desventajas. En 2012, un estudio en el Joan Ganz Cooney Center en la ciudad de Nueva York reclutó 32 parejas de padres e hijos de 3 a 6 años de edad.

Los niños recordaron más detalles de las historias que leyeron en el papel, pese a que las digitales estaban complementadas con animaciones interactivas, videos y juegos, que en realidad desviaban la atención lejos de la narrativa.

Como resultado de un trabajo que involucró el seguimiento de una encuesta de 1.226 padres, se informó que, al leer juntos, la mayoría de ellos y sus niños prefirieron libros impresos sobre los libros electrónicos.

Al leer los libros de papel a sus niños de 3 a 5 años de edad, los niños podían relatar la historia de nuevo a sus padres, pero al leer un libro electrónico con efectos de sonido, los padres con frecuencia tuvieron que interrumpir su lectura para pedir al niño que dejara de jugar con los botones y recuperara la concentración en la narración. Tales distracciones finalmente impidieron comprender incluso la esencia de las historias.

Muchas personas aseguran que cuando realmente quieren centrarse en un texto, lo leen en papel. Por ejemplo, en una encuesta realizada en 2011 entre estudiantes de posgrado en la Universidad Nacional de Taiwán, la mayoría aseguró que navegaba algunos párrafos de un artículo en línea antes de imprimir todo el texto para una lectura más a fondo.

Y en una encuesta realizada en 2003 en la Universidad Nacional Autónoma de México, cerca del 80 por ciento de los 687 estudiantes dijo preferir leer el texto impreso.

Encuestas e informes sobre los consumidores sugieren que los aspectos sensoriales de la lectura en papel importan a la gente más de lo que cabría suponer: la sensación de papel y tinta; la opción de suavizar o doblar una página con los dedos, el sonido distintivo de pasar una página, la posibilidad de subrayar, de detenerse y tomar nota, hacen que se elija más el papel.

Para compensar este déficit sensorial, muchos diseñadores digitales tratan de hacer que la experiencia de los lectores electrónicos –en inglés, e-reader– esté tan cerca de la lectura en formato de papel como sea posible.

La composición de la tinta electrónica se asemeja a la química típica de la tinta, y el diseño sencillo de la pantalla del Kindle (una marca de libro electrónico) se parece mucho a una página en un libro de papel. Sin embargo, estos esfuerzos –que fueron replicados por su competidora Apple iBooks– hasta ahora tienen más efectos estéticos que prácticos.

El desplazamiento vertical puede no ser la forma ideal de navegar un texto tan largo y denso como en los libros de muchas páginas, pero medios como el New York Times, el Washington Post y ESPN crearon atractivos artículos, altamente visuales, que no pueden aparecer en la impresión, ya que combinan texto con películas y archivos de sonido.

Es probable que el organismo de los nuevos nativos digitales cree otras redes neuronales que les permitan preferir lo electrónico al papel, pero mientras tanto, hoy el resto de la población sigue prefiriendo el contacto con las históricas hojas.

sábado, 30 de diciembre de 2017

La robotización, la inteligencia artificial y la impresión 3-D son las tres patas de la nueva revolución industrial, la que causará un aumento sin igual del paro

José Ángel Plaza López, "La mayor disrupción de la IA radica en medir su poder y saber quién lo ostentará. Existen diversos ámbitos que pueden ser revolucionados por la inteligencia artificial, pero antes de lanzar propuestas es necesario evaluar adecuadamente sus capacidades".
Madrid  29 DIC 2017

En 2030, la inteligencia artificial provocará un incremento adicional de 15,7 billones de dólares (15,7 trillones americanos) del PIB mundial. Así lo predice un reciente informe de PwC, que puntualiza que este impacto obedecerá a tres factores fundamentales: el aumento de la productividad por la automatización de procesos, incluido el uso de robots y de vehículos autónomos; el crecimiento de esa misma productividad debido al apoyo de la fuerza laboral en aplicaciones de inteligencia artificial; y el incremento del consumo gracias a la existencia de productos y servicios de mayor calidad y más personalizados.

¿Qué áreas serán las protagonistas de las mayores disrupciones? Para José Hernández-Orallo, catedrático de Sistemas Informáticos y Computación de la Universitat Politècnica de València y profesor visitante de la Universidad de Cambridge, la IA no es una tecnología más, sino “la tecnología detrás de la tecnología y, por lo tanto, en el futuro impactará en todos los aspectos de la vida, igual que la inteligencia misma, en general, ha sido disruptiva en todos los ámbitos: desde cómo hemos cambiado el planeta como especie hasta cómo se transforma la cultura y la sociedad”.

Hernández-Orallo, autor del libro The Measure of All Minds, explica a EL PAÍS RETINA que a corto plazo es más fácil imaginar las disrupciones de la IA, como las provocadas por los vehículos autónomos o la traducción en tiempo real. Sin embargo, las predicciones a medio plazo ya son más complejas, aunque en su opinión podrían estar marcadas, además de por la automatización, por “una combinación e hibridación mayor entre humanos y sistemas de IA donde estos últimos se convertirán en una extensión de nuestras capacidades cognitivas, con el fin de modelar desde nuestra red de contactos a nuestras actividades diarias y ayudarnos a tomar mejores decisiones y tener experiencias diferentes en todos los ámbitos”.

Por lo que respecta al largo plazo, según Hernández-Orallo sólo podemos elucubrar, aunque este catedrático recalca dos aspectos que conviene tener siempre presentes: “En primer lugar, sería una temeridad, además de una aberración científica y tecnológica, diseñar sistemas de IA sin saber evaluar adecuadamente sus capacidades; y en segundo lugar, el impacto de la inteligencia artificial depende no sólo de lo que se pueda realizar con ella, sino de quién esté detrás. ¿Seguirá la inteligencia distribuida, como aún lo está actualmente, en millones de mentes de aproximadamente las mismas capacidades o se concentrará en un oligopolio de gigantes tecnológicos con un poder, ese que da la inteligencia, sin precedentes ni contrapesos?”.

Sea como fuere, el informe de PwC desgrana ocho sectores donde no sólo ya se está aplicando la IA, sino que además incluyen áreas con grandes posibilidades de desarrollo en torno a esta tecnología.

Sanidad

La identificación temprana de pandemias para ayudar a prevenirlas o evitar su propagación, la mejora del diagnóstico por imágenes y la detección anticipada de posibles variaciones en la salud de los pacientes a través del análisis de datos son algunos de los objetivos en este ámbito. Además, José Santos, profesor de Ciencias de la Computación e Inteligencia Artificial de la Universidad de La Coruña, afirma que en la industria farmacéutica la IA ayudará a descifrar las estructuras nativas tridimensionales de las proteínas, uno de los actuales retos de la biología computacional. “Una vez que esto sea posible, gracias a la aplicación de algoritmos de aprendizaje automático que analizan diferentes modelos de posibles composiciones de esas estructuras, se acelerará y simplificará el desarrollo del fármaco más adecuado contra un componente específico. Se trata de una aplicación que aún está en una fase incipiente, pero ya se están entrenando sistemas de IA con algoritmos de búsqueda inspirados en sistemas biológicos y en modelos de representación atómica”, comenta Santos.

Automoción

Las flotas autónomas para compartir viajes marcan el futuro de la automoción. En este sentido, durante su intervención en Retina LTD, el encuentro para los líderes de la transformación digital celebrado el pasado 28 de noviembre, Thomas Beermann, CEO de car2go Europe, vaticinó que en 2030 el carsharing será “autónomo y eléctrico”, para lo cual su compañía está trabajando en una gestión inteligente de su flota de vehículos a través de algoritmos que permiten predecir la demanda de los clientes y mejorar su experiencia de usuario.

Los vehículos con funciones semiautónomas para prestar asistencia al conductor y la monitorización del motor a través de IA para un mantenimiento predictivo son otras de las predicciones apuntadas por PwC.

Servicios financieros

Los bancos ya están recurriendo a robo advisors para asesorar a sus clientes y automatizar las carteras de inversión. Pero, además, en los próximos años, gracias a la IA veremos nuevos avances en la configuración de planes financieros personalizados, en la detección de fraudes y blanqueo de dinero y en la automatización de operaciones orientadas al cliente.

Establecimientos comerciales

Según PwC, las tres áreas con mayores posibilidades de desarrollo de la IA en el sector retail son la oferta de productos con diseños personalizados; la gestión automatizada del inventario y las entregas; y la anticipación a la demanda de los clientes. En relación a este último punto, muchos comercios ya han comenzado a aplicar algoritmos de aprendizaje automático para predecir pedidos.

Tecnología, comunicaciones y entretenimiento

En este ámbito, la computación afectiva y el aprendizaje automático están logrando la aparición de dispositivos cada vez más empáticos, de tal modo que serán capaces de ofrecer contenidos personalizados en función del estado de ánimo del usuario o del contexto. Este es el caso de los nuevos móviles Huawei Mate 10, cuyo procesador Kirin 970 simula el pensamiento humano y es capaz de analizar el entorno, lo cual hace que estos teléfonos sean más “conscientes” de las necesidades de los usuarios en cada momento. Además, gracias a la inclusión de la IA dentro del propio chipset del terminal, estos smartphones se caracterizan por unas capacidades muy avanzadas: asistentes personales mucho más veloces, traducción simultánea sin conexión a Internet, visión artificial en tiempo real en la palma de la mano o identificación de objetos y personas en las imágenes, entre otras.

Fabricación

Estíbaliz Garrote, responsable de Computer Vision en el centro de investigación y desarrollo tecnológico Tecnalia, recuerda que “cada día hay más ejemplos en los que la IA ayuda a solucionar problemas y a generar nuevos productos y negocios en el sector industrial, donde está presente en muchas líneas de producción y logística”. En este sentido, Tecnalia ha colaborado en el desarrollo de un equipo que inspecciona el 100% de la producción de tubos de acero, lo que en una economía tan competitiva ayuda a generar un producto de la máxima calidad.

La supervisión y autocorrección de los procesos de fabricación, la optimización de la cadena de suministro y la producción bajo demanda son los principales aspectos que se verán revolucionados de aquí a 2030.

Energía

Desde el punto de vista del consumo, la medición inteligente mostrará al usuario información en tiempo real sobre el uso de las distintas fuentes de energía, lo que ayudará a reducir las facturas. Por lo que respecta al suministro, la IA se aplicará para conseguir un funcionamiento y almacenamiento más eficientes, así como el mantenimiento predictivo de las infraestructuras.

Transporte y logística

Desde hace años, gracias a la inteligencia artificial se han construido máquinas con diferentes grados de autonomía destinadas al transporte y la logística: desde el metro de la ciudad japonesa de Sendai hasta los populares drones. Ahora, las principales revoluciones en este ámbito por mejorar el seguimiento de cada entrega, por obtener un mayor control del tráfico, incluida la reducción de atascos, y por incrementar la seguridad durante los desplazamientos.

lunes, 18 de diciembre de 2017

Entrevista a Antonio Escohotado

Entrevista de Jorge G. García a "Antonio Escohotado": “Cuanta más inteligencia desarrolle un robot, mejor para el ser humano” en El País, 15-XII-2017: 

El filósofo, autor de la obra icónica ‘Historia general de las drogas’, disecciona el mundo tecnológico que nos rodea y comparte sus pensamientos sobre androides y la inteligencia artificial. Ha publicado toda su obra online en su web La Emboscadura
Madrid  18 DIC 2017 - 09:09 CET

Desde el retiro en un pueblo a unos 35 kilómetros de Madrid, el filósofo Antonio Escohotado (Madrid, 1941) huye del mundanal ruido para seguir la escondida senda de la sabiduría, como ya escribiera Fray Luis de León en su Vida retirada. Detrás de una pantalla de ordenador y rodeado por estanterías repletas de libros agolpados, el autor de la celebérrima Historia general de las drogas discurre sus días divulgando su pensamiento hasta por las redes sociales. Fumador empedernido, cae un cigarrillo detrás de otro, como un pitillo inagotable, deja silencios reflexivos antes de responder a cualquier pregunta. Hace 50 años lo entrevistaron con su padre. Como si del eterno retorno de Nietzsche se tratara, ahora le ocurre lo mismo; pero, en esta ocasión, con él como progenitor y con su hijo llamándole Escota.

¿Cómo fue su llegada a las nuevas tecnologías?

Serendipia pura. En el caso del teléfono móvil, por pura necesidad. Comencé a darme cuenta de que no tenía que peregrinar a las bibliotecas y librerías para encontrar libros. El 99,9% ya estaban en la red. Con respecto a las redes sociales, me las montó mi hijo Jorge y gracias a él estoy ahí dentro ahora.

¿Comprende que haya miedo a la robótica?

No. Como en tantos otros campos, tener miedo y alarmar alimenta la industria amarillista que convirtió en multimillonarios a Victor Hugo y Dickens, supuestos testigos del mundo real. Bien porque parece más vendible, o porque el resentimiento se apoderó del ánimo, ver el lado malo de los asuntos crece a costa de la objetividad, como demuestra Steven Pinker en su monumental y reciente estudio sobre la violencia. Resulta que en todos los órdenes –individual, familiar, social- no alcanza un 10% de la prevaleciente hace un siglo, pero los llamados medios de información dedican una línea a noticias como esa por cada mil centradas en catástrofes. ¿Por qué lo llaman información? Puestos a buscarle causas, la primera podría ser la maldita manía de manipular la mente ajena.

¿Debería existir una ética de la inteligencia artificial?

La única es asegurarse de que piense ecuánimemente, no para confirmar sofismas –bien identificados ya por la lógica aristotélica- sino para acumular inteligencia objetiva. Cuanto más predomine lo razonable y razonado mejor nos irá, aunque el folletín venda en teoría más.

¿Considera que los robots pueden ser más racionales que los seres humanos?

El ataque que pueda protagonizar un androide a la especie homo sapiens solo puede dirigirse a sus facetas irracionales, mostrando cuánto le falta para ser sapiente en vez de demente a ratos. Y es lo que necesitamos. La voluntad se obstina en someter a la inteligencia con dogmas y otros embustes, pero mientras ella duerme el espíritu objetivo sigue tejiendo su malla de innovación e invención. Los despiertos solo supuestamente se aprovechan de esa malla sin identificar la libertad como su origen, y pagan su afán de control recelando por ejemplo de la química -¡los paraísos artificiales!- y de la genética, donde ya están prohibidas cosas hoy por hoy imposibles. El miedo sigue teniendo muy buena salud, pero sospecho que la robótica no acabará de darle motivo.

¿En qué cree que los androides pueden ayudarnos?

En la zona pasional. Seguimos en buena medida a merced de impulsos como los celos, o un fratricidio disfrazado como anhelo de limpieza social, racial e ideológica. ¿Qué hacer con los émulos de Caín? Quizá una inteligencia no lastrada por la inercia de cerebros reptilianos descubra modos de mejorar en ese orden de cosas.

¿Qué entiende por innovación?

Convertir la potencia en acto, una ley de vida. No le falta componente de violencia, porque actualizar equivale a dejar atrás, como unas células sustituyen a sus predecesoras, sin evitar con ello la finitud general de cada organismo. Pero sin innovar no habría llegado a nacer.

¿Y siempre tiene que ser violenta?

Querríamos lo contrario, pero no hay otro modo de mitigar la coerción que partiendo del realismo. Estudiando y sabiendo ampliaremos la paz, pero la pretensión de alguna vía suavecita y políticamente correcta olvida que la realidad procede a saltos, como dirían los cuánticos.

El miedo sigue teniendo muy buena salud, pero sospecho que la robótica no acabará de darle motivo.

¿Le interesa la física cuántica?

Mucho, pero quizá se quedó empantanada desde finales de los años veinte, cuando Einstein advirtió que se permitía divorciar formulación e intuición. La obra de Dirac, en particular, muestra cómo convertirse en orientación canónica descarga de apelar a los sentidos, como si lo real pudiera perseguirse desde entonces con números sobre números.

¿La computación cuántica le parece diferente?

No tengo ni idea de ese campo específico. Solo me pregunto, ¿dónde están las imágenes cuánticas? ¿Nos ayuda a entender el mundo pasar de las tres dimensiones a n dimensiones? Prigogine y Mandelbrot aportan un formidable caudal intuitivo a sus investigaciones, pero no veo nada parecido en la teoría de las supercuerdas. Solo percibo autoconfirmaciones de hipótesis.

¿Los conclusiones cuánticas son erróneas?

Dios me libre de pontificar. Me quejo solo de los resultados, porque nada me dice que el electrón no sea un punto sino una cuerda con forma de lazo. Dada la formidable cantidad de observaciones ¿cómo no se traducen en una visión más nítida? Estudiar de cerca cualquier periodo histórico, por ejemplo, galvaniza y altera todo cuanto pensaba antes de hacerlo. ¿Por qué no ocurre algo análogo en física?

¿Cómo se imagina el futuro que está por venir?

Puestos a imaginar, y considerando que la función crea al órgano, lo ocurrido con el vello, las uñas y los dientes quizá anuncie cambios morfológicos más radicales, apoyados sobre el progreso técnico. ¿Para qué dos piernas, dos brazos, incluso un aparato digestivo y respiratorio, si el medio deja de ser inclemente y podemos dedicarnos a sentir y pensar libremente?

‘La emboscadura’, el pensamiento digital de Escohotado

La expansión del pensamiento del filósofo Antonio Escohotado carecería de sentido sin la figura de su hijo, Jorge. Gracias a las redes sociales se dio cuenta de que toda la obra de su padre antes de Historia general de las drogas estaba descatalogada o a precios desorbitantes. Para corregir este rumbo, decidió abrir la página web. “En los contratos con las editoriales no aparece nada con respecto al libro electrónico y decido digitalizar toda la obra”, argumenta. Con esta iniciativa, ha conseguido que todas las trabas para llegar a un mercado como el sudamericano por la logística de los envíos queden en un segundo plano. “No se trata de oportunismo, sino de desidia de las editoriales, que no todo son bestsellers”, zanja.

Para comprender qué ha llevado a Jorge a volcarse con la red, pone un ejemplo muy gráfico de cómo un hacker pretendía apropiarse de la obra de su padre. “Un pirata argentino hackeó Historia general de las drogas y la estaba comercializando. Si hubiera sido gratuita, no habríamos hecho nada, pero ahora le hemos dado de su propia medicina utilizando su versión con algunas adaptaciones. No creo que se atreva a denunciarnos (risas)”, explica. Para el año que viene, el reto tecnológico que afrontará es el de la impresión bajo demanda. Con el fin de evitar los gastos de almacenamiento, buscará alianzas en todos los países del mundo hispanoparlante para que, en 72 horas, el lector tenga el libro que desea de Antonio Escohotado.

martes, 12 de diciembre de 2017

Las redes sociales y los móviles son intrínsecamente malos

I

R. J. C., "El primer presidente de Facebook dispara contra la red social. El polémico Sean Parker considera que explora una vulnerabilidad humana", en El País, San Francisco 10 NOV 2017 

Sean Parker ha reaparecido. El primer presidente de Facebook vuelve a la escena para criticar a la compañía, alertando del supuesto daño que hace en el cerebro. Durante un evento organizado por Axios en Filadelfia. Parker se basa en su conocimiento de la gestación de la red social para avisar del daño a gran escala que podrían hacer en varias generaciones.

Parker se considera a sí mismo un objetor de conciencia de las redes sociales: “Recuerdo a gente que me decía que se había salido de Facebook y de las redes sociales. Y yo pensaba que volverían, pero ahora valoro más la presencia, la intimidad, el vivir el momento. Realmente, no sé las consecuencias de lo que decía porque ha cambiado la forma en que se relaciona la sociedad. Solo Dios sabe lo que está haciendo con el cerebro de los niños”.

El ejecutivo sostiene que Facebook se fundó así de manera consciente: “¿Cómo podemos consumir la mayor parte de tu tiempo consciente? Esto significa que teníamos que dar un poquito de dopamina cada rato. O bien porque alguien había dado a me gusta o porque habían comentado tu foto. Y a eso contribuye la creación de contenido para, de nuevo, crear más comentarios y me gusta”.

Otro de los ingredientes de este cocktail es el factor social: “La validación en bucle de los contactos, eso es exactamente lo que se buscaba. Eso explota una vulnerabilidad de la psicología humana. Los inventores de esto, tanto yo, como Mark (Zuckerberg) como Kevin Systrom (Instagram), y toda esa gente, lo sabíamos. Y lo hicimos igualmente”.

La validación en bucle de los contactos, eso es exactamente lo que se buscaba. Eso explota una vulnerabilidad de la psicología humana
Parker es uno de los personajes más controvertidos de Silicon Valley. Sus escándalos y fiestas se cuentan como hazañas entre los asistentes a sus desmanes. En la película que recrea la gestación de Facebook, equipo al que se sumó en 2004, su papel lo ejerce Justin Timberlake. Su nombre ha estado relacionado en escándalos de drogas. En 2005 fue detenido por posesión de cocaína.

Fue uno de los grandes villanos de Internet en la primera ola de Internet, cuando creó Napster, un sistema de intercambio de archivos, utilizado sobre todo para piratear archivos MP3. Su última aparición pública relevante fue durante su boda, en junio de 2013, evento en que desembolsó 7,5 millones de dólares y reunió a la sociedad techie y del espectáculo de California en Big Sur.

Multimillonario gracias a sus acciones de Facebook hoy es fundador y presidente del Parker Institute for Cancer Immunotherapy. Su riqueza se estima en más de 2.600 millones de dólares.


La nueva misión que afronta es alargar la vida humana: “Como soy multimillonario voy a tener acceso a mejor sanidad. Es posible que llegue a 160 años y siga siendo parte de esta nueva clase de señores inmorales. Yo quiero vivir más años y ser productivo más tiempo, pero también que más gente lo consiga”.

II

"“Las redes sociales están desgarrando a la sociedad”, dice un exejecutivo de Facebook. Chamath Palihapitiya lamenta haber participado en la construcción de herramientas que destruyen el tejido socia"l en El País, Madrid 12 DIC 2017

El primer presidente de Facebook dispara contra la red social
Instagram, la peor red para la salud mental de los adolescentes

Un antiguo alto ejecutivo de Facebook ha entonado el mea culpa por su contribución al desarrollo de unas herramientas que, a su juicio "están desgarrando el tejido social". Chamath Palihapitiya, que trabajó en la compañía de Mark Zuckerberg de 2007 a 2011 y que llegó a ser su vicepresidente de crecimiento de usuarios, opina que "los ciclos de retroalimentación a corto plazo impulsados por la dopamina que hemos creado están destruyendo el funcionamiento de la sociedad. Sin discursos civiles, sin cooperación, con desinformación, con falsedad".

Palihapitiya hizo estas declaraciones sobre la adicción a las redes sociales y sus efectos en un foro de la Escuela de Negocios de Stanford el pasado 10 de noviembre, pero la web de tecnología The Verge las ha recogido este lunes y, a través, de ella, diarios como The Guardian. Palihapitiya, que en su día trabajó para aumentar el número de personas que usan las redes sociales, recomendó a su audiencia que se tomara un "descanso" en su uso.

Aclaró que no hablaba solo de Estados Unidos y de las campañas de intoxicación rusas en Facebook. "Es un problema global. Está erosionando las bases fundamentales de cómo las personas se comportan ante sí y entre ellas", subrayó, para añadir que siente "una gran culpa" por haber trabajado en Facebook. Habló de cómo las interacciones humanas se están limitando a corazones y pulgares hacia arriba y de cómo las redes sociales han conducido a una grave falta falta de "discurso civil", a la desinformación y a la falsedad.

En la charla, Palihapitiya, ahora fundador y CEO de Social Capital, desde la que financia a compañías de sectores como la salud y la educación, se declaró una especie de objetor de conciencia del uso de redes sociales y anunció que quiere usar el dinero que ganó en Facebook para hacer el bien en el mundo. "No puedo controlar [a Facebook] pero sí puedo controlar mi decisión, que es que no usar esa mierda. También puedo controlar las decisiones de mis hijos, que no pueden usar esa mierda", declaró, para aclarar que no se ha borrado del todo de las redes pero que sí trata de usarlas lo menos posible.

El ex alto cargo de Facebook alertó de que los comportamientos de las personas están siendo programados sin que se den cuenta. "Ahora tienes que decidir a cuánto vas a renunciar", añadió. Palihapitiya hizo referencia a lo sucedido en el Estado indio de Jharkhand le pasado mayo, cuando unos mensajes falsos de WhatsApp sobre la presencia de supuestos secuestradores de niños acabaron con el linchamiento de siete personas inocentes. "A esto nos enfrentamos", criticó Palihapitiya, que añadió que este caso "llevado al extremo" implica que unos delincuentes "puedan manipular a grandes grupos de personas para que hagan lo que ellos quieran".


Pero Palihapitiya no solo censuró los efectos de las redes en cómo funciona la sociedad, sino todo el sistema de funcionamiento de Silicon Valley. A su juicio, los inversores inyectan dinero en "empresas estúpidas, inútiles e idiotas", en lugar de abordar problemas reales como el cambio climático y las enfermedades curables.

Las críticas de Palihapitiya a las redes se suman a las del primer presidente de Facebook, Sean Parker, que censuró la forma en que la compañía "explota una vulnerabilidad en psicología humana" al crear un "ciclo de retroalimentación de validación social". Además, un exgerente de producto de la empresa, Antonio García-Martínez, acusó a Facebook de mentir sobre su capacidad para influir en las personas en función de los datos que recaba sobre ellos, y escribió un libro, Chaos Monkeys, sobre su trabajo en la empresa. En el último año se ha producido una creciente preocupación por el poder de Facebook, su papel en las elecciones estadounidenses y su capacidad para amplificar noticias falsas.

III

Javier Salas, "Instagram, la peor red para la salud mental de los adolescentes. Un estudio británico le da la peor nota por su capacidad para generar ansiedad entre los jóvenes", en El País, 21 de mayo de 2017:


Las redes sociales más populares son fuente de innumerables beneficios y ventajas para sus usuarios, pero también generan efectos secundarios poco saludables. Un nuevo estudio, realizado entre jóvenes británicos, se centra en un problema muy particular: el bienestar y la salud mental de los usuarios de estas aplicaciones. Según este trabajo, Instagram podría terminar siendo la más nociva entre los adolescentes, por su impacto en la salud psicológica de este grupo de edad más vulnerable. Por detrás, aunque con notas también negativas, estarían Snapchat, Facebook y Twitter. La única red analizada con valoración positiva es YouTube, el portal de vídeos del gigante Alphabet.

"Instagram logra fácilmente que las niñas y mujeres se sientan  como si sus cuerpos no fueran lo suficientemente buenos", denuncia un joven en el estudio

"Los jóvenes que pasan más de dos horas al día en redes sociales como Facebook, Twitter o Instagram son más propensos a sufrir problemas de salud mental, sobre todo angustia y síntomas de ansiedad y depresión", recogen en el estudio, realizado por la Royal Society of Public Health y la Universidad de Cambridge. Para analizar el posible impacto en la juventud británica, los especialistas estudiaron las actitudes hacia estas redes en 1.500 británicos de entre 14 y 24 años. España es el país con mayor penetración de redes sociales y de telefonía móvil de la Unión Europea.

Se valoraron 14 factores, tanto positivos como negativos, en los que estas aplicaciones impactan en la vida de este grupo de edad en el que su personalidad aún está en formación. Instagram suspendió en siete de estos aspectos: notablemente, los jóvenes reconocían que esta app para compartir fotografías afecta muy negativamente en su autoestima (imagen corporal), en sus horas de sueño (asociado a múltiples problemas que se derivan de dormir poco) y en su miedo a quedarse fuera de eventos sociales (conocido por las siglas en inglés FoMO). Además, consideran que fomenta el ciberacoso, que les genera ansiedad y, en menor medida, síntomas depresivos y sensación de soledad.

"Instagram logra fácilmente que las niñas y mujeres se sientan como si sus cuerpos no fueran lo suficientemente buenos mientras la gente agrega filtros y edita sus imágenes para que parezcan perfectas", asegura uno de los jóvenes estudiados. "El ciberacoso anónimo a través de Twitter sobre temas personales me ha llevado a autolesionarme y a tener miedo de ir a la escuela. El acoso en Instagram me ha llevado a intentar suicidarse y también a lesionarme. Las dos me hicieron experimentar episodios depresivos y ansiedad", confiesa un menor de 16 años que participó en el estudio.

"Ser un adolescente es ya suficientemente difícil, pero las presiones a las que se enfrentan online los jóvenes son sin duda únicas para esta generación digital", aseguran los autores
Snapchat obtiene unas notas casi tan negativas como Instagram, aunque es más perjudicial para las horas de sueño y para la ansiedad social que genera perderse eventos sociales. En el ranking negativo le sigue Facebook, que es la red más propicia para el ciberacoso, según el estudio. Twitter mejora levemente las notas de las anteriores y casi compensa sus efectos negativos con sus aportaciones positivas. YouTube, finalmente, logra el aprobado gracias a que sus efectos tóxicos son más escasos, según la encuesta, salvo en el caso de las horas de sueño: este portal para ver vídeos es el que menos deja dormir a los jóvenes.

No todo es malo en estas redes: los aspectos más positivos en los que destacaron estas apps fueron la capacidad de tomar conciencia (sobre todo en YouTube), de expresarse y encontrar una identidad propia (Instagram) y de crear comunidad y de dar con apoyo emocional (Facebook).


"Ser un adolescente es ya suficientemente difícil, pero las presiones a las que se enfrentan online los jóvenes son sin duda únicas para esta generación digital. Es de vital importancia que intervengamos poniendo medidas preventivas", aseguran las autoras del estudio. El informe propone algunas de estas medidas, como que los usuarios reciban una notificación de la propia aplicación avisándoles del exceso de uso, que la red advierta cuando una foto está manipulada o que se realicen campañas de formación sobre estos riesgos en el ámbito escolar.

IV

Cariño, hemos creado un monstruo
Dos de los fundadores de Facebook reniegan del invento. Recopilamos sus frases explicando que quizá su idea se les haya ido de las manos.
BEGOÑA GÓMEZ URZAIZ | 19 DIC 2017 07:50
FacebookMark Zuckerberg. FOTO: GETTY
0
Se cree que cinco meses antes de morir, en noviembre de 1954, Albert Einstein dijo que sólo había cometido un gran error en su vida: enviarle una carta al presidente Roosevelt recomendándole crear la bomba atómica utilizando sus descubrimientos en torno a la relatividad. El científico se justificó, porque existía el peligro de que los nazis la crearan antes. Algunos de los creadores de Facebook no han tardado tanto en arrepentirse de su creación. Hace apenas unos días, Chamath Palihapitiya, ex vicepresidente de crecimiento de usuarios en la empresa de Mark Zuckerberg, declaró que siente una “culpa tremenda” por haber creado las herramientas que están “destrozando el tejido social” y “erosionando la misma base del comportamiento de las personas”.

Palipahitiya, que se unió a Facebook en 2007, unos meses después de que la red social se expandiera de los campus universitarios estadounidenses a cualquiera que tuviera un correo electrónico, hizo esas declaraciones en un foro de graduados de la universidad de Stanford, el vivero intelectual de Silicon Valley, ante los que se presentó como un profeta que había visto el mal desde demasiado cerca.

“No os dais cuenta, pero estáis siendo programados –dijo a los estudiantes– Tenéis que decidir a cuánto estáis dispuestos a renunciar, a cuánta de vuestra independencia intelectual”. Él, que ahora es el presidente ejecutivo de una sociedad de inversiones, ya no usa “esta mierda” y a sus hijos tampoco se lo permite, por lo que recomendó a los presentes romper ya con todas las redes sociales. “Organizamos nuestras vidas alrededor de esta sensación de perfección, porque recibimos premios a corto plazo. Corazones, me gusta, pulgares alzados los igualamos a un valor, los igualamos a la verdad. Pero en realidad ocultan una popularidad falsa y amarga que te deja, admitidlo, más vacío de lo que estabas antes”, exhortó.

El ex vicepresidente no es el único miembro emérito de la empresa que ahora pone seriamente en duda la red social. Sean Parker, el inversor inicial y primer presidente de Facebook, al que interpretó Justin Timberlake en la película La red social, declaró en una entrevista reciente que el principal objetivo que tenían al fundarla era “consumir la mayor cantidad de tiempo y atención posible” de cada usuario, y que en consecuencia, Facebook y el resto de redes “literalmente cambian nuestra relación con la sociedad e interfieren con nuestra productividad”. “Dios sabe qué estamos haciendo con los cerebros de nuestros hijos”, lanzó al aire. Parker reconoció que Facebook cuadraba con una mentalidad de hacker como la suya “porque estás explotando la vulnerabilidad de la psicología humana”.

La pregunta es: ¿sabían lo que hacían cuando legaron al mundo este juguete irresistible? Claro que lo sabían. “Lo entendimos conscientemente y lo hicimos de todas maneras”, dijo en la misma entrevista. Palihapitiya se expresó en términos parecidos: “en el fondo, en los lugares recónditos de nuestras mentes, sabíamos que algo malo podía pasar”.

Una portavoz de Facebook, Susan Glick, le respondió de inmediato señalando que el ex vicepresidente lleva seis años fuera de la empresa, que era entonces muy distinta. “Ahora hemos crecido y nos hemos dado cuenta de nuestras responsabilidades y estamos trabajando para mejorar”, dijo. Mark Zuckerberg lleva todo el año inmerso en un tour “de crecimiento personal” por cada uno de los estados de su país, que se leyó inmediatamente como una precampaña presidencial a larguísimo plazo. Lo que sí admitió Zuckerberg en septiembre es que fue demasiado rápido cuando ridiculizó la idea de que Facebook había tenido un rol fundamental en la elección de Trump. Entonces, tildó esa noción de “loca”, pero después reconoció que el asunto es “demasiado importante” para ser tan derogatorio. Cuando pareció evidente que Rusia había gastado al menos 100.000 dólares en anuncios de Facebook para promover mensajes divisivos y anti-Trump, la empresa recolectó 3000 de esos anuncios para presentarlos ante una comisión en el Congreso estadounidense.

En las últimas semanas también se ha señalado el papel de la red social en la crisis de los Rohingya, donde habría servido para amplificar la propaganda contra esta minoría. Y desde el Brexit hasta la crisis catalana, no ha habido acontecimiento político significativo donde no haya aparecido la sombra de Twitter y Facebook. Palipahitiya también se refirió a eso en su exabrupto y puso el ejemplo de un suceso que tuvo lugar en India la pasada primavera, cuando uno de los mensajes virales de Whatsapp (propiedad de Facebook) llevó al linchamiento de siete personas. “Esto es lo que tenemos entre manos. Imaginad que lo llevamos al extremo en el que los agentes malos pueden manipular a enormes cantidades de personas para hacer lo que ellos quieren. Es un estado muy, muy malo de las cosas”.


Artículo actualizado el 20 diciembre, 2017 | 12:18

jueves, 19 de octubre de 2017

La inteligencia artificial supera al fin y desfasa a la humana.

Javier Salas "La inteligencia artificial ya aprende sola a ser invencible", en El País, 18-X-2017:

El último algoritmo de Google prescinde del conocimiento humano y señala que puede ser un lastre.

Es solo un juego de mesa. Pero el tablero del go, este complejo ajedrez oriental, es el terreno elegido para explorar las fronteras de la inteligencia artificial que en el futuro ayuden a "resolver todo tipo de problemas apremiantes del mundo real", en palabras de Demis Hassabis, líder de Google DeepMind. Esta división de la multimillonaria tecnológica ya logró crear un programa ganador de go, AlphaGo, capaz de derrotar a los campeones mundiales desnudando muchos secretos de la mente humana. Ahora han ido un paso más allá al desarrollar un programa capaz de aplastar a todas las versiones previas del todopoderoso AlphaGo aprendiendo de cero y sin ayuda. Una máquina que se enseña a sí misma, sin ejemplos de partidas reales ni intervención humana, hasta convertirse en invencible. Y además lo logró con una fuerza incomparable, en un tiempo récord y consumiendo una cantidad mínima de recursos informáticos.

Esta nueva versión desarrollada por DeepMind cuenta con un algoritmo que le permite aprender a ganar de la nada, practicando consigo misma

El programa original se había entrenado estudiando millones de movimientos reales de miles de partidas jugadas entre humanos, un monumental paso previo antes de comenzar a entrenarse jugando contra sí mismo hasta convertirse en imbatible. Pero esta nueva versión desarrollada por DeepMind, denominada AlphaGo Zero, cuenta con un nuevo algoritmo que le permite aprender a ganar de la nada, a solas con el tablero y las fichas. El nuevo algoritmo se apoya en una red neuronal basada en el aprendizaje por refuerzo: la máquina sabe enseñarse sola practicando consigo misma hasta alcanzar una capacidad muy superior a la de sus versiones previas.

El equipo de DeepMind quería ilustrar cómo la inteligencia artificial puede ser eficiente frente a aquellos retos en los que no se cuente con datos suficientes o conocimientos previos para guiar a la máquina hacia una solución óptima, como explican en el estudio que les publica la revista Nature. "Nuestros resultados demuestran", escriben, "que un enfoque de aprendizaje por refuerzo puro es completamente factible, incluso en los dominios más exigentes: es posible entrenar a un nivel sobrehumano, sin ejemplos humanos ni orientación, sin más conocimiento del campo que las reglas básicas". La idea ya no es superar a los humanos subiendo sobre sus hombros, sino llegar donde ellos no están ni pueden ayudar.

La máquina autodidacta derrotó a una máquina igual de potente pero enseñada con información de partidas humanas en solo 24 horas

Partiendo de cero, con movimientos aleatorios, AlphaGo Zero comenzó a entender las nociones de este complejísimo juego de piedras blancas y negras que deben ir ganando territorio en un tablero de 19 por 19 cuadrantes. En solo tres días, tras jugar contra sí misma casi cinco millones de veces, esta máquina venció a la exitosa versión previa que derrotó por primera vez a un campeón de talla mundial. Aquella máquina original necesitó meses de entrenamiento y 30 millones de jugadas. El algoritmo actual es tan eficiente que se hizo invencible con tan solo cuatro chips especializados frente a los 48 que necesitaba su predecesora de 2015. AlphaGo Zero derrotó a AlphaGo por 100 a cero.

Lo más interesante es lo que esta nueva máquina nos enseña sobre el aprendizaje, sobre (lo prescindible de) nuestros conocimientos y nuestra inteligencia. "A las 3 horas, el juego se centra en comer piedras con avaricia, como un principiante humano", detalla el estudio. "A las 19 horas, el juego exhibe los fundamentos de vida y muerte, la influencia y el territorio", continúa. A las 70 horas, la máquina es extraordinariamente capaz, a niveles sobrehumanos, capaz de visualizar estrategias sofisticadas impensables para los jugadores de carne y hueso. Y en 40 días es invencible. 

La idea ya no es superar a los humanos subiendo sobre sus hombros, sino llegar donde ellos no están ni pueden ayudar

De forma intuitiva, la máquina fue descubriendo tácticas, posiciones y movimientos que el talento humano había ido perfeccionando durante miles de años. Pero descubrió por sí misma otras estrategias innovadoras desconocidas que le resultaban más eficientes y optó por abandonar los movimientos clásicos humanos. Esa creatividad del algoritmo, uno de los hallazgos más notables de DeepMind, ya pudo verse en su famosa batalla contra el campeón Lee Sedol, de quien siempre se recordará su gesto, ojiplático y boquiabierto, al observar un brillante movimiento ganador de AlphaGo.

Es más, AlphaGo Zero ha demostrado que el conocimiento humano puede incluso ser un lastre a la hora de alcanzar mayores niveles de efectividad. Los especialistas de DeepMind alimentaron a una copia de este algoritmo con información de partidas reales entre humanos, para comparar su rendimiento con la versión autodidacta. El resultado: la máquina autodidacta derrotó a la máquina enseñada por humanos en las primeras 24 horas de entrenamiento. "Esto sugiere que AlphaGo Zero puede estar aprendiendo una estrategia que es cualitativamente diferente del juego humano", concluyen los investigadores de Google.

La verdadera capacidad de las máquinas

DeepMind ya había logrado que las máquinas aprendieran solas a ganar, como hizo con videojuegos clásicos. Pero el nivel de sofisticación del go, con más posibilidades en el tablero que átomos en el universo, lo convierte en mejor prueba que los marcianitos. Sobre todo si, como asegura Hassabis, pretenden usar estos desarrollos para solucionar cuestiones tan difíciles como el plegamiento de proteínas o el desarrollo de nuevos materiales: "Si podemos lograr con estos problemas el mismo progreso que con AlphaGo, tiene el potencial de impulsar el conocimiento humano e impactar positivamente en todas nuestras vidas"

"AlphaGo Zero puede estar aprendiendo una estrategia que es cualitativamente diferente al juego humano", concluyen los investigadores de Google

Conocidos los resultados de DeepMind, conviene recordar la Ley de Amara, propuesta por el científico Roy Amara: "Tendemos a sobrestimar el efecto de una tecnología a corto plazo y subestimar su efecto en el largo plazo". Este algoritmo de Google no tiene rival a la hora de enseñarse a sí mismo a ganar al go, pero hoy por hoy está muy limitado por la tarea encomendada. Así lo reconocieron sus desarrolladores hace unos meses, preguntados por qué pasaría si de pronto le cambiaran a AlphaGo las dimensiones del tablero de 19x19 a 29x29: "Estaríamos muertos". Un jugador humano sabría adaptarse sin mayores problemas al cambio.

Como contexto, un estudio del mes pasado publicado por investigadores de la Academia de Ciencias de China sobre el riesgo real de la inteligencia artificial analizando sus actuales capacidades. Así, estudiaron cuál sería el coeficiente intelectual de los distintos sistemas de inteligencia artificial, llegando a la conclusión de que son como niños pequeños: el de Google es de 47, el doble que el de Siri (24). Tomando en consideración las habilidades de los sistemas en torno a su "dominio del conocimiento, aprendizaje, uso y creación", llegaron a la conclusión de que la inteligencia general de AlphaGo (la versión de 2016) está por debajo de la humana. Eso sí, señalaban que para subir un peldaño en sus capacidades intelectuales AlphaGo necesitaba demostrar la creatividad necesaria para enseñarse a sí mismo a ganar. Y ese reto ya lo ha superado.

viernes, 28 de julio de 2017

Una inteligencia artificial se inventa un inglés mejor para hablar con otras máquinas y es apagada.

Ángel Jiménez de Luis, "Facebook apaga una inteligencia artificial que había inventado su propio idioma", en El País, 28-VII-2017:

La máquina se comunicaba en un inglés incorrecto y repetitivo que, sin embargo, para ella tenía un sentido muy concreto. Lejos de ser una mera curiosidad, subraya un problema con esta tecnología: que en el futuro no comprendamos la comunicación entre máquinas.

En el laboratorio de investigación de inteligencia artificial de la Universidad Tecnológica de Georgia, un proyecto para crear una inteligencia artificial capaz de aprender y desarrollar nuevas tácticas de negociación ha dado un giro inesperado, para sorpresa de la empresa que lo ha financiado en parte: Facebook.Los responsables del proyecto han tenido que apagar el proceso porque la inteligencia artificial había desarrollado su propio lenguaje, casi imposible de descifrar para los investigadores pero mucho más apto y lógico para la tarea que debía desempeñar.El lenguaje parece una corrupción del inglés -el idioma en el que originalmente se programó la inteligencia artificial- pero carente de sentido por la extraña repetición de pronombres y determinantes.Al analizar las oraciones, sin embargo, los investigadores descubrieron que en el aparente desorden había una estructura lógica coherente que permitía a la inteligencia artificial negociar entre distintos agentes usando menos palabras o con menor riesgo de equivocación."No programamos una recompensa para que la inteligencia artificial no se desviara de las reglas del lenguaje natural" y por tanto su red neural -el conjunto de rutinas que optimiza su funcionamiento- fue favoreciendo abreviaturas y nuevas expresiones que hacían mucho más rápida o sencilla su tarea, asegura en la publicación FastCo uno de los responsables del proyecto.

lunes, 26 de junio de 2017

El móvil es patógeno para los niños pequeños


La atención es la ventana a través de la cual el cerebro se asoma al mundo que le rodea. Cuando el niño nace, apenas es capaz de dirigir su interés hacia el mundo exterior. Inicialmente sólo presta atención a sus propias sensaciones llorando cuando tiene hambre, sueño, frío o se siente solo. Poco a poco comienza a fijarla en el pezón de la madre que destaca como una forma más oscura en el horizonte. A partir de ahí comienza un largo viaje en el que el niño va aprendiendo que atender ciertos estímulos conlleva una serie de beneficios.

Quítale el móvil al niño El smartphone, un arma de distracción masiva
A las pocas semanas el niño reconoce con facilidad objetos que emiten ruido o se mueven; por eso los sonajeros captan su interés. Los padres hacen todo tipo de carantoñas con juguetes o con las manos para dirigir su atención, de ahí los cinco lobitos. Pero también comienzan, de manera instintiva a ayudarle a fijarla en estímulos inmóviles. Primero un árbol que mece sus hojas con suavidad, luego una foto en la que sale junto a su mamá y, más adelante, un cuento en el que casi no pasa nada.

Así, el niño comienza a desarrollar una habilidad tremendamente compleja, que es la de controlar la propia atención y dirigirla no sólo a aquellos estímulos que se mueven, sino también a aquellos que están más quietos o son más aburridos. De esta forma crecerá siendo capaz de atender a su profesor, aunque el compañero de al lado esté haciendo el tonto. Aprenderá a abstraerse con el libro que lee, aunque una mosca lo sobrevuele, y llegará a ser capaz de concentrarse al volante, a pesar de que la carretera sea una larga recta y su cerebro esté cansado.

Dominar la atención y ser capaz de eliminar otros estímulos que intentan distraernos es una habilidad que ofrece múltiples ventajas. Nos permite concentrarnos en lo que realmente queremos o deseamos, detectar detalles y matices que otros pasan por alto, aprender idiomas con más facilidad, persistir en nuestras metas hasta alcanzarlas o reducir los niveles de estrés.

Los padres pasan menos tiempo con los hijos y esto parece interferir en el desarrollo del autocontrol

Desde hace años vivimos un auténtico auge de un diagnóstico que provoca sufrimiento entre los más pequeños: el trastorno por déficit de atención (TDA). Desde los años setenta hasta 2010, el número de niños diagnosticados en Estados Unidos se multiplicó por siete. Desde 2000 hasta 2012, el número de recetas expedidas en Reino Unido para tratar este trastorno cognitivo se multiplicó por cuatro. Los factores que han provocado esta alza son muchos y complejos. Por una parte, la sensibilización de los pediatras ha hecho que se detecten con más eficacia. Por otra, la posibilidad de diagnosticarlo a partir de los tres años (en lugar de a los seis años) ha sido otro motivo para el aumento de la prevalencia.

Sin embargo, también hay otras razones que son más difíciles de entender. La más preocupante de todas ellas es el sobrediagnóstico: los expertos más alarmistas estiman que como mucho un 4% de la población infantil podría sufrir este trastorno y, sin embargo, la realidad es que un 10% de los niños en nuestro país tomarán medicación para el TDA en algún momento de su vida escolar.

Las razones que llevan al sobrediagnóstico parecen ser muchas. Los padres pasan menos tiempo con los hijos y esto parece interferir en el desarrollo de habilidades como el autocontrol o la capacidad para sobrellevar la frustración. Los colegios tienen menos paciencia con los alumnos difíciles o que no están tan motivados para aprender, en muchos casos presionados por los resultados académicos de la escuela en su conjunto.

Los móviles se usan para distraerles mientras se terminan la papilla, pero así no aprenden a concentrarse

También nos encontramos con la intrusión de las nuevas tecnologías en el cerebro en desarrollo de nuestros hijos. Desde los años ochenta sabemos que más tiempo frente al televisor se traduce en menos paciencia y autocontrol, peor desarrollo madurativo de la atención y mayores tasas de fracaso escolar. La razón es muy sencilla, cuando el niño juega, dibuja o interacciona con sus padres o hermanos, su cerebro debe dirigir la atención voluntariamente a aquellos estímulos o personas con los que interacciona. Cuando se sienta frente al televisor es la tele la que atrapa el interés del niño y hace todo el trabajo.

Por eso nos gusta ver la tele y engancharnos al móvil, no porque estimulen nuestro cerebro, sino porque nos entretienen, nos relajan. Hoy, los dispositivos móviles se utilizan para distraer al niño cuando se tiene que concentrar en terminar una papilla. Para entretener al niño cuando tiene que esperar en el pediatra. Para despistar al niño cuando tiene que esforzarse en ponerse el pijama al final del día. Con este tipo de estrategias parece sensato que el cerebro aprenda que cada vez que tiene que esforzarse, concentrarse o esperar quieto…, tiene permiso para distraerse.

Sin lugar a dudas estamos educando niños menos pacientes, menos atentos y con menor capacidad de esfuerzo, reflejo de una generación de padres menos pacientes y que damos menos valor a hacer las cosas despacio.

Todo ello lleva a que muchos niños sean llevados a un especialista que observa en él todos los síntomas necesarios para el diagnóstico: poco autocontrol, distracción o falta de motivación. En el caso de muchos niños el diagnóstico y el tratamiento son acertados. Para muchos otros, creemos, el trastorno por déficit de atención es un estigma de una sociedad que va demasiado deprisa para educar despacio.

Algunos niños, con ayuda de sus padres, profesores o terapeutas van desarrollando habilidades cognitivas como un mayor autocontrol o paciencia que permiten reducir y compensar las dificultades atencionales. A medida que se hacen mayores suelen preferir y encajar bien en trabajos que les permiten moverse y hacer cosas diversas a lo largo del día.

Pero pueden seguir existiendo desafíos en la vida cotidiana. Muchos los encuentran cuando tienen sus propios hijos y la paciencia, el orden o la organización vuelve a ser un elemento adaptativo fundamental. Algunos adultos con dificultades de atención no experimentan ninguna dificultad en su vida cotidiana, otros se regulan gracias a la medicación y un tercer grupo sufre muchas de estas dificultades pero no tiene ni idea de que el origen esté en una alteración de sus procesos atencionales y ejecutivos, ni conoce cómo compensarlos.

Álvaro Bilbao, neuropsicólogo, es autor de ‘El cerebro del niño explicado a los padres’.

sábado, 17 de diciembre de 2016

Creada carne artificial

Martín Caparrós, "La revolución de la ‘carne cultivada’", en El País, 15 DE DICIEMBRE DE 2016

Es posible que se dé un salto comparable al principio de la agricultura. La carrera está lanzada y podría terminar con el hambre.

LOS PRIMEROS prefirieron la sorpresa, el asombro, y la llamaron carne cultivada o carne limpia o incluso carne inanimal. Pero últimamente algún marquetinero recordó las lecciones de su curso de ingreso y empezó a llamarla supercarne –supermeat–. El nombre todavía es materia discutible pero la cosa parece decidida: se trata de fabricar carne –verdadera carne– comestible en un tubo de ensayo.

El primero en proponerlo seriamente fue un holandés, Willem van Eelen, que, muy joven, se pasó cinco años prisionero de guerra en un campo de concentración japonés en Indonesia. Allí, medio muerto de hambre, se le ocurrió la idea; cuando la guerra terminó, Van Eelen se recibió de médico y se pasó décadas imaginando cómo hacerlo hasta que, hacia 1990, los avances en las técnicas de clonación –y la llamada “ingeniería de tejidos”– se fueron acercando a sus fantasías: células madre, alimentadas con las proteínas adecuadas en un medio propicio, podrían reproducirse infinitamente.

Hace tres años Van Eelen se dio el gusto: discípulos suyos presentaron, en Londres, la primera hamburguesa de carne cultivada. Pesaba un cuarto de libra y había costado un cuarto de millón de libras –pagados por Sergei Brin, el dueño de Google–, pero los catadores dijeron que sabía a verdadera carne. El desafío, entonces, era mejorar la producción para hacerla accesible. En Estados Unidos, Europa, Israel, Corea, laboratorios de punta de pequeñas empresas ambiciosas lo están intentando; dicen que en 10 o 15 años la supercarne se venderá en supermercados. Y que nada impediría que, en unas décadas, reemplazara a la clásica.

Que la carne, lo más natural, lo más animal, se vuelva un artificio es una idea muy contra natura –y muchos fruncen la nariz cuando lo evocan–. Es probable que esas carnes nunca consigan los matices de un buen cordero, pero sería una revolución sólo comparable al principio de la agricultura. Entonces los hombres descubrieron la forma de hacer que la naturaleza se plegara a sus voluntades; ahora descubrimos que ya no necesitaremos a la naturaleza. Y los efectos son casi incalculables.

Más de un tercio de las tierras útiles del mundo están dedicadas a la cría de ganado: entonces quedarían libres para el cultivo o, incluso, para oxigenar el planeta. El efecto invernadero cedería, y más aún si se tiene en cuenta que el 18% de los gases que lo producen vienen de las vacas y los chanchos. Y, sobre todo, más de la mitad de las cosechas del mundo se usan para alimentarlos: si ya no fuera necesario, esa comida podría terminar con el hambre de una vez por todas.

La carrera está lanzada: los laboratorios que la protagonizan suelen ser start-ups que consiguen inversores de esos que les ponen dinero a proyectos más o menos delirantes para perder un millón o ganar miles. Ahí está el riesgo: que quien por fin lo logre se convierta en un nuevo Monsanto, dueño de una tecnología que todo el mundo necesita; que un gran avance técnico no beneficie a los miles de millones que lo necesitan sino a una junta de accionistas. Es ahora, mientras todo está por verse, cuando los Estados y sus organismos internacionales tienen la ocasión de cambiar el modelo: de decidir que serán ellos los que desarrollen la nueva comida para que no sea propiedad de unos pocos sino patrimonio de todos; para que no le sirva a una corporación sino a la humanidad. Sería una gran oportunidad –una oportunidad única– para cambiar los mecanismos que hacen que cientos de millones de personas no coman suficiente. Parecen grandes palabras; quizá sea, también, un gran proyecto.

domingo, 11 de diciembre de 2016

Avances en Inteligencia Artificial

Javier Sampedro "Construyendo mentes artificiales", en El País, 11-XII-2016:

Los últimos grandes avances en el campo de la inteligencia artificial se inspiran en el cerebro. Pero su objetivo no es imitarnos, sino superarnos en ciertas cosas

Si la inteligencia artificial persiguiera imitar el funcionamiento del cerebro humano, se enfrentaría a un escollo formidable: que aún no sabemos cómo funciona el cerebro humano. Pero ni el objetivo de esta tecnología vigorosa es solo ese, ni la estrategia de imitar al cerebro tiene que esperar a que lo entendamos todo sobre ese órgano fabuloso que llevamos dentro del cráneo. Incluso con el conocimiento fragmentario que tenemos sobre él, nuestro cerebro está sirviendo como una fuente de inspiración muy eficaz para los ingenieros, los científicos de la computación y los expertos en robótica. Y los resultados ya nos rodean por entero.

Como un pasajero asomado a la borda de un transatlántico, pasamos el día viajando sobre una maquinaria prodigiosa de la que entendemos muy poca cosa. El sistema de reconocimiento de voz con el que podemos hablar a Google es inteligencia artificial (AI, en sus siglas en inglés), como lo es ese circulito que identifica las caras de tus primas cuando vas a hacerles una foto. Que sean AI quiere decir que nadie ha programado allí tu voz ni la cara de tu prima, sino que el sistema aprende a reconocerlas a partir de la experiencia, como hace nuestro cerebro con la realidad impredecible de ahí fuera.

Hay gente obsesionada por definir las cosas, y el lector podrá encontrar en la red una docena de definiciones distintas de la inteligencia artificial. Mi favorita es la de Marvin Minsky, un pionero del campo que murió en enero. La AI, dijo Minsky, “es la ciencia que investiga para que las máquinas hagan cosas que requerirían inteligencia si las hubiera hecho un humano”. La definición de Minsky parece gratuitamente enrevesada, pero en realidad es un dardo envenenado. Va con retranca, y es importante que veamos por qué.

A principios de los años noventa, todo el mundo habría considerado que ganar al campeón mundial de ajedrez sería una prueba de inteligencia. En esos mismos años, sin embargo, los científicos de IBM estaban desarrollando un ingenio destinado a vencer a Gari Kaspárov, el número uno de la época. Se llamaba Deep Blue, contaba con 256 procesadores trabajando en cadena que evaluaban 200 millones de jugadas por segundo y dio el campanazo el vencer al gran Kaspárov. ¿Debemos concluir que Deep Blue era inteligente?

No, de ningún modo, respondió todo el mundo al unísono. El ajedrez, al fin y al cabo, es un juego acotado, con un número enorme pero finito de soluciones posibles, y sus reglas son simples y matemáticamente consistentes. Este es el campo de juego óptimo para un cerebro de silicio con superpoderes como Deep Blue.

El sistema de reconocimiento de voz, o el de identificación de caras del smartphone son ejemplos de inteligencia artificial que usamos diariamente 

Pero nuestro cerebro no funciona así. Ni tiene 256 procesadores en cadena ni puede evaluar 200 millones de jugadas por segundo. El éxito del ingenio de IBM se atribuyó a la fuerza computacional bruta. Nuestra percepción del ajedrez dio un vuelco, pero no para declarar inteligente a Deep Blue, sino para excluir al ajedrez de la definición de inteligencia. Si una máquina podía ganar a Kaspárov, ser el campeón mundial de ajedrez no debía ser para tanto, después de todo.

Justo ahí iba Minsky con el dardo de su definición. Si quien hubiera ganado a Kaspárov hubiera sido un joven talento, todos le habríamos admirado por su inteligencia extrema. Pero ninguno de nosotros estuvimos dispuestos a concederle la misma consideración a Deep Blue. La AI no es la ciencia que investiga para que las máquinas hagan cosas inteligentes, sino para que las máquinas hagan cosas que requerirían inteligencia si las hubiera hecho un humano. Es una importante lección de Minsky que conviene tener muy presente al reflexionar sobre la inteligencia de las máquinas.

Los sistemas de inteligencia artificial aprenden con nosotros gracias a la experiencia 

Hay otro criterio clásico sobre la misma cuestión, formulado por el gran padre de la inteligencia artificial, Alan Turing (algunos lectores le recordarán con la cara de Benedict Cumberbatch en la película Descifrando Enigma). Tendremos que considerar que una máquina es inteligente cuando logre hacerse pasar por un humano, por ejemplo por correo electrónico. Los científicos de la computación veneran a Turing, pero ya no creen que su test de Turing sea un criterio válido. Ni aprobarlo demuestra inteligencia, ni suspenderlo implica la falta de ella. ¿Entonces?

Entonces, como casi siempre, lo mejor es prescindir de los grandes principios matemáticos o filosóficos y ponerse las botas para hundirlas en el barro. Caso a caso, con un sentido práctico y una mente abierta. Los ordenadores ya nos superan en capacidad de cálculo, en velocidad de gestión y en otras cosas. Nos ganan al ajedrez e incluso al Go, el juego chino que seguramente es el más complejo que hemos inventado los humanos.

Podemos, por supuesto, aducir que eso no es la verdadera inteligencia. Pero la verdadera inteligencia, por todo lo que sabe la neurociencia, está hecha de cosas como esas. No sabemos de cuántas, no sabemos cuándo la tecnología logrará emularlas a todas ellas, pero no parece haber ningún problema de principio, o frontera infranqueable, para que las máquinas lleguen ahí.

Si el cerebro es un objeto físico (como los científicos saben que es), no puede haber ningún escollo filosófico para que la tecnología lo pueda emular. O superar.

'Deep Blue', el ordenador que ganó a Kasparov al ajedrez no era inteligencia artificial

De inteligencia artificial se habla desde los años cincuenta, pero los avances recientes que explican su afloramiento en los medios —y que usted esté leyendo esto— proponen dos enfoques que se basan en ciertos aspectos del funcionamiento del cerebro. El primero es un tipo de programa informático —o de arquitectura de sistemas— que se llama red neural y que, como indica su nombre, emula el tipo de computación que hacen las neuronas biológicas.

Todo el mundo está familiarizado hoy con la forma de una neurona. Sus entradas (dendritas) forman un árbol de ramificación frondosa y fractal, de modo que de un solo tronco pueden llegar a formar 10.000 ramas que rastrean la información de su entorno local y de media distancia. En contraste, el cable de salida (axón) es único, de modo que cada neurona tiene que integrar masas de información procedente de sus miles de dendritas para generar una respuesta sintética a través de su axón. Esta es la arquitectura que imitan las redes neurales de silicio.

La inteligencia artificial es la ciencia que investiga para que las máquinas hagan cosas que requerirían inteligencia si las hicieran humanos 

La segunda inspiración que proviene del cerebro es más compleja, y más poderosa. Se llama deep learning (aprendizaje profundo), y es el fundamento de los grandes avances que nos han asombrado en los últimos tres o cuatro años. De manera paradójica, lo más fácil es explicar primero el funcionamiento del cerebro y después el del deep learning.

Cuando el premio Nobel Francis Crick, codescubridor de la doble hélice del ADN y neurocientífico, le dijo a una amiga que su interés profesional era comprender el mecanismo cerebral de la visión, la amiga se mostró estupefacta:

—No sé qué interés tiene eso. A mí me basta imaginar que el cerebro forma una especie de imagen de televisión.

La clave de la inteligencia artificial es que las máquinas sean capaces de aprender, lo que se conoce como 'deep learnig'

—Sí —respondió Crick—, pero ¿quién está viendo la televisión?

Nuestras intuiciones sobre el funcionamiento de nuestra propia mente siempre son garrafales. La verdadera forma en que procesamos la información visual (cómo formamos imágenes mentales del mundo) hubo que descubrirla con experimentos sofisticados. La imagen que capta la retina se transmite por el nervio óptico a la parte posterior del cerebro, la más próxima a la nuca (V1, por área visual uno, en la jerga). V1 solo ve líneas entre luz y sombra, horizontales, verticales o con cierto ángulo de inclinación. Eso es todo lo que entra.

Subiendo desde la nuca hacia la coronilla, se sucede un encadenamiento de áreas visuales (V2, V3 y otras con nombres más caprichosos) que va abstrayendo la información progresivamente. Si V1 solo veía líneas inclinadas, las siguientes áreas las abstraen en ángulos, luego en polígonos, después en poliedros y al final en una gramática de las formas que nos permite construir un modelo interno de la persona que vemos, ya esté de frente o de medio perfil, enfadada o partida de risa. Ese es el que está viendo la televisión.

En eso se basa también el deep learning (aprendizaje profundo) de las máquinas. Las neuronas de silicio se organizan en muchas capas (decenas o cientos) que van abstrayendo progresivamente la información. Cada capa, por así decir, infiere un concepto a partir de la jungla que le transmite la capa anterior y, capa a capa, la información se va haciendo más abstracta, menos pendiente de los detalles que de las propiedades invariantes de los objetos del mundo. Es como poner un nombre a las cosas, y esto es lo que hacen los actuales sistemas expertos.

Pueden leer en los artículos de este suplemento cosas interesantes sobre las oportunidades y los riesgos, los sueños y las pesadillas. Pero recuerden los conceptos básicos expuestos aquí. Les seguirán sirviendo dentro de 10 años.