Mostrando entradas con la etiqueta Ciencia. Mostrar todas las entradas
Mostrando entradas con la etiqueta Ciencia. Mostrar todas las entradas

sábado, 10 de octubre de 2020

El diccionario biográfico de la ciencia y la técnica en La Mancha (2020)

Acaba de publicarse Ciencia y técnica en Castilla-La Mancha. Diccionario biográfico (nombres y hechos). Un grueso volumen editado por Almud y coordinado por Alfonso González Calero y Enrique Díez Barra en el que más de 80 especialistas, entre los que han querido incluirme, han contribuido con un total de 320 entradas sobre todas las figuras importantes de la ciencia en la región a lo largo de la historia. No había nada como esto realizado hasta ahora.

El prototipo del manchego típico, desde tiempos de Quevedo, que nos pintaba "atestados de ajos las barrigas", o de Francisco Gregorio de Salas, que también había vivido entre nosotros, ha sido cuando menos el de un paleto ignorante. Y cuando más se ha elevado este estereotipo no ha sido precisamente en la persona de Sancho Panza, ni siquiera en la de Don Quijote, figuras universales que excluyen toda regionalidad, sino en la de Sansón Carrasco, cuyo oficio fue derrotar el entusiasmo y la ilusión de quienes han intentado mejorarse o mejorar  a otros. La ciencia y la tecnología no han sobresalido por ello entre nosotros, porque, aparte de no tener contexto ni situación para ello, un tradicionalismo mal entendido y de fácil crédito en estas coordenadas ha considerado una locura cualquier idea de conocimiento y progreso común. 

Y así, de la lectura de esta magna obra se desprende que quien ha querido ahondar estudiando, investigando o desarrollando alguna iniciativa nueva en las ciencias, ha tenido siempre que emigrar fuera de la región e incluso de España, buscando espacios y vientos más favorables. Y, cuando han querido repatriar algo del éxito que han tenido, el reduccionismo de las mentes estrechas en todos los campos, la falta de apoyo y de oportunidades y el nulo entusiasmo general ha terminado por convertir sus esfuerzos en poco más que inútiles. La carencia de mercados, de instituciones universitarias, de industria y de tecnología nos ha obligado con frecuencia a recurrir a fuentes extranjeras o a "extranjerizar" a nuestros naturales. Y los que han quedado aquí han crecido casi siempre al estilo bonsái dentro de los límites del autodidactismo, incluso en el terreno de la enología, que tanto se ha desarrollado en la región, o han terminado por militar en las filas del meapilismo de una Iglesia que siempre se ha asegurado, con el monopolio que largo tiempo ha tenido de la enseñanza, las mentes más creativas. No resulta extraño que habiendo tantos célebres médicos y astrónomos en el Toledo medieval, la única obra realmente extensa que se haya traducido entonces no sea científica, sino el Corán por parte del médico mozárabe Marcos de Toledo en 1210, por orden del arzobispo Rodrigo Jiménez de Rada, quien prefería que dejase sus traducciones de Galeno y se dedicase a combatir a los herejes. Las estanterías de las antiguas bibliotecas manchegas están llenas de obras teológicas que no mueven molino. 

La obra tiene por supuesto las limitaciones que toda producción humana ha de tener; faltan aún algunos autores y hay erratas y descompensaciones, pero esos defectillos pueden suplirse perfectamente en ediciones ulteriores y ofrece un panorama inmenso y muy revelador de lo que ha sido y es la ciencia en la región. En Ciudad Real debemos recordar, por ejemplo, más que al Quijote a Alfonso X el Sabio, porque hay una facultad de lenguas modernas y clásicas y no estaría de más que hubiera un premio de traducción técnica que llevase su nombre.

Las grandes figuras de la ciencia en la región, ninguneadas como se ha hecho ahora con el español Mojica en la concesión del premio Nobel de Medicina, ahora tienen donde reunirse para hablar de su pertinaz mala suerte si se han quedado aquí. Porque abundan en estas biografías las derrotas de la voluntad, los frutos medianos o extraídos de afuera, la increíble hostilidad de la cizaña y de lo que Unamuno denominó cainismo y la consciente autolimitación dentro de las fronteras de la divulgación y de la mera enseñanza de lo ajeno.

Pero no conviene cerrar los ojos a las propias limitaciones naturales de esta tierra. El toledano Blasco de Garay, inventor de la máquina de vapor avant-la lettre, no pudo hallar el carbón ni el hierro que en Inglaterra propiciaron la revolución industrial y, lo que es peor, el entusiasmo, el eco y la ambición necesarios para impulsarla. El raquitismo del capital, el centralismo, el analfabetismo, la falta de promoción de las iniciativas inteligentes, la ausencia de imprentas, de buenas bibliotecas y de comunicaciones solventes justifican también el mediano fracaso de la investigación científica en la región. 

jueves, 10 de septiembre de 2020

Púrpura Han. Un misterio tecnológico

 Púrpura Han: pigmento artificial de 2800 años que sorprende a físicos cuánticos

18 de Febrero de 2016 Actualizado: 17 de Noviembre de 2016

Púrpura Han, es un pigmento artificial creado por los chinos hace más de 2500 años; fue utilizado en pintura de murales y para decorar a famosos guerreros de terracota, así como cerámicas, artículos de metal y joyería.


El pigmento es una maravilla tecnológica, realizada a través de un complejo proceso de moler materias primas en proporciones precisas y un calentamiento a temperaturas increíbles. Así de complicado fue el proceso, que no fue reconstruido de nuevo hasta 1992, cuando finalmente los químicos fueron capaces de identificar su composición; pero esto fue sólo el comienzo.


Según un informe de prensa del io9.com, desde entonces la investigación ha descubierto increíbles propiedades del púrpura Han, incluyendo la capacidad de emitir poderosos rayos de luz en el rango del infrarrojo cercano, y un colapso de tres dimensiones a dos, en condiciones adecuadas.


La producción de púrpura Han, también conocida como púrpura china, se remonta hasta el 800 antes de Cristo, sin embargo, parece que no se utilizó en el arte hasta las dinastías Qin y Han (221 a.C.- 220 d.C.) cuando se aplicó en los mundialmente famosos guerreros de terracota, así como en cerámicas y otros artículos.


“Antes del siglo XIX, cuando los métodos de producción modernos hicieron pigmentos sintéticos comunes, sólo hubo tintes enormemente caros de púrpura, un par de minerales violáceos poco comunes y mezclas del rojo y azul, pero no hay el verdadero pigmento púrpura, excepto durante unos cientos de años en la China antigua”, escribe Samir S. Patel en “Purple Reign (Reino Púrpura): Cómo las antiguas farmacias chinas añadieron color al ejército del emperador”.


Por una razón desconocida, el púrpura Han desapareció por completo después del año 220 d.C., y nunca fue visto nuevamente hasta su redescubrimiento hecho por químicos modernos en la década de 1990.


Síntesis del púrpura Han

A diferencia de los tintes naturales, como el púrpura Tyrian (ca. 1500 a.C.), que son compuestos orgánicos y por lo general hechos de plantas o animales, como el caracol chino, el púrpura Han fue un pigmento sintético hecho de materiales inorgánicos.


Sólo se conocen dos otros pigmentos azules o morados, hechos por el hombre que han existido en el mundo antiguo – el azul Maya (ca. 800 d.C.), a partir de una mezcla caliente de añil y arcilla blanca, y el azul egipcio, utilizado en todo el Mediterráneo y el Cercano y Medio Oriente desde 3.600 a.C. hasta finales del Imperio Romano.


La científica Elisabeth Fitzhugh, una conservadora del Smithsonian, fue la primera en identificar el complejo compuesto sintético que conforma al púrpura Han -bario silicato de cobre-, un compuesto que se diferencia del azul egipcio, sólo a través del uso del bario en lugar de calcio.


Las similitudes entre púrpura Han y azul egipcio llevó a algunos investigadores tempranos a la conclusión de que los chinos pueden haber aprendido de los egipcios cómo hacer el pigmento. Sin embargo, esta teoría ha sido descartada en gran medida, ya que el azul egipcio no se encontró más allá del este de Persia.


“No hay una razón clara de por qué los chinos, si hubieran aprendido la fórmula egipcia, habrían reemplazado al calcio por el bario, que hace necesario el aumento de temperatura para la cocción en 100 grados o más”, escribe Patel.


Entonces exactamente, ¿cómo tropiezan los chinos con la fórmula compleja para hacer el púrpura Han que consistía en la combinación de (arena) de sílice con cobre y bario en proporciones precisas y calentado aproximadamente entre 850° y 1.000°C?


Un equipo de físicos de Stanford que publicó un artículo en la revista Journal of Archaeological Science (aquí su resumen), propone que el púrpura Han fue un subproducto de proceso en la fabricación del vidrio, ya que tanto el vidrio como el pigmento púrpura contienen sílice y bario. Io9.com, escribe que el bario lo hace más brillante y nublado al cristal, lo que significa que este pigmento puede ser el trabajo de los primeros alquimistas que intentaron sintetizar el jade blanco.


Propiedades fluorescentes

Desde su composición, primero se descubrió que los científicos han continuado investigando este pigmento único. Investigadores del Museo Británico descubrieron que, cuando se expone a una simple linterna LED, el púrpura Han, emite rayos potentes de luz en el rango infrarrojo cercano. Según su estudio, publicado en la revista Analytical Chemistry and Bioanalytical, los pigmentos de color púrpura Han aparecen con sorprendente claridad en condiciones adecuadas, lo cual significa que incluso los rastros débiles de color se hacen invisibles a simple vista, puede vérselos con sensores infrarrojos.


Púrpura Han y el colapso de dimensiones

Las propiedades fluorescentes del púrpura Han, no fueron la única sorpresa. Los físicos cuánticos de Stanford del Laboratorio Nacional de Los Álamos y el Instituto Solid State Physics (Universidad de Tokio) informaron que cuando el púrpura Han se expone al frío extremo y a un alto campo magnético, la estructura química del pigmento entra en un nuevo estado llamado cuántico punto crítico, en el que el material de las tres dimensiones, “pierde” una dimensión.


“Hemos demostrado por primera vez el comportamiento colectivo en un material tridimensional, la mayoría puede ocurrir realmente en sólo dos dimensiones”, Ian Fisher, profesor asistente de física aplicada en Stanford, dijo en el Informe a Stanford.


“Baja dimensionalidad es un ingrediente clave en muchas teorías exóticas que pretenden dar cuenta de diversos fenómenos poco conocidos, incluyendo la superconductividad de alta temperatura, pero hasta ahora, no hubo un claro ejemplo de ‘reducción dimensional’ en materiales reales”.


Los científicos han expuesto que este efecto se debe al hecho de que los componentes del silicato de cobre y bario están compuestos como capas de azulejos, por lo que no se apilan ordenadamente. Los azulejos de cada capa están un poco fuera de sincronía con la capa por debajo de ellos. Esto puede frustrar a la onda y obligarla ir a dos dimensiones.


Los investigadores han dicho que el descubrimiento puede ayudar a comprender las propiedades requeridas de los nuevos materiales, incluyendo a los superconductores más exóticos.


Fisher dijo: “El púrpura Han por primera vez fue sintetizado hace más de 2500 años, pero hemos descubierto recientemente cuán exótico es su comportamiento magnético. Eso nos hace preguntarnos, qué otros materiales estarán por ahí que ni siquiera los hemos empezado a explorar”.

jueves, 8 de agosto de 2019

Tecnología punta

Es fácil inferir la personalidad de un pueblo como el español por la tecnología punta que genera. Y como nosotros no hemos pasado más allá de la fregona,  la tapa, el chupachup y el botijo, hay que concluir (inevitablemente, como Thanos) que somos unos comodones con miedo a mancharse las manos y a pasar mucho calor, al menos desde hace 3.500 años, pues hay botijos desde la almeriense cultura de El Argar. Que por aquí no pasa el tiempo. Cuán extraña es esa afición a las cosas con palito: el chupachup, la fregona, las tapas... y las banderas. Así nos va.

También se puede inferir la calidad de nuestro gobierno político por la de las tertulias (el parlamento es solo eso, una tertulia). De todas se saca la misma conclusión: ninguna. Es curiosa la unanimidad de ideas: todo el mundo hace el Inda de una forma u otra. Es la llanura perfecta del encefalograma plano, un campo de sal como el del Titicaca. ¿Qué idea será esa? ¿Sentarse rápido en la silla, como en el juego infantil?

Creo en la colectivización del conocimiento y de la ética, no en esta república camarera y los ochentamileuristas que la maltratan: nunca se ocuparán de la juventud que no nace y se marcha, de la sanidad que encoge, de los bancos que crecen, de la mierda que nos entierra. Ni Francisco Kafka podría describir esta postergación indefinida de una legalidad más real que legal. Un poco ejemplar ejemplo: el PSOE (Pedro Sánchez ¡OhÉ!), tira un dinero público que podrían haber usado en subirse más lo sueldos convocando perpetuas y eternas elecciones; y no es que los demás (de más para ellos) lo dejen: el convulso y malugno Rivera se agita como un cocamán y quiere bailar siempre con la más guapa y ser califa en lugar del califa; los podencos discuten con los galgos y los pobres y desvalidos no tienen nada que esperar de este espantajo que alguna vez pareció un país y ya no lo es. España y las demás repúblicas cementeras del sur de Europa son el tamagotchi de la UE.

Más nos vale hablar de Arrimadas, una niña conveniente y debida, bien educada, hija de buenos padres, modosa, kawai, fregatriz, pacata y circunspecta pajarilla en ese campo de nabos, esa manada que es la política española, más vulgar que la sopa de fideos. En China tienen una expresión para indicar la vergüenza: "perder la cara". Y todos los políticacos españoles tienen la misma: ninguna.

domingo, 22 de octubre de 2017

Frases de Ramón y Cajal

"Las ideas no duran mucho. Hay que hacer algo con ellas."

"Nada me inspira más veneración y asombro que un anciano que sabe cambiar de opinión."

"Como hay talentos por el estudio, hay tontos entontecidos por desuso."

"Es preciso sacudir enérgicamente el bosque de las neuronas cerebrales adormecidas; es menester hacerlas vibrar con la emoción de lo nuevo e infundirles nobles y elevadas inquietudes."

"Para el biólogo, el ideal supremo consiste en resolver el enigma del propio yo."

"Todo hombre puede ser, si se lo propone, escultor de su propio cerebro."

"O se tienen muchas ideas y pocos amigos o muchos amigos y pocas ideas."

"El Homo sapiens posee un cuerpo pacífico y un cerebro belicoso."

"Observar sin pensar es tan peligroso como pensar sin observar."

"[Las neuronas son] células de formas delicadas y elegantes, las misteriosas mariposas del alma, cuyo batir de alas quién sabe si esclarecerá algún día el secreto de la vida mental."

"Procuremos agradar e instruir; nunca asombrar."

"La Naturaleza nos es hostil porque no la conocemos: sus crueldades representan la venganza contra nuestra indiferencia."

"El jardín de la neurología brinda al investigador espectáculos cautivadores y emociones artísticas incomparables."

"Vivimos en un país en que el talento científico se desconoce a sí mismo."

"Las perezosas células cerebrales solo encienden su luz -inspiración- bajo el látigo de las emociones penosas."

viernes, 28 de julio de 2017

Una inteligencia artificial se inventa un inglés mejor para hablar con otras máquinas y es apagada.

Ángel Jiménez de Luis, "Facebook apaga una inteligencia artificial que había inventado su propio idioma", en El País, 28-VII-2017:

La máquina se comunicaba en un inglés incorrecto y repetitivo que, sin embargo, para ella tenía un sentido muy concreto. Lejos de ser una mera curiosidad, subraya un problema con esta tecnología: que en el futuro no comprendamos la comunicación entre máquinas.

En el laboratorio de investigación de inteligencia artificial de la Universidad Tecnológica de Georgia, un proyecto para crear una inteligencia artificial capaz de aprender y desarrollar nuevas tácticas de negociación ha dado un giro inesperado, para sorpresa de la empresa que lo ha financiado en parte: Facebook.Los responsables del proyecto han tenido que apagar el proceso porque la inteligencia artificial había desarrollado su propio lenguaje, casi imposible de descifrar para los investigadores pero mucho más apto y lógico para la tarea que debía desempeñar.El lenguaje parece una corrupción del inglés -el idioma en el que originalmente se programó la inteligencia artificial- pero carente de sentido por la extraña repetición de pronombres y determinantes.Al analizar las oraciones, sin embargo, los investigadores descubrieron que en el aparente desorden había una estructura lógica coherente que permitía a la inteligencia artificial negociar entre distintos agentes usando menos palabras o con menor riesgo de equivocación."No programamos una recompensa para que la inteligencia artificial no se desviara de las reglas del lenguaje natural" y por tanto su red neural -el conjunto de rutinas que optimiza su funcionamiento- fue favoreciendo abreviaturas y nuevas expresiones que hacían mucho más rápida o sencilla su tarea, asegura en la publicación FastCo uno de los responsables del proyecto.

martes, 30 de mayo de 2017

Entrevista con el cosmólogo Viatcheslav Mukhanov

Judith de Jorge Gama, "Viatcheslav Mukhanov: «El Universo surgió de la nada y puede volver a suceder»" en Abc 21-III-2017:

Todos los experimentos han dado la razón a este científico ruso que hace 30 años calculó con lápiz y papel cómo fueron los orígenes del Cosmos

El cosmólogo Viatcheslav Mukhanov (Kanash, antigua URSS, 1952) habla alto y claro, en todos los sentidos. Vehemente e impetuoso, escucharle es todo un espectáculo; por su discurso rápido, rotundo y fulminante, la energía que desprende su voz y un acento que suena en inglés, y en esto hay cierta ternura, a un malo de las películas de James Bond. Con la misma pasión habla del Big Bang, cita a San Agustín o muestra su rechazo a la política de Vladímir Putin. Este catedrático de la Universidad Ludwig-Maximilians de Múnich (Alemania) tuvo hace treinta años una idea brillante que también se le ocurrió a Stephen Hawking. Con toda seguridad el nombre del británico le sonará mucho más, pero ambos llegaron de forma independiente a la misma conclusión: las galaxias, las estrellas, los planetas... todo se formó a partir de un fenómeno microscópico llamado fluctuaciones cuánticas, generadas después del Big Bang. Y tenían razón, dice el científico ruso, «punto por punto». De eso ha hablado en la inauguración de una nueva edición del ciclo de conferencias científicas de la Fundación BBVA en Madrid. La suya se titulaba «De la nada al Universo».

-Entonces, ¿toda la materia surgió de la nada?

-El hecho de que el Universo se origine de la nada no contradice ninguna ley física. En eso incluso estaban de acuerdo los teólogos antes del Medioevo, pero entonces eran palabras y ahora son hechos confirmados experimentalmente. El Universo surgió de la nada y si me pregunta qué había antes...

-¿Qué había?

-La pregunta no tiene sentido, porque el tiempo también fue creado cuando surgió el Universo. San Agustín decía esto mismo.

-Cita a San Agustín... ¿Dios tiene un espacio en esa ecuación?

-Yo diría que las leyes de la física lo explican todo. Ahora, quién es el creador de esas leyes, eso es otra cosa. Es una pregunta abierta.

-Si esto ha sucedido una vez, ¿pudo suceder más veces? ¿Puede volver a suceder?

-Sí, podemos tener múltiples universos. De hecho, no parece una idea nada loca, pero esa tesis está fuera de la física, porque no es una conclusión sin ambigüedad y no sabemos cómo verificarlo. La física se encarga solo de las cosas que se pueden verificar, y la cosmología, gracias a la experimentación de los últimos años, es parte de ella, una ciencia natural.

-Los experimentos sí han confirmado los cálculos que usted hizo una vez con lápiz y papel.

-Durante los últimos 25 años ha habido 70 experimentos que nos han dado la imagen del Universo cuando tenía solo 300.000 años de edad; apenas un «bebé», ya que ahora es muy viejo, tiene 13.700 millones de años. Pues bien, esa «foto» del Cosmos se solapa perfectamente con lo que yo dibujé hace treinta años. Son la misma imagen.

-¿Y no hay nada que le haya sorprendido, algo que no encajara en sus cálculos?

-Lo más sorprendente es que no hubo sorpresa. Todo fue confirmado. Era asombroso que las imágenes coincidieran. Todos los experimentalistas intentaban buscar desviaciones y anomalías, pero finalmente todo coincidía. Era exactamente igual.

-¿Qué experimento fue el definitivo, con el que ya no cabían dudas?

-La última palabra la ha dado la sonda Planck (telescopio espacial de la Agencia Espacial Europea), su contribución es tremenda, enorme, ya que gracias a ella los científicos pudieron establecer la imagen más completa del Universo. El experimento fue 500 veces más sensible comparado con otros anteriores, como el WMAP (Sonda de Anisotropía de Microondas Wilkinson, de la NASA). Con Planck no se puede ir más allá, no se puede mejorar más.

-No puede haber mayor satisfacción para un científico que le den la razón de esa forma...

-Por supuesto. Fue una satisfacción enorme. Fíjate que en los 80 estaba en completa contradicción con todas las observaciones astrofísicas en aquel momento, pero lo que parecía una mala teoría finalmente ganó.

-Y esa teoría hablaba de algo diminuto para explicar las estructuras más grandes conocidas. ¿Cómo es eso?

-Sí, cuando el Universo era recién nacido, el comportamiento de la materia estaba afectado por la mecánica cuántica, que prohíbe el estado de reposo absoluto. La mínima desviación del estado de reposo se llama fluctuación cuántica y, debido a ella, se formarían «semillas» de materia que, por la gravedad, acabarían convirtiéndose en galaxias, estrellas y planetas. Todo eso estaba localizado en algo aún más pequeño que una caja de cerillas. Luego, la mecánica cuántica es también responsable del origen de nuestra propia vida.

-¿Cabe una teoría sobre el Cosmos que no tenga en cuenta el Big Bang?

-No, pero llamémosle mejor Universo en expansión. Hemos esclarecido la razón del Big Bang y era un estado de dominación de la energía oscura. Hace 40 años pensábamos que producir un universo era muy difícil, hoy sabemos que es una tarea fácil si tienes la materia en el estado adecuado.

-El último gran descubrimiento de la cosmología son las ondas gravitacionales. Todo el mundo parece fascinado con ellas, ¿usted también?

-Sí, todo el mundo lo está, y, en efecto, es una nueva ventana abierta al Universo y hay que ir por ese camino, pero creo que el anuncio se hizo demasiado pronto. No hay estadística, y la interpretación de los eventos puede prestarse a sospechas. Parece complicado que esas ondas hayan sido producidas por la fusión de dos agujeros negros de 30 masas solares. No pondría la mano en el fuego por esa interpretación. Quizás pueda ser otra cosa, el agujero en el centro de la galaxia, pero no lo sé.

-¿Cree que los científicos de LIGO (el laboratorio que anunció el descubrimiento de las ondas gravitacionales) se precipitaron?

-Sí, yo hubiera esperado a una confirmación más cuidadosa. No se puede declarar victoria antes de confirmarla realmente. Creo que el anuncio fue demasiado exagerado y se «vendió» muy bien, la forma habitual por parte de los americanos para conseguir dinero y seguir haciendo ciencia. Debemos aprender algo de lo que pasó con el experimento BICEP2 hace dos años, que falló al anunciar el descubrimiento de estas ondas. Hay una tendencia a vender demasiado bien los logros.

-Usted llegó a las mismas conclusiones que Hawking sobre las fluctuaciones cuánticas. ¿Siempre está de acuerdo con él?

-No. Los científicos pensamos de forma diferente, no tenemos que estar en completo acuerdo y esa es una de las razones del progreso de la ciencia. Stephen (con quien compartió el Premio Fronteras del Conocimiento 2015 en Ciencias Básicas que otorga la Fundación BBVA) también un día se puso en desacuerdo consigo mismo y se desdijo. Y eso es importante. En investigación no se puede tener una opinión inamovible.

-Ha trabajado con los científicos que desarrollaron la bomba atómica. ¿Cómo fue?

-Sí, trabajé con varios. Zeldóvich, uno de los principales investigadores de la bomba nuclear, con todos sus secretos; el disidente Sacharov, que luego recibió el Nobel de la Paz, y Ginzburg, que propuso una de las ideas básicas de la bomba de hidrógeno. Pero ninguno de ellos hablaba de eso, porque era supersecreto.

-Suena apasionante, pero peligroso.

-Sí, pero mira, la física nuclear salvó a los físicos de los filósofos. En la época de Stalin, los filósofos decidían lo que deberían hacer o decir los físicos, con ideas como si la mecánica cuántica estaba de acuerdo con el marxismo leninismo o no... Podías ser atacado si te equivocabas, y eso significaba que al día siguiente o bien te mataban o te llevaban a un campo de concentración.

-Qué angustia...

-Pero en el 48, los físicos advirtieron que no podían garantizar la construcción de bombas nucleares con esa presión, así que les dejaron en paz. La ideología es una mala influencia cuando se mete en las ciencias naturales, en particular en la antigua Unión Soviética. Cuando lees lo que sucedía hace no tanto tiempo, hace menos de cien años, no te puedes imaginar que la gente pudiera comportarse así, mucho peor que las peores bestias.

-¿Cómo ve la ciencia ahora en su país de origen?

Yo me fui de Rusia en el año 92. Tengo amigos y colaboradores de siempre, pero no proyectos en común. No puedo hablar desde dentro, pero por lo que veo no creo que el gobierno ruso esté cuidando las ciencias. En general, los gobiernos no entienden que, en realidad, ahorran dinero cuando invierten en ciencia. En Italia, España o Francia, los investigadores se quejan por los recortes de los fondos. Creo que es una política ridícula. En Alemania, donde yo vivo y trabajo, Angela Merkel es física y sabe lo importante que es la ciencia. Allí la situación es la opuesta. A veces hay demasiado dinero y no sabes en qué proyecto invertirlo. Pero si piensas en lo que ha costado aquí salvar los bancos, que ha requerido enormes inversiones, lo de la ciencia no es nada. Y eso comparado con la cantidad de dinero que la gente en la ex Unión Soviética ha robado... Y mira el fútbol, cuánto se invierte y cuál es el resultado práctico de esa actividad, que es igual que jugar en un casino.

«El nacionalismo es volver a la Edad de Piedra»

El abuelo de Mukhanov murió en un campo de concentración de Stalin y sus dos tíos fallecieron también tras ser enviados a luchar sin armas contra los alemanes. La antigua Unión Soviética «era el mundo del absurdo, una superlocura», dice el científico. Pero tampoco la Rusia actual le entusiasma, ni su dirigente, Vladímir Putin. «Como no puedo decir nada bueno sobre ese señor, prefiero callarme», asegura, pero reacciona y en menos de un segundo menciona: «Sí puedo decir que enfatiza el nacionalismo ruso y eso me recuerda al retorno de la Edad de Piedra». Para Mukhanov, la ciencia «es algo muy internacional que te hace escapar del sinsentido de la vida cotidiana». Por ejemplo, «la división entre países y nacionalidades parece absurdo si piensas que la Tierra es apenas una particulita de polvo en el enorme Universo». Por eso, lamenta el Brexit. «Lo siento por los colegas británicos que han decidido alejarse y volver a la Edad de Piedra», insiste. «Son tiempos complicados. La cantidad de estupidez mundial no está disminuyendo».

lunes, 9 de enero de 2017

El discurso complejo interfiere el contacto visual

Eva Carnero, "Hablar sin mirar a los ojos no es de mentirosos. Su cerebro puede hacer muchas cosas al mismo tiempo, pero desarrollar un discurso y mantener el contacto visual no son dos de ellas" El País, 9 ENE 2017

Somos capaces de enviar un mensaje de Whatsapp y atender el GPS de reojo, contestar una llamada mientras leemos las noticias o tener un debate acalorado con nuestra pareja a la vez que compramos el pan. Sin embargo, conversar y fijar la mirada en nuestro interlocutor, algo que a priori parece la más sencilla de las tareas, se nos resiste. Nuestra capacidad multitarea es limitada y no siempre podemos simultanear dos actividades, al menos sin que una de las dos salga perjudicada. Así lo creen los psicólogos japoneses Shogo Kajimura y Michio Naumura de la Universidad de Kyoto, quienes afirman que la construcción de un discurso complejo interfiere en el mantenimiento del contacto visual.

Según los autores del estudio, nos vemos obligados a elegir entre hablar con propiedad o saber de qué color son los ojos del que tenemos enfrente. Cristina Larroy, directora de la Clínica Universitaria de Psicología de la Universidad Complutense de Madrid, añade: "Cuando queremos escoger bien las palabras, tendemos a desviar la mirada y a fijarla en un punto. Este es el mecanismo por el que evitamos destinar recursos a procesar la información que nuestro interlocutor nos está enviando y utilizarlos para recordar y definir nuestro discurso". Como afirman los investgadores japoneses, "cuanto más complicada es la hisoria que estás contando (o la excusa que estás elaborando), más difícil se hace mantener el contacto visual". Lo que nos lleva a preguntarnos si es cierto que una mirada esquiva puede ser la señal de que no nos cuentan toda la verdad.

No me mira, ¿me está mintiendo?

"Cuando mentimos tendemos a controlar muchos procesos de forma simultánea: inhibir la verdad, fabular la mentira, controlar nuestro lenguaje corporal... Por tanto, si nos centramos más en los recursos cognitivos (pensar rápido y bien), nuestro lenguaje corporal se ralentiza, nos movemos menos y tenemos una mirada de concentración, lo que dificulta mirar a los ojos", explica Martos. En el extremo opuesto, un artículo publicado en el Journal of Nonverbal Behavior asegura que establecer contacto visual de forma deliberada también puede ser señal de engaño: "Los que mienten tienen un deseo mayor de resultar convincentes, lo que les inclina a observar al interlocutor para comprobar que les están creyendo".

Pero la complejidad del discurso, aunque sea para explicar un problema de matemáticas, no es la única razón por la que desviamos la mirada: "Los que más la rehúyen son aquellos individuos que presentan fobia social. Muchos de ellos son incapaces de levantar la mirada del suelo", asegura la psicóloga clínica Pura Hernández, de Garner Psicólogos.

Para Larroy, además, "la distancia y la jerarquía entre los interlocutores pueden influir en la comunicación. Pero el aburrimiento, el miedo, el desprecio, el cansancio o simples problemas visuales también pueden ser eficaces desencadenantes", remarca, por lo que esta experta desaconseja juzgar la veracidad de lo que nos cuentan dependiendo de si existe o no contacto visual.

En cualquier caso, la mirada es un elemento de comunicación no verbal especialmente importante cuando nos comunicamos. "El contacto visual es lo que permite crear un vínculo entre el emisor y el receptor", asegura Larroy. Y añade: "Una mirada dulce o de admiración puede ser percibida como algo positivo. Sin embargo, si va acompañada de un ceño fruncido, transmitirá hostilidad".

Cuánto se tarda en intimidar

Entre un gesto huidizo y una mirada intimidante hay un trecho. Que se recorre concretamente en 3,3 segundos, según una investigación del Colegio Universitario de Londres (Inglaterra), que asegura que este es el tiempo, de media, que tarda el contacto visual en pasar de agradable a incómodo. "No me parece adecuado establecer tiempos porque la duración de la mirada depende de muchas variables, entre ellas, las culturales, hay sociedades en las que no mirar a los ojos se interpreta como una señal de respeto, mientras que en otras es signo de mala educación. Por ejemplo, los latinos mantenemos el contacto visual más que los anglosajones", disiente Larroy, quien afirma que el grado de familiaridad o la proximidad afectiva también influyen.

"Una mirada directa y prolongada puede ser intimidante", afirma el profesor de Comunicación no Verbal y Oratoria José Luis Martín Ovejero, quien aconseja "no mantenerla más tiempo del que precisemos para identificar el color de ojos de quien está frente a nosotros". Además, pensando en aquellos a los que les cuesta mirar a los ojos, el experto aporta un sencillo truco: "Centre la mirada en el entrecejo. No requiere mucho esfuerzo y la otra persona creerá que le está mirando directamente a los ojos".

sábado, 17 de diciembre de 2016

Creada carne artificial

Martín Caparrós, "La revolución de la ‘carne cultivada’", en El País, 15 DE DICIEMBRE DE 2016

Es posible que se dé un salto comparable al principio de la agricultura. La carrera está lanzada y podría terminar con el hambre.

LOS PRIMEROS prefirieron la sorpresa, el asombro, y la llamaron carne cultivada o carne limpia o incluso carne inanimal. Pero últimamente algún marquetinero recordó las lecciones de su curso de ingreso y empezó a llamarla supercarne –supermeat–. El nombre todavía es materia discutible pero la cosa parece decidida: se trata de fabricar carne –verdadera carne– comestible en un tubo de ensayo.

El primero en proponerlo seriamente fue un holandés, Willem van Eelen, que, muy joven, se pasó cinco años prisionero de guerra en un campo de concentración japonés en Indonesia. Allí, medio muerto de hambre, se le ocurrió la idea; cuando la guerra terminó, Van Eelen se recibió de médico y se pasó décadas imaginando cómo hacerlo hasta que, hacia 1990, los avances en las técnicas de clonación –y la llamada “ingeniería de tejidos”– se fueron acercando a sus fantasías: células madre, alimentadas con las proteínas adecuadas en un medio propicio, podrían reproducirse infinitamente.

Hace tres años Van Eelen se dio el gusto: discípulos suyos presentaron, en Londres, la primera hamburguesa de carne cultivada. Pesaba un cuarto de libra y había costado un cuarto de millón de libras –pagados por Sergei Brin, el dueño de Google–, pero los catadores dijeron que sabía a verdadera carne. El desafío, entonces, era mejorar la producción para hacerla accesible. En Estados Unidos, Europa, Israel, Corea, laboratorios de punta de pequeñas empresas ambiciosas lo están intentando; dicen que en 10 o 15 años la supercarne se venderá en supermercados. Y que nada impediría que, en unas décadas, reemplazara a la clásica.

Que la carne, lo más natural, lo más animal, se vuelva un artificio es una idea muy contra natura –y muchos fruncen la nariz cuando lo evocan–. Es probable que esas carnes nunca consigan los matices de un buen cordero, pero sería una revolución sólo comparable al principio de la agricultura. Entonces los hombres descubrieron la forma de hacer que la naturaleza se plegara a sus voluntades; ahora descubrimos que ya no necesitaremos a la naturaleza. Y los efectos son casi incalculables.

Más de un tercio de las tierras útiles del mundo están dedicadas a la cría de ganado: entonces quedarían libres para el cultivo o, incluso, para oxigenar el planeta. El efecto invernadero cedería, y más aún si se tiene en cuenta que el 18% de los gases que lo producen vienen de las vacas y los chanchos. Y, sobre todo, más de la mitad de las cosechas del mundo se usan para alimentarlos: si ya no fuera necesario, esa comida podría terminar con el hambre de una vez por todas.

La carrera está lanzada: los laboratorios que la protagonizan suelen ser start-ups que consiguen inversores de esos que les ponen dinero a proyectos más o menos delirantes para perder un millón o ganar miles. Ahí está el riesgo: que quien por fin lo logre se convierta en un nuevo Monsanto, dueño de una tecnología que todo el mundo necesita; que un gran avance técnico no beneficie a los miles de millones que lo necesitan sino a una junta de accionistas. Es ahora, mientras todo está por verse, cuando los Estados y sus organismos internacionales tienen la ocasión de cambiar el modelo: de decidir que serán ellos los que desarrollen la nueva comida para que no sea propiedad de unos pocos sino patrimonio de todos; para que no le sirva a una corporación sino a la humanidad. Sería una gran oportunidad –una oportunidad única– para cambiar los mecanismos que hacen que cientos de millones de personas no coman suficiente. Parecen grandes palabras; quizá sea, también, un gran proyecto.

domingo, 11 de diciembre de 2016

Avances en Inteligencia Artificial

Javier Sampedro "Construyendo mentes artificiales", en El País, 11-XII-2016:

Los últimos grandes avances en el campo de la inteligencia artificial se inspiran en el cerebro. Pero su objetivo no es imitarnos, sino superarnos en ciertas cosas

Si la inteligencia artificial persiguiera imitar el funcionamiento del cerebro humano, se enfrentaría a un escollo formidable: que aún no sabemos cómo funciona el cerebro humano. Pero ni el objetivo de esta tecnología vigorosa es solo ese, ni la estrategia de imitar al cerebro tiene que esperar a que lo entendamos todo sobre ese órgano fabuloso que llevamos dentro del cráneo. Incluso con el conocimiento fragmentario que tenemos sobre él, nuestro cerebro está sirviendo como una fuente de inspiración muy eficaz para los ingenieros, los científicos de la computación y los expertos en robótica. Y los resultados ya nos rodean por entero.

Como un pasajero asomado a la borda de un transatlántico, pasamos el día viajando sobre una maquinaria prodigiosa de la que entendemos muy poca cosa. El sistema de reconocimiento de voz con el que podemos hablar a Google es inteligencia artificial (AI, en sus siglas en inglés), como lo es ese circulito que identifica las caras de tus primas cuando vas a hacerles una foto. Que sean AI quiere decir que nadie ha programado allí tu voz ni la cara de tu prima, sino que el sistema aprende a reconocerlas a partir de la experiencia, como hace nuestro cerebro con la realidad impredecible de ahí fuera.

Hay gente obsesionada por definir las cosas, y el lector podrá encontrar en la red una docena de definiciones distintas de la inteligencia artificial. Mi favorita es la de Marvin Minsky, un pionero del campo que murió en enero. La AI, dijo Minsky, “es la ciencia que investiga para que las máquinas hagan cosas que requerirían inteligencia si las hubiera hecho un humano”. La definición de Minsky parece gratuitamente enrevesada, pero en realidad es un dardo envenenado. Va con retranca, y es importante que veamos por qué.

A principios de los años noventa, todo el mundo habría considerado que ganar al campeón mundial de ajedrez sería una prueba de inteligencia. En esos mismos años, sin embargo, los científicos de IBM estaban desarrollando un ingenio destinado a vencer a Gari Kaspárov, el número uno de la época. Se llamaba Deep Blue, contaba con 256 procesadores trabajando en cadena que evaluaban 200 millones de jugadas por segundo y dio el campanazo el vencer al gran Kaspárov. ¿Debemos concluir que Deep Blue era inteligente?

No, de ningún modo, respondió todo el mundo al unísono. El ajedrez, al fin y al cabo, es un juego acotado, con un número enorme pero finito de soluciones posibles, y sus reglas son simples y matemáticamente consistentes. Este es el campo de juego óptimo para un cerebro de silicio con superpoderes como Deep Blue.

El sistema de reconocimiento de voz, o el de identificación de caras del smartphone son ejemplos de inteligencia artificial que usamos diariamente 

Pero nuestro cerebro no funciona así. Ni tiene 256 procesadores en cadena ni puede evaluar 200 millones de jugadas por segundo. El éxito del ingenio de IBM se atribuyó a la fuerza computacional bruta. Nuestra percepción del ajedrez dio un vuelco, pero no para declarar inteligente a Deep Blue, sino para excluir al ajedrez de la definición de inteligencia. Si una máquina podía ganar a Kaspárov, ser el campeón mundial de ajedrez no debía ser para tanto, después de todo.

Justo ahí iba Minsky con el dardo de su definición. Si quien hubiera ganado a Kaspárov hubiera sido un joven talento, todos le habríamos admirado por su inteligencia extrema. Pero ninguno de nosotros estuvimos dispuestos a concederle la misma consideración a Deep Blue. La AI no es la ciencia que investiga para que las máquinas hagan cosas inteligentes, sino para que las máquinas hagan cosas que requerirían inteligencia si las hubiera hecho un humano. Es una importante lección de Minsky que conviene tener muy presente al reflexionar sobre la inteligencia de las máquinas.

Los sistemas de inteligencia artificial aprenden con nosotros gracias a la experiencia 

Hay otro criterio clásico sobre la misma cuestión, formulado por el gran padre de la inteligencia artificial, Alan Turing (algunos lectores le recordarán con la cara de Benedict Cumberbatch en la película Descifrando Enigma). Tendremos que considerar que una máquina es inteligente cuando logre hacerse pasar por un humano, por ejemplo por correo electrónico. Los científicos de la computación veneran a Turing, pero ya no creen que su test de Turing sea un criterio válido. Ni aprobarlo demuestra inteligencia, ni suspenderlo implica la falta de ella. ¿Entonces?

Entonces, como casi siempre, lo mejor es prescindir de los grandes principios matemáticos o filosóficos y ponerse las botas para hundirlas en el barro. Caso a caso, con un sentido práctico y una mente abierta. Los ordenadores ya nos superan en capacidad de cálculo, en velocidad de gestión y en otras cosas. Nos ganan al ajedrez e incluso al Go, el juego chino que seguramente es el más complejo que hemos inventado los humanos.

Podemos, por supuesto, aducir que eso no es la verdadera inteligencia. Pero la verdadera inteligencia, por todo lo que sabe la neurociencia, está hecha de cosas como esas. No sabemos de cuántas, no sabemos cuándo la tecnología logrará emularlas a todas ellas, pero no parece haber ningún problema de principio, o frontera infranqueable, para que las máquinas lleguen ahí.

Si el cerebro es un objeto físico (como los científicos saben que es), no puede haber ningún escollo filosófico para que la tecnología lo pueda emular. O superar.

'Deep Blue', el ordenador que ganó a Kasparov al ajedrez no era inteligencia artificial

De inteligencia artificial se habla desde los años cincuenta, pero los avances recientes que explican su afloramiento en los medios —y que usted esté leyendo esto— proponen dos enfoques que se basan en ciertos aspectos del funcionamiento del cerebro. El primero es un tipo de programa informático —o de arquitectura de sistemas— que se llama red neural y que, como indica su nombre, emula el tipo de computación que hacen las neuronas biológicas.

Todo el mundo está familiarizado hoy con la forma de una neurona. Sus entradas (dendritas) forman un árbol de ramificación frondosa y fractal, de modo que de un solo tronco pueden llegar a formar 10.000 ramas que rastrean la información de su entorno local y de media distancia. En contraste, el cable de salida (axón) es único, de modo que cada neurona tiene que integrar masas de información procedente de sus miles de dendritas para generar una respuesta sintética a través de su axón. Esta es la arquitectura que imitan las redes neurales de silicio.

La inteligencia artificial es la ciencia que investiga para que las máquinas hagan cosas que requerirían inteligencia si las hicieran humanos 

La segunda inspiración que proviene del cerebro es más compleja, y más poderosa. Se llama deep learning (aprendizaje profundo), y es el fundamento de los grandes avances que nos han asombrado en los últimos tres o cuatro años. De manera paradójica, lo más fácil es explicar primero el funcionamiento del cerebro y después el del deep learning.

Cuando el premio Nobel Francis Crick, codescubridor de la doble hélice del ADN y neurocientífico, le dijo a una amiga que su interés profesional era comprender el mecanismo cerebral de la visión, la amiga se mostró estupefacta:

—No sé qué interés tiene eso. A mí me basta imaginar que el cerebro forma una especie de imagen de televisión.

La clave de la inteligencia artificial es que las máquinas sean capaces de aprender, lo que se conoce como 'deep learnig'

—Sí —respondió Crick—, pero ¿quién está viendo la televisión?

Nuestras intuiciones sobre el funcionamiento de nuestra propia mente siempre son garrafales. La verdadera forma en que procesamos la información visual (cómo formamos imágenes mentales del mundo) hubo que descubrirla con experimentos sofisticados. La imagen que capta la retina se transmite por el nervio óptico a la parte posterior del cerebro, la más próxima a la nuca (V1, por área visual uno, en la jerga). V1 solo ve líneas entre luz y sombra, horizontales, verticales o con cierto ángulo de inclinación. Eso es todo lo que entra.

Subiendo desde la nuca hacia la coronilla, se sucede un encadenamiento de áreas visuales (V2, V3 y otras con nombres más caprichosos) que va abstrayendo la información progresivamente. Si V1 solo veía líneas inclinadas, las siguientes áreas las abstraen en ángulos, luego en polígonos, después en poliedros y al final en una gramática de las formas que nos permite construir un modelo interno de la persona que vemos, ya esté de frente o de medio perfil, enfadada o partida de risa. Ese es el que está viendo la televisión.

En eso se basa también el deep learning (aprendizaje profundo) de las máquinas. Las neuronas de silicio se organizan en muchas capas (decenas o cientos) que van abstrayendo progresivamente la información. Cada capa, por así decir, infiere un concepto a partir de la jungla que le transmite la capa anterior y, capa a capa, la información se va haciendo más abstracta, menos pendiente de los detalles que de las propiedades invariantes de los objetos del mundo. Es como poner un nombre a las cosas, y esto es lo que hacen los actuales sistemas expertos.

Pueden leer en los artículos de este suplemento cosas interesantes sobre las oportunidades y los riesgos, los sueños y las pesadillas. Pero recuerden los conceptos básicos expuestos aquí. Les seguirán sirviendo dentro de 10 años.

jueves, 9 de junio de 2016

La cuarta revolución industrial, la robótica, destruirá la mitad de los empleos.


Los científicos de IBM tienen casi listo a Watson, su flamante sistema de inteligencia artificial, para ponerlo a trabajar en el asunto denso y espinoso de la ciberseguridad. El lector recordará que el anterior ingenio de la empresa, Deep Blue, ganó a Kaspárov al ajedrez, pero tal vez ignore que Watson ha dejado muy atrás los talentos de su lejano ancestro de silicio. El ajedrez, al fin y al cabo, es un juego acotado, con solo unas cuantas piezas y unas pocas reglas para moverlas aquí y allá, y carece de la anfibología y la sutileza que convierten el mundo real en un objeto tan dificultoso de analizar, y tan interesante de habitar. Watson va mucho más allá: resuelve crucigramas; entiende el lenguaje de los humanos; aprende como un niño, abstrayendo principios generales a partir de ejemplos sueltos. Ojo con Watson.

El desarrollo de la inteligencia artificial ha empezado a dar vértigo en los círculos económicos. ¿Van los robots a dejarnos sin trabajo? Desde luego, nos van a dejar sin algunos trabajos. Pizza Hut tendrá listo a finales de año su robot Pepper (pimienta), que atenderá los pedidos y los pagos en algunos de sus restaurantes, y tal vez no esté lejano el día en que un robot motorista, o incluso un dron repartidor, se ocupen de entregar a domicilio la pizza cuatro estaciones y la bandeja de alitas, privando de su infraempleo a una legión de jovenzanos sin casco. Dos investigadores de Oxford han calculado que casi la mitad de los empleos actuales se habrán automatizado de aquí a 20 años. Otros expertos creen que esa cifra es una exageración, pero incluso así dan por perdida una cuarta parte de los trabajos peor remunerados. Los más pobres se llevarán la peor parte, según estos augurios.

Pero Watson nos revela otro futuro posible, un futuro en el que son las élites las que pueden salir palmando. Ahora mismo está aprendiendo “todos los diferentes matices de las investigaciones de seguridad”, según sus fabricantes, y para él no es ningún problema engullir —y entender— los detalles de ocho millones de ataques informáticos reunidos durante 20 años de investigación en el sector, junto a 10.000 documentos y unos 60.000 blogs de seguridad que se publican cada mes. Y la ciberseguridad es solo una de las muchas aplicaciones del superordenador de IBM. Hace ya tiempo que Citibank compró una réplica del robot para explorar su uso en los servicios bancarios, y otros proyectos esperan su turno en la tubería de producción.

Algún sucesor de Watson podrá un día escribir esta columna. Que lo llamen Holmes.

miércoles, 8 de junio de 2016

Avances en Lingüística animal


Hace más de un siglo, en 1915, cuando estaba en las trincheras de la Primera Guerra Mundial, un joven ingeniero llamado Hugh Lofting se sintió conmovido por los sufrimientos de los caballos y las mulas inocentes arrastrados al horripilante torbellino de la destrucción humana. Como tenía que contar algo en las cartas a sus hijos pequeños, se inventó un doctor que asistía a los animales. Ese hombre extraordinario –explicaba Lofting a su prole– podía hablar con ellos. Herido gravemente por una granada de mano, Lofting volvió a Inglaterra, y más tarde se trasladó a Estados Unidos con su familia. En el barco, durante la travesía del Atlántico, releyó las cartas de la guerra. Llamó a su doctor “Dolittle” y lo situó en la Inglaterra victoriana, entre los numerosos descubrimientos del mundo vivo que se hicieron en ese periodo. El caballeresco científico de Lofting demostró que los humanos no eran los únicos seres verdaderamente pensantes. El pasado siglo ha sido el peor de la historia en cuanto a relaciones entre humanos y entre animales humanos y no humanos. Quizá tendríamos que mirarnos al espejo y preguntarnos si deberíamos seguir aspirando a hablar con los animales –¿quién no comparte el sueño de Lofting?–, o si, por el contrario, deberíamos esforzarnos en bajar el volumen de nuestro parloteo y escuchar mejor lo que los animales necesitan que oigamos.

El filósofo del siglo XX Ludwig Wittgenstein pronunció la famosa frase según la cual “si un león pudiese hablar, no podríamos entenderle”. Con ello quería decir que los leones habitan un mundo incomprensiblemente diferente. En todo caso, si un león pudiese hablar, probablemente nos aburriría con cosas prosaicas: la charca, los jabalíes, ñus hasta la saciedad; el sexo y los cachorros; la inquietud por esos dos nuevos hermanos con sus pobladas melenas. Sus preocupaciones –el alimento, la pareja, los hijos y la seguridad– son las nuestras. Al fin y al cabo, los seres humanos somos animales. Conviviendo con los leones en las mismas llanuras bajo el arco del mismo sol, persiguiendo las mismas presas y robándonos mutuamente las piezas, nos hicimos humanos. Tenemos mucho en común. No es culpa de los leones que después algunos humanos se convirtiesen en filósofos.

Acabo de salir del estudio donde escribo. Los perros Chula y Jude están tendidos en una agradable mancha de sol sobre un montón de hojas secas, haciendo lo mismo que haría yo: mantenerse calentitos y sentirse a gusto. Mientras camino hacia ellos, hago crujir algunas hojas. Chula me mira a los ojos preguntándose si vengo a pedir o a ofrecer algo. Me quedo quieto y su mirada se dirige hacia la calle. El sonido del autobús escolar nos es familiar a ambos. No necesita ir a investigar. En territorio conocido, oyendo sonidos conocidos, absorbiendo el escaso calor de ese sol invernal, compartimos en gran medida el mismo momento.

El pasado siglo ha sido el peor de la historia en cuanto a relaciones entre humanos, y entre animales humanos y no humanos.

Pero ni siquiera Chula y Jude pueden hablar. Millones de especies se comunican utilizando el lenguaje corporal y las llamadas instintivas. Los seres humanos también tenemos llamadas instintivas: nuestros gritos de dolor, la risa, el llanto. Además, tenemos una plantilla cerebral para adquirir el lenguaje. Sobre esa plantilla aprendemos italiano, malgache, etc. Los chimpancés pueden aprender a indicar cosas como “dame manzana” (los simios no pueden articular sonidos humanos). “Dame manzana” puede ser explícito, pero el vocabulario extenso con gramática y sintaxis parece exclusivo de los humanos. El lenguaje complejo permite contar historias. No solo el “¡Peligro! ¡Serpiente!” en presente de un mono o un pájaro, sino la capacidad humana de transmitir “Ayer vi una serpiente allí. Ten cuidado”.

Cuando una criatura humana dice “andé” en vez de “anduve” está aplicando intuitivamente una regla gramatical. El psicólogo de Harvard Steven Pinker cree que los cerebros humanos están preprogramados con un instinto del lenguaje para crear estructuras verbales, adquirir la gramática y emplear la sintaxis. Así, a los seres humanos hablar les resulta tan natural como a los elefantes barritar y trompetear, a los lobos aullar y gruñir, y a los delfines chasquear y silbar. Lo cual, si lo pensamos, parece algo obvio.

Las implicaciones son inquietantes. A lo mejor nosotros somos tan verdadera, profunda y constitucionalmente incapaces de entender la riqueza que otras especies perciben en su propia comunicación como ellas lo son de entender la conversación humana. ¿Y si sus modalidades de comunicación son fronteras que podemos difuminar pero nunca cruzar del todo? Tal vez “hablar con los animales” sea imposible. Puede que seamos tan definitivamente incapaces de tener una conversación en elefante como un elefante lo es de comentar las previsiones de lluvia en vietnamita o en farsi. Es posible que uno de los grandes sueños de la humanidad, la habilidad de Dolittle para “hablar con los animales”, quede descartado.

Pese a ello, la cosa no queda aquí. A veces los orangutanes indican por gestos lo que les gustaría que hiciese un humano. Cuando parece que el humano entiende en parte lo que le quieren decir, los orangutanes repiten sus gesticulaciones. Pero cuando no se les entiende, prueban con señas nuevas. Si se les pide que busquen un objeto que no está en la piscina, los delfines y los leones marinos bien lo buscan con especial empeño, o bien ni se molestan en buscar. Conocen lo que están buscando, y saben si está allí o no. Los delfines pueden comprender la diferencia entre “coge la anilla de John y dásela a Susan” y “coge la anilla de Susan y dásela a John”. Entienden que el orden puede cambiar el significado; eso es sintaxis, el rasgo distintivo del lenguaje humano.

Cuando alguien insiste en que no podemos saber lo que piensan otras especies porque no podemos hablar con ellas, tiene buena parte de razón. Pero, en el mejor de los casos, las palabras son una imprecisa red de etiquetas que lanzamos sobre nuestras alocadas y confusas percepciones. La comunicación oral es un asidero resbaladizo para capturar los pensamientos. La gente miente. Decir “te quiero” es suficiente, pero es más fiable si se demuestra en silencio. Si estás pasando un bache con la persona amada, mejor “díselo con flores”. Las artes visuales, la música y la danza son la continuación de conversaciones ancestrales cuando las palabras cesan.

Los elefantes africanos tienen una alarma peculiar que, al parecer, es su palabra para “¡abejas!” Una amiga vio cómo unos impalas huían cuando oyeron a los elefantes gritar a una jauría de perros salvajes. Su guía le dijo que los impalas nunca echan a correr cuando los elefantes gritan a la gente o se chillan entre sí. Eso quiere decir que los elefantes dicen determinadas cosas que los impalas entienden. Las crías de elefante tienen dos “palabras” muy diferentes para expresar alegría o enfado. Cuando las consuelan, responden diciendo aauurrrr, y cuando las molestan –las empujan, les dan golpes con los colmillos o con las patas, o su madre les niega el pecho– dicen barúuu. Determinados murmullos de las madres tienen el efecto inmediato de devolver a su lado a una cría descarriada. Parece lógico interpretarlo como que le están diciendo “ven aquí”.

A lo mejor nosotros somos tan verdadera, profunda y constitucionalmente incapaces de entender la riqueza que otras especies perciben en su propia comunicación como ellas lo son de entender la conversación humana.

Los cercopitecos verdes utilizan llamadas con diferentes significados. Dicho de otro modo: utilizan palabras. Si detectan a un felino peligroso, la alerta hace que todos trepen a la copa de un árbol. Cuando un águila amenazadora se cierne sobre ellos, su toque de alarma hace que otros monos miren arriba y corran a ponerse a cubierto en el suelo (no en la copa de un árbol). No lanzan avisos cuando el águila es de una especie que no ataca a los monos. Cuando un mono ve una serpiente peligrosa emite un “gruñido” que hace que sus congéneres se levanten y registren el suelo en su busca. En resumidas cuentas, los cercopitecos verdes tienen palabras que significan “leopardo”, “águila”, “serpiente”, “babuino”, “otro mamífero depredador”, “humano desconocido”, “mono dominante”, “mono subordinado”, “cuidado, otro mono” y “grupo rival”.

Los titís, los cercopitecos de nariz blanca y los colobos añaden información por el orden de las llamadas. Si la amenaza está lejos, los monos de Campbell introducen su toque de alarma con una especie de adjetivo, un bum grave que significa, esencialmente, “veo un leopardo a lo lejos y lo estoy vigilando. Solo para que tengáis cuidado”. Sin el boom, el aviso significa, en tono de apremio, “¡Aquí! ¡Un leopardo!” Tienen tres secuencias de avisos para los leopardos y cuatro para las águilas coronadas. Cuando, en Trinidad, un mono capuchino se separó de su grupo, se subió a un árbol por encima de nuestras cabezas y se puso a arrancar ramas y a lanzárnoslas, claramente nos estaba comunicando “fuera de aquí”. Una mañana, nuestro guía nos contó que había oído a un pájaro llamado momoto decir “¡serpiente!” Y en efecto, al poco vimos al agitado momoto en una ramas elevadas revoloteando alrededor de una boa de Cook, alertando a otros pájaros y echando a perder el sigilo de la boa. Tiko, el loro del Amazonas de la profesora de la Universidad de Rutgers Joanna Burger emite diferentes sonidos para halcón, persona, gato o un perro en el patio. Ella me cuenta: “Antes de mirar, ya sé qué es lo que hay”.

Cuanto estoy en mi despacho, por los ladridos puedo saber si Jude y Chula están ladrando a alguien que pasa solo o con un perro, a un recadero, a una ardilla que han asustado y está trepando a un árbol, o si se ladran el uno al otro cuando juegan a pelearse. Las burdas palabras como “chillar” o “ladrar” que empleamos para sus expresiones y su vocabulario matizados ponen trabas a lo que nosotros entendemos que ellos entienden que significan. No es que no nos estén diciendo nada. Pero, la mayoría de las veces, no somos capaces de oírlo.

Cuando tu perro quiere entrar o salir, lo indica apoyando el hocico en la puerta y meneando la cola. Solo hay que saber a qué lado de la puerta está. La idea queda transmitida. Resulta que nosotros hablamos, pero la mayoría de nuestro parloteo es banal. Pensemos en todas las palabras malgastadas. Terapeutas profesionales intentan ayudarnos a cruzar los puentes levantados sobre los violentos rápidos de las palabras fallidas. Guerra significa balas, bombas y miedo a hablar. Millones de palabras se han demostrado ineficaces para cerrar las brechas de las injusticias étnicas, las ideologías y las religiones. Ahí está la ONU, las conversaciones sobre el clima, el “proceso de paz”.

Los elefantes africanos tienen una alarma peculiar que, al parecer, es su palabra para “¡abejas!”
Pensemos en cómo es posible expresar cosas realmente importantes con unos brazos abiertos, la yema de un dedo o una sonrisa, sin necesidad de frases ni sintaxis. Billones de criaturas sobreviven a existencias sumamente difíciles indicando claramente sus intenciones, sin adverbios ni gerundios. Es el poder silencioso del verdadero propósito.

Hay misterios aún más profundos. Cuando Phoenix y Akeakami, dos delfines de nariz de botella hawaianos que vivían en cautividad recibieron la indicación “haced algo nuevo”, se dirigieron nadando al centro de la piscina y estuvieron unos segundos describiendo círculos bajo el agua, como si planeasen algo. Luego salieron disparados en vertical atravesando la superficie en perfecta coordinación e hicieron girar sus cuerpos en el sentido de las agujas del reloj mientras lanzaban un chorro de agua por la boca. Nada de eso lo habían ensayado. El investigador Lou Herman no tenía la menor idea de cómo lo hicieron. Dijo que había sido “absolutamente misterioso”. Parece que los delfines son capaces de deliberar utilizando alguna clase de lenguaje para planear y ejecutar una acrobacia nueva y compleja. Desde entonces se ha entrenado a muchos otros delfines y responden de forma similar. Ningún ser humano sabe si es que existe otra manera de comunicarse –¿telepatía entre delfines?– que no alcanzamos a imaginar. Hasta la década de 1960 ni siquiera sabíamos que los delfines usan un sónar. Sea lo que sea, por lo visto para ellos es algo tan normal como cuando los niños dicen: “Vamos a hacer tal cosa”.

En una ocasión, el barco de la investigadora Denise Herzing se estaba aproximando a un grupo conocido de delfines que habían estado estudiando. Ellos “nos saludaron, pero se comportaron de una manera muy rara”. No se acercaron a menos de 15 metros de la embarcación y, cosa extraña, rechazaron las invitaciones a nadar en la estela de la nave. Uno de ellos se acercó un poco más durante un instante y huyó rápidamente. En ese momento alguien descubrió que una de las personas que iban a bordo acababa de morir mientras echaba una cabezada en su litera. Espeluznante. Pero entonces, cuando viraron para volver a puerto, “los delfines se pusieron al lado del barco, no nadando en nuestra estela, como solían hacer, sino flanqueándonos a 15 metros de distancia en una escolta acuática... Nadaron organizadamente en paralelo a nosotros”. Después de ocuparse del luctuoso asunto, cuando la embarcación volvió a la zona de los delfines, “estos nos saludaron normalmente, nadaron en nuestra estela y jugaron como solían hacer”. En los 25 años de trato con esos delfines, Herzing nunca los vio comportarse como cuando en el barco había una persona muerta. Al parecer, de un modo u otro se dieron cuenta y se comunicaron entre sí que, en la embarcación, el corazón de una persona había dejado de latir. ¿Qué significa para los delfines la solemnidad ante la muerte de un ser humano?

Las preocupaciones de un león –el alimento, la pareja, los hijos y la seguridad– son las nuestras. Tenemos mucho en común. No es culpa de los leones que después algunos humanos se convirtiesen en filósofos.

Los investigadores han dado a conocer recientemente un avance en la traducción. Resulta que todas las especies de grandes simios que viven en libertad emplean gestos para comunicarse que todos los miembros del grupo entienden. Van dirigidos a individuos determinados, que saben lo que quieren decir, y se utilizan de manera intencionada y flexible. En Uganda, los expertos han elaborado un primer “diccionario” de 66 gestos empleados por los chimpancés para transmitir 19 mensajes con sentido como “ven”, “vete”, “vamos a jugar”, “dame eso” o “me gustaría que me dieses un abrazo”. Los gorilas utilizan más de 100 gestos con significado. Y los bonobos hacen una seña con la mano parecida a la de los humanos para indicar a un congénere que se acerque y, a continuación, añaden un airoso giro de la palma para mostrarle la dirección en la que el saludador invita a dirigirse al saludado para un discreto encuentro sexual privado.

Una mujer llamada Dawn Prince-Hughes, que de pequeña padecía autismo y tenía dificultades para adquirir el lenguaje, descubrió una especie de identidad con un grupo de gorilas del zoo de Seattle y acabó contratada como su cuidadora. Ella los califica de “los primeros y mejores amigos que he tenido nunca... Son gente de una antigua nación”. Al mismo tiempo, en un laboratorio del lenguaje de Georgia, el bonobo Kanzi había visto vídeos del gorila Koko. Cuando Kanzi conoció a Prince-Hughes, observó un instante su manera de actuar y, acto seguido, indicó por señas: “¿Eres un gorila?”

Tal vez el dilema de Dolittle se haya enfocado erróneamente. A lo mejor en vez de querer aprender a hablar con los animales lo que necesitamos es bajar la voz y aprender a escuchar.

Carl Safina es catedrático de Naturaleza y Humanidad en la Universidad Stony Brook. Su libro 'Beyond Words; What Animals Think and Feel' será publicado a finales de 2017 o principios de 2018

Traducción de NewsClips.

martes, 7 de junio de 2016

Un tratamiento químico español es eficaz para mejorar el síndrome de Down

Manuel Ansede, "Un tratamiento es eficaz por primera vez para el síndrome de Down. Un compuesto del té verde mejora moderadamente la capacidad intelectual de los afectados", en El País, 7 JUN 2016.

El síndrome de Down es un trastorno genético en el cual una persona tiene 47 cromosomas, en lugar de los 46 habituales. Y uno de los principales dogmas de la medicina, el que sostiene que el síndrome de Down no tiene tratamiento, empieza a derrumbarse. Investigadores españoles acaban de demostrar que un compuesto presente en el té verde, acompañado de un protocolo de estimulación cognitiva, es capaz de mejorar las capacidades intelectuales de personas con síndrome de Down. “Es la primera vez que un tratamiento demuestra eficacia en un ensayo fiable en términos científicos”, explica Mara Dierssen, neurocientífica del Centro de Regulación Genómica de Barcelona y colíder del estudio. No es, ni mucho menos, una cura, pero el ensayo clínico “abre nuevas vías a la terapia farmacológica en síndrome de Down”, según la investigadora.

El síndrome es un trastorno genético en el cual una persona tiene 47 cromosomas, en lugar de los 46 habituales. Esa copia extra altera la formación del cuerpo y el cerebro. Los niños pueden tener un retraso en el desarrollo mental y signos físicos muy reconocibles, como la nariz achatada y un único pliegue en la palma de la mano. El equipo de Dierssen, con trabajos en ratones, identificó un gen, el DYRK1A, relacionado con la formación del cerebro y sobreactivado por el cromosoma extra. El gen producía un exceso de proteínas asociadas a las alteraciones cognitivas. El compuesto del té verde, la epigalocatequina galato, devuelve las proteínas a los niveles normales.

Casi todos los padres adivinaron al final del ensayo si su hijo había tomado un tratamiento real o un placebo

En el ensayo han participado 84 personas con síndrome de Down, de entre 16 y 34 años. Aproximadamente la mitad tomó el tratamiento durante un año, mientras la otra mitad recibía un placebo, una sustancia sin acción terapéutica, para poder comparar. Dierssen reconoce que “los cambios observados no son muy importantes”, pero son suficientes para que casi todos los padres adivinaran al final del ensayo si su hijo había tomado un tratamiento real o un placebo.

El extracto de té verde mejoró de manera moderada la memoria a corto plazo y su capacidad para organizarse en la vida diaria, al mismo tiempo que inhibía la impulsividad de los pacientes. Las imágenes del cerebro muestran cambios en la corteza que se correlacionan con estas mejorías. Los resultados se publican hoy en la revista médica The Lancet Neurology.

Dierssen lleva años lamentando la falta de apoyo de la industria farmacéutica a sus investigaciones. “Es un compuesto presente en un producto natural y no se puede patentar. No es interesante para la industria”, señala. En ocasiones, la neurocientífica ha recurrido a conciertos de su grupo de rock, From Lost To The River, para recaudar dinero para sus trabajos. En este último ensayo clínico, que ha costado 750.000 euros, ha colaborado con el farmacólogo Rafael de la Torre, director del Instituto Hospital del Mar de Investigaciones Médicas, en Barcelona, y con la fundación francesa Jérôme Lejeune, que ha puesto la mayor parte del dinero.

El coste es muy elevado. O se implican las instituciones o no lo podremos hacer
Ahora, Dierssen querría organizar un nuevo ensayo clínico, pero con muchos más pacientes y en diferentes ciudades, para tener una muestra representativa de la población con síndrome de Down. Un ensayo así, conocido como de fase 3, es carísimo y suele requerir inversión privada. “El coste es muy elevado. O se implican las instituciones o no lo podremos hacer”, advierte la investigadora. De la Torre calcula que costaría unos tres millones de euros. De momento, con una “pequeña financiación” de la Fundación Mutua Madrileña, ambos preparan un ensayo pediátrico, para ver la seguridad del extracto de té verde en niños con síndrome de Down.

De la Torre reconoce que ya hay familias que, por su cuenta y gracias al boca a boca, administran extracto de té verde a sus hijos con síndrome de Down. El investigador desaconseja esta práctica con menores de 16 años, ya que el perfil de seguridad no se ha comprobado y podrían aparecer efectos secundarios. “En adultos tampoco hacemos promoción activa. Ni aconsejamos ni desaconsejamos”, apunta.

El genetista Roger Reeves, de la Universidad Johns Hopkins (EE UU), es más cauto y alerta de posibles efectos de la epigalocatequina galato en otras proteínas, más allá de la codificada por el gen DYRK1A. También subraya que las dosis del compuesto en los extractos de té verde disponibles en las tiendas son muy variables. “Es importante que los ciudadanos sean conscientes de las limitaciones de nuestro conocimiento sobre potenciales efectos y efectos secundarios de un tratamiento sin supervisión con epigalocatequina galato”, ha declarado Reeves, ajeno al nuevo trabajo, al portal especializado Science Media Centre.

David Nutt, director del Centro de Neuropsicofarmacología del Colegio Imperial de Londres, es más optimista: “Es emocionante ver que entender la neurobiología genética del síndrome de Down está posibilitando tratamientos específicos. Esperemos que la promesa de este estudio experimental se confirme en ensayos a gran escala y que otros sigan este enfoque”.

martes, 3 de mayo de 2016

Análisis y comprensión artificial de textos

I

Antonio Moreno, "¿Cómo puede un ordenador entender el lenguaje natural?", en  Huffington Post, 3/05/2016:

¿Cómo entrenan los investigadores de la Inteligencia Artificial a los ordenadores para leer y extraer información de documentos escritos? ¿Cómo consiguen que un ordenador realice análisis automático de textos?

La comprensión de una lengua natural es una tarea clave para dotar de inteligencia a agentes computacionales. El lenguaje es probablemente el mecanismo de entrada de datos más importante y eficiente de los seres humanos, superando incluso a la visión. Un buen ejemplo de un sistema de comunicación hombre-máquina sería uno en el que una máquina puede leer una pregunta de un humano y procesarla para proporcionar una respuesta.

Hoy estamos inundados de Big Data, es decir, cantidades enormes de datos en diversos formatos, incluido el textual, y sería un disparate leer y procesar toda esa información de forma manual. Es por eso por lo que los sistemas de análisis automático de texto (Text Analytics) están teniendo mucho éxito en los últimos tiempos, ya que su función es entender la información no estructurada expresada en una lengua y convertirla en información estructurada como resumen de su contenido, como una relación entre sus elementos más significativos o clasificando un documento por su temática.

La tecnología se aplica ya a sectores muy diversos, desde la medicina a las finanzas o la legislación. Hay aplicaciones que leen millones de emails y los clasifican como spam, y otras que clasifican tuits como positivos o negativos. Algunos ejemplos de ello son el sistema Watson, que ha ganado a los mejores competidores humanos en el concurso Jeopardy, o la aplicación Lynguo, que analiza textos de forma automática para perfilar a los clientes y detectar opiniones o emociones.

¿Cómo es todo esto posible? Naturalmente, con décadas de investigación y desarrollo, pero sobre todo con aproximaciones híbridas e interdisciplinarias: combinando razonamiento lógico y lingüístico, análisis estadístico e innumerables bases de conocimiento.

Sin embargo, todavía estamos lejos de llegar a un funcionamiento fluido y satisfactorio similar a la capacidad analítica de un ser humano medio. Como dice John Sowa, los sistemas inteligentes necesitan integrar un ciclo cognitivo de percepción, aprendizaje, razonamiento y acción. La parte del procesamiento del lenguaje natural se centra sobre todo en la comprensión del contenido y en el aprendizaje, es decir, cómo conseguir interpretar mensajes nunca antes analizados por el ordenador.

Esto es precisamente lo que realizan los niños: con pocos estímulos e instrucción, son capaces de ir aprendiendo estructuras lingüísticas y contenido semántico y pragmático muy rápidamente. Sin embargo, los ordenadores todavía tienen una capacidad de aprendizaje de fenómenos lingüísticos nuevos muy reducida.

Si quieres saber un poco más sobre el análisis automático de texto, consulta este artículo: El análisis automático de texto con 'Big Data' e Inteligencia Artificial.

II


Este post trata de cómo los investigadores de la Inteligencia Artificial (IA) entrenan a los ordenadores a leer y extraer información de documentos escritos. Es decir, sobre cómo conseguir que un ordenador realice análisis automático de textos.

La comprensión de una lengua natural como el español o el chino (Natural Language Understanding, en la jerga de la IA) es una de las tareas claves para dotar de inteligencia a agentes computacionales. El lenguaje es probablemente el mecanismo de entrada de datos más importante y eficiente de los seres humanos, superando a la visión (aunque no suplantándola).

Leer una pregunta de un usuario y buscarla en una fuente de información (ya sea en una base de datos o en Internet) para proporcionar una respuesta es un buen ejemplo de un sistema de comunicación hombre-máquina. Con la extensión global de Internet estamos inundados de Big Data (cantidades enormes de datos en diversos formatos, incluido el textual). Nadie es capaz ni de imaginarse leyendo y procesando toda esa información.

Por ello, los sistemas de Análisis automático de texto (Text Analytics) han florecido en los últimos tiempos. Su objetivo es entender la información no estructurada expresada en una lengua y convertirla en información estructurada, bien como resumen de su contenido, como una relación entre sus elementos más significativos o clasificando un documento por tu tipología temática. La tecnología está madura y se aplica a muy diversos sectores, desde la medicina a las finanzas o la legislación. Hay aplicaciones que leen millones de emails y los clasifican como spam o analizan tuits como positivos o negativos. Incluso hay un sistema (Watson) que ha ganado en el concurso Jeopardy a los mejores competidores humanos. Otro ejemplo es la herramienta Lynguo, que analiza textos de forma automática para perfilar a los clientes, detectar opiniones, sentimientos, intenciones o emociones. 

¿Cómo se ha conseguido todo esto? Naturalmente con décadas de investigación y desarrollo, pero sobre todo de aproximaciones híbridas e interdisciplinarias: desde razonamiento lógico y lingüístico hasta análisis estadístico, e innumerables bases de conocimiento.

Cualquier niño de la escuela infantil, antes de aprender a escribir, ya habla su lengua materna con una fluidez y destreza muy superiores a las de un adulto que está aprendiendo una segunda lengua a la que le ha dedicado varios años de estudio. La aparente paradoja cognitiva entre la capacidad de aprendizaje y el nivel de experiencia e inteligencia del niño y el adulto es la pregunta que ha inspirado a numerosos psicólogos y lingüistas durante décadas.

Por supuesto, todavía estamos lejos de llegar a un funcionamiento fluido y satisfactorio similar a la capacidad analítica de un ser humano medio. Como dice John Sowa, los sistemas inteligentes necesitan integrar un ciclo cognitivo de percepción, aprendizaje, razonamiento y acción. La parte del procesamiento del lenguaje natural se centra sobre todo en la percepción (entender el contenido) y en el aprendizaje, es decir, cómo conseguir interpretar mensajes nuevos nunca antes analizados por el ordenador. Esto es precisamente lo que realizan los niños: con pocos estímulos y escasa instrucción directa son capaces de ir aprendiendo muy rápidamente estructuras lingüísticas y contenido semántico y pragmático. Sin embargo, los ordenadores tienen todavía una capacidad de aprendizaje de fenómenos lingüísticos nuevos muy reducida. De hecho, el coste de adaptar un sistema a un nuevo dominio semántico es todavía muy alto en términos de tiempo y esfuerzo.

Si te interesa adentrarte en el Análisis automático de texto, te animamos a que te descargues la publicación Text Analytics: the convergence of Big Data and Artificial Intelligence.