Creo que hasta que las máquinas no desarrollen un egoísmo, un autoprograma, un cierre defensivo, no llegarán a ser realmente conciencias, no digo inteligentes, ya que nuestro concepto de inteligencia es demasiado antropomórfico; en este planeta sólo hay dos criaturas que han desarrollado lenguajes en los que existen nombres propios para separarse o clasificarse en lo colectivo: el hombre y el delfín, como últimamente se ha descubierto; así pues, sólo estas dos especies poseen un status de conciencia individual, más que de inteligencia. Sobre ello va esto, un refrito mío de varios textos ajenos tomados de por ahí:
Se pueden formular reglas que permitan descartar o confirmar una hipótesis, pero no reglas que permitan formularla. Lo que le llevó a esa concesión fueron los descubrimientos debidos a golpes súbitos de imaginación y, muy en particular, la hipótesis de Kekulé.
Kekulé estaba seguro de que los compuestos orgánicos se basaban en cadenas de carbono, pero el benceno no le cuadraba en el esquema. Faltaban dos átomos de hidrógeno. Después de meses de desesperación, se quedó traspuesto junto a la lumbre y soñó con una serpiente que se mordía la cola, ¡lo que resolvió el enigma! El benceno no era una cadena lineal, sino un anillo, y los dos átomos de hidrógeno ausentes no eran más que el precio químico de juntar los dos cabos. ¿Puede un ordenador soñar algo así?
"No hay duda de que la imaginación científica puede basarse en lógicas aparentemente externas a la ciencia, como la serpiente que se muerde la cola de Kekulé", responde en una entrevista por correo electrónico el sociólogo James Evans, de la Universidad de Chicago. "Nuestras mentes son sistemas semipermeables, y la investigación psicológica y social indica que es muy probable que tome patrones prestados de la política y la religión, de la estructura física de su entorno, de sus pautas de acción, de sus metáforas y compromisos culturales. Esto hace posible para los científicos considerar de forma fructífera una amplia gama de patrones"La computación blanda y la lógica borrosa introducidas por el matemático azerbaiyano iraní Lofti Zadeh, de la Universidad de Berkeley, utilizan redes neuronales (programas que aprenden de la experiencia) y algoritmos genéticos (programas que evolucionan en el tiempo) para diseñar máquinas capaces de aprender a manejar conceptos difusos, como hacemos los humanos.
El lingüista William Labov, fundador de la moderna socio-lingüística, demostró en 1973 que las categorías taza y cuenco son difusas en nuestro cerebro: se solapan una con otra, y su uso depende más del contexto y la experiencia del hablante que del tamaño real del recipiente. Por ejemplo, muchos sujetos del experimento consideraron el mismo recipiente como una taza (si se les decía que contenía café) y como un cuenco (cuando un rato después se les sugirió que servía para comer). La decisión entre los dos nombres depende a la vez de otros factores: tener un asa, ser de cristal, llevar un plato debajo y exhibir un diámetro creciente de base a boca restan puntos a cuenco y empujan al hablante hacia taza. La inteligencia artificial consiste simplemente en que los robots tomen las decisiones para las cuales han sido programados, haciendo que parezca que las toman por voluntad propia y no porque les hayan manipulado el cerebro para ello. En resumen, son tan estúpidos como la mayoría de los seres humanos, con lo cual representan también un éxito. Por otra parte, un robot será inteligente cuando se le "ocurra" -sin que nosotros lo hayamos programado para ello- crear otras especies de robots, ya sea por curiosidad intelectual, para que le hagan el trabajo, etc. No darse cuenta de esto es confundir "inteligencia" con "procesamiento automático de la información". Es criticable la existencia de una barrera para la IA, como la conciencia o los sentimientos. Los sentimientos son los necesarios para la supervivencia de nuestros genes. Cuando se planean los problemas psicológicos humanos como defectos, p. ej., se olvida que muchos factores que en un entorno son fallos, en otro son la diferencia entre la supervivencia o la muerte. Y al final los sentimientos son un sistema avanzado de incentivos y alarmas, eso sí, con un periodo de pruebas muy largo. Por eso es posible que entes de creación humana puedan llegar a desarrollar algo similar a una conciencia, puesto que es un sistema que ayuda a integrar todo lo que puede ser útil para la supervivencia ¿y por qué no van a desarrollar instintos gregarios, por caso? Es una de las claves de la supervivencia de un grupo de organismos que comparten intereses comunes (pueden ser genes). Parafraseando ¿soñarán los androides con ovejas eléctricas? Eso es lo que no está tan claro, pero es posible que soñaran. Y, como dice Mr. Smith, en el momento en que las maquinas empezamos a pensar por vosotros, el mundo dejo de ser vuestra civilización para pasar a ser nuestra civilización. Parece que la cibernética avanza en el uso de conceptos abstractos, difusos e intangibles y se da mucha importancia al uso de patrones como base del funcionamiento de la mente humana, patrones en diversas disciplinas y abstractos como conceptos de poder, libertad, justicia, peligro, etc. Y uno de esos conceptos abstractos es la ausencia de todo concepto. Un robot será inteligente sólo cuando sea capaz de aburrirse y sentirse vacío. Más aún: un robot será inteligente cuando sea capaz de sufrir angustia existencial. Lo demás es resolución de tareas más o menos sofisticada. SI la inteligencia es lo que nos permite vivir insertos en una totalidad simbólica cerrada y autorreferente, la prueba de que un ser exhibe comportamiento inteligente es, precisamente, el colapso del sentido de esa totalidad. Ahora mismo la robótica está limitada a la capacidad creativa del hombre, pero en el momento que el robot sepa generar por sí mismo sus propias acciones y actitudes (algo que pasa porque por sí mismos reinterpreten y generen nuevos códigos) podremos asegurar que son totalmente autónomos.
No hay comentarios:
Publicar un comentario