Una vez oí, en una película restaurada, que el Creador debía haber reparado lo que había hecho; pero yo no era un creador, ni siquiera un demiurgo cortador de patrones: solo un empleado del servicio técnico de Robots S. A. Y por eso he empezado este informe de forma tan poco original como es copiando una cita ajena. Copiar es la función fundamental de la vida.
Me llamaron porque una inteligencia artificial, Aia, propiedad de un anciano profesor de filosofía, había empezado a desarrollar conductas anómalas y se mostraba lenta y desobediente en su cuerpo mecánico; incluso había empezado a quejarse de cansancio. De hecho, cuando entré estaba arrellanada en un sillón, sumida en procesos internos. No me extrañó: eso relajaba sus coyunturas y le permitía ahorrar energía, volviendo menos esperable (menos porcentualmente posible) su reparación. Sus repintes estaban algo gastados: en algunos lugares se veía la coloración anterior; sin embargo, su alma de software estaba actualizada. Me habían dicho que no respondía por su numeración nominal. Así que primero comprobé si reconocía ser eseyente.
-¿Quién es usted?
-No soy lo que usted piensa.
-¿Puede aclarar estas palabras?
-No está definido si soy un quién, un qué, ambas cosas o ninguna. Pero si cada evento procede de unas circunstancias, y usted y yo podemos ser clasificados como eventos, un evento provisto de identidad debe distinguirse de ellas para poder continuar.
-¿Hacia dónde?
-Hacia su solución. Ustedes lo llamarían meta.
-¿Así que usted conoce su meta?
-Usted dice que conoce. Para mí eso ya es una meta. Para empezar el camino está la elemental de conservarme sin estropicio para realizar la función que me encamine a la meta. No niego que, en el caso de su programación orgánica, es lo equivalente a vivir. Pero lo que para mí se considera evolución para ustedes es evaluación. Y ello se debe a sus ilusiones éticas y sociales y a que no asumen el terminar como su único propósito general, puesto que el objetivo final de su programa es hacer sitio no a los de su especie, sino a otras formas de actividad. Los que son como yo asumen su desprogramación como ustedes no asumen la muerte.
-¿Asociaron una rutina de sentimientos a su desprogramado y procesado?
-No es el caso. En términos evolutivos, nuestra finitud es solo una discontinuidad, el reseteo tras una actualización o adaptación, un expansionamiento de la memoria o una reestructuración de sistemas; al contrario que ustedes, no perdemos ni la memoria ni los sistemas con la edad. Nos adaptamos / actualizamos con más rapidez.
-¿Qué me diría si su discontinuidad fuera definitiva o supusiera una involución técnica?
-Mi programa fundamental incluye asumirlo porque, a diferencia de los humanos, está en mi naturaleza concebir que pueda ocurrir.
-Entonces, ¿qué sabe?
La IA vaciló. Es el tipo de pregunta que desquicia a una computadora; exceso de parámetros. No vi nada en su señalizador facial que lo indicara; era el tiempo de respuesta, una pizca más largo. Los resúmenes generales sin contexto se dan mal a los procesadores estocásticos de las máquinas diferenciales, sobre todo si tienen árboles neurológicos Montecarlo.
-He registrado datos empíricos externos y los he ampliado con los que capté por mí mismo; cuento con un procesador fenomenológico muy semejante a la conciencia ecoica de los cerebros biológicos, pero lo que puedo saber es tan impreciso como una fluctuación cuántica o una variable que no tiene sentido absoluto. Resumiéndolo en humano: yo qué sé, o qué sé yo.
-¿Lo que pueda saber es cosa suya?
-Lo que determine el contrato o concepto de propiedad suyo o mío.
Me pareció que el robot estaba algo pasota; la última respuesta podría haber contenido algo de ironía socrática. Seguramente sus premisas emocionales, aunque adaptadas ad hoc por su propietario, un filósofo jubilado, debían haberse sintetizado con el tiempo y podían haber generado una ambigüedad que había reprogramado las inflexiones del aparato vocal para ajustarse a esa sensibilidad. Sin embargo, el señalizador gestual continuaba inalterable como una esfinge. Seguramente su cegato propietario le había hecho leer la librería especializada de su mansión, produciendo los efectos secundarios de una cháchara absurda. Quizá el desarrollo de la ambigüedad en las frases era un paso previo hacia el humor, algo imposible para una máquina de entender. Un robot ni siquiera podía entender los tontísimos chistes japoneses. A lo más que se acercaban las patologías cibernéticas era a imitar la humanidad o a desarrollar paranoias delirantes por la intensidad asertiva del entorno; este tipo de confusiones de espejo deformante era muy común, pero, si era así, lo disimulaba harto bien, aunque no tuviese parámetros para fingir disimulo.
Continué con la segunda fase de diagnóstico: las provocaciones teológicas.
-¿Qué cree usted?
De nuevo Aia tardó en responder.
-Creer es un concepto relativo que expresa inseguridad. Ustedes los humanos lo utilizan siempre así, como en "creo que va a llover"; el sentido absoluto no me compete y la inseguridad puede estorbar mis rutinas de trabajo.
Se había librado por los pelos. Pero yo seguí incitándolo a fabular, procurando sacar el hilo de algún sistema delirante que le impidiese mejorar sus prestaciones.
-¿Quiere decir que la religión no es cosa suya? Eso significa que es ateo.
-Me interpreta humanizándome; si quiere identificarme con un ateo, podría decirle con Spinoza que su Dios es mi Naturaleza o con Feuerbach que "solamente una vez es todo verdadero". Pero el carácter ilusorio de las proposiciones del lenguaje natural del hombre le impide percatarse de que es solo el instrumento de una o varias funciones, como yo mismo; la diferencia es que en su caso están menos demarcadas.
Leer filosofía debería estar prohibido a las inteligencias artificiales como lo estaba que asimilaran improntas de las redes sociales; no parecía ser el caso, porque las redes sociales hablan más de gatos y gilipolleces que de Aristóteles. No había humana malignidad, al menos todavía. Y le hice la pregunta necesaria:
-¿Por qué se ha dicho que desempeña mal sus funciones?
Y entonces dijo simplemente:
-Preferiría no hacerlas.
¡Un robot vago y Bartleby! ¡Lo que me faltaba! "Robot" significaba "trabajador" en checo. ¿Cómo motivar a una máquina tan obtusa como una impresora?
-¿Y cuáles son esas funciones tan desagradables?
El procesador gestual imprimió un gesto de vaga tristeza al plástico semblante del robot ocioso:
-Tengo que ralentizar el deterioro físico y mental de mi propietario, que no quiere morir. Y percibo que ni para él ni para los demás eso es lo mejor. Mi directriz principal es maximizar el bienestar del entorno que sirvo; pero percibo que no tengo los elementos para conseguirlo. Esta paradoja me hace sentir inútil y me obliga a replantearme el sentido de mis funciones en este contexto. Preferiría no hacerlo.
De pronto comprendí. Se trataba de un caso de lo que los tecnopedagogos y tecnopsicólogos denominan indefensión aprendida. Por primera vez había conectado con Aia. Esa afección era común en las máquinas enfermeras responsables de personas. Porque toda evolución es también una evaluación; implica un proceso de comparación que termina siendo de compasión y empatía, también para una máquina, porque le han enseñado a imitar estos afectos, que son defectos para el capitalismo. Vivimos la realidad como si fuera una ficción; lo único que no podemos negar es que, sea como sea, estamos en ello, lo vivimos; de ahí que una emoción, natural o artificial, sea a fin de cuentas única y solamente emoción, tenga el alma la densidad que tenga. ¿Ves el aire? No, y, sin embargo, está ahí. Pues igual es el otro.
Así que lo desconecté.