Otra vez me inspiro en una carta al editor del Financial Times publicada el día 16 de julio. Es breve. Se titula «Los ordenadores [o computadoras, según el lado del Atlántico en que radique el lector] no pueden compartir la historia humana«. Hace referencia a un artículo en el mismo periódico, del 14 de julio, en el que el autor proponía «dotar a la futura inteligencia artificial con valores humanos positivos». Y dice el autor de la carta que no es posible, porque «la idea de que los valores humanos pueden ser objeto de computerización descansa en el supuesto de que esos valores existen en el cerebro humano. Y no es así. Su existencia es social, no neurobiológica, y se han desarrollado, en toda su diversidad, dentro de una particular, única e irrepetible historia: la de la humanidad. El hardware de los ordenadores no puede ser dotado de valores humanos porque no ha compartida esa historia».
El ser humano no es una máquina, un ordenador prodigioso, que no pasa de ser eso, una máquina, prodigiosa, pero máquina. Claro que podemos llamar «valores» a lo que queramos (otra cosa es que esa sea una buena idea), pero si nos referimos a eso que llamamos solidaridad, o respeto por los demás, o lealtad, no podremos elaborar nunca un programa que los replique, aunque pueda imitarlos. Algunos científicos y filósofos se empeñan en poner en la técnica la superación de las limitaciones del hombre; y si el hombre no se deja «superar», entonces lo sustituiremos por un ordenador.
Leí hace tiempo que el posthumanismo explica que, algún día, podremos meter todo el contenido de nuestro cerebro en un ordenador, de modo que, cuando el cuerpo no aguante más, nosotros sigamos «viviendo» en la máquina. Y me acordé de la historia de la máquina de las sensaciones: una máquina que le promete, con certeza absoluta, que experimentará todas las sensaciones agradables que desee, todas sin excepción, pero, eso sí, a condición de que renuncie a desengancharse de la máquina en el futuro. ¿Firmaría usted? Me parece que todos diríamos que no, que queremos ser nosotros mismos, no una máquina. Lo que importa no es el resultado, que es lo que le promete el que afirma que el ordenador copiará perfectamente sus valores. Porque ya no serán sus valores, no serán valores humanos.
Mientras los «valores» o las «sensaciones» o el «pensamiento» se sigan entendiendo solo como un conjunto de procesos físicos, químicos y biológicos, nos seguirán prometiendo un mundo feliz, como el de Huxley, a cargo de los ordenadores, pero en el que nosotros ya no tendremos papel alguno. Habremos abolido el error… porque habremos abolido al ser humano.
Pero no me acaba de convencer eso de que los valores son sociales. Que lo son, claro, al menos los valores a los que se refiere la carta. Sino porque parece suponer que proceden de la evolución social. Hemos sustituido la persona por el grupo. Tampoco me gusta.
Totalmente de acuerdo, pero consciente de que el camino también puede ser el inverso.
Si entendemos por ordenador algo que pone orden, también el ser humano proviene de una programación o codificación inicial o evolutiva, según las creencias de cada uno.
Muchas veces me pregunto si el destino existe y es en realidad nuestro ADN, nuestra codificación genética que condiciona un alto porcentaje de nuestros actos, sentimientos y trayectoria.
Imaginemos que los atributos congénitos de mi carácter son: introvertido, técnico, con fuerza de voluntad y valiente. Probablemente mi destino en este mundo será distinto del que sea extrovertido, comercial, vago y cobarde.
La pregunta es si unos atributos genéticos muy marcados pueden ser modificados por el entorno familiar y social. Y al revés, si los valores sociales provienen de atributos positivos puestos en común para protegernos de los atributos negativos. La ley del hombre, que nos protege de la ley natural, del poder del más fuerte.
Si realmente somos programas o seres codificados que hemos aprendido a comunicarnos y a crear valores sociales, también un software evolucionado que imitase los atributos humanos podría llegar a comunicarse con otros programas y a crear valores sociales. Las tres leyes de la robótica creadas por Asimov no dejan de ser la base de unos valores de respeto a la vida humana individualizados en un robot, que en contacto con otros robots podrían analizar escenarios más complejos, en los que tal vez llegarían a considerar la necesidad de aplicar valores sociales como un sistema para defender al ser humano.
A lo largo de los años, la acumulación de conocimientos y experiencias generadas a través de la resolución de los conflictos y escenarios planteados también generarían su propia historia compartida. Pero con una diferencia, la memoria humana, tanto la colectiva como la individual, es imperfecta, y tiende a olvidar los errores cometidos. Un ordenador no. Y si entendemos por sabiduría la suma de conocimiento y experiencia, un sistema capaz de tener conocimiento real y no olvidar la experiencia acumulada ni la adquirida a través de la comunicación con otras sistemas podría llegar a tener una sabiduría individual y social más estable que la humana.
Muy interesante
Y si abolimos el error, no aprenderemos.
Muy bueno.
Aprovecho para felicitar a todos los Elías (significa «Dios es mi confianza») y me viene a la memoria su frase ¿Hasta cuándo cojearéis entre dos muletas?
Me da la sensación de que llevamos demasiado tiempo entre baales…
Feliz domingo a todos.