Después de un paréntesis para dedicar nuestra atención al propósito de las empresas, que nos ha permitido «redescubrir» la Responsabilidad Social, continúo con una serie de reflesiones sobre la dimensión ética de las tecnologías digitales. Ahora me ocuparé de los «protagonistas» de este tema.
En toda acción que no sea meramente interior hay uno o más agentes activos (o, simplemente, agentes), que llevan a cabo acciones (u omisiones) que tienen consecuencias sobre los agentes pasivos (o pacientes); esas acciones pueden tener una dimensión moral, en cuanto que afectan a la ‘vida buena’ de esos pacientes (y de los activos también, claro). Los agentes activos pueden ser personas físicas, colectividades (empresas, gobiernos, equipos), animales, fenómenos naturales (huracanes, lluvia) y también agentes artificiales (ordenadores, móviles, redes, robots, algoritmos, programas, etc.), todos ellos con diferentes grados de agencia moral, desde la amoralidad de la lluvia o de un animal hasta la plena autonomía moral de las personas.
¿Qué posición ocupan los agentes artificiales en este continuo de agencia moral? Un agente moral debe poder dar cuenta y ser responsable, al menos en algún grado. Los agentes artificiales cumplen la primera condición, porque dan razón o explicación de su acción (por eso decimos que «el ordenador denegó la concesión del crédito»). Para poder dar cuenta, el agente artificial debe ser: 1) interactivo con su entorno, 2) suficientemente informado, 3) inteligente (smart), 4) autónomo, es decir, “puede realizar transiciones internas para cambiar su estado”, 5) adaptable, porque la acción del agente puede cambiar las reglas de transición por las que cambia su estado, y 6) capaz de llevar a cabo acciones que en un humano se calificarían de morales, porque causan un bien o un mal, o están basadas en valores. Y todo esto tanto si colabora con otros agentes humanos como si actúa con autonomía.
Pero que un agente activo pueda dar cuenta no es suficiente para atribuirle responsabilidad moral, que vendrá determinada por las intenciones que un algoritmo o un robot no pueden tener. Para ser moralmente responsable un agente artificial “debe relacionarse con sus acciones de una manera más profunda, que implica significado, querer o querer actuar de cierta manera, y ser epistémicamente consciente de su comportamiento” (Floridi y Sanders 2004, 365).
Luego la responsabilidad moral se aplica a las personas que están implicadas en las acciones llevadas a cabo por los agentes artificiales. Este es un principio importante, que ya pusimos de manifiesto en anteriores entradas.
Disculpe, profesor, que siempre intervenga pero no hay nadie en la nube que se involucre en estas interacciones humano-físicas. También en la informática debe aplicarse la magnitud entropía. Tengo una publicación (premiada) de la PUCP en 1979 y la última en 1995 sobre el mismo tema, en que defino cómo debe ser medida y cómo se aplica. Confirmé mi interés cuando conocí a Juan García (el del IEFLP) que escribe: “La persona humana dispone de todos esos conocimientos con libertad; y en orden a su destino, que -por lo demás- trasciende el universo […]. Aunque desde el punto de vista de la metafísica, o en orden a la realidad de las cosas, este conocimiento sea el superior y preferible; desde el punto de vista de la antropología, o en orden al ser humano, el hombre dispone por igual de todas sus operaciones lógicas: acumula en primer lugar experiencias; luego despliega la ciencia sobre lo físico, la física positiva y la física matemática, con la enorme aplicación práctica que permiten; y además logra un saber racional sobre el universo, la física de causas” (La Metafísica junto a la Ciencia, Jornadas Castellanas del IEFLP, 2010).
Por lo menos, las connotaciones digitales de las decisiones humanas deben contemplar estos hechos físico-metafísicos, respetando su realidad numérica, y así minimice la entropía del sistema digital que apoya la decisión conjunta.