La ética y la tecnología

Me parece que no he hablado de ética y tecnología, al menos desde hace mucho tiempo. Dentro de unos días tengo que participar en una jornada sobre el tema, y voy a contaros algunas de las cosas que pienso decir, porque no estoy muy seguro de todo, y me vendrían bien vuestros comentarios.

Todas las decisiones humanas tienen una dimensión ética, más o menos importantes. Muy importante, en la decisión de matar a mi suegro, porque me vendría muy bien recibir su herencia; poco importante, si, al subir al autobús, decido quedarme de pie porque el viaje es corto, o si busco un lugar para sentarme. La dimensión ética, en este caso, puede intensificarse si, por ejemplo, veo varias personas que necesitan sentarse urgentemente, o si un joven se levanta para dejarme su sitio, o si puedo caerme por los movimientos bruscos del vehículo…

Los problemas morales son de las personas, no de la tecnología. Esto vale para todo. Una inundación que arrastra a un niño me pone a mí ante el dilema de correr a ayudarle, y echar a perder mi traje, o dejar que sea otro el que lo salve. Si yo no paso por allí y nadie ve al niño, no hay un problema ético, salvo, quizás, la responsabilidad de la persona que debía estar vigilándolo… Un algoritmo no es un problema ético; la persona que lo crea o lo usa, sí. 

Los problemas éticos se presentan siempre en situaciones concretas. Por tanto, los principios generales y las normas morales son útiles, pero no definitivos.

Un robot es una máquina autónoma, que recoge información, la procesa, saca conclusiones y lleva a cabo acciones, sin intervención o guía de una persona. Ese aprendizaje hace que las decisiones de la máquina no sean las que el que la programó había pensado. Por ejemplo, un coche autónomo puede cambiar de carril, acelerar o frenar, dejar pasar a otro que viene más rápido… y todo esto tiene consecuencias morales, porque afectan a otras personas y, sobre todo, me afectan a mí, que me he convertido en un peligro para la circulación, o en un buen conductor. Pero, si el coche es autónomo, yo no tomo las decisiones, pero soy el que lo usa, o quizás soy el que preparó el programa con el que la máquina aprende.

De alguna manera, esos problemas éticos son triviales. Pero hay otros muy importantes: por ejemplo, si paso al lado de un coche que acaba de sufrir un siniestro, ¿me detengo o no? ¿Puede tomar esa decisión un automóvil autónomo? ¿De quién es la responsabilidad? Para dilucidar esto, habría que distinguir entre los aprendizajes incorporados en el software y los que dependen de los criterios morales del agente. Si mi coche autónomo se pone por sí solo a 140 kilómetros por hora en una carretera con mucho tráfico donde el límite permitido es de 60 kilómetros, echaré la culpa al diseñador o al fabricante, que no introdujo adecuadamente la instrucción sobre la velocidad máxima permitida, a no ser que yo haya actuado contra esa limitación.

En todo caso, la autonomía de una máquina autónoma es relativa; toma sus decisiones porque ha sido programada así. Un coche autónomo será verdaderamente autónomo el día en que yo le diga que me lleve al trabajo, y opte por llevarme a la playa (y esto no se deba a una instrucción confusa por mi parte, o a un error en el mapa). Claro que la máquina podrá tomar mejores decisiones que yo, en algunos aspectos, pero, si toma decisiones no éticas, no podemos traspasarle la responsabilidad, que sigue siendo de la persona que, el crear su mecanismo de aprendizaje, no puso límites. Vamos, me parece a mí…

One thought on “La ética y la tecnología

  1. Estimado profesor: ya que pide comentarios aquí va uno muy bueno. Lo digo porque es que se inspire leyendo en AT2 (Antropología de Polo tomo 2) en la 3ª parte: el acápite E: EL CUERPO HUMANO EN LA CUARTA DIMENSIÓN DEL ABANDONO DE LÍMITE MENTAL. Son 4 o 5 páginas muy inspiradoras de una técnica muy básica: nuestro propio cuerpo físico y cómo debe conectarse (ahí entra la ética) con nuestro espíritu. Muy bueno, muy resumido y de un futuro doctor de la doctrina

Comments are closed.