{"id":7269,"date":"2018-10-10T11:28:46","date_gmt":"2018-10-10T10:28:46","guid":{"rendered":"https:\/\/blog.iese.edu\/antonioargandona\/?p=7269"},"modified":"2020-06-03T11:27:54","modified_gmt":"2020-06-03T10:27:54","slug":"la-etica-y-la-tecnologia","status":"publish","type":"post","link":"https:\/\/blog.iese.edu\/antonioargandona\/2018\/10\/10\/la-etica-y-la-tecnologia\/","title":{"rendered":"La \u00e9tica y la tecnolog\u00eda"},"content":{"rendered":"<p>Me parece que no he hablado de <strong>\u00e9tica y tecnolog\u00eda<\/strong>, al menos desde hace mucho tiempo. Dentro de unos d\u00edas tengo que participar en una jornada sobre el tema, y voy a contaros algunas de las cosas que pienso decir, porque no estoy muy seguro de todo, y <strong>me vendr\u00edan bien vuestros comentarios.<\/strong><\/p>\n<p><strong>Todas las decisiones humanas tienen una dimensi\u00f3n \u00e9tica<\/strong>, m\u00e1s o menos importantes. Muy importante, en la decisi\u00f3n de matar a mi suegro, porque me vendr\u00eda muy bien recibir su herencia; poco importante, si, al subir al autob\u00fas, decido quedarme de pie porque el viaje es corto, o si busco un lugar para sentarme. La dimensi\u00f3n \u00e9tica, en este caso, puede intensificarse si, por ejemplo, veo varias personas que necesitan sentarse urgentemente, o si un joven se levanta para dejarme su sitio, o si puedo caerme por los movimientos bruscos del veh\u00edculo&#8230;<\/p>\n<p><strong>Los problemas morales son de las personas, no de la tecnolog\u00eda<\/strong>. Esto vale para todo. Una inundaci\u00f3n que arrastra a un ni\u00f1o me pone a m\u00ed ante el dilema de correr a ayudarle, y echar a perder mi traje, o dejar que sea otro el que lo salve. Si yo no paso por all\u00ed y nadie ve al ni\u00f1o, no hay un problema \u00e9tico, salvo, quiz\u00e1s, la responsabilidad de la persona que deb\u00eda estar vigil\u00e1ndolo&#8230; <strong>Un algoritmo no es un problema \u00e9tico; la persona que lo crea o lo usa, s\u00ed.\u00a0<\/strong><\/p>\n<p>Los problemas \u00e9ticos se presentan siempre en <strong>situaciones concretas.<\/strong> Por tanto, los principios generales y las normas morales son \u00fatiles, pero no definitivos.<\/p>\n<p><strong>Un robot es una m\u00e1quina aut\u00f3noma, que recoge informaci\u00f3n, la procesa, saca conclusiones y lleva a cabo acciones, sin intervenci\u00f3n o gu\u00eda de una persona.<\/strong> Ese <strong>aprendizaje<\/strong> hace que las decisiones de la m\u00e1quina no sean las que el que la program\u00f3 hab\u00eda pensado. Por ejemplo, un coche aut\u00f3nomo puede cambiar de carril, acelerar o frenar, dejar pasar a otro que viene m\u00e1s r\u00e1pido&#8230; y todo esto tiene consecuencias morales, porque afectan a otras personas y, sobre todo, me afectan a m\u00ed, que me he convertido en un peligro para la circulaci\u00f3n, o en un buen conductor. Pero, si el coche es aut\u00f3nomo, yo no tomo las decisiones, pero soy el que lo usa, o quiz\u00e1s soy el que prepar\u00f3 el programa con el que la m\u00e1quina aprende.<\/p>\n<p>De alguna manera, esos problemas \u00e9ticos son triviales. Pero hay otros muy importantes: por ejemplo, si paso al lado de un coche que acaba de sufrir un siniestro, \u00bfme detengo o no? \u00bfPuede tomar esa decisi\u00f3n un autom\u00f3vil aut\u00f3nomo? \u00bfDe qui\u00e9n es la responsabilidad? Para dilucidar esto, habr\u00eda que distinguir entre los <strong>aprendizajes incorporados en el software<\/strong> y <strong>los que dependen de los criterios morales del agente<\/strong>. Si mi coche aut\u00f3nomo se pone por s\u00ed solo a 140 kil\u00f3metros por hora en una carretera con mucho tr\u00e1fico donde el l\u00edmite permitido es de 60 kil\u00f3metros, echar\u00e9 la culpa al dise\u00f1ador o al fabricante, que no introdujo adecuadamente la instrucci\u00f3n sobre la velocidad m\u00e1xima permitida, a no ser que yo haya actuado contra esa limitaci\u00f3n.<\/p>\n<p>En todo caso, <strong>la autonom\u00eda de una m\u00e1quina aut\u00f3noma es relativa<\/strong>; toma sus decisiones porque ha sido programada as\u00ed. Un coche aut\u00f3nomo ser\u00e1 verdaderamente aut\u00f3nomo el d\u00eda en que yo le diga que me lleve al trabajo, y opte por llevarme a la playa (y esto no se deba a una instrucci\u00f3n confusa por mi parte, o a un error en el mapa). Claro que la m\u00e1quina podr\u00e1 tomar mejores decisiones que yo, en algunos aspectos, pero, si toma decisiones no \u00e9ticas, <strong>no podemos traspasarle la responsabilidad,<\/strong> que sigue siendo de la persona que, el crear su mecanismo de aprendizaje, no puso l\u00edmites. Vamos, me parece a m\u00ed&#8230;<\/p>\n<p><a href=\"https:\/\/www.iese.edu\/es\/claustro-investigacion\/claustro\/antonio-argandona\/\">Antonio Argando\u00f1a<\/a>\u00a0es Profesor Em\u00e9rito de\u00a0<a href=\"https:\/\/www.iese.edu\/es\/claustro-investigacion\/departamentos-academicos\/economia\/\">Econom\u00eda<\/a>\u00a0del\u00a0<a href=\"https:\/\/www.iese.edu\/es\/\">IESE<\/a>.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Me parece que no he hablado de \u00e9tica y tecnolog\u00eda, al menos desde hace mucho tiempo. Dentro de unos d\u00edas tengo que participar en una jornada sobre el tema, y voy a contaros algunas de las cosas que pienso decir, porque no estoy muy seguro de todo, y me vendr\u00edan bien vuestros comentarios. Todas las [&hellip;]<\/p>\n","protected":false},"author":172,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[12798],"tags":[105721,10764,12883],"class_list":["post-7269","post","type-post","status-publish","format-standard","hentry","category-etica-y-responsabilidad-social","tag-automovil-autonomo","tag-responsabilidad","tag-tecnologia"],"aioseo_notices":[],"_links":{"self":[{"href":"https:\/\/blog.iese.edu\/antonioargandona\/wp-json\/wp\/v2\/posts\/7269","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/blog.iese.edu\/antonioargandona\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/blog.iese.edu\/antonioargandona\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/blog.iese.edu\/antonioargandona\/wp-json\/wp\/v2\/users\/172"}],"replies":[{"embeddable":true,"href":"https:\/\/blog.iese.edu\/antonioargandona\/wp-json\/wp\/v2\/comments?post=7269"}],"version-history":[{"count":2,"href":"https:\/\/blog.iese.edu\/antonioargandona\/wp-json\/wp\/v2\/posts\/7269\/revisions"}],"predecessor-version":[{"id":7808,"href":"https:\/\/blog.iese.edu\/antonioargandona\/wp-json\/wp\/v2\/posts\/7269\/revisions\/7808"}],"wp:attachment":[{"href":"https:\/\/blog.iese.edu\/antonioargandona\/wp-json\/wp\/v2\/media?parent=7269"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/blog.iese.edu\/antonioargandona\/wp-json\/wp\/v2\/categories?post=7269"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/blog.iese.edu\/antonioargandona\/wp-json\/wp\/v2\/tags?post=7269"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}