{"id":7440,"date":"2019-03-28T12:51:52","date_gmt":"2019-03-28T11:51:52","guid":{"rendered":"https:\/\/blog.iese.edu\/antonioargandona\/?p=7440"},"modified":"2019-03-23T13:15:10","modified_gmt":"2019-03-23T12:15:10","slug":"etica-e-inteligencia-artificial-ii","status":"publish","type":"post","link":"https:\/\/blog.iese.edu\/antonioargandona\/2019\/03\/28\/etica-e-inteligencia-artificial-ii\/","title":{"rendered":"\u00c9tica e inteligencia artificial (II)"},"content":{"rendered":"<p>En una entrada anterior empec\u00e9 a hacer consideraciones sobre <strong>la necesidad de la \u00e9tica en la inteligencia artificial (IA)<\/strong> y, en general, en las nuevas tecnolog\u00edas de la informaci\u00f3n y la comunicaci\u00f3n. Lo que me interesa ahora es lo relativo al dise\u00f1o, fabricaci\u00f3n y uso de <strong>m\u00e1quinas aut\u00f3nomas<\/strong>:\u00a0por ejemplo, un instrumento de identificaci\u00f3n de voz o de rasgos faciales, un coche aut\u00f3nomo, un arma que elige sus objetivos y dispara sin preguntar al centro de control, un robot cirujano, o los robots que cuidan a ni\u00f1os, ancianos o enfermos, etc. Lo que caracteriza a esas m\u00e1quinas es que recogen <b>informaci\u00f3n<\/b> y la procesan, sacan <b>conclusiones <\/b>y llevan a cabo <b>acciones<\/b> sin intervenci\u00f3n o gu\u00eda humana.<\/p>\n<p>Las <strong>preguntas<\/strong> que tiene que hacerse el dise\u00f1ador, fabricante o usuario de, por ejemplo, un autom\u00f3vil aut\u00f3nomo, son las que se presentamos en la entrada anterior:<\/p>\n<ul>\n<li>Qu\u00e9 <strong>voy a hacer<\/strong>, cu\u00e1l es el <b>objeto <\/b>de mi acci\u00f3n<\/li>\n<li>Qu\u00e9 <b>pretendo o espero <\/b>conseguir: mi <b>intenci\u00f3n<\/b><\/li>\n<li>Qu\u00e9 <b>otras consecuencias <\/b>puede tener mi acci\u00f3n<\/li>\n<\/ul>\n<p>&#8230; y, l\u00f3gicamente, esas preguntas necesitan respuestas sinceras, profundas y bien pensadas, entre otras razones porque el que se siente al volante de ese autom\u00f3vil (si es que tiene volante) no tendr\u00e1 mucho tiempo para hacerse esas preguntas cuando llegue el momento. En efecto, el coche aut\u00f3nomo <b>va a tomar decisiones por m\u00ed<\/b>, que tienen contenido \u00e9tico, \u00bfsin contar conmigo? (por ejemplo, cambiar de carril, elegir la velocidad, dejar pasar a otro veh\u00edculo m\u00e1s r\u00e1pido, detenerse cuando hay un accidentado en la cuneta, hacer se\u00f1ales a un coche que lleva las luces largas, no respetar la limitaci\u00f3n de velocidad\u2026). \u00bf<strong>De qui\u00e9n ser\u00e1 la responsabilidad \u00e9tica por esas decisiones?\u00a0<\/strong>\u00bfDel dise\u00f1ador, fabricante, programador\u2026, del conductor, pasajero, propietario\u2026, de la m\u00e1quina? Obviamente, cada uno tendr\u00e1 una responsabilidad, menos <strong>la m\u00e1quina, que no puede ser responsable<\/strong> de nada, aunque s\u00ed trasladar\u00e1 la responsabilidad a otra persona, en la cadena de decisiones.<\/p>\n<p>Para dilucidar todo esto, se trabaja ahora en la elaboraci\u00f3n de un conjunto de\u00a0<b>principios <\/b>o normas \u00e9ticas, que deben tener en cuenta los dise\u00f1adores y fabricantes, los que introducen esas m\u00e1quinas en otros aparatos, los que las usan, los que regulan esos procesos, los que los controlan y supervisan. Por ejemplo, y sin pretender ser exhaustivos, esos principios incluyen:<\/p>\n<ul>\n<li><b>Seguridad <\/b>\u00abrazonable\u00bb del resultado, ahora y en el futuro<\/li>\n<li><b>Transparencia <\/b>de los procesos<\/li>\n<li><b>Asunci\u00f3n de la responsabilidad<\/b> de dise\u00f1adores, constructores y usuarios<\/li>\n<li>Alineados con <b>valores <\/b>(sociales, personales, de la empresa): dignidad, derechos humanos, libertad, diversidad cultural<\/li>\n<li><b>Privacidad<\/b> en el acceso, uso y control de los datos<\/li>\n<li><b>Libertad<\/b> protegida, ausencia de <b>discriminaci\u00f3n<\/b><\/li>\n<li><b>Abierta: <\/b>beneficios compartidos<\/li>\n<li><b>Control <\/b>de la capacidad futura de la IA<\/li>\n<li>No desestabilizaci\u00f3n de los <b>procesos sociales y c\u00edvicos<\/b><\/li>\n<li><b>Prudencia <\/b>en la planificaci\u00f3n y gesti\u00f3n de los <b>riesgos<\/b><\/li>\n<li>Cultura de <b>cooperaci\u00f3n<\/b>, confianza y transparencia<\/li>\n<li>Evitar una <b>carrera<\/b> <b>competitiva<\/b>, con perjuicio de la seguridad<\/li>\n<li><b>L\u00edneas rojas<\/b> que no deben trasparsarse<\/li>\n<li>Compromiso de no desarrollar <b>superinteligencias<\/b>,\u00a0si no es por ideales \u00e9ticos compartidos, en beneficio de toda la humanidad<\/li>\n<li>No uso en la carrera de <b>armamentos<\/b><\/li>\n<li><b>Control<\/b> por los humanos: no hay inteligencia sin direcci\u00f3n<\/li>\n<\/ul>\n<p>Pero hay que tener en cuenta que\u00a0\u00a0<b>los principios no ser\u00e1n suficientes: <\/b>son <b>generales y abstractos<\/b>, no siempre se adaptan bien a las situaciones concretas y, a\u00a0veces, se presenta\u00a0<b>conflicto entre principios.\u00a0<\/b>En definitiva, el <b>ser humano <\/b>puede entender los matices y llevar a cabo decisiones en situaciones confusas; esto se aprende a lo largo de la vida, y se va modificando con el aprendizaje. Pero el robot no puede hacer esto. Por eso, al final de todo el proceso, estar\u00e1 siempre <strong>la libertad y responsabilidad de la persona.<\/strong><\/p>\n<p>&nbsp;<\/p>\n","protected":false},"excerpt":{"rendered":"<p>En una entrada anterior empec\u00e9 a hacer consideraciones sobre la necesidad de la \u00e9tica en la inteligencia artificial (IA) y, en general, en las nuevas tecnolog\u00edas de la informaci\u00f3n y la comunicaci\u00f3n. Lo que me interesa ahora es lo relativo al dise\u00f1o, fabricaci\u00f3n y uso de m\u00e1quinas aut\u00f3nomas:\u00a0por ejemplo, un instrumento de identificaci\u00f3n de voz [&hellip;]<\/p>\n","protected":false},"author":172,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[12798],"tags":[105776,105751,105777,105692],"class_list":["post-7440","post","type-post","status-publish","format-standard","hentry","category-etica-y-responsabilidad-social","tag-etica-de-la-organizacion","tag-etica-de-la-persona","tag-etica-de-la-sociedad","tag-inteligencia-artificial"],"aioseo_notices":[],"_links":{"self":[{"href":"https:\/\/blog.iese.edu\/antonioargandona\/wp-json\/wp\/v2\/posts\/7440","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/blog.iese.edu\/antonioargandona\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/blog.iese.edu\/antonioargandona\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/blog.iese.edu\/antonioargandona\/wp-json\/wp\/v2\/users\/172"}],"replies":[{"embeddable":true,"href":"https:\/\/blog.iese.edu\/antonioargandona\/wp-json\/wp\/v2\/comments?post=7440"}],"version-history":[{"count":1,"href":"https:\/\/blog.iese.edu\/antonioargandona\/wp-json\/wp\/v2\/posts\/7440\/revisions"}],"predecessor-version":[{"id":7441,"href":"https:\/\/blog.iese.edu\/antonioargandona\/wp-json\/wp\/v2\/posts\/7440\/revisions\/7441"}],"wp:attachment":[{"href":"https:\/\/blog.iese.edu\/antonioargandona\/wp-json\/wp\/v2\/media?parent=7440"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/blog.iese.edu\/antonioargandona\/wp-json\/wp\/v2\/categories?post=7440"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/blog.iese.edu\/antonioargandona\/wp-json\/wp\/v2\/tags?post=7440"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}