Acabamos de publicar un nuevo cuaderno de la Cátedra CaixaBank de RSC sobre «Etica e Inteligencia Artificial«.
Es una primera aproximación a un tema del que se está hablando mucho y seguiremos hablando mucho en los próximos años. Sin ir más lejos, hace unos días tuvimos también la presentación de un laboratorio de trabajo con empresas sobre «IA responsable e inclusiva». El proyecto estará liderado por Everis y por la Fundación Seres, y desde el IESE colaboraremos en la parte académica. En este Lab queremos explorar buenas prácticas en el diseño de soluciones inclusivas, con las que proveer espacios de oportunidad para el desarrollo de las personas en este nuevo marco de la IA.
Otro ejemplo. Esta misma semana, Albert Isern, un participante en uno de nuestros programas de Executive Education, nos dio una sesión «fuera de programa» -y «fuera de serie»- sobre el uso del Big Data. Nos contaba los desarrollos que están haciendo en su empresa, alguno de los cuales tiene un fuerte componente social para atender mejor y saberse adelantar a las necesidades de colectivos con especial necesidad.
Tendemos a ver la ética desde la perspectiva de las malas prácticas y de los conflictos, pero la ética se refiere también –y sobre todo- a las buenas acciones. A la ética le interesa hace el bien. Cuando pensamos en la IA hay que pensar sobre todo en cómo el uso de la IA pueden ayudarnos a hacer un mundo mejor.
Pero es inevitable que se planteen también los riesgos que la IA implica, algunos de los cuales ya existen –aunque significativamente aumentados por el potencial de estas nuevas tecnologías- y otros son nuevos. En el Cuaderno que acabamos de publicar mencionamos algunos de ellos.
A la hora de enfocar convenientemente estas cuestiones, me parece que sería bueno que tuviésemos en el trasfondo de todas las argumentaciones algunas consideraciones básicas. Al menos estas tres:
- No todo lo que es técnicamente posible es éticamente aceptable. La IA abre nuevas posibilidades que hasta el momento eran meras quimeras. Pero ahora que son una realidad (máquinas que toman decisiones, control exhaustivo de la conducta de las personas, invasión de la privacidad,…) es cuando hay que plantear si conviene o no llevarlas a la práctica, y la respuesta a este interrogante no puede ser simplemente que «si se puede hacer, por qué no vamos a hacerlo», porque la respuesta no debe venir de la capacidad técnica de hacerlo, sino de la reflexión moral sobre su conveniencia.
- El respecto a la dignidad de la persona humana debe ser la guía básica de conducta. Las tecnologías deben estar al servicio de las personas; deben contribuir a mejorar la vida de las personas y –como derivada- de las comunidades. A veces puede no ser fácil distinguir cuando una tecnología refuerza la dignidad de la persona o, por el contrario, la cuestiona. Especialmente delicado es cuando se empieza a mezclar la tecnología con aspectos biológicos, o cuando el big data puede usarse para un control invasivo de la vida de las personas. Por ejemplo, la vigilancia de las personas en las ciudades, como cuestiona este vídeo:
- El principio de precaución debe servir para moderar la implantación de los avances tecnológicos. Cuando los efectos posibles no son fácilmente previsibles y, por el contrario, pueden tener un gran impacto, es necesario moderarse y no precipitarse en el uso de determinados avances tecnológicos, especialmente cuando revertir las acciones –una vez puestas en marcha- va a ser difícil. Como se diría de una forma castiza: «los experimentos hay que hacerlos con gaseosa». No estamos hablando de experimentos de laboratorio, cuyos efectos pueden ser controlados, sino experimentos en la vida real, con un impacto real e irreversible.
El Cuaderno está pensado especialmente para quienes no están muy familiarizados con el tema, para que les sirva para tener una visión de conjunto, y como un primer bosquejo de las implicaciones éticas que tiene la IA.
Para acabar, y a modo de curiosidad, os dejo un video con uno de los últimos avances de Boston Dynamics, una de las empresas más avanzadas en el desarrollo de robots: un robot que hace ejercicios de gimnasia. Lo dicho: esto no ha hecho más que empezar…
One thought on “Etica e Inteligencia Artificial”
Comments are closed.