En una entrada anterior empecé a hacer consideraciones sobre la necesidad de la ética en la inteligencia artificial (IA) y, en general, en las nuevas tecnologías de la información y la comunicación. Lo que me interesa ahora es lo relativo al diseño, fabricación y uso de máquinas autónomas: por ejemplo, un instrumento de identificación de voz o de rasgos faciales, un coche autónomo, un arma que elige sus objetivos y dispara sin preguntar al centro de control, un robot cirujano, o los robots que cuidan a niños, ancianos o enfermos, etc. Lo que caracteriza a esas máquinas es que recogen información y la procesan, sacan conclusiones y llevan a cabo acciones sin intervención o guía humana.
Las preguntas que tiene que hacerse el diseñador, fabricante o usuario de, por ejemplo, un automóvil autónomo, son las que se presentamos en la entrada anterior:
- Qué voy a hacer, cuál es el objeto de mi acción
- Qué pretendo o espero conseguir: mi intención
- Qué otras consecuencias puede tener mi acción
… y, lógicamente, esas preguntas necesitan respuestas sinceras, profundas y bien pensadas, entre otras razones porque el que se siente al volante de ese automóvil (si es que tiene volante) no tendrá mucho tiempo para hacerse esas preguntas cuando llegue el momento. En efecto, el coche autónomo va a tomar decisiones por mí, que tienen contenido ético, ¿sin contar conmigo? (por ejemplo, cambiar de carril, elegir la velocidad, dejar pasar a otro vehículo más rápido, detenerse cuando hay un accidentado en la cuneta, hacer señales a un coche que lleva las luces largas, no respetar la limitación de velocidad…). ¿De quién será la responsabilidad ética por esas decisiones? ¿Del diseñador, fabricante, programador…, del conductor, pasajero, propietario…, de la máquina? Obviamente, cada uno tendrá una responsabilidad, menos la máquina, que no puede ser responsable de nada, aunque sí trasladará la responsabilidad a otra persona, en la cadena de decisiones.
Para dilucidar todo esto, se trabaja ahora en la elaboración de un conjunto de principios o normas éticas, que deben tener en cuenta los diseñadores y fabricantes, los que introducen esas máquinas en otros aparatos, los que las usan, los que regulan esos procesos, los que los controlan y supervisan. Por ejemplo, y sin pretender ser exhaustivos, esos principios incluyen:
- Seguridad «razonable» del resultado, ahora y en el futuro
- Transparencia de los procesos
- Asunción de la responsabilidad de diseñadores, constructores y usuarios
- Alineados con valores (sociales, personales, de la empresa): dignidad, derechos humanos, libertad, diversidad cultural
- Privacidad en el acceso, uso y control de los datos
- Libertad protegida, ausencia de discriminación
- Abierta: beneficios compartidos
- Control de la capacidad futura de la IA
- No desestabilización de los procesos sociales y cívicos
- Prudencia en la planificación y gestión de los riesgos
- Cultura de cooperación, confianza y transparencia
- Evitar una carrera competitiva, con perjuicio de la seguridad
- Líneas rojas que no deben trasparsarse
- Compromiso de no desarrollar superinteligencias, si no es por ideales éticos compartidos, en beneficio de toda la humanidad
- No uso en la carrera de armamentos
- Control por los humanos: no hay inteligencia sin dirección
Pero hay que tener en cuenta que los principios no serán suficientes: son generales y abstractos, no siempre se adaptan bien a las situaciones concretas y, a veces, se presenta conflicto entre principios. En definitiva, el ser humano puede entender los matices y llevar a cabo decisiones en situaciones confusas; esto se aprende a lo largo de la vida, y se va modificando con el aprendizaje. Pero el robot no puede hacer esto. Por eso, al final de todo el proceso, estará siempre la libertad y responsabilidad de la persona.
Muy interesante lo que comenta profesor. No tengo claro que la mayoría de las empresas vayan a plantearse tales cosas. Por otro lado, a veces, me da la sensación que cuando se habla de la IA estamos ante la nueva palabra de moda. Veremos cómo evoluciona y qué da de sí.
La inteligencia artificial esta avanzando mucho y aun falta pero la informatica electronica y el internet de las cosas es un futuro muy cercano dentro de unos años veremos como el futuro estara todo casi automatizado y controlado la inteligencia artificial es algo maravilloso pero a su vez hay personas no lo ven con buen ojo dado que la programacion es el futuro.
Muchas Gracias profesor sobre la explicación de la ética que tienen estos seres, la ética para ello tendrán que ser ordenes ejecutadas que no podran ser aplicadas.
Estimado profesor,
¡Y dale con la empatía!, dirá Vd. con toda la razón.
Pero yo creo que la empatía está en la esencia de nuestra humanidad. Sin empatía no existiríamos. Gracias a la empatía se desarrollan todas las Humanidades. Sobre todo la Ética. Porque sentimos, creemos y amamos a nuestros semejantes.
Las máquinas, los robots, hacen y harán cosas excepcionales, increíbles, y decidirán entre infinitas posibilidades. Pero no será otra cosa que el producto del proceso de infinidad de datos, de programas, de ordenes que se den quizás a ellos mismos. Si algún día estas máquinas o robots decimos que «sienten» algo y nos atrevemos a decir que es empatía, será una equivocación muy peligrosa. Porque la empatía no se crea ni menos se programa.
Saludos.