La manzana de la discordia: Apple y el debate sobre privacidad vs seguridad

 

Una juez de un distrito federal de California ha ordenado a Apple que desarrolle un software para poder saltarse el dispositivo de seguridad de un iPhone 5 que borra automáticamente la información del móvil después de diez intentos fallidos de introducir una contraseña.

Apple FBILa juez responde así a la demanda del FBI para que Apple le ayude a introducirse en los datos de un móvil que obraba en poder de Syed Farook, autor de la matanza en la que murieron 14 personas el pasado mes de diciembre en San Bernardino. El FBI espera encontrar en el móvil datos sobre con quién había estado el autor de los disparos y a dónde había viajado, y así esclarecer las circunstancias de la matanza, y la identidad de posibles cómplices. Pero, para ello debe poder descifrar el código de seguridad del teléfono, y espera que Apple desarrolle una “puerta trasera” que le permita probar tantas veces cómo sea necesario antes de dar con el código correcto.

Nos encontramos ante un caso paradigmático de una decisión en la que intervienen dos partes, cada una con sus legítimos intereses, que entran en conflicto. Por una parte Apple, que ha hecho de la privacidad un valor de sus productos, asegurando a sus usuarios que sus móviles no permiten el acceso de nadie –ni siquiera del propio fabricante- que no tenga los permisos adecuados. Y, por otra, el FBI que quiere proteger la seguridad de sus connacionales. Pero ambos intereses parecen chocar, porque en este caso la seguridad que busca el FBI va en contra de la privacidad que quiere proteger Apple.

¿Qué hacer? Pues seguir un orden de preguntas que permite reflexionar sobre los distintos aspectos implicados en la decisión, y encontrar ese balance que se plantea entre seguridad y privacidad.

  1. Para empezar, ¿hay más alternativas? Apple se hace esa pregunta. El FBI dice que ya ha agotado otras posibles vías conocidas. Supongo que nadie mejor que Apple puede decir si hay otras alternativas, y, si es así, proponerlas. De hecho ya ha prestado su colaboración para conseguir la última copia de los datos del móvil disponible en iCloud, pero parece que no recoge los últimos movimientos de Farook.
  1. La acción que se pide es en sí misma aceptable. Se trata de desarrollar un software, lo cual en sí mismo es algo correcto. No estamos hablando, por ejemplo, de torturar a alguien para que nos diga el código. Eso sí, ese código quiebra la promesa de Apple de no interferir en la privacidad de los dueños de sus iPhones, pero eso lo consideraremos más adelante.
  1. La intención de ambos es correcta. Ambos quieren cumplir su promesa: los unos, esclarecer lo sucedido y luchar contra acciones criminales; los otros, cumplir la palabra dada.
  1. Llegamos a la pregunta más complicada: hay proporción entre los efectos positivos y negativos que se siguen de esa decisión. De hecho este criterio está en el fondo de la decisión de la juez, cuando determina que Apple debe proporcionar una “asistencia técnica razonable” para el desarrollo del software, y siempre que no suponga una carga “fuera de lo razonable”. Apple ha esgrimido en contra de la decisión de la juez argumentos de muy diversa índole.
    • Algunos de carácter económico: “sería muy caro”, dice Apple. Calculan que necesitarán el trabajo de entre seis y diez personas (algunos ingenieros), y entre dos y cuatro semanas de trabajo. Si uno hace cuatro números, podemos estar hablando de tres semanas de trabajo de ocho personas, o sea, un sueldo de medio año de un ingeniero cualificado. No parece que sea mucho para una de las empresa más rentables del mundo.
    • Otros argumentos valoran más las consecuencias: en el supuesto de que consigan descifrar el código y entrar en el móvil, ¿qué seguridad tienen de que encontrarán algo?, ¿o quien les dice que los datos no estén encriptados de alguna otra forma? Estas operaciones parecen poco relevantes de cara a la decisión; lo que está claro es que si no se remueve este primer obstáculo, no se sabrá si hay más obstáculos después.
    • Por último, hay una reflexión sobre los principios que están en juego, y si deben prevalecer bajo cualquier circunstancia. ¿Cómo podemos saber que el FBI no usará este software para otros casos? Porque aunque la juez haya dicho que debe ser “ad hoc” para este caso, ¿cómo estamos seguros que será así? Porque eso sí que iría en contra de uno de los argumentos que Apple utiliza en la venta de sus productos, a saber, que asegura a sus clientes que, una vez alguien compra el iPhone y escoge un código de acceso, Apple pierde el control del mismo. Crear ese software, sería dejar una puerta abierta para que todos los iPhones se vuelvan vulnerables.
    • Para Apple establecer ese precedente sería un problema para otros casos que puedan existir en el futuro o demandas parecidas que ya existen actualmente. Además hay que considerar el contexto legal norteamericano, donde el derecho se basa en la jurisprudencia, esto es, las sentencias judiciales tienen un carácter vinculante para otras sentencias posteriores, a diferencia, por ejemplo, del derecho continental, que se basa en el texto de la ley más que en la interpretación de la ley por los jueces.
  1. Por último, y a la vista de estos conflictos, hay que procurar minimizar los efectos negativos de la decisión. Por lo que parece, el tema que levanta más susceptibilidades es el de que el software que se pueda desarrollar se escape del control de Apple, y se utilice para otros casos. Por tanto, parece que en la medida en que se asegurase este punto, la disposición de Apple a colaborar sería mayor.

Aunque las circunstancias cambien, en el fondo, el problema que nos ocupa no es tan distinto del problema que se plantearía ante la posibilidad de colocar micrófonos o cámaras ocultas para perseguir un hecho delictivo. Precisamente, para asegurar que la invasión de la privacidad que implican estas acciones esté justificada, las leyes no aprueban el uso generalizado de tales prácticas, sino que se requiere siempre, caso por caso, la autorización judicial. De modo similar, podríamos decir que , en este caso, para salvaguardar la justificación del desarrollo y uso de ese software, debería ser aprobado por un juez, tras examinar las circunstancias, gravedad y necesidad de tal acción, y, bajo ningún caso, convertirse en una justificación de tales prácticas en el futuro de forma generalizada.

Otra reflexión importante –además de analizar el contenido del conflicto- es quién debe hacerse estas preguntas y responderlas. Ante situaciones conflictivas como esta es conveniente intentar ser lo más objetivo e imparcial posible. Y como uno es mal juez en causas propias, es bueno que la decisión la tome alguien supuestamente imparcial, alguien que actúe como arbitro. Cuando estos conflictos adquieren una dimensión pública, el árbitro acostumbra a ser un juez, que se supone –si no se demuestra lo contrario, que vela por tomar decisiones justas. Ajustarse a los procedimientos es, en estos casos, tan importante como el contenido mismo de las decisiones. Sobre todo, porque en muchos casos, las decisiones posibles pueden ser varias y todas legítimamente aceptables. Cuando estanos en el ámbito del “depende”, asegurar que los procedimientos que se han seguido son adecuados confiere a la decisión una rectitud moral que, si no fuese así, no tendría.

El FBI acudió a un juez para “obligar” a Apple a desarrollar el software; y, siguiendo los procedimientos, Apple ha presentado una apelación a esa decisión. No me extrañaría que el caso llegase hasta el Tribunal Supremo de los Estados Unidos (de momento ya ha llegado a provocar una testificación ante el Congreso), ya que en el trasfondo del caso hay principios básicos de convivencia que deberán ser clarificados. Apple ha esgrimido la Primera y la Quinta enmiendas para pedir que se cambie la decisión de la juez. Pero, mientras esto ocurre –si ocurre-, una vez presentados los argumentos, y entendiendo que todos los implicados actúan movidos por el bien común de la sociedad (aunque su apreciación de cómo se concreta ese bien común pueda ser diferente) los implicados deberán atenerse a lo que los jueces dictaminen.

¿Una previsión de lo que pueda pasar? Me atrevo a aventurar que prevalecerá la seguridad sobre la privacidad, y que la juez se ratificará en su decisión. Eso sí, insistiendo en aquellos aspectos que puedan resultar más conflictivos, como por ejemplo que el software no quede en propiedad del FBI de modo que se asegure que no se puede usar indiscriminadamente en otros casos, sin pasar por el filtro de la decisión judicial.

En todo caso, se resuelva en esta línea o en una línea totalmente opuesta, como enseñamos siempre en nuestro programas, no se trata tanto de acertar con la decisión (en el mundo del “depende” no existe “la” decisión) como de acertar en el proceso por el que esa decisión se toma.