Directo
Ver
La gran paradoja del 21A: un Parlamento más soberanista, una ciudadanía menos independentista

Plaza Pública

Derechos, control y algoritmos

Baltasar Garzón

Son muchos los problemas que hoy acucian a la humanidad, pero el que más se siente ahora es la devastación que el covid-19 está produciendo en todos los rincones del planeta. Pareciera que, como su acción es transversal e indiscriminada, las respuestas deberían ser coordinadas tanto nacional como internacionalmente. No es así. Pero lo que sí parece ser coincidente es la tendencia hacia la ampliación del espectro de la Vigilancia Digital. Nos vigilan, nos controlan, y lo aceptamos porque, dicen, es en beneficio de todos. Y la ciudadanía, atenta a la propia evolución de la pandemia, no es consciente de la limitación de derechos que, soterradamente, se instala en nuestras vidas, con el alto riesgo de que se transforme en algo permanente. Se biodegrada lo privado en beneficio de lo público o, mejor dicho, de lo publicado.

De acuerdo con Helen Nissenbaum, en la era digital en la que vivimos, las regulaciones se han centrado en la información personal, íntima y sensible, presuponiendo que en la esfera pública no existe un ámbito privado que proteger. Sin embargo, debemos considerar que en la actualidad la tecnología de la información y las comunicaciones, al facilitar la vigilancia, al mejorar enormemente la recopilación, almacenamiento y análisis de la información, han alterado el significado de la información pública. Como resultado, –concluye Nissenbaum– una comprensión legal y filosófica del derecho a la privacidad en la actualidad debe también incorporar un grado de protección de la privacidad en público. Es decir, en términos simples, nuestros datos están ahí, es técnicamente fácil acceder a ellos, pero esto no da derecho ni al gobierno ni a las empresas de ejecutarlo sin nuestro consentimiento y sin causa verdaderamente justificada.

En España de momento existe un sistema de control social anonimizado, en vigor hace un mes, cuando se dictó la Orden SND/297/2020, sobre geolocalización. Esta medida estará vigente mientras dure el estado de Alarma. Si esto ya nos pone en alerta con respecto a nuestro derecho a la privacidad, lo más complejo está aún por venir. Tanto España como el resto de los países europeos están preparando una “app” que aumenta el nivel de vigilancia, pero proporciona información que puede ser muy útil para acabar el confinamiento y evitar o reducir la propagación del virus.

Corea del Sur, China y Taiwán, después de los brotes iniciales, atribuyeron los primeros éxitos en el aplanamiento de las curvas de infección al uso de programas de seguimiento. En Singapur, crearon una aplicación llamada TraceTogether, con tecnología Bluetooth que permite rastrear si se ha mantenido la cuarentena y el distanciamiento social. EEUU (con el Instituto Tecnológico de Massachusetts - MIT) y el Reino Unido (con la Universidad de Oxford) están desarrollando una aplicación móvil que rastrea a las personas que podrían haber entrado en contacto con una persona infectada por covid-19. En Europa, pese a las dudas iniciales, sobre todo en Francia y Alemania, se ha venido trabajando en una tecnología que permita el rastreo y proporcione información para evitar la propagación del virus, pero reduciendo los riesgos que naturalmente este tipo de herramientas tiene para la privacidad.

Su nombre es PEPP-PT (Pan-European Privacy-Preserving Proximity Tracing), Rastreo Paneuropeo de Proximidad para Preservar la Privacidad, que ya tiene página web, en la que se explica su funcionamiento. La proximidad entre teléfonos se estima midiendo señales de radio (Bluetooth) utilizando algoritmos. El historial de proximidad social se almacena durante un período de tiempo “epidemiológicamente suficiente”, de manera cifrada, sin geolocalización, ni información personal u otros datos que permitan la identificación del usuario. Nadie puede ver este historial de proximidad anónimo. La alarma saltará cuando uno haya estado en contacto significativo (más de 5 minutos y a menos de 3 metros de distancia), con una persona que haya dado positivo en el test de SARS-CoV-2 (más conocido como covid-19 o coronavirus). De este modo, cuando uno recibe la alerta puede realizarse las pruebas y aislarse hasta tener el resultado, para evitar contagiar a más personas. El historial de proximidad se borraría automáticamente transcurrido el tiempo epidemiológicamente relevante.

A pesar de su nombre y de las medidas para proteger la privacidad, da susto, sobre todo si pensamos en que no es un proyecto de la Unión Europea como tal, sino de un consorcio formado por instituciones, empresas, científicos y expertos en tecnología de Austria, Bélgica, Dinamarca, Francia, Alemania, Italia, Suiza y España. ¿Cómo se financia? En base a donaciones. Indican que en este tema se han adoptado los estándares de la OMS, con el fin de evitar cualquier influencia externa, pero bien sabemos que una empresa por definición busca el lucro y el beneficio. Anuncian que este rastreo digital cumple plenamente con la normativa europea de privacidad y protección de datos, y no lo dudo, así como no dudo tampoco del riesgo que existe porque, una vez entregamos el acceso a nuestros datos, ya no tendremos control sobre ellos. El objetivo es noble, sin duda, pero en este consorcio hay grandes corporaciones telefónicas y no creo que su único interés sea filantrópico. Se trata de un experimento social sin precedentes, cuyos resultados y conclusiones serán aprovechados.

Según se ha informado públicamente, la Secretaría de Estado de Digitalización e Inteligencia Artificial representa a España en este consorcio. Pero una cosa es formar parte de esta iniciativa y otra muy distinta autorizar su uso en el país y sobre las personas. Hasta donde se ha comunicado, en España el debate sobre su uso y el modelo a implementar está en el comité técnico. Existirían dos modelos, uno centralizado y otro descentralizado. En el centralizado las autoridades pueden conocer las identidades del infectado y de quienes han estado en contacto con él. En el descentralizado, la información se mantiene anónima por medio de códigos asignados por la aplicación. Uno es más eficiente y a la vez más invasivo que el otro.

Rendir cuentas

La utilidad de esta medida, si se llega a adoptar, en una modalidad u otra, puede ser innegable, pero sin duda es una intromisión en nuestra privacidad, por lo que debería seguir todos los estándares sobre restricción de derechos para ser compatible con un Estado social y democrático de Derecho que respeta y promueve el respeto a los derechos humanos.

Como este es un tema delicado, tenemos el deber de debatir abiertamente sobre él, sin temor y con altura de miras. Quizás sería oportuno que, en la Comisión correspondiente del Congreso, se rindiera cuentas de esta iniciativa, ahora que está de moda hacer todo en sede parlamentaria, para debatir de manera pública y transparente cuáles deben ser los límites de esa vigilancia. Una iniciativa como esta ayudaría a formar criterio en los responsables políticos y de paso tranquilizaría a la ciudadanía. Y es que la preocupación es real. Un importante grupo de organizaciones de la sociedad civil ha efectuado una Declaración Conjunta en la que advierten que los “Estados deben respetar los derechos humanos al emplear tecnologías de vigilancia digital para combatir la pandemia”.

La era de los algoritmos ha llegado. Ya lo decía hace unos años el filósofo y teórico político Achille Mbembe, cuando afirmaba que "La era del humanismo está terminando". Efectivamente, las aplicaciones devoran nuestros datos y desnudan nuestra intimidad. El Big Data y sus complejos algoritmos descifran en cuestión de segundos nuestros gustos y preferencias para ofrecernos –dicen– “publicidad personalizada”. Sin embargo, en esos “datos” también están nuestras preferencias sociales y políticas, nuestros anhelos y temores, de modo tal que este valioso conocimiento ya está siendo utilizado en política, y no solamente para influir en el voto de quienes aún no tienen clara su preferencia, sino también para desincentivar el voto militante y que este se quede en casa, desilusionado de su candidato, o a la inversa, para estimularlo y que deje el sofá y vaya a votar y hasta se ponga a hacer campaña “espontáneamente” indignado frente al terror que representa la sola posibilidad de que gane la alternativa contraria.

El filósofo surcoreano Byung-Chul Han con toda razón advierte de forma constante que “nos dirigimos a la época de la psicopolítica digital”, que “avanza desde la vigilancia pasiva hacia un control activo”. El problema es que los algoritmos nos llegan a conocer perfectamente, con lo que logran predecir el comportamiento humano, de modo tal que –dice Han– “nuestras acciones futuras se convierten en predecibles y, peor aún, en controlables”, concluyendo que: “El Big Data anuncia el fin de la persona y de la voluntad libre”.

La cuestión no es nueva y viene preocupando a Naciones Unidas desde hace años, hasta el punto de haber emitido la Resolución 68/167 de 2013, en la que se resaltan los riesgos para el derecho a la privacidad. Por su parte, el relator especial sobre el derecho a la privacidad, Joseph Cannataci, ha advertido hace menos de un mes sobre el riesgo que corren algunos Estados de caer en el autoritarismo. Si bien estas técnicas de vigilancia digital pueden ser útiles, la preocupación es que puedan ser objeto de abuso. Una vez establecido el sistema, la posibilidad de abusar de él siempre estará ahí, ha dicho.

Si reducimos el prisma y nos centramos en el espectro jurídico de la Unión Europea, al que pertenecemos, observamos que esta propone, nada más y nada menos, que crear un mercado único de datos, eso sí, con condiciones y requisitos, como el respeto a las normas europeas sobre privacidad y la protección de datos, así como a la libre competencia, de manera que este “mercado” sea atractivo, seguro y dinámico.

¿¡Queda claro!? Nuestros datos son tan valiosos que no solamente sirven para que unos analistas saquen un par de conclusiones, sino que dan para crear y regular todo un mercado europeo en el cual las empresas van a “competir” comprando y vendiendo nuestros “datos”. Los llaman así, genéricamente, “datos”, cuando en realidad allí van buena parte de lo que somos y de lo que nos define como individuos y como sociedad. Y, si esto es así ¿por qué se ha decidido que la propiedad sea de las empresas y no de cada uno de nosotros, que somos realmente los titulares de esos datos? Se dirá que hemos cedido voluntariamente nuestros datos, pero en realidad esta cesión viene impuesta “por defecto” sin que tengamos realmente alternativa de acceder a la tecnología sin renunciar a nuestro derecho a la privacidad. De ahí que debemos abrir un espacio de lucha por el respeto a la propiedad de nuestros datos, con las armas del Derecho y de la justicia, sabiendo de antemano que tenemos la razón, porque incluso en tiempos de pandemia, algoritmos y Big Data, la privacidad es nuestro derecho.

___________

Baltasar Garzón es jurista y presidente de FIBGAR

Más sobre este tema
stats