Suscríbete

Faro de Vigo

Contenido exclusivo para suscriptores digitales

Carmela Troncoso | Profesora e investigadora de la Escuela Politécnica Federal de Lausana (EPFL)

“La app de rastreo hizo su trabajo y desapareció porque ya no es necesaria”

“El problema de la tecnología no es tanto la privacidad, sino quién y cómo controla la infraestructura”

La investigadora viguesa Carmela Troncoso. ALAIN HERZOG

Desde su laboratorio de seguridad y privacidad en Lausana, la investigadora viguesa ayuda a instituciones humanitarias como la Cruz Roja o a los periodistas que analizan los Papeles de Panamá a beneficiarse de la digitalización “sin incrementar sus riesgos”. En 2020 lideró el equipo de 30 científicos que desarrolló el protocolo descentralizado DP-3T para el rastreo de contactos COVID garantizando la privacidad de los usuarios y que se utilizó en varios países europeos: “La app hizo su trabajo y desapareció porque ya no es necesaria. Es lo que se espera de una tecnología creada para un momento de urgencia”.

–Desde la perspectiva actual, ¿cómo valora el esfuerzo tecnológico desplegado frente a la pandemia?

–Hay dos grandes lecciones. De todas las tecnologías basadas en machine learning y en datos casi nada o nada funcionó. Pero las apps hicieron lo que tenían que hacer.. Funcionaron menos de lo que hubiese gustado por su nivel de penetración, pero los estudios demuestran que hicieron sus trabajo. Nosotros hicimos mucho esfuerzo en que esta tecnología no supusiera un cambio de ningún tipo y se consiguió. Y lo más importante es que no la hicimos para quedarse, para crear después una nueva plataforma y crecer y crecer. En Alemania, tuvo mucho fuerza la app centralizada Luca que, poco a poco, se ha ido convirtiendo en una plataforma para hacer negocio y a través de la que puedes reservar tickets. La nuestra fue una creación para un momento y los países la han desconectado porque ya no es necesaria. Y no se rehace ni se utilizan los datos para otra cosa. No.

–Son las personas que están detrás de la tecnología las que marcan la diferencia.

–Para mí esto es importante en todos los casos, pero especialmente cuando son tecnologías que vienen impuestas desde los gobiernos como las apps de rastreo. Deberían estar limitadas desde el principio, pero normalmente la tecnología es desarrollada en el sector privado, en un ámbito comercial.

–¿Qué influyó más en su baja penetración, la falta de costumbre, el miedo a perder la privacidad..?

–Hubo distintas razones y una de ellas fue ese miedo. Es normal tenerlo porque es difícil entender la tecnología. Lo que dicen los estudios es que fue la falta de penetración lo que tuvo más impacto en que no funcionasen mejor.

Carmela Troncoso. LA OPINION

–En cuanto empezó la pandemia, su grupo se centró en la app. ¿Qué enseñanzas ha sacado del trabajo de los dos últimos años para su investigación?

–La experiencia de entender las restricciones del mundo real es muy importante. Y hacer estas apps resulta muy, muy complicado porque tienes muchísimas dependencias. En este caso, la más clara, de Google y Apple. Utilizar los servicios y las plataformas que las grandes tecnológicas nos ofrecen es muy fácil, pero entonces ya no tienes elección. Generas tus aplicaciones como ellos te dicen. Y esto no solo es importante desde el punto de vista de la privacidad, sino también del poder enorme que tienen estas compañías a la hora de decidir cómo vamos a evolucionar. Si la tecnología va a ser lo que medie nuestra vida y ellas van a decidir cómo funciona, nos queda muy poco espacio para movernos. Por eso trabajo generalmente con ONG. Nos dejan más espacio para crear cosas con más garantías porque su objetivo no es vender ni ganar un poder, sino ayudar.

–¿Es consciente la sociedad de que Facebook o Google pretenden diseñar nuestro futuro a su antojo?

–Cada vez más. El problema no es tanto la privacidad, sino quién controla la infraestructura y cómo. Pero estamos muy al principio de esta discusión. En este sentido, el debate sobre la centralización o no de las apps de rastreo fue una conversación sobre cómo construimos la tecnología y dejó sus influencias No hubo ninguna duda de que los certificados de vacunación debían ser descentralizados. Es difícil para la gente entender esta problemática, porque lo más práctico y cómodo es utilizar los servicios que te prestan las tecnológicas. Pero cada vez entran en más ámbitos de la vida. Google y Apple acaban de anunciar que van a permitir en EE UU reservar tu cita del médico a través de ellos. Es muy cómodo, pero ¿qué va a pasar después?. Puede que el algoritmo que ellos desarrollen para que los médicos optimicen su agenda no sea socialmente aceptable. El principal objetivo de las compañías es ganar mercado o poder, no el beneficio social.

"Trabajamos con el Comité Internacional de Cruz Roja para utilizar la biometría en los repartos de bienes o comida sin desventajas para los refugiados"

–¿En qué proyectos trabaja actualmente?

–Estamos trabajando con el Comité Internacional de Cruz Roja para utilizar la biometría sin desventajas. El sector humanitario tiene muchísima presión de sus inversores o grandes altruistas para digitalizarse, porque entienden que serán más eficientes. Pero las tecnologías tienen su parte oscura, pueden aumentar la productividad pero también los riesgos. Y las ONG se deben a sus beneficiarios, que son los más vulnerables, refugiados y gente perseguida por sus propios gobiernos. Los inversores quieren utilizar la biometría en los repartos de bienes o comida para evitar el fraude. El problema es que estas bases de datos son muy peligrosas porque la gente no puede cambiar su cara. De hecho, cuando los talibanes volvieron a tomar el control de Afganistán buscaron las fotos de los refugiados. Estamos creando para Cruz Roja un sistema en el que aplicamos el concepto de descentralización para que no exista un registro central de esos datos biométricos. Nunca sabes dónde puede acabar y el daño que puede hacer.

También estamos haciendo un estudio para demostrar que el aprendizaje federado que empujan compañías como Google no implica mayor privacidad. Ahora todas las tecnológicas hacen cosas privacy-preserving que a lo mejor no son lo que queremos. E hicimos un proyecto similar con los datos sintéticos, otro gran hype ahora mismo. Esa magia que venden muchas empresas de que todo es privado y puedes hacer lo mismo no es vedad.

–Pero poner estas etiquetas engaña a los usuarios.

–Trabajamos mucho con agencias de protección de datos para explicar que estas nuevas tecnologías no van a solucionar todos los problemas. Y tenemos que empezar a pensar más allá de la privacidad. En mis clases de máster utilizo el ejemplo de Cambridge Analytica. Con los datos personales de Facebook hizo un modelo que le permitió enviar anuncios ajustados a la gente para influir en su voto. Para un cristiano los centraba en el aborto y si vivía en Silicon Valley y estaba relacionado con la tecnología, en los impuestos. Y no solo acabaron influyendo en las elecciones de 2016, sino también en el asalto al Capitolio del país más importante del mundo. La pregunta es si todo esto nos parecería bien si lo hubiese hecho sin ver un solo dato. La tecnología que nos permite hacer el mismo daño preservando la privacidad no se convierte en buena. Y esto tiene que ir calando. No solo son los datos, sino también quién tiene el poder, la infraestructura y la capacidad de modificar nuestros actos con anuncios o decidiendo quién puede pedir una cita médica y cuándo.

“Ayudamos a los periodistas de los ‘Panama Papers’ a investigar sin riesgos”

–También colaboran con el consorcio internacional de periodistas que investiga los Papeles de Panamá.

–Los Panama Papers o los FinCEN Files se basan en documentación filtrada. Antes llegaba en cajas de papeles, ahora en un usb, un cd o un fichero que te pasan por internet. Y esto cambia la manera en la que los periodistas hacen investigación. Utilizan su propio programa para explorarlos y pensaron que sería muy útil una herramienta que les permitiese buscar en los documentos de otra gente, porque es muy común que los casos de corrupción estén conectados. Al final, no hay tantos ricos. Y hemos creado un sistema que les permite buscar información en colecciones de otros sin riesgo. Esto es muy importante porque lo que buscas dice mucho de tu investigación. Conocer algunos nombres implica haber tenido un acceso a documentos que puede suponer acabar en la cárcel. Es una cuestión de seguridad física, tanto para ellos como para sus fuentes. Lo hicimos justo antes de la pandemia y ahora estamos terminando la implementación y esperamos que esté disponible en verano porque ellos son los que nos mantienen informados y hacen que todas estas élites rindan cuentas.

–Por el trabajo desarrollado durante la pandemia, Fortune la incluyó en 2020 entre las 40 personas más influyentes del mundo y recientemente ganaba uno de los premios Future a las 50 personas claves en la tecnología actual. ¿Servirá su ejemplo de inspiración a las nuevas generaciones y de impulso para que más mujeres estudien carreras de ingeniería?

–Espero que sí. Para mí lo más destacable es que se reconozca otro tipo de contribución, más allá de la creación de valor económico que a lo mejor no tiene ni impacto social ni beneficio para nadie. En la lista 40under40 casi todos eran CEO o fundadores de una start-up, por eso considero tan importante que se valore otro tipo de contribución social en lugar de ser más rico o tener más influencia. Y desde el punto de vista de las mujeres es importante que se den cuenta de que, aunque hay un techo complicado, se pueden hacer cosas. No hay nada que te lo impida. Poco a poco esto tiene que cambiar.

Compartir el artículo

stats