Entrevista | Carmela Troncoso Profesora e investigadora de la Escuela Politécnica Federal de Lausana (EPFL)

“La privacidad no es minimizar los datos, sino poner límites a la funcionalidad”

“Si las grandes empresas no ven nuestros datos pero tienen la misma capacidad de predicción, ¿hemos ganado algo? Tenemos que dar un paso atrás y pensar qué tecnologías queremos”

Carmela Troncoso, ayer, en el edificio Redeiras de O Berbés.

Carmela Troncoso, ayer, en el edificio Redeiras de O Berbés. / Ricardo Grobas

Sandra Penelas

Sandra Penelas

La ingeniera viguesa es uno de los muchos talentos formados en el campus que triunfan en el ámbito internacional. Carmela Troncoso lidera en la prestigiosa Escuela Politécnica Federal de Lausana un grupo especializado en la seguridad y la privacidad tecnológica. Ayer participó en los “Faladoiros no Berbés” de la UVigo acompañada por el catedrático de Telecomunicación e investigador de atlanTTic Fernando Pérez.

–Su charla aborda la ingeniería de la privacidad, ¿con qué enfoque?

–Hablaré de cuál es su objetivo y del peligro que supone hablar de privacidad sin solucionar los problemas reales. En inglés, se utiliza el término privacy washing. Es algo que vemos mucho ahora cuando grandes empresas como Google o Apple dicen que la privacidad es lo primero, pero al final no cambian su modelo de negocio. Aunque recojan todos nuestros datos de manera privada, siguen creando los mismos modelos de personalización. Siempre doy el ejemplo de Cambridge Analytica. Cogieron unos datos de Facebook para hacer una publicidad personalizada y lograr que la gente cambiase su voto. Si ahora esta empresa utilizase las últimas tecnologías como differential privacy, aprendizaje federado o dominio cifrado para no ver los datos, tendría un modelo con la misma capacidad de predicción. ¿Hemos ganado algo? La privacidad nunca es el objetivo, siempre es un medio para ellas.

Hace unos meses volví a la Declaración Universal de Derechos Humanos y el artículo 12, que es el del derecho a la privacidad, dice que todos tenemos derecho a no tener interferencias en nuestra vida privada, pero no menciona nada de confidencialidad ni de que no vean nuestros datos. A lo que tenemos derecho es a ser independientes y libres, a tener una vida sin manipulación. Y esto lo hemos perdido un poco en la tecnología. Tenemos que dar un paso atrás y pensar qué tipo de tecnologías digitales queremos. Nuestra aplicación para la trazabilidad de contactos Covid iba más allá. No solo no había datos, sino que la manera de recogerlos no permite hacer nada más. Por su propio diseño, la funcionalidad está limitada. La privacidad, o lo que debería ser, no es minimizar los datos, sino limitar la funcionalidad. Que las aplicaciones no permitan reutilizar o hacer algo que como sociedad no queremos que ocurra. Ahora estamos teniendo una gran discusión sobre el Chat control y la ley que quiere aprobar la UE para escanear los teléfonos de la gente y ver si contienen material pornográfico infantil. No hay datos, pero sí una capacidad de control y manipulación. Hay cosas que simplemente no son buenas, aunque sean privacy preserving technologies.

–Un ejemplo de lo difícil que resulta legislar en estos ámbitos.

–Mucha parte de la ley se centra en esta parte de no recoger datos o de recoger menos. Pero la conversación debería ser un poco distinta. Nuestra aplicación de trazabilidad de contactos Covid es un ejemplo de que se puede permitir una funcionalidad limitándola de tal manera que esa tecnología se pueda desplegar con muy poco riesgo para los usuarios y para la sociedad.

–Su grupo también ha trabajado con el Comité Internacional de Cruz Roja para utilizar la biometría en los repartos de ayuda y con el consorcio internacional de periodistas que investigó los Papeles de Panamá.

–Seguimos colaborando con la Cruz Roja y tenemos algún otro trabajo con periodistas para que entiendan mejor los riesgos en el mundo digital. Especialmente, los periodistas de investigación porque tienen que hablar con muchas fuentes. Y también tenemos otra línea relacionada con machine learning y las nuevas tecnologías que vienen con el halo de que pueden hacerlo de forma privada, con datos sintéticos o aprendizaje descentralizado. Es una promesa fantástica, tienes una tabla de un hospital sin nombres ni edades reales, pero te permite obtener las mismas inferencias y que el sistema aprenda lo mismo que si fuesen datos reales. Hemos demostrado que lo que se utilizan son las propiedades estadísticas y, si se mantienen, puedes seguir haciendo lo mismo. Los usos malos están dentro de todos los usos posibles. Volvemos a lo mismo, o hacemos una restricción de la utilización para que estos datos sintéticos solo te permitan hacer cosas limitadas o serán lo mismo para todo.

–Desde luego, como ciudadanos estamos indefensos sin grupos como el suyo que visibilicen estas malas prácticas.

–Además de nuestro trabajo académico intentamos hacer mucha divulgación. También hacia quienes diseñan las políticas para explicarles que las soluciones que les venden las grandes compañías no lo son. Cuando las analizas con una visión crítica desde el punto de vista de la seguridad y la privacidad no hacen lo que deberían. Entiendo que es muy difícil porque hay mucha presión económica. Pero la gente debe aceptar que no lo podemos tener todo . Y elegir. Si queremos movernos muy rápido y abrazar desarrollos tecnológicos tan buenos económicamente no vamos a tener las mismas garantías ni protección contra las interferencias. A lo mejor es adonde queremos ir como sociedad y preferimos la economía a la libertad, pero de momento no podemos hacer las dos cosas a la vez.

–Y la IA viene a complicar más la ecuación.

–Es más de lo mismo. Se trabaja en legislación para prevenir los riesgos pero la realidad es que no tenemos tecnológicamente soluciones para eso. No podemos ir tan rápido. Es como el escaneado de móviles, no hay una máquina para eso. Nuestra casa se ha expandido al mundo digital y si queremos mantener la protección que teníamos pues a lo mejor tenemos que asumir ciertos riesgos. O ponemos una cámara en todas nuestras casas o tenemos casas privadas. No podemos tener las dos cosas.

–Acaba de celebrarse la ABAU, ¿animaría a estudiar Ingeniería de Telecomunicación para especializarse en estos ámbitos?

–Si les gusta, sí. Lo importante es hacer cosas que te gusten porque vas a estar mucho tiempo trabajando.

Suscríbete para seguir leyendo