Saltar al contenido principalSaltar al pie de página

Entrevista | Fernando Suárez Presidente del Colexio Profesional de Enxeñaría en Informática de Galicia (CPEIG)

«El mayor riesgo ya no es la filtración de datos, sino la pérdida de soberanía del ciudadano sobre su información personal»

«Es necesario avanzar hacia un nuevo marco de derechos digitales adaptado a la nueva realidad. Hablamos de saber si interactuamos con una IA, a conocer si una decisión ha sido tomada por un sistema automatizado y a oponerse al uso de nuestros datos personales para entrenar modelos de inteligencia artificial»

Fernando Suárez, presidente del Colexio Profesional de Enxeñaría en Informática de Galicia .

Fernando Suárez, presidente del Colexio Profesional de Enxeñaría en Informática de Galicia . / FdV

Vigo

En un entorno cada vez más automatizado y gobernado por sistemas de inteligencia artificial (IA) generativa, cada vez es más complicado mantener el control efectivo de los datos personales. Con motivo del Día Europeo de la Protección de Datos, que se conmemora el 28 de enero, el Colexio Profesional de Enxeñaría en Informática de Galicia (CPEIG) insiste en la necesidad de concienciar y educar a la población sobre la privacidad y sus derechos digitales. Según este organismo colegiado, las novedades en protección de datos se centran en la IA, la vigilancia laboral biométrica y el consentimiento explícito.

La Agencia Española de Protección de Datos (AEPD) alerta sobre los riesgos de la IA, prohíbe el consentimiento tácito y protege la privacidad de menores y personas vulnerables, buscando compatibilizar la IA con el Reglamento General de Protección de Datos (RGPD), introduciendo nuevos derechos digitales, obligaciones para las empresas y auditorías periódicas. Preocupan especialmente herramientas de salud como ChatGPT Health, lanzada por OpenAI, que permite conectar historiales médicos y apps como Apple Health para ofrecer respuestas personalizadas; y Grok Imagine, generador de imágenes con “modo picante” que produce contenido adulto, incluido en Grok, asistente de IA de xAI (Elon Musk) en X (antes Twitter).

-¿Cuál cree que será el mayor desafío en protección de datos en los próximos cinco años?

-El principal desafío será mantener el control efectivo de los datos personales en un entorno cada vez más automatizado y gobernado por sistemas de inteligencia artificial. Estamos pasando de un uso puntual de datos a modelos que los combinan, los reinterpretan y extraen conclusiones sobre las personas. El riesgo no es solo la filtración, sino la pérdida de soberanía del ciudadano sobre su información, especialmente en ámbitos críticos como la salud, el empleo o la reputación digital. El reto estará en garantizar que la innovación avance sin normalizar prácticas invasivas.

-¿Estamos perdiendo el control de nuestros datos?

- Sí, estamos perdiendo parcialmente el control de nuestros datos, pero aún estamos a tiempo de recuperarlo. Lo preocupante no es solo la cantidad de datos que cedemos, sino la velocidad y la falta de conciencia con la que lo hacemos. Hoy nuestros datos no solo se almacenan: se combinan, se analizan y se utilizan para inferir comportamientos, decisiones o incluso rasgos personales mediante sistemas de inteligencia artificial. Ahora bien, no todo está perdido. Europa ha demostrado que es posible reaccionar, con marcos como el Reglamento General de Protección de Datos y con nuevas iniciativas regulatorias en torno a la IA. Pero para recuperar ese control hacen falta tres cosas: normas claras y exigentes, tecnologías diseñadas con privacidad desde el origen y una ciudadanía formada y crítica. La protección de datos ya no es solo un asunto legal o técnico; es una cuestión democrática. Recuperar el control es posible, pero exige un compromiso colectivo: de las instituciones, de las empresas tecnológicas y también de los propios ciudadanos.

-¿Qué papel deben jugar las escuelas y universidades en la educación sobre privacidad digital?

-Un papel central, estructural y continuado en el tiempo. La educación en privacidad no puede limitarse a charlas puntuales, sino integrarse en el currículo como una competencia básica. En las etapas tempranas es clave enseñar a identificar riesgos y a tomar decisiones informadas, mientras que en la universidad debe incorporarse una visión más profunda sobre ética, derecho digital y responsabilidad en el diseño tecnológico. Formar usuarios críticos hoy es prevenir problemas sociales y legales mañana.

«La identidad digital se protege con conciencia, pero también exigiendo responsabilidades a las plataformas»

-¿Cómo puede una persona saber realmente si está cediendo sus datos de forma consciente?

-Hoy en día, en muchos casos, no puede saberlo con claridad, y ese es uno de los grandes fallos del sistema actual. Los mecanismos de consentimiento suelen ser complejos, poco transparentes o incluso diseñados para inducir a aceptar sin leer. Ceder datos de forma consciente implica comprender qué se cede, para qué y durante cuánto tiempo, algo que debería ser sencillo y accesible. Por eso es imprescindible avanzar hacia modelos de consentimiento real, informado y verificable, no meramente formal.

-¿Qué riesgos existen para menores y colectivos vulnerables en el uso de plataformas digitales?

-Los riesgos son especialmente elevados: exposición de datos sensibles, explotación de la imagen, perfilado automático o manipulación de comportamientos. En el caso de los menores, se suma una menor capacidad para comprender las consecuencias a largo plazo de sus actos digitales. Además, muchas plataformas tratan los datos de estos colectivos como un recurso más, sin medidas de protección reforzadas. Por eso es fundamental aplicar el principio de protección por defecto y por diseño, y extremar la vigilancia en estos casos.

-¿Cómo puede el ciudadano proteger mejor su identidad digital?

-La protección de la identidad digital empieza por la conciencia. Saber que cada publicación, cada permiso y cada registro construyen una huella permanente. A partir de ahí, es importante adoptar medidas básicas pero eficaces: contraseñas seguras, doble autenticación, revisión de configuraciones de privacidad y un uso prudente de redes sociales. Pero también es clave exigir responsabilidades a las plataformas y no asumir que la protección es solo un problema individual.

-¿Considera que el RGPD es suficiente para regular los nuevos usos de la IA?

-El RGPD ha sido y sigue siendo un referente internacional, y muchas legislaciones fuera de Europa se han inspirado en él. Sin embargo, fue concebido en un contexto previo a la explosión de la IA generativa y de los modelos masivos de datos. Es una base sólida, pero no suficiente por sí sola para regular sistemas que aprenden, infieren y toman decisiones. De ahí la necesidad de complementarlo con normativas específicas y con una interpretación evolutiva de los derechos digitales.

«La educación en privacidad debe ser una competencia básica, no una charla puntual»

-¿Qué nuevos derechos digitales deberían reconocerse ante el avance de la IA?

-Es necesario avanzar hacia un nuevo marco de derechos digitales adaptado a esta realidad. Hablamos del derecho a saber si interactuamos con una IA, a conocer si una decisión ha sido tomada por un sistema automatizado y a oponerse al uso de nuestros datos personales para entrenar modelos de inteligencia artificial. Además, ante el desarrollo de tecnologías capaces de interpretar o influir en la actividad cerebral, cobra especial relevancia el reconocimiento de los neuroderechos, impulsados por el neurocientífico Rafael Yuste, que buscan proteger la privacidad mental, la identidad personal y la libertad cognitiva. Estos derechos serán esenciales para evitar que el avance tecnológico invada el último espacio verdaderamente íntimo del ser humano: la mente. La innovación no puede avanzar a costa de diluir derechos fundamentales; debe hacerlo reforzándolos y adaptándolos a los nuevos escenarios tecnológicos.

-La Comisión Europea anunció la reforma del Reglamento General de Protección de Datos. ¿Cómo afectaría la reducción de obligaciones a la seguridad real de los datos personales?

-La simplificación normativa puede ser positiva para reducir cargas administrativas, pero entraña riesgos si se traduce en una relajación de las garantías. Menos controles, menos auditorías o menos transparencia pueden generar una falsa sensación de seguridad. En un contexto donde los datos se reutilizan masivamente, especialmente para entrenar IA, la reducción de obligaciones debe ir acompañada de mecanismos de supervisión más eficaces, no más débiles.

Suscríbete para seguir leyendo

Tracking Pixel Contents