Ingenieros de la UVigo desarrollan un sistema para la detección de imágenes creadas con IA

Investigadores de atlanTTic, el centro de tecnologías de la telecomunicación, combinan dos métodos para distinguir las fotografías reales de las artificiales y consiguen una precisión superior al 95%

Tres mascotas creadas por Inteligencia Artificial.

Tres mascotas creadas por Inteligencia Artificial. / FDV

Sandra Penelas

Sandra Penelas

La imposibilidad de distinguir las imágenes creadas de las reales es una de las amenazas que plantea la inteligencia artificial a la sociedad actual. Los rápidos avances tecnológicos en este campo constituyen todo un reto para los investigadores, pero un grupo de ingenieros del centro atlanTTic ha desarrollado un sistema basado en redes neuronales, uno de los métodos de la inteligencia artificial, para distinguir las fotografías reales de las que han sido generadas. Y lo han conseguido con una precisión superior al 95%.

“Los programas que permiten generar imágenes a partir de texto ya han empezado a funcionar bastante bien y además de forma rápida. Es un tema muy candente, así que surgió la pregunta de si existiría alguna manera, utilizando la propia IA, de distinguir una fotografía real de una imagen creada por nosotros mismos con aplicaciones como DALL E, Stable Difussion o OpenArt. Ya llevamos un tiempo trabajando con redes neuronales y sistemas de IA que distinguen imágenes en otros temas y surgió la idea de aprovechar esta experiencia”, explica Fernando Martín, del grupo de Dispositivos de Alta Frecuencia y autor del trabajo junto con su compañera y coordinadora del equipo, Mónica Fernández, y también con Rocío García, contratada dentro del programa de empleo juvenil Investigo.

  • Entrenamiento con más de un millar de imágenes

    El sistema de detección fue entrenado con más de un millar de imágenes reales y ficticias como las de estas tres mascotas, que fueron generadas con aplicaciones de IA a partir del mensaje “foto realista,retrato de un perro en una biblioteca”. Los investigadores también crearon una demostración de su programa (a la derecha). El usuario carga la imagen, en este caso, se trata de una foto real, elige qué técnica utilizar o aplicar las dos de forma combinda y obtiene una respuesta automática.

Martín y Fernández, que pertenecen a la Escuela de Ingeniería de Telecomunicaciones, ya cuentan con trabajos previos sobre la huella dactilar que permite identificar el origen de fotografías y vídeos reales. Y al aplicar esta técnica denominada falta de uniformidad de la fotorespuesta (PRNU) a las imágenes creadas por Inteligencia Artificial descubrieron que también se podían obtener resultados interesantes.

Todas las fotos digitales presentan ciertas imperfecciones, prácticamente imperceptibles para el ojo humano, pero que son únicas y que permiten relacionarlas con la cámara con la que fueron realizadas, ya que cada una, incluso las del mismo modelo, generan un patrón diferente.

“Realmente, la huella es el error que comete el sensor de la cámara debido a imperfecciones en la fabricación y la calculamos a partir de la imagen. En el caso de las generadas con inteligencia artificial, en un principio, creíamos que no encontraríamos esos errores. Pero sí existen. Siempre obtenemos un resultado. Probablemente, porque las aplicaciones han sido entrenadas con fotografías reales. De alguna manera, son herederas de esas imágenes. Lo que ocurre es que en lugar de una cámara de origen existen cientos o incluso miles y están mezcladas”, detalla Fernando Martín.

Los investigadores también comprobaron la efectividad de una segunda técnica, el análisis del nivel de error (ELA), cuya aplicación inicial era detectar la edición o manipulación en sistemas de imagen forense. En el caso de imágenes reales permite determinar qué partes se han alterado y, en el de las generadas por IA, advierte de que han sido completamente editadas.

“Llegamos a la conclusión de que los dos tipos de huella funcionan y dan buen resultado. Pero la opción que recomendamos es utilizar las dos, como un doble control. Si cualquiera de ellas determina que una imágenes sintética es muy probable que lo sea. Sin embargo, hay cierto porcentaje de error cuando el resultado es negativo y esto se reduce en gran medida al utilizar las dos de forma conjunta”, destaca el investigador.

Los autores del trabajo, que ha sido publicado en la revista Sensors, utilizaron más de un millar de imágenes reales y creadas con inteligencia artificial para entrenar su sistema de redes neuronales convolucionales. Y además de toda la experiencia previa también utilizaron la estructura desarrollada por Rocío García, ingeniería química de formación, para un método de ayuda al diagnóstico a partir de mamografías. “Las clasifica como sospechosas antes de que las estudie el radiólogo y era la que mejor nos funcionaba en este caso”, apunta Martín.

“Ya existen sistemas para detectar deepfakes, que permiten poner el rostro de alguien a otra persona con intenciones nada inocentes. El nuestro funciona con imágenes que son 100% sintéticas. Prácticamente aparecen nuevas aplicaciones cada día y es muy probable que también sea efectivo con ellas porque todas son parecidas, pero también podría no hacerlo”, añade sobre sus limitaciones y la complejidad que supone estar al día en este ámbito tecnológico.

También funcionan ya otros métodos para la detección de imágenes creadas íntegramente por IA y en las que nada es real, pero el desarrollado por los expertos del centro atlanTTic constituye un prometedor candidato para poder dar lugar a una solución comercial: “Existe incluso una página web a la que puedes subir imágenes y después te pregunta si ha acertado porque esto le permite enriquecer su base de datos y reentrenar el sistema. Que es lo que habría que seguir haciendo con el nuestro si diese el salto”.

Suscríbete para seguir leyendo