Síguenos en redes sociales:

ChatGPT esgrime evidencias frente a los bulos sobre las vacunas del coronavirus

Un estudio liderado por los gallegos Antonio Salas y Federico Martinón valora la inteligencia artificial como herramienta contra las falsas creencias

ChatGPT esgrime evidencias frente a los bulos sobre las vacunas del coronavirus

La inteligencia artificial responde de forma casi inmediata y con los postulados de la evidencia científica cuando se le pregunta por cuestiones relacionadas con las vacunas contra el COVID, desmintiendo los múltiples mitos que en torno a la seguridad sobre su uso se han difundido desde el inicio de la pandemia.

Al menos eso es lo que se desprende de un estudio liderado por el Grupo de Genética de Poblaciones en Biomedicina (GenPoB) y el Grupo de Investigación en Genética, Vacunas y Enfermedades Infecciosas (GenVip) con investigadores de la USC, el Instituto de Salud Investigaciones de Santiago (IDIS) y el Hospital Clínico Universitario de Santiago (CHUS), y que acaba de ser publicado en la revista Human Vaccines and Immunotherapeutics.

Liderados por los profesores de la USC Antonio Salas y Federico Martinón, los investigadores plantearon al popular chatbot de inteligencia artificial ChatGPT las 50 preguntas más frecuentes sobre la vacuna contra el covid, basándose en la web desarrollada durante la pandemia por el Centro Colaborador de la OMS en Seguridad de las Vacunas en Santiago de www.covid19infovaccines.com ). Estas preguntas incluían consultas basadas en mitos e historias falsas, como la que atribuye el desarrollo del COVID persistente a la vacuna.

El análisis de la veracidad de las respuestas le otorga una puntuación media de 9 sobre 10 y señala que, en el resto de los casos, la herramienta también ofreció datos correctos, a pesar de dejar algunas lagunas en la información aportada, por lo que ambos investigadores consideran que es “una fuente confiable de información no técnica para el público”, si bien admiten que en algunas situaciones puede llegar a cambiar sus respuestas.

Partiendo de la base de que la inteligencia artificial ya es una realidad, con sus ventajas y desventajas, el autor principal de este estudio, Antonio Salas, asegura en conversación con este periódico que “en general, ChatGPT te va a responder basándose en la evidencia científica disponible, desmintiendo los mitos que circulan en las redes sociales incluso aunque tú le preguntes con una afirmación, aunque fuerces la pregunta hacia la afirmación que buscas, te va a llevar por el camino que se alinea con la evidencia científica”.

Y lo hace de forma prácticamente inmediata, algo que considera “interesante porque te conduce con inmediatez en la dirección apropiada frente a otras herramientas como los buscadores, en los que la información es mucho más heterogénea y es el usuario el que tiene que distinguir entre bulo y realidad”.

Entre esas ventajas, destaca además que la inteligencia artificial en este caso utiliza un lenguaje no demasiado técnico, “fácilmente comprensible para el público” y sin perder rigor científico, con el añadido de que “cuando le haces una pregunta también te redirige hacia las fuentes originales, te aporta referencias que tú puedes consultar”. E insiste en que “cuando tú le haces una consulta sobre un tema que está sometido a la desinformación, no retroalimenta esos bulos, te da una información mucho más certera, y a la vez más sencilla”. “Para mí tiene mucho valor esa inmediatez que te aporta y la certeza que te da”, resalta.

Respecto a algunas de las falsas creencias difundidas en relación con el uso de las vacunas contra el covid, menciona por ejemplo el bulo de que de esta forma el virus se integraba en el genoma, cuando “no solo no es el caso, sino que cumple su efecto estimulando el sistema inmune y después desaparece, o como que sean las causantes del covid persistente porque la evidencia científica sobre eso no existe”.

Entiende que “puede haber mucha gente que de forma legítima sienta miedo a las novedades, pero un bulo con cierto impacto social puede causar mucho daño”, como sucedió durante la pandemia, cuando la desinformación en redes sociales contribuyó a desconfiar de la vacunación, y la OMS ya había alertado en el año 2019 sobre la vacilación ante las vacunas como una de las diez principales amenazas para la salud mundial.

El estudio ahora publicado se llevó a cabo en el Centro Colaborador de la OMS en Seguridad de Vacunas en Santiago, coordinado desde el CHUS por el profesor Federico Martinón. Los investigadores del centro exploraron los mitos sobre la seguridad de las vacunas y sobre aquellas situaciones médicas falsamente consideradas como motivo para no vacunar, factores que han contribuido a generar dudas sobre el proceso de vacunación.

Consistió en probar la capacidad de ChatGPT para obtener datos correctos y compartir información precisa sobre la seguridad de la vacuna contra el covid de acuerdo con la evidencia científica existente. Esta tecnología permite tener conversaciones e interacciones similares a las humanas con un asistente virtual. La herramienta es muy fácil de usar, lo que la hace accesible a una amplia población, pero genera dudas entre muchos gobiernos, preocupados por la posibilidad de que se utilice de manera fraudulenta en entornos educativos como las universidades.

Pulsa para ver más contenido para ti