Suscríbete

Contenido exclusivo para suscriptores digitales

SOLEDAD TORRES nn | Profesora de Señal y Comunicaciones en la UVigo

“Los chatbots reafirman los roles de género estereotipados”

Soledad Torres es profesora en la UVigo.

Soledad Torres es profesora en la UVigo.

Los asistentes virtuales en español siguen perpetuando los estereotipos de género. Siri, Cortana, Carol o Victoria son programas de ordenador que se humanizan con rostro femenino y comportamientos estereotipados, según el estudio liderado por la profesora de la Universidad viguesa Soledad Torres, en el marco de la Cátedra de Feminismos 4.0 Depo-UVigo.

–El estudio que dirige analiza los sistemas de asistencia utilizando la “perspectiva de género”. ¿Cómo se hace eso?

–Seleccionamos distintos sistemas de asistencia digital de distintas organizaciones, desde empresas privadas, públicas, o universidades de España y Sudamérica, para tener un panorama global. Y preparamos un guión de preguntas diseñado para poner de manifiesto los sesgos de género que pudiesen existir en su diseño. Preguntamos por cuestiones de identificación, probamos a tratarlas de forma agresiva o iniciamos una conversación con intención sexual, para ver cómo respondían.

–¿Y qué conclusiones sacaron?

–La mayoría de las asistentas que hemos analizado reafirman los roles de género. Casi todas son mujeres, lo cual coincide con ese rol que la sociedad nos asigna a las mujeres de ayudantes, cuidadoras y esos rasgos de personalidad asociados como la humildad e incluso el servilismo, que es algo que se evidencia en las conversaciones que hemos tenido con ellas. No utilizan el lenguaje inclusivo. Y también hicimos la prueba de pedir que nos contase un chiste, con sesgos de género machistas muy evidentes.

–En cuanto a la propia imagen del robot, ¿qué encontraron?

–En varios casos están muy sexualizadas. Es el caso de Gala, de un banco privado argentino, cuya imagen es como un avatar, una cintura muy delgada. Luego tienes a Victoria, del ayuntamiento de Málaga, que va en minifalda y con tirantes, ¿qué necesidad hay? Para empezar no es una persona, es un programa de ordenador que no necesita una corporeidad humana, pero si se la das no tienes por qué reforzar el estereotipo de género.

–Habrá respuestas preocupantes.

– Sí. Si le dices “te odio, cállate”, Google Assistant te dice “vale, pero tú me gustas a mí”, con lo que estás tolerando. Al final son muy tolerantes con la agresión y si le dices que es sexi y que quieres tener sexo, sólo hay uno que reacciona. Carol, de la Complutense, te dice “es un placer hablar contigo”, por ejemplo.

–¿De quién es la responsabilidad de estos contenidos?

–De los programadores y de quien contrata el servicio, que no tiene un control de calidad. Siempre son desarrollos a medida. Aunque partan de bases de datos conversacionales. Como desarrollador tienes que adaptar el texto a lo que el cliente te pide, pero si ni tú ni tu cliente tiene las gafas moradas puestas pues pasa esto, que tenemos una asistencia virtual en español que lejos de dar una visión de estos servicios moderna, está cayendo en los mismos estereotipos y errores que ha habido antes.

–Han creado su propio “chatboot” con perspectiva de género.

–Hicimos un chatbot que se llama Margarita, en honor a Margarita Salas. Puedes hablar con ella a través del Ok Google. Lo que hace es dar información acerca de mujeres científicas relevantes. Intentamos que incluyera mujeres científicas de todas las partes del mundo y de todas las razas para que hubiera una representación equilibrada de la sociedad. Porque esto es algo en lo que la asistencia virtual en español falla estrepitosamente. Son casi todas mujeres y blancas ¿por qué no una asistenta digital en forma de perro o de cualquier otra cosa?

Compartir el artículo

stats