Saltar al contenido principalSaltar al pie de página

Francisco Bellas advierte a los docentes de que no usen la IA para evaluar trabajos o poner nota: «Es ilegal»

El catedrático de la UDC alerta sobre la práctica de subir trabajos a chatbots para su corrección, debido a la falta de garantía de confidencialidad y la prohibición de evaluaciones automáticas

El catedrático Francisco Bellas, en Vigo.

El catedrático Francisco Bellas, en Vigo. / Alba Villar

Elena Ocampo

Elena Ocampo

Vigo

El avance de la inteligencia artificial (IA) generativa ha abierto un nuevo frente en las aulas: qué hacer cuando el profesorado sospecha que un alumno ha utilizado estas herramientas para realizar un trabajo. Ese fue uno de los asuntos abordados este martes en Vigo por el catedrático de la Universidade de A Coruña (UDC), Francisco Bellas, que participó en la sede de Afundación dentro del ciclo «Educación Siglo XXI», centrado en el uso responsable de la IA en la educación.

Bellas explicó que el impacto de estas tecnologías ya se deja sentir de lleno en el día a día docente, sobre todo porque muchos de los trabajos que antes se encargaban para casa ahora pueden resolverse con ayuda de sistemas generativos. «Partimos de que la mayoría de estudiantes están haciendo con IA los trabajos y deberes que antes hacían por sí mismos, y los profesores no pueden detectar si existe plagio o no», resumió.

A partir de ahí, el catedrático dibujó dos reacciones entre el profesorado. Por un lado, quienes entienden que esta situación obliga a revisar las metodologías, porque «ese tipo de trabajo ya no vale». Por otro, quienes intentan responder recurriendo a herramientas de detección de plagio. Y ahí fue tajante: esos sistemas no pueden emplearse para calificar al estudiante. «Las herramientas pueden darte una pista, una orientación, pero no se pueden usar para corregir ni para suspender a un estudiante», advirtió.

Protección de datos

Bellas recordó que, tanto la normativa de protección de datos como la regulación sobre inteligencia artificial impiden que este tipo de programas se conviertan en la base de una evaluación académica. «No se puede hacer una evaluación automática con IA», insistió. Sí ve posible, en cambio, que el docente use ese resultado como un elemento más antes de hablar con el alumno. Es decir, como apoyo informativo, nunca como prueba concluyente ni como criterio directo para poner una nota.

Un momento de la conferencia, ayer en Vigo.

Un momento de la conferencia, ayer en Vigo. / Alba Villar

El investigador también alertó sobre otra práctica docente que, a su juicio, debe desterrarse: subir exámenes, redacciones o trabajos a chatbots de IA para que los corrijan. «Primero, eso solo sería posible si la herramienta garantiza de forma clara la confidencialidad de los datos que se suben», explicó. Y puso ejemplos concretos: «Un ChatGPT o un Gemini, con una licencia no profesional, no se pueden utilizar para eso». Y fue mas allá: «La corrección automática no está permitida, siempre debe ser el docente quien califique al alumno».

En resumen, «no queda otra que adaptar las metodologías educativas». Pero frente a planteamientos basados en la prohibición, el catedrático defendió la alfabetización en inteligencia artificial como una herramienta útil para la vida académica, personal y profesional del alumnado. «Hay que enseñarles a usar la IA para su futuro, para sacarle el máximo rendimiento, para usarla con responsabilidad y para ayudarles como asistente del aprendizaje», vino a señalar durante su intervención.

Reorientar hacia el aprendizaje con IA

En ese contexto, auguró que muchos de los trabajos tradicionales tenderán a desaparecer y que la escuela tendrá que reorientar sus prácticas hacia fórmulas que permitan aprender con la IA sin delegar en ella el pensamiento. El reto, sostuvo, no es expulsar esta tecnología de las aulas, sino aprender a convivir con ella sin perder el control.

Su conclusión es clara: hay que formar a los jóvenes en un uso eficiente y responsable de la IA, pero antes hay que formar a los profesores para que comprendan la magnitud del problema al que se enfrentan si no se adaptan a esta nueva situación.

Delito por acosar con IA

Utilizar la IA para acosar es delito desde los 14 años y tiene responsabilidades para el alumno y los padres, advirtió también el experto. Asimismo, desconsejó introducir datos personales, fotografías (propias o de terceros), así como suplantar identidades o subir información ajena.

Tras la charla, la última parte se centró en consultas de los alumnos asistentes. A mano alzada, la mayoría reconocieron haber usado la IA para labores académicas —sobre todo para elaborar trabajos—.

Aún así, solo dos o tres asistentes afirmaron usar la herramienta en su versión «Pro» (de pago), la cual defendió Bellas por su mejor efectividad. Demostrando que el discurso medioambiental ha calado entre la juventud, una joven expresó una consulta al experto: «¿Es cierto que la IA requiere el uso de cientos de litros de agua?». Desde el estrado llegó la afirmación.

Se trata de la forma de «enfriar» los equipos y sistemas operativos informáticos, que se calientan mucho al utilizar los motores de búsqueda de la IA a nivel global. «Aunque están bajo tierra, requieren el uso de mucha energía», reconoció.

Otra profesora formuló una pregunta sobre las interacciones de los jóvenes que trasladan a la IA toda clase de preguntas sentimentales —no técnicas, sino personales o hasta médicas—. «No se puede usar la IA para consultas emocionales o sentimentales». Bellas indicó, además, que no está entrenada para ello y suele responder de forma asertiva.

En resumen, la IA ya forma parte de la rutina de muchos estudiantes de grado medio, que la usan como una herramienta de apoyo académico, sobre todo para hacer trabajos, resumir contenidos y afrontar asignaturas técnicas. Entre el alumnado se percibe normalidad, cierta confianza en su utilidad y una visión más práctica que alarmista sobre su impacto futuro.

Suscríbete para seguir leyendo

Tracking Pixel Contents