Inteligencia artificial en las aulas: ¿prohibir ChatGPT o convertirlo en profesor ayudante?
El profesor Faraón Llorens anima a educar a «centauros digitales» y a orientar la docencia «más a las preguntas que a las respuestas» en una charla ante cientos de profesores de la UMA preocupados por la irrupción de la IA
Colegios y universidades de diferentes partes del mundo ya se han apresurado a prohibir a sus alumnos el uso de ChatGPT, el exponente más popular ... de la pujante inteligencia artificial generativa. También han surgido herramientas para detectar textos generados por este tipo de asistentes. La IA es observada, desde ciertos ámbitos docentes, como una amenaza que agita el ancestral miedo al plagio de los profesores. ¿Estamos ante un Rincón del Vago 2.0? ¿Van a volverse los estudiantes unos holgazanes o, peor aún, van a perder capacidades como las de redacción, análisis, cálculo o memoria debido al uso continuado de estas 'muletas' intelectuales? Preguntas como estas rondan por la cabeza de no pocos profesores. Pero también hay otros docentes que no tienen miedo; que lo que quieren es saber cómo aprovechar las asombrosas posibilidades de la inteligencia artificial para mejorar sus clases. A responder ambas preocupaciones se dedicó el viernes en Málaga Faraón Llorens, catedrático del Departamento de Ciencias de la Computación y de Inteligencia Artificial de la Universidad de Alicante, en la jornada 'Inteligencia artificial generativa y docencia: ¿Qué vas a hacer?', que contó con una numerosa asistencia de profesores de todas las facultades de la UMA.
Llorens utilizó la fábula del traje del emperador para explicar por qué existe una reacción tan furibunda contra ChatGPT. «La inteligencia artificial es el niño que señala al emperador y grita '¡Está desnudo!'. Tenemos un sistema educativo que viene de la Revolución Industrial: se formaba a los operarios de los sistemas de producción en cadena. ChatGPT evidencia las debilidades de este sistema educativo, donde se da más importancia al resultado que al proceso; a dar respuestas que a saber hacerse preguntas», reflexionaba el profesor, que lanzó una pregunta inquietante: «¿Estamos enseñando a nuestros jóvenes a hacer lo que ya saben hacer las máquinas? Porque entonces, no podrán competir con ellas: las máquinas lo harán mejor y más barato».
¿Prohibir ChatGPT? ¿Volver a los exámenes y los trabajos escritos con boli y papel? Para el experto, estas medidas son inútiles; al igual que las aplicaciones que dicen ser capaces de detectar textos escritos por IA. «No son fiables; y aunque avancen, creo que va a ser como la eterna carrera del coyote y el correcaminos: siempre irán por detrás», afirmó. En lugar de rechazar el avance, Llorens abogó por repensar las tareas que proponemos a los estudiantes y la forma en la que evaluamos a los alumnos. Él propone tres vías para una «docencia a prueba de inteligencia artificial»: que no salga a cuenta utilizarla para realizar la tarea; que aunque se utilice, el estudiante aprenda; o bien pedirle al estudiante que la utilice para obtener mejores trabajos y enseñarle a hacer un buen uso de ella. «Dejemos de tener en cuenta sólo el resultado: evaluemos el proceso para llegar hasta él. Y dejemos de centrarnos en las respuestas; evaluemos la capacidad de hacer buenas preguntas», concluyó, recordando que, en realidad, la mayoría de las preguntas de exámenes universitarios «ya se podían resolver con Google o Wikipedia».
El vicerrector de Estudios de la UMA, Ernesto Pimentel, resumió su postura así: «El uso responsable de la IA nos abre un horizonte de ventajas y oportunidades. Estas herramientas nos pueden ayudar en tareas inherentes a la investigación y de gestión. En la docencia nos ayudan a generar contenidos, tareas, pruebas de evaluación... y también a adaptarnos a las necesidades de cada alumno. No podemos obviar que también generan desafíos: las cuestiones éticas y legales, los sesgos, el respeto a los derechos de autor, los usos fraudulentos, la fiabilidad de los resultados y el riesgo de agravamiento de la brecha digital entre quienes tienen acceso a la IA y quienes no. Respecto a los estudiantes, debemos enseñarles a usarlas de forma responsable y honesta para que les sirvan para aumentar sus capacidades sin que sustituyan su talento».
El vicerrector detalló que las herramientas de inteligencia artificial -que van muchísimo más allá que ChatGPT- pueden generar contenido original y personalizado en contextos educativos, mejorando la retroalimentación y automatizando tareas. Es importante, insistió, utilizarlas «de manera responsable» y considerar si las actividades evaluativas responden a aprendizajes verdaderamente relevantes para el alumnado. «Será conveniente revisar el modelo de evaluación y las guías docentes, ya que los estudiantes también tienen acceso a estas herramientas. Pero sobre todo, será necesario conocer las posibilidades de utilizar estas herramientas para fomentar habilidades críticas, analíticas y éticas en los estudiantes», añadió.
«Centauros digitales»
Esta idea enlaza con la de los «centauros digitales» de Llorens: «Eduquemos a los jóvenes para que, a lomos de la inteligencia artificial. puedan ser mejores personas, mejores profesionales y mejores ciudadanos», animó. Y añadió otra frase para pensar: «La batalla no va a ser entre los humanos y la IA , sino entre humanos que utilicen la IA y humanos que no la utilicen». Para cerrar esa peligrosa brecha digital, en lugar de que se agrande, no queda otra que «acercar posturas»: «A los 'humanos' hay que formarlos y convencerlos de que aprovechen las oportunidades que brinda. Y a los profesionales tecnológicos hay que exigirles que hagan tecnología inclusiva, con rostro humano».
Tras la conferencia de Llorens, se unieron a él tres profesores de la UMA para debatir sobre tan apasionante tema: Sonia Blanco, del departamento de Comunicación Audiovisual y Publicidad; Mª Dolores Fernández de la Torre, del departamento de Filología Inglesa, Francesa y Alemana; y Manuel Fernández, del departamento de Didáctica y Organización Escolar. Del público también surgieron preguntas interesantes. Había docentes preocupados, por ejemplo, por el peligro de volvernos «más tontos» con el uso intensivo de estas 'muletas' basadas en la IA. «Hay estudios que sugieren que el uso constante de herramientas de navegación tiene impacto en nuestra capacidad de orientación espacial. Si dejamos de redactar, dejamos de resumir... Vamos ir renunciando a habilidades cognitivas», argumentaba. El catedrático alicantino declaró compartir «cierta preocupación», aunque también afirmó que la evolución «consiste en esto: ir liberándonos de tareas mecánicas para ganar tiempo para tareas más elevadas».
Ante el interés que despertó la jornada, celebrada en el salón de actos del Complejo de Estudios Sociales y de Comercio, el vicerrector de Estudios de la UMA prometió que no será la última.
¿Tienes una suscripción? Inicia sesión
Comentar es una ventaja exclusiva para suscriptores
¿Ya eres suscriptor?
Inicia sesiónNecesitas ser suscriptor para poder votar.