Que la IA sea buena compañera de clase

La universidad es saber universal y contrastado. La IA generativa es saber privado que no sabemos si es saber. Una es colaborativa, la otra, extractiva. Estas dos cosmovisiones colisionan en nuestras facultades, que se debaten entre integrar o resistir. En la práctica, la IA generativa está en las aulas, donde entró mucho antes de que la facultad enviara una circular sobre su uso, generada con ChatGPT.

La aproximación al dilema está condicionada por nuestra cultura. Nos invade un cierto sentimiento de culpa siempre que generemos un texto sin esfuerzo por aquello de “ganarás el pan con el sudor de tu frente”. De hecho, el sudor es el de los demás: el de todos aquellos que han escrito los textos de los que ChatGPT ha aprendido.

También hay una dosis de fariseísmo (disculpas por el término; a pesar de la mala prensa de los fariseos en la Biblia, no tenían un comportamiento fariseo, al contrario). No se me ocurre ningún término mejor para calificar el comportamiento de oponernos con la mano derecha a su utilización –se está perdiendo la cultura del esfuerzo– mientras, con la izquierda, utilizamos ChatGPT para redactar el temario del curso. Son las mismas actitudes que ya habíamos tenido con Google, con Wikipedia y, mucho antes, con la escritura misma. Sócrates era contrario porque “nuestros jóvenes ya no memorizan a Homero”. Y tenía razón: el tiempo que no dedicaron a memorizar hexámetros lo dedicaron a filosofar y… a escribir.

Escuela con IA.

La inteligencia artificial forma ya parte de las aulas, se esté preparado o no 

Getty Images

Hoy, 400 millones de usuarios utilizamos ChatGPT cada semana: para redactar un artículo científico, preparar una presentación o redactar un temario. Quien esté limpio de pecado que enseñe su ChatGPT. ¿Debe resistirse la academia? ¿Debemos convertirnos los profesores en policías? Creo que no. Nuestro trabajo no es ser detective. En este sentido, he visto técnicas como esconder palabras clave como Beyoncé o Frankenstein en letra de cuerpo 1 en el redactado de las preguntas: si la pregunta la responde ChatGPT, lo hará inevitablemente con citas o a la bella o a la bestia.

Los profesores nos rasgamos las vestiduras cada vez que detectamos un texto generado por ChatGPT (y alumnos que me leéis, os aseguro que sabemos cómo hacerlo). Somos los mismos profesores – boomers y Gen X – que cuando teníamos que hacer un trabajo en BUP íbamos a la Monitor de Salvat y la fusilábamos, añadiendo un “hay que destacar” aquí o un “por tanto” allá, que no es tan diferente a lo que hace ChatGPT. Para las generaciones posteriores, cambien Monitor por Wikipedia. El problema no es de dónde sale el texto, sino si es fiable y qué hacemos con él. El aprendizaje no es pasar el contenido del Moodle de la escuela al Moodle de la escuela; de los apuntes al trabajo. Es pasarlo a la cabeza de los estudiantes y que en ese tránsito algo se transforme: o el contenido, o el estudiante, o con suerte, ambos. Este pequeño milagro pedagógico no se obtiene con ChatGPT.

Geoffrey Hinton, el padrino de la IA y Nobel de Física en el 2024, se equivoca cuando vaticina la desaparición de las universidades. No es la primera vez: ya en el 2016 dijo que debían dejar de formar radiólogos porque la IA les sustituiría. Hoy, no solo hay más que nunca, sino que trabajan codo con codo con la IA.

Responsabilidad educativa

Los chatbots inteligentes están diseñados para dar respuestas, no para fomentar el aprendizaje; quizá sería el momento de cambiar las tornas

El error de Hinton fue pensar que el único trabajo de un radiólogo es el de mirar imágenes. Y el error, en el caso de las universidades, es pensar que solo transmiten conocimiento. Si así fuera, sí podríamos sustituirlas por las mejores clases disponibles en la Khan Academy o en el mismo YouTube. O por Gauth, un chatbot especializado en enseñar matemáticas. Pero nos equivocaríamos si pensáramos así. Las universidades enseñan a hacer preguntas más que a responderlas. Y más aún: enseñan a cambiarlas.

A Demis Hassabis, director ejecutivo de DeepMind (Google) y premio Nobel de Química en el 2024, en una reciente entrevista en el pócast Hard Fork, le preguntaron qué creía que deberían aprender los estudiantes en un futuro lleno de IA. Según Hassabis, sigue siendo esencial dominar las STEM, y en particular, la programación: “Pase lo que pase con la IA, siempre es mejor conocer su funcionamiento”. También recomienda sumergirse en las herramientas más avanzadas de IA porque “te dan superpoderes, si eres bueno usándolas”.

Sin embargo, su consejo más importante habla de los fundamentos. “Sobre todo, no descuidar lo básico”, lo que él llama metaaptitudes: aprender a aprender y aprender a desaprender. “Lo que sabemos seguro es que habrá mucho cambio en los próximos diez años y que necesitaremos creatividad, adaptabilidad, resiliencia”.

Para Hassabis, estas metaaptitudes serán clave para la próxima generación, la que crecerá rodeada en IA. No solo para que se adapten –que lo harán–, sino para que puedan confiar en las herramientas con las que van a aprender. Y se pone deberes: “Nuestra obligación es hacer que estos sistemas de IA, que los jóvenes utilizan para aprender, sean demostrablemente buenos para esta función”.

Para que todo esto funcione –para que la IA sirva realmente como herramienta de aprendizaje y no solo para copiar más rápido– hacen falta tres cosas. Primero, que los estudiantes tengan suficiente espíritu crítico para entender que la IA puede ayudarles tanto a copiar como a aprender. Para saber cuándo, cómo, por qué y para qué utilizar estas herramientas es necesaria una nueva alfabetización digital: no todo lo que genera la IA es bueno ni todo lo que se hace sin IA es necesariamente más valioso.

Segundo, que los educadores pongan sus propios métodos de evaluación a examen. Si un trabajo puede ser resuelto con un chatbot, quizá el problema sea la pregunta. Quizás es necesario pensar otras formas de evaluar, basadas en el proceso, en la experiencia, en la creación colectiva y en la reflexión.

Extendido

Quien esté limpio de pecado que enseñe su ChatGPT: hoy, 400 millones de usuarios lo utilizan cada semana

Y tercero, que los creadores de chatbots asuman su responsabilidad educativa. Que no vean solo a usuarios y beneficios privados a corto plazo, sino también a estudiantes y beneficios sociales a futuro. Que diseñen sistemas pensando no solo en las respuestas, sino que lo hagan pensando en las preguntas; en cómo ayudarnos a pensar y aprender mejor. Si la IA va a la universidad, por lo menos que sea buena compañera de clase.

Etiquetas
Mostrar comentarios
Cargando siguiente contenido...