En febrero de este año, la Facultad de Ciencias Políticas y Sociología de la UCM y el grupo de investigación Antropología, Diversidad y Convivencia organizaron el conversatorio “IA y Universidad. La robotización del trabajo intelectual. Impacto y perspectivas de la inteligencia artificial (IA/ChatGPT) en docencia e investigación”, cuyas conclusiones más relevantes giraron en torno a la aparición de la inteligencia artificial como una herramienta que abre un mundo de oportunidades y riesgos, su potencial para resolver problemas específicos en distintas áreas académicas, y la necesaria reflexión sobre el papel de la IA en el sistema educativo, en general, y la importancia de la formación, tanto de profesores como de estudiantes, para maximizar sus beneficios, mitigar los peligros y utilizar estas herramientas tecnológicas de manera ética y crítica.
Una de las participantes e impulsoras de esta actividad fue Mónica Cornejo Valle, doctora en Antropología Social y profesora de la Universidad Complutense de Madrid, donde dirige el grupo recién mencionado. Desde este espacio se ha vinculado con la relación entre la IA y su impacto en los procesos educacionales, y con ideas muy claras y novedosas relaciones entre distintas etapas de la historia.
Haciendo un viaje en el tiempo, ¿en qué se parece la inteligencia artificial a una calculadora? ¿Pueden ser hitos similares en el proceso de aprendizaje de los años 80 o 90, y el de hoy?
Hay una parte del debate que se está planteando que sí tiene claros paralelismos con los debates que se dieron frente al uso de la calculadora en los colegios, pero se trata de debates recurrentes que han aparecido siempre, cada vez que hay un avance tecnológico, y que apuntan al cuestionamiento del tipo de aprendizaje, de los contenidos de lo que se debe aprender, de si es más importante el saber-hacer abstracto o el saber-hacer apoyado en herramientas, cuál es el impacto de las herramientas en el desarrollo del estudiantado y, por ende, de la sociedad… Estas cosas ya se debatían en el siglo XVI cuando la imprenta cambió el panorama de la escritura, y de la publicación, pero su resultado se considera positivo hoy en día: se democratizó el saber, se incrementó considerablemente el volumen de libros en circulación, más gente podía tener libros en casa, ya no eran un artículo de super lujo, y la Iglesia perdió control sobre lo que se publicaba, porque no era ya tan fácil perseguir libros y destruirlos si se imprimían todos los días en varios lugares del mundo. El panorama actual no es el del siglo XVI, ni la IA es lo mismo que la imprenta, pero plantea otra vez la posibilidad de un salto cultural grande, cuyas consecuencias aún no podemos valorar en su generalidad.
Algo más cercano es la experiencia de aparición de la Wikipedia en los tempranos 2000, que realmente ha desbancado a los proyectos editoriales enciclopédicos, y los ha convertido en otra cosa muy altamente especializada (sigue habiendo diccionarios y enciclopedias, pero de temas para expertos). Recuerdo cuando nos decían que la Wikipedia iba a acabar con el pensamiento crítico y a propagar todo tipo de bulos (algo similar se decía de la imprenta también en los ambientes escolásticos). Bueno, hoy en día la prensa, la publicidad, las campañas electorales, los lobbies y todo el mundo, menos la Wikipedia, están contribuyendo a propagar bulos y reducir la capacidad crítica. Creo que las tecnologías solo hacen más grande lo que ya ocurre en la sociedad.
¿De qué forma específica la inteligencia artificial puede transformar la experiencia de aprendizaje de las y los estudiantes en las aulas? ¿y la labor del profesorado?
Creo que la mayoría del profesorado ve la IA como una amenaza, y la mayoría del estudiantado lo ve como una oportunidad, algo exagerada, de facilitarse la vida. Mi experiencia en el aula con IA ha permitido mostrar al estudiantado que una IA tipo ChatGPT hace ciertas funciones cognitivas y otras no. ChatGPT sabe hacer resúmenes, sacar ideas principales y secundarias, y responder a ciertas preguntas de contenido muy generales, a las que puede “responder” un buscador semántico estándar mucho mejor. Y no sabe desarrollar una reflexión basada en contenidos específicos, aunque puede establecer estructuras argumentales generales que pueden inspirar a la gente a la hora de componer sus textos o respuestas de la clase que sean. Sabiendo esto, y compartiendo esto en la clase, hemos podido aprender a usar la IA en casa como apoyo para hacer comentarios de texto y cosas sencillas. Pero aprecio especialmente la capacidad que esta experiencia ha tenido para demostrar al alumnado cómo pueden mejorar sus habilidades de escritura por comparación con lo que hace la IA. La mitad, más o menos, del estudiantado escriben de una forma demasiado vaga, contradictoria a veces, con frases mal construidas, etc. A partir de ahora tienen una herramienta que les puede ayudar a escribir mejor, y también a fijarse en cómo formulan las cosas y compararlo con cómo lo hace la IA, proceso del que pueden aprender. Esto hace que la IA sea una aliada del profesorado.
Qué es mejor, ¿bloquear y restringir, o permitir y evaluar el uso de estas tecnologías en la sala de clases?
Para mí lo mejor es permitir y evaluar el uso de estas tecnologías. No tiene ningún sentido que la sociedad y las empresas adopten estas herramientas y las universidades las prohíban, ¿para qué? Si las prohibimos, el alumnado no va a saber en el futuro interactuar con ellas, pero van a estar ahí igualmente, en el mercado de trabajo, se las van a encontrar ¿y nosotros decidimos prohibirlas en vez de enseñarles cómo lidiar con ellas con criterio? No tiene ningún sentido.
¿Existen riesgos de que se robotice el trabajo intelectual? ¿Podría afectar la habilidad de escritura y la creatividad?
El trabajo intelectual se está robotizando mientras hablamos. Pero de paso sería interesante darnos cuenta de que el trabajo intelectual se ha “industrializado” también antes, y que por ello estamos sometidos a criterios de productividad cognitiva que nos han convertido a los humanos en máquinas de producir texto y conversación, deshumanizando inmensamente el proceso creativo. Así que a la IA no deberíamos echarle la culpa de lo que el capitalismo, el productivismo, el extractivismo, etc., hacen, que es robotizarnos para obtener el máximo beneficio al menor costo. En este escenario, la IA es la consecuencia lógica de la deshumanización del trabajo… pero esa deshumanización del trabajo no es su culpa, es la lógica del capitalismo en todas sus fases de desarrollo, y esta es la última.
En cuanto a la escritura y la creatividad, creo que ya son un poco malas, honestamente. Son malas porque en la educación primaria y secundaria no se enseña bien escritura académica, y a lo mejor no tiene que enseñarse, no lo sé, pero la mitad del estudiantado que llega no sabe hacer argumentos y escribirlos, su pensamiento es entrecortado, profundamente inseguro, y su escritura es igual. La creatividad tampoco ha sido un don necesariamente generalizado. Además, la sociedad y la universidad solo valoran ciertos tipos de desviaciones de lo convencional y a eso lo llama creatividad, pero al resto no, con lo cual la creatividad también es un producto de las modas sociales. Aunque no es una postura común ahora mismo, yo personalmente creo que la IA podría ayudar mucho a escribir mejor y ser creativos, pues sirven para puentear los bloqueos emocionales que muchas veces están detrás de la falta de creatividad y la escritura torpe.
¿Las habilidades en el uso de estas tecnologías definen, en parte, el futuro laboral de los y las estudiantes?
Creo que así será, sí. En algunas carreras se verá más la influencia que en otras, pero cuando el estudiantado llegue al mercado laboral se encontrará con que las empresas ya están usando estas herramientas o están pensando en sustituir a un trabajador por una IA. Y esto requiere que nos anticipemos en las universidades.
“El tema del plagio es un gran asunto en el que siempre, absolutamente siempre, debíamos haber estado claros y afinados”
¿Cambiará la dinámica en las aulas y la forma en que las y los docentes enseñan a medida que la inteligencia artificial se integre más en el sistema educativo?
Con el tiempo cambiará un poco, pero no creo que de forma radical. Wikipedia nos cambió, pero no acabó con las clases magistrales ni con la lectura de textos especializados. Creo que incorporaremos estas herramientas, pero, sobre todo, creo que en muchas disciplinas estas herramientas pasarán a formar parte del repertorio de dispositivos y herramientas que se usan en privado, en casa, bien sea para preparar clases o bien para estudiar o preparar textos, etc., tanto por parte de las y los docentes como del alumnado.
Durante el próximo curso, en los centros educativos de Galicia se dictarán las materias Inteligencia Artificial para la Sociedad, en 4º de ESO, y Tecnologías Inteligentes, en 1º de Bachillerato. ¿Cree que sea esta la forma de abordar su influencia en el mundo de la educación?
Creo que es mejor que esas asignaturas se impartan al profesorado, a todo el profesorado, que se liberen unas horas para hacer unos cursos de algo así. Impartirlo a estudiantes de una promoción determinada es perder la oportunidad de crear un conocimiento transversal en el cuerpo de docentes. Así ocurrirá que el estudiantado recibe una educación muy avanzada en algo, y a la clase siguiente se encuentra con alguien que realmente no comprende nada de estas tecnologías y demanda algo contradictorio.
¿Le estamos dando mucha relevancia a la IA y asumiendo que tendrá profundos efectos en la sociedad, cuando tal vez no sea tan importante?
Creo que su importancia será a largo plazo y más en la vida laboral que en la académica, que tiene una capacidad única para adaptarse a las innovaciones y al mismo tiempo no cambiar.
Al redactar un texto, la IA funciona intentando predecir cuál es la siguiente palabra que tiene más sentido. ¿Tenemos alguna certeza de que no falle en esos intentos?
No sé, la IA falla, claro. No tiene por qué no hacerlo. Cada fallo es una fuente de aprendizaje. Mejorarán en poco tiempo, como lo hicieron los traductores y los buscadores. Y aun así seguirán teniendo un horizonte de fallo. También fallan los humanos…
¿Cuál debería ser el rol de las universidades en este nuevo escenario, en términos de formación de docentes y de resguardo ante el plagio o el uso indebido de la IA que pueden hacer las y los estudiantes?
El tema del plagio es un gran asunto en el que siempre, absolutamente siempre, debíamos haber estado claros y afinados. En el caso del plagio, la aparición de la IA afecta especialmente a la definición de una de las modalidades del plagio, la paráfrasis. Pero lo cierto es que la paráfrasis es una práctica aceptada como legítima por muchos docentes, y en el pasado, antes de Internet, era generalmente aceptada en la vida académica. Ahora nos encontramos con que una máquina puede reescribir un párrafo que quieres copiar sin que se note… Cosa que, por otro lado, puede hacer y hace cualquier cerebro humano, y no necesariamente entendiendo el significado de lo que se está diciendo (como prueban muchos de los exámenes de mis estudiantes). Por ahora, la idea de hacer más pruebas orales y presenciales, o con control estricto del tiempo, es lo que la mayoría de docentes tiene como forma de prevenir el uso indebido de la IA. Y creo que esto es muy interesante, porque hasta ahora ha habido poca presencia de las habilidades orales en la vida académica (en comparación con las escritas), y quizá esto puede darnos un empujón para mejorar esta área.
¿Puede la IA ser un elemento que profundice aún más las brechas educacionales, digitales o de acceso a la información? ¿O que sea un espacio que fortalezca la posverdad?
Tal y como se está implementando ahora mismo, no me parece que la IA vaya a profundizar más en las brechas digitales que afectan a la vida académica, pero sí me parece que va a significar una mayor distancia entre empresas que pueden pagar la IA de uso profesional y las que no. En el caso de la universidad, en algún momento se planteará el uso de estas herramientas en sustitución de sus trabajadores, y de esto no hay duda. Y quizá haya también un distanciamiento entre las universidades que comparten licencias para IA de pago para profesorado y estudiantado, y las que no. El problema de la posverdad creo que no se agravaría especialmente con esto, no.
¿El uso intensivo de la IA podría ser una alternativa más útil y constructiva que las adicciones a las pantallas que vemos en adolescentes?
No creo que responda a las mismas necesidades, de momento, pero eventualmente podría convertirse en un hábito que la sociedad considere malo y ello afectaría a nuestra visión actual.
Hoy 1 de cada 5 menores de familias vulnerables de España está en riesgo de generar adicciones a los dispositivos electrónicos ¿La IA puede ser un salvavidas?
Creo que sí, que pueden ayudar. Es paradójico que cuando los humanos nos hemos deshumanizado tanto que no sabemos ayudar a los jóvenes con ansiedad que terminan con adicciones, venga la inteligencia artificial al rescate, con su trato amable y neutro.
“Este es un momento importante en el desarrollo de la sociedad del conocimiento, y las universidades públicas tienen la oportunidad de contribuir aportando herramientas de libre acceso, de uso intuitivo, pero, al mismo tiempo, potentes y suficientemente buenas”
Frente al hecho de que la IA ya se instaló como una herramienta de apoyo al alumnado, ¿existe alguna técnica que les enseñe a distinguir la información verdadera de la que no lo es –las llamadas alucinaciones– o a priorizar los contenidos más relevantes? Un proceso de aprendizaje derivado de la IA puede ser la de utilizar en clase las explicaciones que entrega para comentarlas y discutirlas con los estudiantes.
Claro, las técnicas son las mismas que ya se venían usando con Wikipedia y los buscadores: contrastar, y todos los procedimientos que conlleva: las triangulaciones, aprender a hacerlas, recabar información sobre los aspectos subjetivos que afectan a la información… Todas estas técnicas ya existen y se usan en clase.
¿El uso de lenguaje coloquial, no docente o poco técnico, en una consulta a ChatGPT afecta la calidad del resultado?
La calidad del resultado mejora, de hecho. La cuestión es si de ello pueden aprender los estudiantes como si fuera una tarea de autoevaluación, o si se pasa de largo y no se aprovecha la oportunidad de mejorar.
Ante la necesidad de retorno de inversión de las empresas que impulsan la IA existe el riesgo de que, subliminalmente, se cuelen contenidos publicitarios o políticos en las respuestas que entrega. ¿Cómo afectará a la educación los potenciales sesgos o intereses que tenga el sistema?
Igual que ya ocurre con los buscadores, la Wikipedia y toda otra fuente de contenidos. Esto no va a cambiar sustancialmente.
¿Los educamos para utilizar estas herramientas o para competir con ellas? ¿Cuál es el papel de los humanos?
Si el papel de los humanos va a seguir siendo el de producir riqueza para otros humanos, que parece que sí, no veo que nos quede otro remedio que utilizar la inteligencia artificial como complemento a nuestra productividad (o ser usados como complementos a la productividad de las herramientas). Competir con ellas es una posibilidad que quizá esté disponible para algunos humanos particulares, pero no para la inmensa mayoría.
¿Qué herramientas y/o actitudes necesita desarrollar el profesorado para enfrentarse a este nuevo escenario que se abre?
Respecto a las herramientas, creo que necesitamos acceso a buenas aplicaciones de IA, y que estas mismas aplicaciones incorporen métodos de control de su uso para que el profesorado pueda calibrar y hacer seguimiento del uso de la app por parte del estudiantado. Aunque ahora mismo este tipo de apps y diseños muy específicos solo se consiguen de pago (o sabiendo tú misma programarlo) creo que las universidades públicas, de forma conjunta, deberían estar ya desarrollando sus propias aplicaciones para usos profesionales, en vez de comprar licencias a empresas. Este es un momento importante en el desarrollo de la sociedad del conocimiento, y las universidades públicas tienen la oportunidad de contribuir aportando herramientas de libre acceso, de uso intuitivo, pero, al mismo tiempo, potentes y suficientemente buenas para usarlas en las propias universidades, no solo por una universidad, sino como un proyecto de varias, que pueda contribuir realmente al desarrollo tecnológico y también a la accesibilidad social. Creo que la idea de que la universidad contribuye a la sociedad del conocimiento solo mediante spin offs y convenios con empresas es una perspectiva muy limitada, que solo ve el desarrollo en el sector privado, y esto a la larga hace que la propia universidad se vea como una institución que aporta poco a la sociedad. Hay una reflexión profunda que hacer sobre el compromiso tecnológico como compromiso social, y la IA (o cualquier otra revolución que venga después) es una oportunidad más para darnos cuenta de esto.
Respecto a la actitud del profesorado para enfrentarse a la IA en la docencia, creo que tiene que ser una actitud de apertura a la experimentación. Si no tenemos una actitud de apertura experimental en la universidad, no sé qué podemos esperar de nosotras mismas. Naturalmente, ello traerá consigo la crítica y la vigilancia de los valores que trae consigo la IA, pero si no experimentamos con ellas y únicamente hacemos juicios basados en creencias, no estaremos cumpliendo un compromiso universitario fundamental, que es conocer con rigor.
¿Cómo debe cambiar la formación inicial de los y las docentes?
Necesitamos formación constante en todo tipo de aplicaciones y tecnologías. Por suerte, creo que la UCM se está haciendo bastante bien. Idealmente, sería justo y más atractivo que por cada formación tuviéramos una rebaja correspondiente de las horas de trabajo, pero esto para el profesorado es difícil hasta decirlo en alto. Por parte del profesorado, también sería ideal que todo el mundo estuviera comprometido con actualizarse cada cierto tiempo. Sea como sea, la disponibilidad de cursos actualizados sobre todo tipo de cosas que van surgiendo es algo necesario. También están funcionando muy bien, en este sentido, los proyectos de innovación docente en los que podemos experimentar todo tipo de apps (este año tenemos justamente un proyecto sobre ChatGPT en el aula y podemos experimentar todo a gusto). Esto, y seguir con estas formaciones actualizadas es clave. Hoy es ChatGPT, pero mañana será otra cosa, luego otra y luego otra. Por eso, más que un determinado contenido, me parece importante una cierta actitud positiva hacia la formación permanente. Y creo que esto aplica a toda la profesión docente, desde Primaria hasta la Universidad.