En diciembre de 2020 Cristina Suárez publicó un artículo sobre el análisis de las proyecciones futuras realizado por el Foro de Humanismo Tecnológico de Esade, foro dedicado a debatir sobre los malos usos, las oportunidades que representa e la educación, los peligros que se ciernen sobre nosotros y la manera en que podemos convertir a la inteligencia artificial en una aliada y no en una losa que eventualmente nos aplastará. Suena apocalípticamente contemporáneo, pero repito, esto sucedió en 2020.
Cerca del 90% de los podcasts que escucho desde hace poco más de un mes se refiere a la inteligencia artificial generativa. A medida que tengo más información, sucede que me planteo más preguntas en lo referente a cuestiones éticas, a si la IA va a reemplazar el trabajo creativo humano y, sobre todo, si se constituirá como una nueva caverna platónica que nos presente imágenes y escenarios verosímiles, que seguramente no podremos distinguir de lo “real”. Una vez más, la vieja pregunta filosófica por la “verdad”. Una vez más, Aristóteles se asoma desde donde esté y con una sonrisa, ve que nos volvemos a preguntar por cómo construir tramas verosímiles (hasta pensé un meme: “Aristóteles viendo como no lees La poética y le pides al ChatGPT que te escriba un guion”. Hágalo alguien, porfa).
Los debates éticos son innumerables: no solamente por la hipótesis de sustitución del trabajo creativo humano por los contenidos generados por chatbots, sino por la posibilidad de que la IA generativa instaure, mediante nuestras consultas, una esfera cada vez más sesgada que nos determine a actuar en la dirección en que alguien más quiere. Se vale diferir, seguir leyendo, escuchando opiniones y modificar las propias. Lo que no se vale es darle la vuelta a los problemas que implica hoy el uso del ChatGPT o de OpenAI o de cualquier otro servicio similar en el ámbito de la educación, prácticamente a cualquier nivel.
Existen posiciones encontradas al respecto; algunos docentes de la Pontificia Universidad Católica del Perú han realizado ejercicios en 2023 para extraer el potencial pedagógico de la IA generativa (véanlo en PUCP). No sé si suscribo todas las respuestas. Sin duda, los testimonios son interesantes, máxime cuando los académicos le recomiendan a su alumnado que hagan uso de la IA generativa sin diluirse en ella; si bien, las plataformas pueden reducir tareas que antes realizaba un estudiante (como resumir, seleccionar e identificar puntos importantes en una lectura), la IA permite ahora “saber qué leer”. Ciertamente, cuando alguien ya tiene una formación en investigación esto puede resultar de gran ayuda, sin embargo, cuando se está formando a un grupo de jóvenes, la habilidad de detectar y jerarquizar en función del propio interés, se debe ejercitar continuamente. Aun antes del uso tan difundido de la AI, noto en mis estudiantes más jóvenes una mayor dificultad para concentrarse, para aprehender contenidos abstractos y para discernir. Houston, estamos teniendo un severo problema.
Debido a que la inteligencia artificial generativa se funda en las preguntas que el usuario plantea, es indispensable saber preguntar. La IA no “entiende” ni te lee la mente: constituye una proyección estadística a partir de lo que otros cuestionan. No hace análisis crítico, no puede seleccionar en función de las prioridades que un sujeto humano puede tener. Ojo: no podemos negar que ahora algunos teléfonos inteligentes lo son más que sus usuarios. No me abstraigo de una realidad que ya nos alcanzó, pero recuerdo cuando tenía un teléfono móvil que sólo servía para hacer llamadas y yo era capaz de recordar los números de todo mi directorio. Los teléfonos móviles de pronto, dejaron de tener botones, dejaron de darme un sonido específico al pulsar en cierta secuencia un número, que era lo que hacía que pudiera memorizarlos. No omito decir que el teléfono inteligente me hizo perder la memoria. No me hizo más tonta, me hizo más dependiente. Claro que puedo recordar números, pero me cuesta muchísimo más trabajo.
Hace días un conductor de taxi me platicaba de sus hijas: con mucho orgullo me decía que dominaban el inglés y que eran capaces de regular el mundo a través de su tablet. Tal vez demasiado, pues una de ellas hizo un pedido por una plataforma y le invitó el desayuno a todxs sus compañeritxs en el salón. “¡¿La escuela permite eso?!” preguntó sorprendido el padre, abrumado por el monto del cargo. Le respondieron que sí, pero yo me respondí mentalmente que la tecnología y todos nosotros permitimos eso. Está bien, hace la vida más sencilla, pero hay que trazar los límites. Concluimos la conversación cuando me dijo: “fíjese que creo que mis hijas, en un par de años, ya no podrán escribir a mano”. Sigo en shock, porque tiene razón.
A lo que voy es que, en los últimos días, he estado pensando y comentando con mis colegas de qué manera tenemos que replantear no sólo nuestras estrategias didácticas, sino las de evaluación, en cualquier nivel educativo. La inteligencia artificial ciertamente ayudará a varios a salir del paso con tareas o asignaciones más demandantes, como una tesis de grado (cuidado aquí). No me atrevo ni a pensar en recurrir a una plataforma para que me haga un escrito, carajo, ¡pues si eso es lo que hago! Hago textos y me he mantenido de hacerlos desde los 17 años. ¿Podría permitir que, en un equipo curatorial, alguien remplazara mis cédulas por unas construidas por el ChatGPT? ¿Podría estar tranquila si mis estudiantes me dan información generada por OpenAI? No; lo que me tranquiliza es que hagan un ejercicio crítico de la herramienta y que la empleen sin que se desdibujen en sus resultados. La IA generativa seguramente nos permite resolver; quizá, hasta una forma de conocer, pero no puede sustituir nuestro saber, salvo que queramos renunciar a él.
Muy interesante, para reflexionarlo. Saludos.