La Inteligencia Artificial (IA) aplicada como tutor personal de un estudiante fallaría hoy "entre el 20 y el 40 por ciento de sus respuestas".
Así lo sostiene el profesor de la Universidad Católica de Valencia (UCV) Enrique Estellés, quien lleva años dedicado al estudio de la IA. Tras doctorarse con una tesis sobre inteligencia colectiva --capacidad intelectual manifestada como producto de la colaboración de varios individuos o comunidad, para abordar un problema común--, sus investigaciones le llevaron al área de la ética de la tecnología y, de ahí, a la ética de la inteligencia artificial.
La revolución causada por el advenimiento de chatGPT en 2022 le ha hecho "entrar de lleno" en el uso de esta nueva herramienta y de la IA, en general. Particularmente, como es lógico, en su utilización en ámbito de la educación, explica la institución académica.
Según Estellés, el uso de la IA en colegios, institutos y universidades se puede dar en tres áreas, siendo la primera de ellas la utilización de la IA por parte del docente como herramienta de soporte: "En este caso resulta clave lo que se ha dado en llamar 'Human in the loop'; es decir, que un operador humano -en este caso, el docente- interactúa con la IA, proporcionando orientación, supervisión, experiencia y juicio humano al sistema de inteligencia artificial. Así, el profesor cumple un papel de filtro entre la IA y el alumno".
El segundo ámbito de utilización es el de la educación en inteligencia artificial, esto es, "formar a los alumnos en el uso correcto de la IA". En ese sentido, Estellés remarca la importancia de que los estudiantes conozcan "el funcionamiento interno de esta tecnología, aunque sea a un nivel básico".
"Cuando conoces cómo funciona la IA eres capaz de desmitificar la respuesta que obtienes de ella, como sucede en chatGPT. Si comprendes que opera en base a probabilidades y a la identificación de patrones, entre otros procesos, eres consciente de que detrás de ella no hay más que técnicas estadísticas trabajando con una cantidad ingente de datos, aunque la respuesta de la inteligencia artificial te sorprenda", asegura el especialista en un comunicado.
El tercero de los usos hace referencia a "enseñar con IA", según apunta Estellés: "Debemos tener cuidado con la idea de que hay que introducir estos sistemas en el aula porque los alumnos ya los están utilizando. Ésa no puede ser nunca la única razón para dar ese paso en el ámbito educativo".
"Ya hemos visto lo que ha sucedido con los dispositivos digitales. En un primer momento parecía fantástico hacer de las tabletas y los móviles herramientas pedagógicas para las clases; años después vemos que los sistemas educativos de distintos países han dado marcha atrás en algunos aspectos. Están cambiando sus planes de digitalización con el objetivo de que los dispositivos tengan menos importancia en la enseñanza y han reintroducido los libros en el aula, aumentando el depósito de sus bibliotecas para que los alumnos lean", matiza.
El investigador de la UCV hace referencia al uso de la inteligencia artificial como tutor personal: "Desde el ámbito de investigación en inteligencia artificial y educación se lleva contemplando esa idea desde los años sesenta. La pretensión es encontrar un sistema de IA que funcione como un docente al que el estudiante le haga preguntas y le plantee dudas sobre el temario, y obtenga una respuesta".
Junto a otro experto en IA de la Universidad, Javier Pérez Bou, Estellés ha escrito un capítulo de un libro en el que reflexionan acerca de la pertinencia de desarrollar dicho concepto. En base a las investigaciones que ya se han hecho, ambos consideran que "hoy por hoy no es recomendable usar estos sistemas tecnológicos como tutores personales"
El primer motivo, indica el profesor de la UCV, está relacionado con la existencia de las llamadas "alucinaciones" de la inteligencia artificial: "Estos modelos de lenguaje no buscan la verdad. Cuando les haces una pregunta, estos sistemas utilizan algoritmos que te dan la respuesta que consideran más probable buscando entre los millones y millones de datos de los que disponen. Pero esa respuesta no tiene por qué ser verdad y la IA no comprueban si lo es; estos sistemas simplemente acompañan su respuesta con un mensaje que indica que puede contener errores. Por otro lado, hay investigaciones que han obtenido ratios de errores o inexactitudes de entre el 20 y el 40%. Yo no le asignaría a un alumno un tutor que va a fallar entre dos y cuatro de cada diez preguntas".
"El no determinismo es otro problema de estos tutores personales. Como chatGPT es probabilístico y funciona en base a patrones, la respuesta que te da cuando le haces una pregunta será diferente casi con total probabilidad de la que te dé cuando le plantees el mismo interrogante en otro momento", remarca Estellés.
LOS SESGOS DE CHATGPT
De igual manera, el profesor de la UCV subraya la problemática de los "sesgos". Por ejemplo, "la mayoría de la documentación que ha utilizado un sistema como chatGPT es occidental, sobre todo norteamericano".
Pero "pueden existir más sesgos", incluido el político: "Como universidad, la UCV tiene derecho a educar desde su propia identidad, que no coincide con la de otras muchas instituciones, ni son iguales sus principios a los de otras corrientes filosóficas o ideológicas. Por ello, hay que tener mucho cuidado con los sesgos de estos sistemas a la hora de elegir en qué ámbito y para qué temas los voy a utilizar", concluye.