Borrar
César Poyatos visita la sede de Orona en Hernani para impartir una conferencia sobre Inteligencia Artificial y su uso en las aulas. Lobo Altuna

«Los profesores ya utilizamos la IA en los procesos de evaluación y es muy práctica»

César Poyatos | Experto en Inteligencia Artificial en el ámbito educativo ·

Asegura que la herramienta «no es buena o mala», sino que depende «del buen o mal» uso que hagamos de ella

Iñigo Villamía

San Sebastián

Domingo, 3 de marzo 2024, 07:14

Comenta

La inteligencia artificial generativa permite innovar, optimizar y transformar recursos y está impactando en muchos campos. Uno de ellos es la educación. César Poyatos (Madrid, 1977), experto en aplicación de la IA en el ámbito educativo, asegura que se trata de una «herramienta magnífica» si se hace un buen uso de ella, pero advierte de sus riesgos. «La IA también se equivoca», por lo que insta al profesorado a educar a los alumnos en un uso ético, seguro y responsable de esta tecnología. De ello y mucho más habló en una nueva edición de Aukera Topaketa organizada por Kristau Eskola.

- Todos los días leemos en los medios de comunicación novedades en torno a la IA.

- Yo creo que es una revolución comparable a la aparición de la imprenta o de Internet. Son este tipo de tecnologías que son disruptivas, que llegan muy rápido y que transforman todas la reglas del juego y cambian numerosos sectores, entre ellos el educativo. No estamos en una era de cambios, sino en un cambio de era.

- Precisamente en la educación esta herramienta abre un amplio abanico de posibilidades, pero también de desafíos, incertidumbres y riesgos, ¿no?

- Para el docente es una herramienta magnífica que ya se utiliza como asistente programático porque le ayuda a diseñar y personalizar las experiencias de aprendizaje de sus alumnos, a diseñar recursos y materiales docentes desde un punto de vista de inclusión y accesibilidad... También la usamos para ahorrarnos mucha burocracia y nos ayuda en los procesos de evaluación, sobre todo de esa evaluación para el aprendizaje, esa evaluación formativa. ¿Los riesgos? Como ocurre con otro tipo de tecnología. No todos son beneficios.

Tecnología disruptiva

«La IA ha llegado muy rápido, ha transformado todas las reglas del juego y ha cambiado numerosos sectores»

- ¿Puede poner algún ejemplo?

- Que la IA también se equivoca. No podemos otorgarle el principio de fiabilidad. Al alumnado tenemos que enseñarle a desarrollar una serie de habilidades y competencias mediáticas e informativas para que sea capaz de contrastar si aquello que le devuelve la IA es o no fiable, que sepa contrastar otras fuentes e identificar los sesgos, que es muy importante.

- El uso masivo de generadores de texto, como ChatGPT, de imágenes o música, ¿no reducirá la creatividad en el alumnado?

- Sin conocimiento no podemos crear, ni con IA ni sin IA. Se necesita conocimiento profundo para dar instrucciones a la inteligencia artificial y que te devuelva aquello que quieres y se necesita conocimiento para que aquello que te da la IA tenga la calidad que tú esperas cuando has hecho esa consulta.

- (...)

- Lo que tenemos que ver es cuándo, por qué y para qué la utilizamos. Puede ser un gran asistente que me puede ayudar y me puede dar una retroalimentación para mejorar mi aprendizaje, pero sin conocimiento tú no vas a poder modelar nunca a la IA.

ChatGPT

«Se necesita un conocimiento profundo para dar instrucciones a la IA y que te devuelva aquello que quieres»

- Asegura que la IA no supone el fin de la educación, sino que abre otro tipo de funcionalidades que podemos implementar y sacarles mayor partido. ¿En qué sentido?

- Al fin y al cabo llevar la IA a las aulas o llevarla a tu profesión no te cambia nada porque no deja de ser una herramienta que no es ni buena ni mala. Es el buen o el mal uso que hagas de esa herramienta. Entonces, ¿cuándo tiene sentido? Cuando tiene un propósito y un fin pedagógico, cuando estoy desarrollando esos materiales accesibles inclusivos, cuando estoy personalizando la experiencia de aprendizaje de mi alumnado, cuando estoy proponiendo actividades que la IA me pueda adaptar la dificultad de los ejercicios, las actividades y tareas, cuando me puede adaptar los contenidos a mi centro de interés o a mi contexto más próximo. Ahí es cuando tiene sentido la inteligencia artificial.

- Ha señalado también que la IA puede tener una aplicación virtuosa en la educación, humanizando itinerarios, personalizando contenidos y competencias. ¿Cómo se conseguiría esto?

- Es muy sencillo. Al final la inteligencia artificial generativa lo que puede es, al igual que por ejemplo cualquier plataforma audiovisual que te presenta contenidos basándose en tus gustos, ser capaz de detectar patrones y puede ver cuáles son tus fortalezas en la asignatura que tú estés aprendiendo y cuáles son tus áreas de mejora. Es decir, te puede ir proponiendo una batería de ejercicios con distinto grado de dificultad de tareas o de contenidos adaptados a tus necesidades específicas. Y eso lo cambia todo porque permite generar itinerarios personalizados de aprendizaje y que cada alumno pueda construir su propia aventura de aprendizaje gracias a estos sistemas.

- En el campo de los riesgos apunta a la posible exclusión y la brecha digital de las personas menos favorecidas. ¿Cómo se combate esto?

- Aquí tenemos varias brechas. La de uso, que la sepas utilizar o no, la brecha de acceso a este tipo de tecnología o la de género. Sobre todo en el ámbito digital existe también una fuerte brecha de género. ¿Qué podemos hacer? La escuela, la familia, los medios de comunicación y la sociedad están precisamente para eso, para garantizar esa equidad y dotar de oportunidades y de acceso a este tipo de tecnología y que nuestro alumnado sea competente digitalmente cuando salga de la escuela y sepa utilizarla para poder construir y mejorar su proyecto de vida.

Aulas

«La IA puede detectar patrones que nos indican cuáles son las fortalezas de los alumnos y cuáles son sus áreas de mejora»

- Ha hablado también de la necesidad del buen manejo de datos en el mundo educativo y de crear un alumnado crítico. ¿Se puede conseguir?

- La IA nos da respuestas muy rápidas, pero claro, si tú no tienes conocimiento y si tú no te haces preguntas como '¿esto es veraz, no lo es? Voy a consultar otra fuente', y si no tienes esa capacidad de cuestionarte, de discernir, de analizar, de emitir juicios críticos, te vas a quedar con lo primero que te venga. Y por eso en esta era de las respuestas muy rápidas necesitamos educar a nuestro alumnado en hacer y hacerse buenas preguntas.

- La IA ha revolucionado la medicina y la farmacia y ha servido, entre otras cosas, para prevenir el cáncer de mama gracias a que maneja millones de datos. ¿Cuál puede ser el límite de estos avances?

- El límite va a venir de la regulación que se haga. Con esto pasa lo mismo que cuando apareció Internet, que la gente se bajaba películas y canciones y era una herramienta maravillosa que nos permitía conectar, pero también una herramienta que determinada gente utilizaba con otros fines que con el tiempo se han convertido en delitos como el 'phishing', el 'grooming' o el 'sexting'. Con la IA es igual. Es una tecnología en la que la regulación va siempre después de la innovación. Ahora ha salido un marco europeo y veremos qué regulación hacen los Estados miembro de la UE para poner límites, sobre todo, con qué datos se ha entrenado a la inteligencia artificial, qué sesgos tiene, si vulnera o no los derechos de autor... Tenemos muchas preguntas y esa pelota, en estos momentos, está en el tejado de los políticos.

- ¿Cómo se puede prevenir el abuso de derechos de autor?

- Te voy a poner dos ejemplos. Uno es el cantante Bad Bunny. Como la IA detecta patrones puede detectar tu estilo musical o el tono y timbre de tu voz y reproducirlo. Entonces se ha hecho viral porque han generado canciones con su voz que han tenido más reproducciones que las suyas propias. El problema es: ¿ha compuesto Bad Bunny alguna vez esa canción? No. Pero el sistema ha sido entrenado para ello. Ahí hay un límite que no está regulado. Ante eso ha habido gente que lo que está haciendo es quejarse, como por ejemplo los autores, y lo entiendo perfectamente, y luego hay personas como Kendall Jenner, que es el segundo ejemplo. Esta actriz lo que ha hecho ha sido vender su imagen, su avatar y su voz a Meta, a Facebook, y ahora es su asistente virtual.

- En resumen...

- Hace 20 años, el escritor Mark Prensky acuñó un término que es 'nativos digitales'. Pero que los niños sean nativos digitales no quiere decir que sean competentes digitales. Y ahí es donde estamos nosotros, las familias y las escuelas, para no dejar que se alfabeticen solos y mediar, acompañar y educar en ese uso ético, en ese uso seguro y en ese uso responsable de esta tecnología, porque si no lo hacemos, se van a educar solos y eso es lo peor.

Publicidad

Publicidad

Publicidad

Publicidad

Esta funcionalidad es exclusiva para suscriptores.

Reporta un error en esta noticia

* Campos obligatorios

diariovasco «Los profesores ya utilizamos la IA en los procesos de evaluación y es muy práctica»

«Los profesores ya utilizamos la IA en los procesos de evaluación y es muy práctica»