Competencias Docentes en IA Generativa. ¿Por dónde comenzar?

Como parte de su iniciativa más amplia: “La IA y los futuros del aprendizaje”, la UNESCO recientemente comunicó en su sitio que ya está elaborando los Marcos de competencias en materia de IA tanto para profesores como para estudiantes. Los Marcos se presentarán en la Semana del Aprendizaje Digital en marzo de 2024.

La UNESCO destacó que el Marco de competencias en IA para docentes definirá los conocimientos, habilidades y actitudes que deben poseer los docentes para comprender las funciones de la IA en la educación y utilizarla en sus prácticas docentes de manera ética y eficaz y el Marco de competencias en materia de IA para alumnos, articulará los conocimientos, habilidades y actitudes que los alumnos deben adquirir para comprender y participar activamente con la IA de una manera segura y significativa en la educación y fuera de ella.

Mientras estos Marcos se desarrollan, las comunidades educativas se preguntan, ¿por dónde se puede comenzar a mejorar las competencias docentes en materia de Inteligencia Artificial?

Recomendaciones para el uso de Inteligencia Artificial Generativa en la Docencia

Con base en el reciente informe emitido por la Universidad Nacional Autónoma de México, titulado: “Recomendaciones para el uso de Inteligencia Artificial Generativa en la docencia”, una estrategia inicial para integrar la Inteligencia Artificial Generativa (IAGen) en la enseñanza implica la identificación de las necesidades educativas que podrían ser abordadas mediante la adopción de estas herramientas, Además, cada docente debe reflexionar sobre si algunas de las labores relacionadas con la gestión, la enseñanza, el aprendizaje o la evaluación podrían mejorarse al incorporar herramientas que generen texto, imágenes o contenido multimedia.

No obstante, este proceso implica inevitablemente familiarizarse con los principios fundamentales y el lenguaje específico de la IA Generativa. A pesar de que el tema ha sido ampliamente divulgado en los medios de comunicación, la falta de conocimiento e incluso confusión al respecto, es un reto que afronta la comunidad académica y estudiantil (UNESCO, 2023). Se sugiere consultar glosarios diseñados para educadores, como el elaborado por (Ruiz y Fuso, 2023), para adentrarse en la terminología pertinente.

Frente a la gran cantidad de documentos, podcasts, presentaciones y webinars sobre este tema, se aconseja comenzar con los recursos más accesibles y específicamente diseñados para docentes, en esta línea, la UNAM desarrolló un curso masivo abierto en línea (MOOC) sobre los aspectos básicos del uso de IA Generativa en docencia, disponible en la plataforma Coursera.

Además pueden tomarse en consideración las siguientes recomendaciones que hemos extraído del informe generado por la UNAM:

1. Considerar los riesgos asociados con la Inteligencia Artificial Generativa

De acuerdo con el informe de la UNAM, en los modelos de lenguaje de gran escala, los datos utilizados para su entrenamiento pueden influir en las respuestas generadas y si no se tiene un enfoque crítico, es altamente probable que impacte en la calidad, veracidad y precisión. Por lo tanto es crucial ser conscientes de que existe la posibilidad de sobrevalorar a las herramientas de inteligencia artificial generativa. Según (Ray, 2023), se identifican diversos riesgos, tales como: Limitaciones en la fiabilidad y precisión de la información, sesgos en los modelos, exceso de confianza en las herramientas que pueden reducir el pensamiento crítico y la resolución independiente de problemas, falta de estabilidad en el control de calidad, sesgos en las bases de datos, problemas de generalización y de explicabilidad en las decisiones, preocupaciones de seguridad de la información generada, como la generación de contenido inapropiado y falso, preocupaciones de privacidad; errores factuales y alucinaciones, así como sesgos culturales y lingüísticos.

2. Tener claras cuáles son las limitaciones de la Inteligencia Artificial Generativa en estos momentos

A pesar de la creciente potencia y flexibilidad de las IA Generativas, es fundamental formular peticiones, usualmente llamados “prompts” de manera precisa, ya que si no se le brinda de forma precisa pueden perder el contexto, especialmente tras varias interacciones, y su rendimiento puede ser inadecuado en situaciones ambiguas (Ray, 2023). Expertos como (Yan et al., 2023) indican la falta de validación en entornos educativos reales, resaltando la poca transparencia y la escasa participación de agentes relevantes en el diseño de innovaciones. Mejorar la transparencia y la participación podría conducir al desarrollo de tecnología educativa más impactante. En este sentido, es importante que los docentes, investigadores y responsables de políticas trabajen de manera colaborativa para formular lineamientos sobre el uso de herramientas como ChatGPT en el aula.

El informe “Recomendaciones para el uso de Inteligencia Artificial Generativa en la docencia” de la UNAM destaca que los GPT podrían considerarse “modelos fundamentales”, siendo herramientas de propósito general. Además, sugiere que tanto desarrolladores como educadores deben trabajar en la creación de modelos de “ajuste fino”, denominados “EdGPT”, específicamente entrenados para objetivos educativos con datos de alta calidad y en dominios específicos.

Una clara problemática actual tras el uso cada vez más frecuente de herramientas de Inteligencia Artificial Generativa en entornos académicos, es que no hay una regulación efectiva, lo que ha llevado a situaciones como casos de plagio y usos inapropiados derivados del desconocimiento sobre el funcionamiento de estas plataformas. Este vacío en la regulación se ha reflejado con mayor énfasis en los exámenes en línea, donde se han detectado trampas y conductas académicamente deshonestas.

Para contrarrestar esta problemática, es fundamental considerar la integración de herramientas que regulen el uso de la Inteligencia Artificial Generativa durante los exámenes. En este contexto, Proctorizer se destaca como una alternativa líder en el sector educativo de Latinoamérica que ha sido reconocida por Universidades e importantes instituciones por su calidad en el servicio y el acompañamiento brindado por expertos en implementación e integridad académica, lo que la convierte en una opción sólida para garantizar la integridad durante las evaluaciones en línea.

3. Estrategias para mitigar los riesgos de la IA Generativa en la docencia

Una de las preguntas más frecuentes en la comunidad educativa es ¿qué se puede hacer desde la posición del docente para afrontar los riesgos del uso de IA Generativa?

En el citado informe, la UNAM destaca un marco teórico que los docentes pueden utilizar para regular y aprovechar al máximo los beneficios de estas inteligencias. Dicho marco teórico (Su y Yang, 2023) se resume en los siguientes pasos:

1. Identificar los resultados deseados para asegurar la alineación de la herramienta con los objetivos educativos.
2. Determinar el nivel de automatización deseado.
3. Analizar las consideraciones éticas, incluyendo posibles sesgos y su impacto en docentes y estudiantes.
4. Evaluar la efectividad en el logro de los resultados deseados.

Además, se proponen 5 estrategias de mitigación de riesgos:

1. Verificar el contenido de las respuestas a través de sistemas de revisión para garantizar su validez.
2. Proporcionar formación docente sobre el tema.
3. Promover el diseño inclusivo para minimizar la exclusión de poblaciones vulnerables y minorías.
4. Realizar evaluaciones periódicas de los sistemas de IA Generativa por terceros para verificar su eficacia y equidad.
5. Fomentar el diseño y aplicación de un marco regulatorio apropiado para su uso, que incluya políticas sobre la recopilación y el manejo de datos de estudiantes y docentes.

4. Entender la importancia de la "explicabilidad" en la IA

El informe de la Universidad Autónoma de México aborda un concepto por demás interesante: La “explicabilidad” en la IA Generativa, misma que define como un principio esencial que debe guiar su estudio, desarrollo y uso. Se refiere a la capacidad de comprender y explicar cómo se toman las decisiones internamente en los sistemas. En palabras de Barredo Arrieta (et al., 2020), a medida que un sistema se vuelve más extenso y complejo, resulta más difícil interpretar su procesamiento interno, convirtiéndose en una “caja negra” para los usuarios.

Por lo tanto, destaca que abordar la explicabilidad de manera práctica permite evaluar la precisión, los sesgos y las posibles tendencias del sistema, promoviendo la confianza y transparencia para garantizar la privacidad. Así, la explicabilidad establece puentes entre la complejidad de los modelos de IA Generativa y la comprensión humana, siendo esencial para una adopción ética y responsable en la vida diaria y en el ámbito académico.

5. Conocer cuáles son los retos de Seguridad en el uso de IA en la Educación

Se plantean desafíos de equidad y protección. La rápida adopción de estas tecnologías sin una regulación sólida ha generado preocupaciones sobre la protección y la privacidad. En este sentido, eI informe de la UNAM aborda estrategias clave para garantizar un entorno educativo justo y transparente.

a) Desafíos de Protección y Discriminación

El manejo de la Inteligencia Artificial Generativa (IAGen) en el ámbito educativo plantea desafíos cruciales en cuanto a la protección contra el sesgo algorítmico y la discriminación. Evitar la discriminación resultante de posibles sesgos de las IAGen es fundamental para asegurar un trato justo y equitativo, evitando tratamientos injustos basados en características protegidas por la ley (The White House, Office of Science and Technology Policy, 2023). La rápida adopción de IAGen dificulta la eliminación de estos sesgos, debido a la limitada regulación global y nacional.

Estrategias como la diversificación y filtrado de datos durante el entrenamiento, junto con sistemas de retroalimentación, pueden ayudar a garantizar que la información generada sea representativa de la población objetivo (Akter et al., 2021). Es vital que las diversas instancias relevantes aborden estos aspectos sin frenar la innovación. También destaca que la supervisión de los resultados por parte del usuario final, sigue siendo esencial.

b) Importancia de la Privacidad

La protección de la privacidad es fundamental en el uso de aplicaciones basadas en IAGen, exigiendo una transparencia clara acerca del uso de datos y otorgando a los usuarios el control sobre su utilización. Es vital revisar los avisos de privacidad de las herramientas que utilizan IAGen para garantizar que la recopilación de datos sea necesaria y acorde con expectativas razonables. Los fines de uso de los datos no deben comprometer la integridad ni poner en riesgo información sensible. Es crucial que los sistemas sigan principios éticos recomendados por la UNESCO sobre la IA (UNESCO, 2021).

Para finalizar este artículo, abordaremos el enfoque que el informe manifiesta en lo que refiere a los desafíos para la Integridad Académica frente al uso de IA Generativa:

6. Tener claridad en cuáles son los retos para la Integridad Académica

a) Manejo Responsable de la Información

El manejo ético de la información en el contexto de aplicaciones de IA Generativa implica respetar las fuentes, atribuir créditos y asegurar el uso constructivo de datos para el aprendizaje y la generación de conocimiento (Giannini, 2023; Lim et al., 2023). El uso inapropiado puede conducir a la deshonestidad académica, erosionar la confianza y comprometer la calidad educativa. Por lo tanto, promover prácticas responsables y éticas es fundamental.

b) Fomento de la Transparencia

La transparencia en el uso de sistemas de IA Generativa en la educación es esencial para establecer un entorno educativo confiable y efectivo (Chan, 2023). Proporcionar información clara sobre la generación de contenido y materiales permite a los educadores comprender el proceso y evaluar la calidad de los recursos generados. Esta transparencia permite adaptar enfoques educativos de manera más precisa y relevante para las necesidades académicas.

c) Enfrentando Nuevas Formas de Plagio y Deshonestidad

El uso de IA Generativa ha introducido nuevos desafíos en cuanto a la integridad académica, con la posibilidad de presentar contenido generado por IA como propio o utilizarlo inapropiadamente en tareas y exámenes (Chan, 2023). A pesar de los intentos de etiquetar el contenido generado artificialmente, los detectores actuales no son confiables en entornos prácticos, y pueden generar sesgos en contra de quienes tienen el inglés como segundo idioma (Liang et al., 2023).

En el citado informe, la UNAM propone que las estrategias para abordar estos retos deben enfocarse en mantener un código ético en el manejo de plataformas educativas, subrayar la responsabilidad compartida de los usuarios y diseñar actividades educativas que requieran habilidades humanas como la creatividad y el pensamiento crítico, no obstante, ponemos en consideración que la agilidad de los avances tecnológicos y la rápida adaptación de las nuevas generaciones de estudiantes para utilizar IA generativa e idear nuevas formas de plagio o copia durante los exámenes seguirá siendo una constante. 

Es por eso que recomendamos implementar una solución de proctoring que formalice el entorno de evaluación en línea, añada una capa de seguridad que permita proteger la integridad de sus exámenes y contribuya al fortalecimiento de la Integridad Académica en entornos virtuales que, sin duda alguna, seguirán conviviendo con la Inteligencia Artificial Generativa.

¿Le gustaría conocer cómo Proctorizer asegura la integridad de los procesos evaluativos?

Le invitamos a ver esta demo de Proctorizer donde mostramos lo fácil que es configurar la supervisión remota, lo fluida que es la experiencia del estudiante, qué es lo que se detecta con Proctorizer y cuáles son las mejores prácticas para la implementación exitosa de exámenes supervisados.