¿Cómo fomentar la Integridad Académica en la era de la Inteligencia Artificial?
En la búsqueda constante de adaptarnos a los cambios tecnológicos, la integración de la inteligencia artificial (IA) en la educación superior se presenta como una realidad inevitable. Sin embargo, este avance tecnológico plantea desafíos significativos en términos de integridad académica, especialmente en la evaluación justa y objetiva de los estudiantes. La integridad académica es esencial en la educación y la investigación.
En este artículo exploramos el uso ético de herramientas de IA para preservar la honestidad en las labores académicas, mientras se descubre cómo aprovechar las ventajas que aportan estas herramientas.
La Base de la Integridad Académica
Para abordar el tema es necesario comprender algunas definiciones fundamentales:
La Red Europea de Integridad Académica define la integridad académica como la conformidad con principios, estándares, prácticas y valores éticos y profesionales. Esta definición abarca la toma de decisiones y acciones en los ámbitos de la educación, la docencia y la investigación. Esta definición se complementa con la propuesta del Centro Internacional de Integridad Académica, que la concibe como un compromiso con valores fundamentales como la honestidad, la confianza, la justicia, el respeto, la responsabilidad y la valentía.
La integridad académica no solo se trata de difundir políticas, sino también de formar a los estudiantes en la internalización de estos valores que ayudan a cumplir una función normativa y garantizan que la evaluación y calificación se realicen de manera justa y objetiva.
La evaluación justa no solo implica la aplicación de políticas generales de integridad, sino la adaptación a las realidades concretas que enfrentan profesores y estudiantes en el aula. La cultura de la integridad en la educación superior debe ser transversal, abordando los desafíos específicos que surgen con la introducción de tecnologías como la IA.
Explorando perspectivas emergentes: Inteligencia Artificial Generativa y la Integridad Académica
En la era de la inteligencia artificial, surge un tema que ha capturado la atención de académicos y estudiantes por igual: la proliferación de la Inteligencia Artificial Generativa. Este tipo de tecnología aprovecha modelos de aprendizaje profundo para generar contenido, ya sea en forma de texto o imágenes, en respuesta a indicaciones complejas proporcionadas por los humanos.
Es esencial comprender que los avances en la IA Generativa han alcanzado un punto en el que resulta desafiante para estudiantes de posgrado y académicos distinguir con claridad entre textos generados por esta tecnología y aquellos creados por seres humanos. Este fenómeno plantea cuestionamientos cruciales sobre la integridad académica y la ética en el proceso educativo.
En muchos casos, las aplicaciones de IA Generativa han alcanzado la capacidad de producir textos de alta calidad, lo que ha llevado a la preocupación de que algunos estudiantes puedan estar presentando trabajos generados por estas tecnologías como si fueran propios. Este escenario plantea problemas significativos, ya que implica que los estudiantes podrían estar perdiendo la valiosa oportunidad de aprender de manera independiente a resolver problemas y tomar decisiones de forma crítica y justa.
El dilema que representa el uso de la Inteligencia Artificial Generativa en la Educación
En este camino el debate se intensifica al considerar que el uso de Gen Ai para la creación de trabajos académicos podría calificarse como plagio o incluso como fraude de contrato. La noción de plagio surge de la falta de claridad sobre el origen de los textos generados por Gen Ai, lo que podría llevar a la inadvertida comisión de plagio por parte de quienes utilizan esta tecnología. Por otro lado, el fraude de contrato se relaciona con la delegación de trabajo a una entidad no humana, lo que podría encubrir las habilidades reales del estudiante y socavar la validez de las evaluaciones.
Es interesante destacar que el uso de Gen Ai no se limita solo al ámbito académico; muchos estudiantes están empleando estas herramientas para mejorar su aprendizaje. Esto es especialmente relevante para estudiantes de grupos minoritarios, aquellos que hablan lenguas extranjeras o personas con discapacidades, ya que Gen Ai puede nivelar la cancha y proporcionar apoyo personalizado.
Sin embargo, este avance tecnológico no está exento de controversia. En algunos lugares del mundo, ha generado un pánico moral, llevando a la prohibición de su uso en sistemas educativos. Aunque esta postura puede parecer extrema, se plantea la pregunta de si es la respuesta más adecuada.
Desde la perspectiva de los estudiantes, estudios realizados en Australia y Hong Kong revelan una dicotomía interesante. Por un lado, expresan que Gen Ai facilita el acceso al conocimiento, brindando una experiencia de aprendizaje más personalizada al ofrecer apoyos para la generación de ideas y perspectivas variadas. Sin embargo, también señalan limitaciones, como la producción de información falsa o sesgada, lo que podría afectar negativamente el valor de su educación universitaria.
Además, los estudiantes plantean preguntas cruciales sobre el futuro: ¿Qué habilidades serán demandadas en el mundo laboral? ¿Cómo afectará el uso ético de Gen Ai al valor de la educación universitaria? Estos cuestionamientos nos invitan a reflexionar sobre la necesidad de adoptar adecuadamente esta tecnología, aprovechando su potencial de manera ética y transparente.
El dilema de Gen Ai y la integridad académica nos desafía a encontrar un equilibrio entre la innovación tecnológica y la preservación de los principios fundamentales de la educación. A medida que exploramos estos puntos de vista emergentes, queda claro que el camino hacia decisiones informadas y éticas en este ámbito aún está por recorrer, pero la conversación ya ha comenzado.
En la implementación de políticas de integridad académica, surge la pregunta inevitable: ¿Cómo evaluamos de manera justa a nuestros estudiantes en un contexto donde herramientas como el Chat GPT pueden estar desdibujando el respeto por los derechos de autor?
Formación y Transparencia para superar los conflictos en el uso de tecnologías de IA
Para abordar los desafíos de la IA, diversas universidades en Latinoamérica como la PUCV, han destacado la necesidad de un enfoque interdisciplinario. La colaboración entre expertos de diferentes campos e instituciones y profesionales de la inteligencia artificial es necesaria para una implementación efectiva y ética de estas tecnologías.
En este sentido también es necesario abordar la responsabilidad de los docentes en la era de la IA, que va más allá de la aplicación de sanciones y se debe enfocar en la formación en integridad académica abogando por una visión positiva de este valor como parte esencial de la formación universitaria.
La introducción de la IA, en particular del Chat GPT está planteando un desafío significativo para los docentes y a la vez es una oportunidad para generar nuevas instancias de aprendizaje, es por esto que la formación y actualización de los docentes se está volviendo esencial, ya que estas habilidades van a permitirles guiar a los estudiantes en el uso ético y efectivo de las nuevas herramientas.
Implicaciones éticas del uso de IA Generativa en la Educación
Según estudios recientes, las preocupaciones por la copia es la principal razón por la cual las instituciones están reflexionando sobre el uso de IA en la educación. 26% de las instituciones educativas afirmaron que esta es la principal razón por la que no usan IA.
De igual manera, un alto porcentaje de las instituciones (56%) que están considerando incorporar la IA es para detectar el uso de IA Generativa, y los contenidos creados con estas herramientas, considerados como plagio. Coincide que este grupo de instituciones que también han implementado políticas en torno a la integridad académica (21%).
Actualmente estamos todavía lejos de conocer y comprender el impacto real de la IA en la Integridad Académica. Aunque hay muchas teorías y preocupaciones sobre cómo puede ser utilizada de forma inadecuada para cometer trampa, todavía no se tienen los estudios o la información suficiente que nos muestre qué es lo que los estudiantes están haciendo realmente y qué tan efectivas pueden ser las políticas institucionales para regular el uso y combatir el plagio.
Un estudio liderado por la Dra. Le Iron, arroja luz sobre las implicaciones éticas de la IA Generativa en la enseñanza, el aprendizaje y la investigación. Su proyecto destaca dos problemas éticos:
El primero es que las herramientas de IA Generativa tienen el potencial de sustentar trampas indetectables. Desde la falta de software para identificarlas, hasta la escasa concientización y oportunidades de desarrollo docente, el riesgo de su mal uso es evidente. También se reconoce el peligro de que lo generado por IA pueda contribuir a la propagación de sesgos, dando lugar a prácticas discriminatorias.
El segundo es la falta de datos y estudios de estas tecnologías. Las instituciones aún no tienen definido cómo mantener sus procesos de evaluación seguros y protegidos del mal uso de estas tecnologías y aún no tienen una metodología que les permita asegurarse de que estas herramientas están usándose de forma adecuada por los estudiantes.
Al ser un terreno nuevo, las políticas educativas no han definido claramente si el uso de estas herramientas en procesos de escritura constituye plagio, por lo cual, se necesita transparencia y control en su aplicación mientras se resuelven preguntas sobre la forma correcta de atribuir la autoría y el proceso para identificar evidencias del aprendizaje adquirido con su uso.
Entonces la gran pregunta en estos momentos es ¿cómo podemos redefinir la forma en la que evaluamos en un mundo donde la educación convive con la IA?, ¿qué beneficios traería una nueva forma de aplicar exámenes donde los estudiantes y docentes tengan la oportunidad de apalancarse en la IA?
Es un hecho que la llegada de la IA es un gran cambio en la educación y debemos tener en consideración qué beneficios y evolución va a traer a la educación. Es muy emocionante saber que la IA va a traer muchos beneficios., pero es necesario conocer y guiar sobre cómo usarla adecuadamente, sin perder de vista que el enfoque principal es el desarrollo del pensamiento crítico de los estudiantes.
Roger James Hamilton, fundador y CEO de Genius Group afirma que “La fusión de la IA y la educación se presenta como una promesa para el futuro al adaptar las experiencias de aprendizaje, cultivar el pensamiento crítico y democratizar el acceso. El aprendizaje basado en la IA actúa como un terreno fértil para nutrir a los emprendedores del mañana” (eCampus News).
Recomendaciones para el uso ético de la IA Generativa desde una perspectiva de Integridad Académica
A continuación examinaremos las recomendaciones proporcionadas por diversos expertos y organizaciones. Estas sugerencias se centran en facilitar y promover un uso ético de la IA Generativa abordando diferentes niveles de la estructura académica.
1. Nivel Micro: Responsabilidad y Alfabetización en IA Generativa.
En el nivel micro, que se refiere a lo individual, los expertos resaltan la importancia de asociar los resultados de aprendizaje con habilidades que fomenten el uso ético de la IA Generativa por parte de los estudiantes. La alineación con políticas institucionales y criterios de acreditación es crucial.
Además, se recomienda integrar intencionadamente la alfabetización en inteligencia artificial, ética y competencias genéricas como la autoeficacia y el pensamiento crítico. La creación y aplicación de evaluaciones válidas son esenciales, y se destaca la necesidad de brindar apoyo y mentoría a docentes para adaptarse al nuevo escenario tecnológico.
2. Nivel Meso: Formación de Docentes y Profesionales.
A nivel meso, que involucra a departamentos y programas, se enfatiza la formación de docentes y profesionales. Dado que se requiere un manejo de información sólida sobre la IA Generativa, la comprensión de sus implicaciones y complejidades es fundamental. Los procesos formativos deben proporcionar espacios de colaboración, conocimiento profesional y autonomía para garantizar el éxito de la implementación.
3. Nivel Macro: Desarrollo de Capacidades y Alfabetización en IA Generativa.
Las recomendaciones a nivel macro, que abarca a las instituciones, se centran en educar a los estudiantes en el uso ético de estas herramientas. Talleres, debates y foros abiertos son propuestos para profundizar la comprensión de las implicaciones éticas y proporcionar orientaciones claras. Se destaca la importancia de empoderar a las personas, abordando brechas y desigualdades y también se recomienda aumentar la conciencia sobre el desarrollo de la Inteligencia Artificial y sus impactos potenciales en los derechos humanos.
3 Prácticas que ayudan a promover la integridad académica ante el creciente uso de IA en la educación
1. Definir las expectativas que se tienen de los estudiantes ante el uso de IA. No podemos asumir que los estudiantes saben lo que esperamos de ellos. Decirles qué es lo aceptable en clase y lo que no. Muchos estudiantes no necesariamente están buscando hacer trampa.
2. Incorporar herramientas que ayuden a disuadir las trampas o el uso inadecuado de herramientas de IA. En este sentido se destaca que, aunque bloquear la IA no siempre es lo más adecuado de cara al futuro, si se quiere incorporar la IA de forma sana a los cursos, la mejor alternativa es bloquear su uso durante los exámenes.
Los expertos afirman que por ahora, que el uso adecuado de la IA en la educación está aún estudiándose y definiéndose, bloquear es mucho más efectivo que detectarlo. Se han hecho muchos experimentos alimentando a ChatGPT con diferentes prompts y se han identificado grandes inconsistencias, por este motivo no se puede tomar acción una vez que se utilizó y generó contenido inadecuado.
Se han estudiado diferentes herramientas de detección y se ha identificado que han generado falsos positivos y falsos negativos y esto no ayuda a mejorar los programas ni la integridad académica. La gran cantidad de estrategias que se pueden utilizar para cambiar o “personalizar” un texto generado con herramientas como ChatGPT hace que su detección sea prácticamente nula, por lo que los docentes y expertos afirman que la detección no les está ayudando a orientar a los estudiantes.
Proctorizer es una herramienta que permite bloquear eficazmente el uso de herramientas de inteligencia artificial generativa como ChatGPT ya que cuenta con niveles y configuraciones de supervisión estrictas que impiden que el estudiante salga de la pantalla completa del examen y evitan que tenga acceso a aplicaciones web y herramientas de IA generativa a través del escritorio.
En este contexto la tecnología utilizada por Proctorizer, que también es IA, puede convertirse en un aliado para la educación al ayudar a disuadir la deshonestidad y proveer un proceso claro y transparente que el estudiante debe completar para validar su identidad, verificar su entorno y responder un examen en línea de forma segura y transparente. Esta práctica ayuda a aliviar y mitigar la deshonestidad académica que conlleva el uso de IA.
3. Ayudar a los estudiantes a entender cómo funcionan las herramientas de IA Generativa y por qué la integridad académica es importante en el contexto actual. Debe mantenerse el enfoque en lograr que los estudiantes aprendan a preguntarse si la información generada por la IA es realmente verídica, las instituciones están formando profesionales que deben ser buenos ciudadanos. No importa para qué utilizan las herramientas de Inteligencia Artificial, los estudiantes deben tener capacidad de discernimiento.
Nuestro sistema se ha convertido en una herramienta fundamental para más de 100 instituciones y empresas de América Latina a las cuales ayudamos a garantizar la integridad de sus exámenes virtuales sin poner en riesgo la reputación y la seguridad de su información.
¿Le interesa conocer cómo Proctorizer puede ayudar a su institución a crear un entorno seguro y preparado para la llegada de herramientas de IA Generativa como ChatGPT?
Contáctenos aquí o déjenos sus datos a continuación: