Cómo afrontar el uso inadecuado de ChatGPT en evaluaciones laborales

En la actualidad, muchas empresas de Latinoamérica tienen diferentes opiniones respecto al uso de las herramientas de inteligencia artificial que están surgiendo, entre las que destaca el uso de ChatGPT. Aunque algunas compañías han adoptado de manera entusiasta esta tecnología y la están integrando en sus procesos, no se puede pasar por alto el hecho de que existen riesgos potenciales que pueden derivar del uso inadecuado de la inteligencia artificial generativa, especialmente cuando se utilizan en evaluaciones laborales.

La percepción sobre estas herramientas varía según la industria y el grado de familiaridad con la IA, pero es innegable que existe un debate activo sobre cómo aprovechar al máximo estas soluciones sin comprometer la privacidad, la ética y la seguridad empresarial.

¿Cómo están incorporando las empresas herramientas como ChatGPT en sus operaciones?

Las empresas están incorporando a ChatGPT en sus operaciones de diversas maneras para mejorar la eficiencia y la calidad de los servicios. A continuación, se presentan algunos casos de uso:

1. Atención al cliente y soporte técnico automatizado

Muchas empresas están utilizando ChatGPT para proporcionar respuestas rápidas y precisas a las consultas de los clientes a través de chatbots. Estos chatbots pueden manejar una amplia variedad de preguntas y problemas, lo que permite a las empresas ofrecer un soporte disponible las 24 horas del día, los 7 días de la semana, y liberar a los agentes humanos para tareas más complejas.

2. Automatización de tareas administrativas

Las empresas están aprovechando ChatGPT para automatizar tareas administrativas, como la gestión de correos electrónicos, programación de reuniones y generación de informes. Esto permite a los empleados centrarse en actividades más estratégicas y creativas, reduciendo la carga de trabajo repetitiva.

3. Traducción y comunicación global

Empresas con operaciones internacionales están comenzando a utilizar ChatGPT para traducir documentos, correos electrónicos y mensajes en tiempo real. Esto facilita la comunicación efectiva entre equipos de diferentes regiones y agiliza la expansión global de las empresas al superar las barreras lingüísticas.

4. Creación de materiales de capacitación

El uso de IA Generativa está revolucionando la forma en que las organizaciones desarrollan y distribuyen recursos educativos. ChatGPT permite la generación rápida, coherente y efectiva de manuales, presentaciones, guías y tutoriales, Esto no solo ahorra tiempo y recursos, sino que también mejora la experiencia de los empleados al proporcionarles recursos de capacitación de forma más oportuna.

5. Generación de contenidos web

ChatGPT se utiliza para crear contenido de marketing de alta calidad, como descripciones de productos, blogs y publicaciones en redes sociales. Esto agiliza el proceso de creación de contenido y asegura una coherencia en la voz de la marca. Además, puede personalizar el contenido para audiencias específicas, lo que mejora la relevancia y el compromiso

¿Qué riesgos se deben tener en cuenta al utilizar ChatGPT en las empresas?

Cuando se utiliza de forma inadecuada la inteligencia artificial, hay riesgos latentes que se deben de considerar. A continuación compartimos una lista con algunos de los riesgos clave:

1. Seguridad de la información

Se debe tener en cuenta que todo lo que se escribe en ChatGPT se recopila, se guarda y se puede utilizar en futuras respuestas a otros usuarios; si no se tiene control sobre la información sensible que se transmite a ChatGPT, el riesgo de que sea vulnerable a la exposición de datos sensibles, es alto.

Considere, estos escenarios:
¿Qué pasaría si un desarrollador le solicita a ChatGPT que depure el código?
¿Qué sucedería si la información de identificación personal de sus empleados se utiliza accidentalmente?

2. Falta de transparencia en los resultados de las pruebas de capacitación

Las herramientas de inteligencia artificial pueden responder preguntas de forma automática y rápida durante las pruebas laborales como exámenes de capacitación o pruebas para evaluar el conocimiento de sus empleados.
¿Qué pasaría en su empresa si los empleados deciden “saltarse” una capacitación importante, pero aprueban las evaluaciones de capacitación porque usaron ChatGPT?, ¿en su empresa tienen la capacidad de identificar este comportamiento?

 

3. Evaluación dudosa de las habilidades laborales

ChatGPT puede proporcionar instrucciones paso a paso para completar diversas tareas. Esto incluye tareas dentro de software como Excel, Salesforce, Google Analytic, entre muchos otros.

¿Qué riesgo correría su organización si los empleados logran obtener alguna promoción o ascenso después de utilizar la IA para aprobar una prueba de habilidades?

4. Integridad de los exámenes de certificación

Si dentro de su empresa se realizan evaluaciones para obtener alguna certificación, considere que los participantes pueden utilizar herramientas de inteligencia artificial para responder o incluso para completar problemas matemáticos complejos.

Si su empresa emite certificaciones sin verificar la autenticidad y veracidad de las respuestas se puede dañar la reputación, lo cual afecta negativamente la percepción de la marca por parte de los clientes y la comunidad.

¿Ha evaluado cuánto se dañaría la reputación de sus programas de certificación si éstos no tienen algún sistema de protección frente al uso de herramientas como ChatGPT?
¿Ha considerado qué problemas legales y éticos puede traer el uso inadecuado de ChatGPT?

5. Evaluación de nuevos candidatos

Es cada vez más frecuente que los postulantes a un puesto de trabajo recurran al uso de herramientas como ChatGPT para aprobar las evaluaciones que normalmente se aplican en un proceso de contratación, incluso aquellas que requieran una experiencia profunda en el conocimiento de algún producto o servicio. ¿Ha reflexionado en cuánto le costaría a su empresa a largo plazo, el contratar a personas cuya evaluación sea dudosa?

¿Cómo hacer frente a las herramientas de IA durante las evaluaciones corporativas?

Para mitigar estos riesgos, las empresas deben implementar prácticas adecuadas de gobernanza de la IA, establecer límites claros para el uso de ChatGPT e incorporar la supervisión automatizada de sus evaluaciones.

Ya sean evaluaciones de capacitación, exámenes de certificación o evaluaciones a nuevos postulantes a puestos de trabajo, es necesario mantener las herramientas de inteligencia artificial bajo control, teniendo la certeza de que no se están utilizando en estos procesos.

A continuación le brindamos algunos consejos y tecnologías que protegerán a su empresa frente al uso de IA durante los exámenes y pruebas.

1. Solicite respuestas basadas en estudios de casos específicos en su empresa.

Solicitar respuestas a preguntas basadas en casos actuales y propios de su empresa hará posible que herramientas de IA como ChatGPT sean poco efectivas ya que no tiene acceso a recursos específicos recientes de su empresa.

2. Pida respuestas que alienten a los participantes a aplicar sus conocimientos.

Una forma eficaz de evaluar el conocimiento es estructurar preguntas en las que los colaboradores requieran responder dando sus opiniones personales y razonamientos de forma precisa.

3. ¿El uso de software de bloqueo del navegador es efectivo?.

Esta alternativa puede ser de utilidad pero es limitada. A menos que tenga la certeza de que los examinados no van a acceder a ChatGPT desde dispositivos adicionales como el teléfono móvil, esta puede ser una solución que le ayude a proteger sus evaluaciones.

Otras herramientas como los detectores de plagio han demostrado ser ineficaces frente a herramientas como ChatGPT, ya que éste no plagia contenido de Internet, sino que genera respuestas personalizadas y únicas a partir de las instrucciones que el usuario le dé de forma previa.

4. Utilice un software de supervisión en línea automatizada

Una forma efectiva, precisa y rentable de controlar el uso de ChatGPT y otras herramientas de IA generativa en su empresa, es a través de soluciones de supervisión remota como Proctorizer. A continuación le platicamos cómo funciona y le hablamos de algunas características destacadas de nuestro sistema.

Cómo ayuda un sistema de supervisión en línea a hacer frente al uso de herramientas de IA durante las evaluaciones

Proctorizer es eficaz para regular y restringir el uso de ChatGPT y otras herramientas similares, ya que permite estas cuatro acciones indispensables durante las tareas escritas y los exámenes en línea:

Restringe el acceso a aplicaciones online. Proctorizer puede restringir el acceso a sitios web, aplicaciones y extensiones de redacción de contenidos con inteligencia artificial durante las evaluaciones en línea, evitando que sus colaboradores o postulantes a puestos de trabajo recurran a estas herramientas para obtener respuestas de forma deshonesta.

Monitorea la sesión. Utiliza reconocimiento facial y grabación de pantallas de escritorio para detectar cualquier uso de recursos no autorizados para obtener ayuda externa de ChatGPT o cualquier otra herramienta de inteligencia artificial.

Inhabilita el uso de atajos de teclado. Proctorizer evita el uso de atajos de teclado comunes, como copiar, pegar e imprimir, esto es especialmente importante ya que puede suceder que un colaborador o postulante solicite una respuesta en ChatGPT y la copie en el portapapeles antes de que comience la evaluación para pegarla posteriormente.

Escanea la sala en busca de otros dispositivos o recursos no autorizados.
El software de supervisión que utiliza video ayuda a garantizar que los participantes no utilicen dispositivos como teléfonos celulares durante las pruebas.

Emite reportes detallados. Proporciona reportes de supervisión con evidencias detalladas que alertan e informan a los evaluadores cuando un colaborador ha cometido algún tipo de falta usando herramientas de inteligencia artificial u otro tipo de aplicaciones web, lo que permite tomar las medidas correspondientes de forma ágil y oportuna.

 

Sin lugar a dudas, la IA seguirá evolucionando, mejorar la forma en que evalúa y reestructurar las preguntas de sus evaluaciones laborales es un gran avance para proteger a su organización, pero es necesario contar con tecnología que le permita estar preparado para las tecnologías del futuro.

La solución de supervisión de Proctorizer es personalizable, flexible, escalable y sobre todo, rentable.

Nuestro sistema se ha convertido en una herramienta rentable y fundamental para más de 80 instituciones y empresas a las cuales ayudamos a garantizar la integridad de sus exámenes en línea sin poner en riesgo la reputación y la seguridad de su información.

¿Le interesa conocer cómo Proctorizer puede ayudar a su institución frente al uso de la IA? Contáctenos aquí