Nuevos métodos de evaluación continua asistidos por Modelos de Lenguaje e Inteligencia Artificial Generativa

      Comentarios desactivados en Nuevos métodos de evaluación continua asistidos por Modelos de Lenguaje e Inteligencia Artificial Generativa

Autores

Pablo Manuel Vigara-Gallego, Angel Garcia-Beltrán, Ascensión Lopez-Vargas, Javier Rodriguez-Vidal

Departamento de Automática, Ingeniería Eléctrica y Electrónica e Informática Industrial, Universidad Politécnica de Madrid, Madrid, España


Resumen

El auge de los Grandes Modelos de Lenguaje (LLMs) ha transformado el ámbito educativo, ofreciendo nuevas oportunidades tanto para estudiantes como para docentes. Este estudio explora el uso de la inteligencia artificial generativa (IAG) para evaluar ejercicios de programación y proporcionar retroalimentación personalizada a los alumnos tras la entrega de sus trabajos en una plataforma web segura, diseñada para garantizar la integridad académica. La aplicación implementa estrategias de aprendizaje por pocos ejemplos (few-shot learning) y rúbricas estructuradas para mejorar la precisión de la calificación. Los hallazgos sugieren que, si bien los LLMs aún requieren supervisión humana, pueden generar evaluaciones precisas y detalladas, reduciendo la carga docente y proporcionando retroalimentación útil para los estudiantes. La integración de estas tecnologías en la educación permite mejorar la escalabilidad y accesibilidad de la evaluación en cursos de programación, optimizando el proceso de aprendizaje y garantizando estándares de calidad en la formación académica.