Autores
Pablo Manuel Vigara-Gallego, Angel Garcia-Beltrán, Ascensión Lopez-Vargas, Javier Rodriguez-Vidal
Departamento de Automática, Ingeniería Eléctrica y Electrónica e Informática Industrial, Universidad Politécnica de Madrid, Madrid, España
Resumen
El auge de los Grandes Modelos de Lenguaje (LLMs) ha transformado el ámbito educativo, ofreciendo nuevas oportunidades tanto para estudiantes como para docentes. Este estudio explora el uso de la inteligencia artificial generativa (IAG) para evaluar ejercicios de programación y proporcionar retroalimentación personalizada a los alumnos tras la entrega de sus trabajos en una plataforma web segura, diseñada para garantizar la integridad académica. La aplicación implementa estrategias de aprendizaje por pocos ejemplos (few-shot learning) y rúbricas estructuradas para mejorar la precisión de la calificación. Los hallazgos sugieren que, si bien los LLMs aún requieren supervisión humana, pueden generar evaluaciones precisas y detalladas, reduciendo la carga docente y proporcionando retroalimentación útil para los estudiantes. La integración de estas tecnologías en la educación permite mejorar la escalabilidad y accesibilidad de la evaluación en cursos de programación, optimizando el proceso de aprendizaje y garantizando estándares de calidad en la formación académica.