Challenger - Porque cada estudiante merece un reto a su medida
Co-coordinador(a): ALBERTO DIAZ ALVAREZ
... memoria no disponible
| Nombre y apellidos | Centro |
| JORGE DUEÑAS LERIN | E.T.S DE ING. DE SISTEMAS INFORMÁTICOS |
| RAUL LARA CABRERA | E.T.S DE ING. DE SISTEMAS INFORMÁTICOS |
| ALBERTO DIAZ ALVAREZ | E.T.S DE ING. DE SISTEMAS INFORMÁTICOS |
| CARLOS CASTILLA RUIZ | E.T.S DE ING. DE SISTEMAS INFORMÁTICOS |
| JORDI BURGUET CASTELL | E.T.S DE ING. DE SISTEMAS INFORMÁTICOS |
| FERNANDO ORTEGA REQUENA | E.T.S DE ING. DE SISTEMAS INFORMÁTICOS |
El Aprendizaje Basado en Retos (ABR) ha demostrado ser una metodología eficaz para promover la motivación, la autonomía y el pensamiento crítico del alumnado. Sin embargo, su implantación en la educación superior presenta una dificultad recurrente: la elevada carga logística que recae sobre el profesorado. Como señala el estudio [1], “instructors become designers, coordinators, advisors, professors, and evaluators... because all these roles overwhelmed them at the beginning of the CBL implementation...”. Esta multiplicidad de funciones, aunque enriquecedora, se convierte en una barrera práctica para la adopción sostenible del ABR en la universidad.
En el caso particular de nuestra Universidad y de nuestro grupo de innovación educativa, hemos experimentado directamente esta situación al diseñar e implementar concursos educativos inspirados en el Aprendizaje Basado en Retos en distintas asignaturas. Estos concursos mantienen la esencia del ABR: la resolución de problemas reales y el trabajo colaborativo, pero la combinan con un formato competitivo y estructurado que incrementa la motivación y la implicación del alumnado. No obstante, la planificación, el diseño de problemas, la gestión de equipos, el seguimiento y la evaluación suponen una inversión de tiempo considerable, lo que dificulta su extensión a otras materias.
Este proyecto surge precisamente para abordar esa sobrecarga, mediante el desarrollo de una herramienta integrada que asista al profesorado en la organización de concursos educativos basados en retos, automatizando y unificando sus fases. Desde la definición de los desafíos hasta la evaluación de los resultados, e incorporando apoyo mediante inteligencia artificial generativa para la creación y adaptación de los enunciados.
El objetivo tecnológico de este proyecto es desarrollar una plataforma unificada que permita gestionar de manera cohesionada todo el ciclo del aprendizaje basado en concurso: desde la inscripción y formación de equipos, hasta la creación, ejecución y evaluación de los desafíos. La herramienta incorporará asistencia mediante inteligencia artificial, tanto en el diseño de los enunciados como en la generación de casos de prueba y la estimación de la dificultad de los retos, reduciendo drásticamente el tiempo de preparación y ofreciendo apoyo pedagógico objetivo.
En primer lugar, se implementará una versión genérica de la herramienta, que tendrá una estructura extensible y estará orientada a cualquier disciplina dentro y fuera de la UPM, siendo así adaptable a distintos niveles educativos.
Además, la plataforma incluirá mecanismos de evaluación continua y mejora pedagógica, integrando herramientas para recoger datos sobre la motivación, el grado de adquisición de competencias y el feedback de los estudiantes. Esta información permitirá analizar el impacto real de los retos y ajustar progresivamente su diseño y dificultad, favoreciendo una mejora continua del proceso de enseñanza-aprendizaje. De esta manera, se busca generar una infraestructura educativa sostenible y escalable, que permita a los docentes aplicar el aprendizaje basado en concursos con menor carga de trabajo y mayor apoyo tecnológico, impulsando así una adopción más amplia, eficiente y fundamentada de esta metodología activa tanto en la UPM como fuera de ella.
Innovación docente
Una vez implementada la herramienta, se procederá a su personalización para el diseño de retos y concursos en las áreas de Programación y Bases de Datos, ámbitos en los que el grupo GIETEMA cuenta con una amplia trayectoria y materiales previos. Esta base permitirá desarrollar de forma ágil una serie de concursos alineados con los objetivos docentes del proyecto y adaptados a distintos niveles formativos. Los concursos basados en retos previstos son los siguientes:
-
CodeBoost: concurso centrado en la resolución de retos de programación que requieren integrar conocimientos de diversas asignaturas del grado. El año pasado se realizó este concurso por primera vez con una importante sobrecarga de gestión. Los equipos deberán analizar, planificar e implementar soluciones de manera autónoma, aplicando un enfoque colaborativo y orientado a la práctica.
-
SQLBoost: nuevo concurso de análisis y gestión de datos mediante la formulación de consultas SQL. Este concurso está relacionado con otro pilar fundamental de todos los grados de informática. Los participantes deberán identificar y aplicar las estrategias más eficientes para resolver los desafíos planteados, evaluando el rendimiento y la corrección de sus soluciones.
-
Talleres de iniciación: en las asignaturas de primer curso se incorporarán prácticas introductorias al aprendizaje basado en retos, con actividades diseñadas para familiarizar al alumnado con la dinámica de los concursos y fomentar desde el inicio la resolución activa de estos.
[1] “Taking the Challenge: An Exploratory Study of the Challenge-Based Learning Context in Higher Education Institutions across Three Different Continents”
Objetivos
Los objetivos tecnológicos del proyecto se articulan en torno a dos ejes principales:
-
La integración tecnológica en una herramienta de las distintas fases de diseño de un concurso basado en retos.
-
La asistencia inteligente al profesorado para reducir la carga logística y mejorar la calidad pedagógica de los desafíos.
El cumplimiento de estos objetivos tecnológicos permitirá cumplir los objetivos docentes del proyecto, que giran en torno a la organización de una serie de concursos sobre programación y bases de datos.
Objetivos generales
OG1. Integración y automatización del ciclo completo del Aprendizaje Basado en Concursos (ABC).
Desarrollar una plataforma unificada que permita gestionar de forma integral todas las fases del aprendizaje basado en concursos: desde la planificación y la inscripción de equipos, hasta la evaluación y el análisis de resultados. El sistema sustituirá la actual fragmentación de herramientas, reduciendo significativamente la carga operativa del profesorado y facilitando la adopción de esta metodología en distintas asignaturas.
OG2. Asistencia inteligente al diseño y evaluación de desafíos.
Incorporar agentes de inteligencia artificial capaces de generar y calibrar retos de programación y bases de datos, estimar su dificultad, y asistir al profesorado en el diseño de actividades equilibradas y alineadas con las competencias de aprendizaje. Estos agentes permitirán optimizar el tiempo de preparación y aportar coherencia pedagógica a los desafíos.
OG3. Extensibilidad y aplicabilidad multidisciplinar.
Diseñar la plataforma con una arquitectura modular que permita su adaptación a otras disciplinas dentro y fuera de la UPM, y a distintos niveles educativos. Aunque el presente PIE se centrará en las áreas de Programación y Bases de Datos, en última instancia el objetivo es ofrecer una herramienta reutilizable y transferible a cualquier ámbito académico.
OG4. Evaluación continua y mejora pedagógica.
Integrar mecanismos que permitan recoger datos sobre la motivación del alumnado, el grado de adquisición de competencias y el feedback de los participantes. Estos datos serán utilizados para implementar un proceso de mejora continua en el diseño de los retos y en la eficacia del aprendizaje basado en desafíos. También se usarán para la publicación de resultados en congresos y publicaciones de innovación educativa.
OG5. Fomento de la participación y la transferencia de buenas prácticas.
Consolidar una red de concursos académicos que refuercen la motivación estudiantil, fomenten el trabajo en equipo y sirvan de base para la colaboración entre asignaturas y centros, contribuyendo así a la consolidación del Aprendizaje Basado en Concursos como metodología institucional.
Objetivos específicos
OE1. Analizar los requisitos pedagógicos y técnicos del ABR en Programación y Bases de Datos, identificando las necesidades comunes y las tareas de mayor carga para el profesorado.
OE2. Evaluar las plataformas existentes abiertas y ampliables para aprendizaje basado en retos, analizando su funcionalidad y características en base a los requisitos identificados.
OE3. Diseñar y desarrollar la arquitectura para integrar herramientas existentes en una aplicación que centralice la gestión de inscripciones, equipos, retos, envío de soluciones y visualización de resultados.
OE4. Implementar un sistema de generación y evaluación de retos asistido por IA, capaz de proponer enunciados, generar casos de prueba y estimar niveles de dificultad.
OE5. Incorporar módulos de análisis y seguimiento que proporcionen al profesorado un panel de indicadores sobre progreso, rendimiento y participación.
OE6. Integrar herramientas de recogida de datos sobre motivación, percepción de aprendizaje y feedback del alumnado, para apoyar la investigación y la mejora continua.
OE7. Diseñar, ejecutar y evaluar los concursos CodeBoost y SQLBoost, así como los talleres de iniciación en asignaturas de primer curso, midiendo su impacto en la motivación y aprendizaje del alumnado.
OE8. Probar y validar la plataforma en al menos dos asignaturas, evaluando su efectividad en términos de reducción de carga docente y mejora del aprendizaje.
OE9. Documentar, difundir y liberar los resultados del proyecto como software abierto, facilitando su adopción por otros grupos de innovación dentro y fuera de la UPM.
El proyecto contribuirá a la mejora de la calidad docente en varios niveles: metodológico, organizativo y tecnológico. Su principal aportación radica en facilitar la adopción sostenible del Aprendizaje Basado en Concursos (ABC), una adaptación práctica del Aprendizaje Basado en Retos (ABR) al contexto universitario. Esta metodología activa cuenta con amplio respaldo académico, pero su implantación efectiva se ha visto limitada por la elevada carga de trabajo que supone para el profesorado.
La experiencia acumulada por el grupo GIETEMA en la organización de concursos de programación (como CodeBoost) y en la aplicación de actividades basadas en retos en diversas asignaturas ha puesto de manifiesto un problema recurrente en la docencia universitaria: las asignaturas de Programación y Bases de Datos presentan tradicionalmente altas tasas de dificultad y repetición, especialmente en los primeros cursos. Los estudiantes suelen encontrar complicaciones al trasladar los conceptos teóricos a la resolución práctica de problemas reales, lo que afecta a su motivación y continuidad en los estudios.
Este proyecto aborda directamente esa problemática mediante el desarrollo de una plataforma unificada que automatiza la preparación y gestión de concursos académicos, reduciendo la carga logística del profesorado y permitiendo centrar los esfuerzos en las tareas de mayor valor educativo: la tutoría, la evaluación formativa y el acompañamiento del alumnado. A través de los concursos, se pretende incrementar la motivación, fomentar el aprendizaje autónomo y mejorar la retención de conocimientos prácticos, factores clave para revertir los resultados académicos de las asignaturas con mayor índice de dificultad.
Además, la nivelación progresiva de los retos y la adaptación de los desafíos al nivel real del alumnado actuará como un elemento motivador esencial, al permitir que los estudiantes perciban su propio avance y afronten con éxito tareas de complejidad creciente.
La incorporación de asistentes de inteligencia artificial supondrá un avance adicional, ya que permitirá generar y calibrar desafíos de forma eficiente y coherente con las competencias de aprendizaje. Esta asistencia no busca sustituir al docente, sino liberarlo de tareas repetitivas y técnicas, facilitando la innovación metodológica y el diseño de experiencias más personalizadas y motivadoras.
En términos de calidad educativa, el proyecto mejorará la coherencia, la trazabilidad y la capacidad de evaluación del aprendizaje, gracias a los módulos de análisis y seguimiento que ofrecerán indicadores objetivos sobre progreso, motivación y adquisición de competencias. Estos datos permitirán aplicar procesos de mejora continua tanto en el diseño de las actividades como en la planificación docente de futuras ediciones.
Desde una perspectiva institucional, la plataforma proporcionará una infraestructura reutilizable, escalable y abierta, aplicable a distintas titulaciones y disciplinas. A medio plazo, su adopción contribuirá a homogeneizar buenas prácticas en la implementación del aprendizaje basado en retos y concursos, y a posicionar a la UPM como referente en el uso de tecnologías inteligentes al servicio de la docencia.
Ene-Feb OE1 y OE2 Análisis pedagógico y técnico; evaluación de plataformas
Mar-May OE3, OE4, OE5 y OE6 Desarrollo central (web + IA)
Mar-Jul OE5 y OE6 Integración, analítica y pruebas internas
Sep-Oct OE7 Validación con docentes y estudiantes
Nov-Dic OE8 Documentación, difusión y cierre
Concursos: semana UPM
-
Marzo 2026. CodeBoost II y SQLBoost I
-
Noviembre 2026. CodeBoost III y SQLBoost II
Ene-Feb OE1. Analizar los requisitos pedagógicos y técnicos del ABR
- Revisar experiencias de aprendizaje basado en retos.
- Identificar las fases de mayor carga logística para el profesorado.
- Recoger requisitos funcionales y pedagógicos mediante entrevistas y revisión de literatura.
- Elaborar documento de especificaciones iniciales.
Ene-Feb OE2. Evaluar plataformas existentes abiertas y ampliables
- Analizar herramientas actuales (DOMjudge, Moodle plugins, HackerRank, etc.).
- Comparar funcionalidades con los requisitos del OE1.
- Evaluar su potencial de adaptación y modularidad.
- Seleccionar las tecnologías base o decidir creación desde cero.
Mar-May OE3. Diseñar y desarrollar la arquitectura de la plataforma
- Definir estructura general (módulos, API, flujo de datos).
- Implementar sistema de gestión de inscripciones, equipos y retos.
- Asegurar interoperabilidad y escalabilidad de la arquitectura.
- Integrar las inscripciones, las encuestas de seguimiento y generación de informes.
Mar-May OE4. Implementar sistema de generación y evaluación asistido por IA
- Desarrollar prototipo de agente generador de retos y casos de prueba.
- Implementar estimación automática de dificultad.
- Integrar el módulo de IA con la plataforma web.
- Validar resultados con ejemplos de retos reales.
Mar-Jul OE5. Incorporar módulos de análisis y seguimiento docente
- Diseñar estructura de datos para métricas de rendimiento y progreso.
- Implementar el backend de analítica y panel docente básico.
- Integrar visualizaciones iniciales (gráficas, indicadores).
- Probar su funcionamiento con datos de prueba.
Mar-Jul OE6. Integrar herramientas de recogida de motivación y feedback
- Desarrollar el módulo técnico para registro de encuestas y feedback.
- Asegurar compatibilidad con el sistema de analítica del OE5.
- Definir estructura de preguntas y parámetros configurables.
- Validar la recogida y almacenamiento de respuestas.
Sep-Oct OE7. Validar la plataforma en dos asignaturas
- Seleccionar asignaturas piloto (una de Programación y otra de Bases de Datos).
- Formar a los docentes en el uso de la herramienta.
- Desplegar la plataforma en entorno real y recoger datos.
- Analizar impacto en carga docente, rendimiento y motivación.
Nov-Dic OE8. Documentar, difundir y liberar resultados
- Elaborar documentación técnica y guía de uso docente.
- Preparar web o repositorio público con el software.
- Incorporar mejoras derivadas del pilotaje.
- Difundir resultados en jornadas o publicaciones de innovación educativa.
Ejecución
El seguimiento de la ejecución se realizará mediante reuniones mensuales del equipo para revisar el avance de las tareas. Durante los meses del desarrollo web y del desarrollo IA, se llevarán con los becarios reuniones semanales para asegurar la correcta alineación con los objetivos establecidos. Se llevará un registro de progreso a través del repositorio de desarrollo. Al finalizar la participación de los becarios, se realizará una revisión técnica interna que garantice la estabilidad y continuidad del sistema.
Impacto pedagógico
La evaluación del impacto pedagógico se centrará en determinar la reducción de la carga docente y la mejora de la experiencia de aprendizaje en las asignaturas piloto. Se emplearán encuestas al profesorado y al alumnado, junto con métricas automáticas de la propia plataforma (participación, resolución de retos, tiempos y progresión). Estos datos permitirán medir la eficacia del sistema y su contribución a la motivación y adquisición de competencias.
Desarrollo de concursos
El impacto del proyecto se validará a través de la organización de los siguientes concursos académicos basados en retos:
- CodeBoost II (marzo de 2026) y CodeBoost III (noviembre de 2026): concursos de programación en los que los estudiantes trabajarán en equipo para resolver problemas integradores de diferentes asignaturas.
- SQLBoost I (marzo de 2026) y SQLBoost II (noviembre de 2026): competiciones centradas en el análisis y la optimización de consultas SQL, con un enfoque en la aplicación práctica de los conocimientos adquiridos.
Durante y después de cada concurso, se aplicarán encuestas de satisfacción específicas a los participantes y docentes implicados, así como un análisis de métricas automáticas (tasa de entrega, nivel de éxito, tiempo medio de resolución, etc.). Estos datos servirán para evaluar la eficacia del enfoque y la motivación del alumnado, y para contrastar los resultados entre distintas ediciones.
NOTA: en el concurso de marzo la plataforma no estará aún operativa con lo que se podrá hacer una medición pre y post herramienta.
Indicadores de logro
- Reducción del tiempo de preparación y gestión respecto a anteriores concursos y actividades (60%-75% del tiempo empleado sin la herramienta).
- Incremento del nivel de participación y finalización de retos.
- Mejora en las encuestas de satisfacción respecto a la percepción de motivación y aprendizaje por parte del alumnado en anteriores encuestas.
- Valoración positiva (>70%) del profesorado en cuanto a usabilidad y utilidad de la herramienta.
El proyecto dará lugar a varios productos concretos que garantizarán su impacto y su posible reutilización por otros docentes y grupos de innovación educativa:
1. Plataforma integrada de código abierto:
Herramienta unificada que cubre todo el ciclo del Aprendizaje Basado en Concursos (ABC): inscripción de participantes, gestión de equipos, generación automática de retos mediante IA, envío y evaluación de soluciones, y generación de informes finales con analítica integrada.
2. Documentación de uso:
Guía práctica dirigida al profesorado, con instrucciones para crear, configurar y gestionar actividades ABR dentro de la plataforma, así como ejemplos de buenas prácticas y recomendaciones pedagógicas.
3. Documentación de despliegue:
Manual técnico que detalla los requisitos, la instalación y la configuración de la plataforma en distintos entornos, facilitando su adopción por otros grupos o centros educativos.
4. Informes de experiencia piloto:
Documentos que recogerán los resultados de la implantación en las asignaturas piloto, incluyendo indicadores técnicos y pedagógicos, evaluación de la carga docente y propuestas de mejora para futuras versiones del sistema.
Para garantizar la difusión y transferencia de los resultados, el proyecto generará un conjunto de materiales divulgativos dirigidos a la comunidad universitaria y a otros grupos interesados en la adopción del Aprendizaje Basado en Retos (ABR).
1. Página web del proyecto:
Se desarrollará un espacio web o micrositio dentro de los canales institucionales de la UPM, donde se presentarán los objetivos, el equipo, las fases de desarrollo y los principales resultados del proyecto. Incluirá enlaces al repositorio de código abierto, la documentación técnica y el material audiovisual.
2. Vídeo demostrativo:
Se producirá un vídeo breve que muestre el funcionamiento de la plataforma y su utilidad en el aula.
3. Difusión científica:
Los resultados del proyecto se difundirán mediante al menos una comunicación en congresos y jornadas especializadassobre docencia universitaria e innovación tecnológica, así como una publicación en una revista indexada de este ámbito.
En conjunto, estos materiales servirán para incrementar la visibilidad del proyecto, facilitar su adopción institucional y consolidar su impacto dentro y fuera de la UPM.
El proyecto contará con la colaboración de distintos agentes dentro de la UPM que contribuirán tanto en el soporte técnico como en la difusión y aplicación práctica de los resultados.
Centro de Información y Comunicaciones de la ETSISI:
Proporcionará apoyo técnico e infraestructuras necesarias para el desarrollo y despliegue de la plataforma, incluyendo servidores, servicios de autenticación y asesoramiento en materia de seguridad y mantenimiento.
Asociaciones de estudiantes:
Se colaborará con asociaciones vinculadas al ámbito de la ingeniería informática, especialmente con Coredumped, para la promoción y organización de pruebas, retos y actividades de entrenamiento. Esta colaboración facilitará la implicación activa del alumnado y la validación de la herramienta desde la perspectiva del usuario final.
Cátedras y colaboraciones institucionales:
El grupo promotor mantiene una relación activa con distintas cátedras de empresa de la UPM, en particular con MásOrange, con las que se prevé colaborar en la difusión de la plataforma y en la organización de eventos o competiciones que sirvan como demostración pública del proyecto y de su aplicabilidad a contextos reales de formación tecnológica.
