Back to top

Información MOOC

Inteligencia Artificial Explicable - IAX

Coordinador(a): EMILIO SERRANO FERNÁNDEZ
Centro: E.T.S. DE INGENIEROS INFORMÁTICOS
Idioma: Castellano
Convocatoria: 2023
Miembros que lo componen
Nombre Centro / Entidad
EMILIO SERRANO FERNÁNDEZ E.T.S. DE INGENIEROS INFORMÁTICOS
ESTEBAN GARCÍA CUESTA E.T.S. DE INGENIEROS INFORMÁTICOS
BOJAN MIHALJEVIC E.T.S. DE INGENIEROS INFORMÁTICOS
Objetivos de la propuesta

La inteligencia artificial está cada vez más presente en la vida cotidiana de los ciudadanos de a pie. En algunos países,  el aprendizaje automático se aplica para la toma de decisiones relacionadas con la atención médica, las finanzas y el sector judicial. Sin embargo, para que dichas aplicaciones sean exitosas, y aceptadas por los interesados, es crítico que los usuarios puedan entender las predicciones de los modelos. La Unión Europea, por ejemplo, garantiza el derecho a una explicación de una decisión automatizada en dominios como la medicina, el derecho y las finanzas, mientras que los expertos en campos como el diagnóstico médico requieren comprender las decisiones del modelo para utilizarlo. Por tanto, la explicabilidad de agentes inteligentes es fundamental para su aplicación práctica. 

Este MOOC proporciona una introducción a la inteligencia artificial explicable; en particular, al aprendizaje automático explicable. Definiremos las nociones de explicabilidad e interpretabilidad y exploramos nociones relacionadas como fairness y la causalidad, cubriendo los conceptos básicos de la inferencia causal. Cubrimos, en detalle, a) modelos inherentemente interpretables; b) la explicación post-hoc de los modelos de caja negra; c) explicaciones basadas en ejemplos; y d) los fundamentos de la inferencia causal.

 

Justificacion del equipo docente

Los tres docentes imparten juntos las asignaturas

  • Aprendizaje Automático I, del Grado En Ciencia De Datos E Inteligencia Artificial;
  • Aprendizaje Automático, del Máster Universitario en Biolog??a Computacional.

Dos de los docentes ?Esteban Garcia Cuesta y Bojan Mihaljevi?? impartirán en el curso 2023-2024 la asignatura ?Inteligencia Artificial Explicable - IAX? del Máster Universitario en Inteligencia Artificial, mientras que Bojan Mihaljevi? impartirá la asignatura en una escuela de verano organizada por el Departamento de Inteligencia Artificial, la Madrid UPM Machine Learning and Advanced Statistics Summer School. 

Los tres docentes en publicado artículos relacionados con la inteligencia artificial interpretable; por ejemplo: 

  • B. Mihaljevi?, C. Bielza, and P. Larrañaga. Bayesian networks for interpretable machine learning and optimization. Neurocomputing, 456:648?665, 2021.
  • Elvira Amador-Domínguez, Emilio Serrano, Daniel Manrique. A hierarchical multi-agent architecture based on virtual identities to explain black-box personalization policies. Expert Syst. Appl. 186: 115731 (2021)
  • Elvira Amador-Domínguez, Emilio Serrano, Daniel Manrique. GEnI: A framework for the generation of explanations and insights of knowledge graph embedding predictions. Neurocomputing 521: 199-212 (2023)
  • Cardinal-Fernández P, Garcia Cuesta E, Barberán J, Varona JF, Estirado A, Moreno A, Villanueva J, Villareal M, Baez-Pravia O, Menéndez J, Villares P, López Escobar A, Rodríguez-Pascual J, Almirall C, Domínguez E, Pey C, Ferreiro A, Revilla Amores M, Sánchez N, Ruiz de Aguiar S, Castellano JM. Clinical characteristics and outcomes of 1,331 patients with COVID-19: HM Spanish Cohort. Rev Esp Quimioter. 2021 Aug;34(4):342-352. doi: 10.37201/req/050.2021. Epub 2021 May 19. PMID: 34008930; PMCID: PMC8329575.
  • García-Cuesta, E.; Gómez-Vergel, D.; Gracia-Expósito, L.; López-López, J.M.; Vela-Pérez, M. Prediction of Opinion Keywords and Their Sentiment Strength Score Using Latent Space Learning Methods. Appl. Sci. 2020, 10, 4196. https://doi.org/10.3390/app10124196

Esteban Garcia Cuesta y Emilio Serrano Fernandez son investigadores principales de proyectos de innovación educativa relacionados con la inteligencia artificial explicable. Los proyectos son:

  • Nombre del proyecto: IAX (INTELIGENCIA ARTIFICIAL EXPLICABLE). Entidad de realización: Universidad Politécnica de Madrid. Tipo de entidad: Universidad Ciudad entidad realización: Madrid, Comunidad de Madrid, España. Nombres investigadores principales (IP, Co-IP,...): Esteban García Cuesta. Nº de investigadores/as: 1. Fecha de inicio-fin: 01/07/2022 - 30/06/2024 Cuantía total: 21.200 ?PI: Esteban Garcia Cuesta.
  • Methods, challenges, and tools for Explainable Artificial Intelligence / Métodos, retos, y herramientas para la Inteligencia Artificial Explicable. Duración: 1/02/2020 ? 15/11/2022. Entidad financiadora: Universidad Politécnica de Madrid. Convocatoria 2019 de Ayudas a la Innovación Educativa y a la Mejora de la Calidad de la Enseñanza.  PI: Emilio Serano.

Más allá de la explicabilidad, los tres docentes investigan en aprendizaje automático.

 

 

 

Justificacion del mooc

Con el aumento de aplicaciones de la inteligencia artificial, está siendo cada vez más relevante la necesidad de que los modelos puedan explicar sus decisiones, de forma que se pueda establecer confianza hacía el mismo. Como tema de investigación, la inteligencia artificial explicable está generando actualmente mucho interés, tanto entre los académicos como entre empresas dedicadas a la inteligencia artificial, como Google. 

La oferta docente, por otro lado, es limitada, dada la relativa novedad del tema. Entre otros, destacamos la asignatura ?Topics in Machine Learning: Interpretability and Explainability? de la universidad Harvard. Por el lado de los MOOC, tenemos, por ejemplo, ?XAI: Explainable AI?  en Udemy  (https://www.udemy.com/course/xai-explain-ml-models/).

Sin embargo, apenas hay oferta en español, tanto entre cursos tradicionales como entre los MOOCs. Consideramos, por tanto,  muy interesante el ofertar en español un MOOC con contenido tan relevante. 

Objetivos del aprendizaje

Objetivo general: Conocer los principales modos, métodos, y criterios que proporcionan explicabilidad a los sistemas inteligentes artificiales, como también la importancia de la explicabilidad.

Objetivos específicos:

  • Conocer de forma global conceptos, métodos y técnicas empleadas para dotar a los modelos de inteligencia artificial de explicabilidad.
  • Conocer las herramientas existentes para el abordaje de distintos problemas tratados y su aplicación en casos prácticos.
  • Conocer los fundamentos de la inferencia causal y su relación con la inteligencia artificial explicable.
Contenidos y breve descripción de cada capítulo
  • Módulo 0. Presentación de la asignatura. Fundamentos del aprendizaje automático. 
  • Módulo 1. Introducción: Motivación. Definiciones y conceptos fundamentales de la inteligencia artificial explicable. 
  • Módulo 2. Modelos inherentemente interpretables: Características. Modelos lineales sparse. Reglas, árboles y listas de decisión: más allá de los algoritmos voraces. Modelos aditivos generalizados. Modelos probabilísticos. Relación entre interpretabilidad y rendimiento predictivo.
  • Módulo 3. Interpretación Post-hoc de modelos caja negra. Modelos agnósticos globales vs. locales. LIME y SHAP. Métodos ad-hoc. 
  • Módulo 4.  Interpretación basada en ejemplos: Explicaciones por adversario. Explicaciones basadas en prototipos. Explicaciones por influencia. 
  • Módulo 5.  Fundamentos de inferencia causal. Motivación. Fundamentos. Modelos de ecuaciones estructurales. Identificación de efectos causales. Aprendizaje causal.
Elementos multimeda e innovadores
  • Los videos se grabarán en el Plató SAGA: https://innovacioneducativa.upm.es/saga/plato-saga. 
  • Se utilizarán tabletas y pizarras digitales interactivas para poder ir escribiendo, subrayando y señalando mientras se presenta el contenido en las transparencias.
Destinatarios

Profesionales TIC, o de formación relacionada, con conocimientos básicos sobre aprendizaje automático.

Actividades de evaluación
  • Un cuestionario por módulo, además de cuestionarios opcionales ligados a los temas.
  • Un cuestionario final para la autoevaluación.
Actividades de dinamización previstas

Se incrustarán preguntas en videos, con herramientas como Camtasia, siempre que la plataforma MiriadaX lo permita. 

Se intentará relacionar con lo desarrollado en el Proyecto de Innovación Educativa ?GAMIFICA - Aprendizaje continuo a través de mecanismos de gamificación: un enfoque aplicado al área del aprendizaje automático?, liderado por Esteban Garcia Cuesta e integrado por los tres docentes de la asignatura.  En el marco de ese proyecto se está desarrollando una plataforma de gamificación para estudiantes de aprendizaje automático. Se estudiará la posibilidad de utilizar esta plataforma para la evaluación automática de trabajos prácticos.