En primer lugar, nos centramos en la aplicación de la IAPG en escenarios de riesgo, en el que las decisiones tomadas por la IA pueden, por ejemplo, poner en peligro la integridad física de las personas. Se tomarán ejemplos reales en la industria con instalaciones críticas, en donde la idea es aprender con pocos datos, o existen diversas tareas a resolver. La idea es investigar la robustez de los modelos actuales de IAPG cómo Few-Shot learning y AutoML, entre otros, y proponer soluciones para hacerlas más fiables en este campo:
Objetivo 1
Establecer escenarios prototipo
Objetivo 2
Evaluar la robustez de los métodos de IAPG
Objetivo 3
Nuevas soluciones para mejorar la fiabilidad de IAPG.