News24Horas

Investigadores de la UIB presentan un estudio sobre métricas de fidelidad para la IA explicable

Por Redacción

Un equipo de investigadores de la Unidad de Gráficos y Visión para Ordenador e IA (Ugivia) y del Laboratorio de Aplicaciones de Inteligencia Artificial de la Universitat de les Illes Balears (UIB) ha publicado un estudio innovador sobre las métricas de fidelidad para la inteligencia artificial explicable.

Según ha señalado la UIB en una nota de prensa, la fidelidad es la precisión con la que las explicaciones que genera un sistema de inteligencia artificial reflejan las causas reales que el modelo ha aprendido.

Así, una métrica de fidelidad mide si las explicaciones que proporciona un modelo de IA son veraces y representan correctamente el funcionamiento interno del local. Estas métricas son importantes porque permiten a los investigadores y usuarios confiar en las explicaciones que proporciona la inteligencia artificial.

La investigación, publicada en la revista ‘Information Processing & Management’, destaca la falta de una evaluación objetiva de la fidelidad entre la explicación y la causa real que aprende el modelo y desarrolla una metodología innovadora que utiliza modelos transparentes para verificar las métricas de fidelidad.

Así, esta metodología permite obtener explicaciones con una fidelidad perfecta. La propuesta se trata del primer punto de referencia objetivo para estas métricas, facilita la comparación de las propuestas existentes y supera los métodos actuales.

El estudio indica que las métricas de fidelidad actuales no son suficientemente fiables y recomienda desarrollar nuevas métricas y el uso de su propuesta como punto de referencia en la comunidad científica para abordar estas limitaciones.

Los investigadores del Departamento de Ciencias Matemáticas e Informática de la UIB que han participado en este estudio son Miquel Miró, Antoni Jaume Capó y Gabriel Moyà.

ÚLTIMA HORA

Protagonistas