Este sistema puede generar más confianza en decisiones asistidas por Inteligencia Artificial

NOTICIAS

PORTAFOLIO

TRANSFORMACIÓN DIGITAL

Científicos del MIT y Harvard desarrollaron un método que podría conducir a resultados más seguros y confiables en la toma de decisiones con ayuda de la IA.

 Investigadores del MIT y de la Universidad de Harvard en Estados Unidos desarrollaron una red neuronal que puede procesar datos y, a su vez, medir el nivel de confianza del modelo de Inteligencia Artificial (IA) en función de la calidad de los datos disponibles.Las redes neuronales de aprendizaje profundo se están integrando rápidamente en la toma de decisiones de sectores críticos para la salud y seguridad humana, como el diagnóstico médico y la conducción autónoma.

Esta tecnología permite analizar una gran cantidad de datos y reconocer patrones para generar una predicción o diagnóstico.

Muchas veces se duda del nivel de confianza de los sistemas de redes neuronales. Por ello, los científicos integraron un método de estimación llamado “regresión evidencial profunda”, el cual permite tener resultados más seguros.

“Necesitamos la capacidad no solo de tener modelos de alto rendimiento, sino también de comprender cuándo no podemos confiar en esos modelos“, dice Amini, un estudiante de doctorado en el Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT.

Para estimar el nivel de confianza, los investigadores elaboraron una red de producción masiva, la cual genera una decisión y una nueva distribución probabilística que captura la evidencia para apoyar dicha elección.

Estas distribuciones, denominadas distribuciones probatorias, capturan directamente la confianza del modelo en su predicción.

También incluye cualquier incertidumbre presente en los datos de entrada, así como en la decisión final del modelo de IA. La distinción puede indicar si la falta de certeza de una decisión se puede reducir ajustando la red neuronal en sí, o si los datos de entrada son de mala calidad.

Fuente: dpl news.