CURSO: Confianza en la IA y pruebas no adversariales de IA

Implementación de buenas prácticas y estándares para una IA confiable

Este curso aborda el principio fundamental de la Confianza en la Inteligencia Artificial, ampliando el concepto tradicional de calidad del producto hacia la calidad de la IA y la calidad de los datos. También se presentan las pruebas no adversariales de IA, centradas en aspectos clave como la robustez, la explicabilidad, los sesgos y la equidad.

A medida que la inteligencia artificial se integra en procesos críticos y en la toma de decisiones empresariales, garantizar su fiabilidad y transparencia se convierte en una prioridad. Una IA no confiable puede generar sesgos, errores o decisiones difíciles de justificar, afectando directamente la reputación y la seguridad de las organizaciones. Esta formación ofrece una comprensión profunda de los estándares y buenas prácticas necesarias para construir sistemas de IA sólidos, justos y explicables, promoviendo la confianza y la responsabilidad en su uso.
    • Comprender los principios de la Confianza en la IA y su aplicación en entornos reales.
    • Evaluar la calidad de modelos de IA y de los datos utilizados.
    • Identificar y mitigar sesgos y problemas de equidad en sistemas de IA.
    • Aplicar conceptos de robustez y explicabilidad para garantizar la fiabilidad de la IA.
    • Integrar buenas prácticas y estándares de referencia para implementar IA confiable.
    Formación bonificable:
    Los cursos impartidos por DEKRA son bonificables de la cuota a la Seguridad Social. DEKRA puede gestionar las bonificaciones.