Descripción: Los ejemplos adversariales son entradas diseñadas intencionalmente para engañar a un modelo de inteligencia artificial, provocando que cometa errores en sus predicciones o clasificaciones. Estas entradas pueden incluir modificaciones sutiles de datos que, a simple vista, parecen normales, pero que están diseñadas para confundir al modelo. La importancia de los ejemplos adversariales radica en su capacidad para revelar las vulnerabilidades de los sistemas de inteligencia artificial, lo que a su vez impulsa la necesidad de desarrollar modelos más robustos y explicables. En el contexto de la inteligencia artificial explicable, los ejemplos adversariales ayudan a los investigadores y desarrolladores a entender cómo y por qué un modelo toma decisiones erróneas, lo que es crucial para mejorar la transparencia y la confianza en estos sistemas. A medida que la inteligencia artificial se integra en aplicaciones críticas, como la atención médica y la seguridad, la capacidad de identificar y mitigar los efectos de los ejemplos adversariales se vuelve esencial para garantizar la fiabilidad y la seguridad de estas tecnologías.
Historia: El concepto de ejemplos adversariales comenzó a ganar atención en 2013, cuando un grupo de investigadores de la Universidad de California en Berkeley demostró que pequeñas perturbaciones en las imágenes podían llevar a un modelo de reconocimiento de imágenes a clasificar incorrectamente. Desde entonces, se han realizado numerosos estudios que han explorado diferentes técnicas para generar ejemplos adversariales y sus implicaciones en la seguridad de los sistemas de inteligencia artificial.
Usos: Los ejemplos adversariales se utilizan principalmente en la investigación de seguridad de la inteligencia artificial, donde ayudan a identificar vulnerabilidades en modelos de aprendizaje automático. También se emplean para mejorar la robustez de los modelos, permitiendo a los desarrolladores entrenar sistemas que sean menos susceptibles a ataques adversariales. Además, se utilizan en el desarrollo de técnicas de defensa y en la creación de modelos más explicables.
Ejemplos: Un ejemplo práctico de un ataque adversarial es el de modificar una imagen de una señal de stop para que un sistema de reconocimiento de señales de tráfico no la reconozca correctamente, cambiando su clasificación a ‘velocidad máxima’. Otro caso es el de los sistemas de reconocimiento de voz, donde pequeñas alteraciones en el audio pueden hacer que el modelo no entienda correctamente una orden dada.