ANÁLISIS Y EVALUACIÓN DE ATAQUES ADVERSARIOS

Fecha

2024-07-15

Título de la revista

ISSN de la revista

Título del volumen

Editor

Universidad Rey Juan Carlos

Resumen

La IA (Inteligencia Artificial) ha evolucionado significativamente desde sus inicios en la d¿ecada de 1940, cuando se basaba en algoritmos simples y reglas programadas. En la actualidad, las redes neuronales han experimentado un notable auge. Gracias a su capacidad de aprendizaje, estas redes facilitan tareas de clasificaci¿on y predicci¿on, especialmente las redes neuronales convolucionales, que destacan en el procesamiento de im¿agenes debido a su estructura en capas y operaciones de convoluci¿on. El aprendizaje autom¿atico se clasifica en dos tipos principales: supervisado y no supervisado. En el aprendizaje supervisado, el modelo se entrena con datos etiquetados, conociendo as¿¿ la salida esperada, mientras que en el aprendizaje no supervisado, el modelo descubre caracter¿¿sticas inherentes de los datos de entrada sin salidas conocidas. A pesar de los avances, las redes neuronales son vulnerables a los ataques adversarios, que manipulan datos de entrada de forma imperceptible para el ser humano, induciendo salidas incorrectas en el modelo. Estos ataques se dividen en dirigidos, que buscan obtener una salida espec¿¿fica deseada por el atacante, y no dirigidos, que provocan errores en las salidas del modelo. La evaluaci¿on de estos ataques se realiz¿o en un entorno de desarrollo basado en Python y la biblioteca PyTorch, utilizando el conjunto de datos ImageNet y atacando cuatro modelos distintos: ResNet50, VGG16, MobileNet V3 y GoogLeNet. La implementaci¿on se benefici¿o del uso de CUDA para optimizar el rendimiento con GPU. Los resultados muestran que los ataques adversarios son altamente eficaces, reduciendo significativamente la precisi¿on de los modelos. Los ataques dirigidos fueron especialmente efectivos, logrando manipular las salidas en casi todos los casos deseados por los atacantes. Los ataques no dirigidos tambi¿en demostraron ser efectivos, causando ataques exitosos en m¿as del 80 % de las pruebas. Este estudio subraya la creciente preocupaci¿on por los ataques adversarios, dado que las redes neuronales est¿an cada vez m¿as integradas en aplicaciones cotidianas como veh¿¿culos aut¿onomos, sistemas de seguridad y aplicaciones m¿edicas.

Descripción

Trabajo Fin de Grado leído en la Universidad Rey Juan Carlos en el curso académico 2023/2024. Directores/as: David Concha Gómez, Francisco José García Espinosa

Citación

license logo
Excepto si se señala otra cosa, la licencia del ítem se describe como