ANÁLISIS Y EVALUACIÓN DE ATAQUES ADVERSARIOS
Fecha
2024-07-15
Autores
Título de la revista
ISSN de la revista
Título del volumen
Editor
Universidad Rey Juan Carlos
Resumen
La IA (Inteligencia Artificial) ha evolucionado significativamente desde sus
inicios en la d¿ecada de 1940, cuando se basaba en algoritmos simples y reglas
programadas. En la actualidad, las redes neuronales han experimentado un notable auge. Gracias a su capacidad de aprendizaje, estas redes facilitan tareas
de clasificaci¿on y predicci¿on, especialmente las redes neuronales convolucionales,
que destacan en el procesamiento de im¿agenes debido a su estructura en capas y
operaciones de convoluci¿on.
El aprendizaje autom¿atico se clasifica en dos tipos principales: supervisado y
no supervisado. En el aprendizaje supervisado, el modelo se entrena con datos
etiquetados, conociendo as¿¿ la salida esperada, mientras que en el aprendizaje no
supervisado, el modelo descubre caracter¿¿sticas inherentes de los datos de entrada
sin salidas conocidas.
A pesar de los avances, las redes neuronales son vulnerables a los ataques
adversarios, que manipulan datos de entrada de forma imperceptible para el ser
humano, induciendo salidas incorrectas en el modelo. Estos ataques se dividen en
dirigidos, que buscan obtener una salida espec¿¿fica deseada por el atacante, y no
dirigidos, que provocan errores en las salidas del modelo.
La evaluaci¿on de estos ataques se realiz¿o en un entorno de desarrollo basado en
Python y la biblioteca PyTorch, utilizando el conjunto de datos ImageNet y atacando cuatro modelos distintos: ResNet50, VGG16, MobileNet V3 y GoogLeNet.
La implementaci¿on se benefici¿o del uso de CUDA para optimizar el rendimiento
con GPU.
Los resultados muestran que los ataques adversarios son altamente eficaces,
reduciendo significativamente la precisi¿on de los modelos. Los ataques dirigidos
fueron especialmente efectivos, logrando manipular las salidas en casi todos los
casos deseados por los atacantes. Los ataques no dirigidos tambi¿en demostraron
ser efectivos, causando ataques exitosos en m¿as del 80 % de las pruebas.
Este estudio subraya la creciente preocupaci¿on por los ataques adversarios,
dado que las redes neuronales est¿an cada vez m¿as integradas en aplicaciones cotidianas como veh¿¿culos aut¿onomos, sistemas de seguridad y aplicaciones m¿edicas.
Descripción
Trabajo Fin de Grado leído en la Universidad Rey Juan Carlos en el curso académico 2023/2024. Directores/as: David Concha Gómez, Francisco José García Espinosa
Citación
Colecciones
Excepto si se señala otra cosa, la licencia del ítem se describe como