Анализ уязвимости нейросетевых моделей YOLO к атаке Fast Sign Gradient Method
https://doi.org/10.17586/2226-1494-2024-24-6-1066-1070
Аннотация
Представлен анализ формализованных условий создания универсальных изображений, ложно классифицируемых алгоритмами компьютерного зрения, называемыми состязательными примерами, на нейросетевые модели YOLO. Выявлена и исследована закономерность успешного создания универсального деструктивного изображения в зависимости от сгенерированного набора данных, на котором происходило обучение нейронных сетей с помощью атаки Fast Sign Gradient Method. Указанная закономерность продемонстрирована для моделей классификатора YOLO8, YOLO9, YOLO10, YOLO11, обученных на стандартном наборе данных COCO.
Об авторах
Н. В. ТетеревРоссия
Тетерев Николай Валерьевич - младший научный сотрудник, Санкт-Петербург, 197022;
инженер, Санкт-Петербург, 194021
В. Е. Трифонов
Россия
Трифонов Владислав Евгеньевич - младший научный сотрудник,
Санкт-Петербург, 197022
А. Б. Левина
Россия
Левина Алла Борисовна - кандидат физико-математических наук, доцент, доцент,
Санкт-Петербург, 197022
Список литературы
1. Chakraborty A., Alam M., Dey V., Chattopadhyay A., Mukhopadhyay D. Adversarial attacks and defences: A survey // arXiv. 2018. arXiv:1810.00069v1. https://doi.org/10.48550/arXiv.1810.00069
2. Akhtar N., Mian A. Threat of adversarial attacks on deep learning in computer vision: A survey // IEEE Access. 2018. V. 6. P. 14410– 14430. https://doi.org/10.1109/access.2018.2807385
3. Goodfellow I., Shlens J., Szegedy C. Explaining and harnessing adversarial examples // Proc. of the 3rd International Conference on Learning Representations, ICLR 2015. 2015.
4. Zhang C., Zhang H., Hsieh C.-J. An efficient adversarial attack for tree ensembles // Advances in Neural Information Processing Systems. 2020. V. 33.
5. Xiong P., Tegegn M., Sarin J.S., Pal S., Rubin J. It is all about data: A survey on the effects of data on adversarial robustness // ACM Computing Surveys. 2024. V. 56. N 7. P. 1–41. https://doi.org/10.1145/3627817
6. Zuo C. Regularization effect of fast gradient sign method and its generalization // arXiv. 2018. arXiv:1810.11711. https://doi.org/10.48550/arXiv.1810.11711
7. Yosinski J., Clune J., Nguyen A., Fuchs T., Lipson H. Understanding neural networks through deep visualization // arXiv. 2015. arXiv:1506.06579v1. https://doi.org/10.48550/arXiv.1506.06579
8. Carlini N., Wagner D. Towards evaluating the robustness of neural networks // Proc. of the IEEE Symposium on Security and Privacy (SP). 2017. P. 39–57. https://doi.org/10.1109/sp.2017.49
9. Li Z., Chen P.-Y., Liu S., Lu S., Xu Y. Zeroth-order optimization for composite problems with functional constraints // Proceedings of the AAAI Conference on Artificial Intelligence. 2022. V. 36. N 7. P. 7453–7461. https://doi.org/10.1609/aaai.v36i7.20709
10. Guo C., Gardner J., You Y., Wilson A., Weinberger K. Simple blackbox adversarial attacks // Proceedings of Machine Learning Research. 2019. V. 97. P. 2484–2493.
Рецензия
Для цитирования:
Тетерев Н.В., Трифонов В.Е., Левина А.Б. Анализ уязвимости нейросетевых моделей YOLO к атаке Fast Sign Gradient Method. Научно-технический вестник информационных технологий, механики и оптики. 2024;24(6):1066-1070. https://doi.org/10.17586/2226-1494-2024-24-6-1066-1070
For citation:
Teterev N.V., Trifonov V.E., Levina A.B. Analysis of the vulnerability of YOLO neural network models to the Fast Sign Gradient Method attack. Scientific and Technical Journal of Information Technologies, Mechanics and Optics. 2024;24(6):1066-1070. (In Russ.) https://doi.org/10.17586/2226-1494-2024-24-6-1066-1070