Preview

Научно-технический вестник информационных технологий, механики и оптики

Расширенный поиск

Анализ уязвимости нейросетевых моделей YOLO к атаке Fast Sign Gradient Method

https://doi.org/10.17586/2226-1494-2024-24-6-1066-1070

Аннотация

Представлен анализ формализованных условий создания универсальных изображений, ложно классифицируемых алгоритмами компьютерного зрения, называемыми состязательными примерами, на нейросетевые модели YOLO. Выявлена и исследована закономерность успешного создания универсального деструктивного изображения в зависимости от сгенерированного набора данных, на котором происходило обучение нейронных сетей с помощью атаки Fast Sign Gradient Method. Указанная закономерность продемонстрирована для моделей классификатора YOLO8, YOLO9, YOLO10, YOLO11, обученных на стандартном наборе данных COCO.

Об авторах

Н. В. Тетерев
Санкт-Петербургский государственный электротехнический университет «ЛЭТИ» им. В.И. Ульянова (Ленина); АО «Научно-инженерный центр Санкт-Петербургского электротехнического университета»
Россия

Тетерев Николай Валерьевич - младший научный сотрудник, Санкт-Петербург, 197022;

инженер, Санкт-Петербург, 194021



В. Е. Трифонов
Санкт-Петербургский государственный электротехнический университет «ЛЭТИ» им. В.И. Ульянова (Ленина)
Россия

Трифонов Владислав Евгеньевич - младший научный сотрудник,

Санкт-Петербург, 197022



А. Б. Левина
Санкт-Петербургский государственный электротехнический университет «ЛЭТИ» им. В.И. Ульянова (Ленина)
Россия

Левина Алла Борисовна - кандидат физико-математических наук, доцент, доцент,

Санкт-Петербург, 197022



Список литературы

1. Chakraborty A., Alam M., Dey V., Chattopadhyay A., Mukhopadhyay D. Adversarial attacks and defences: A survey // arXiv. 2018. arXiv:1810.00069v1. https://doi.org/10.48550/arXiv.1810.00069

2. Akhtar N., Mian A. Threat of adversarial attacks on deep learning in computer vision: A survey // IEEE Access. 2018. V. 6. P. 14410– 14430. https://doi.org/10.1109/access.2018.2807385

3. Goodfellow I., Shlens J., Szegedy C. Explaining and harnessing adversarial examples // Proc. of the 3rd International Conference on Learning Representations, ICLR 2015. 2015.

4. Zhang C., Zhang H., Hsieh C.-J. An efficient adversarial attack for tree ensembles // Advances in Neural Information Processing Systems. 2020. V. 33.

5. Xiong P., Tegegn M., Sarin J.S., Pal S., Rubin J. It is all about data: A survey on the effects of data on adversarial robustness // ACM Computing Surveys. 2024. V. 56. N 7. P. 1–41. https://doi.org/10.1145/3627817

6. Zuo C. Regularization effect of fast gradient sign method and its generalization // arXiv. 2018. arXiv:1810.11711. https://doi.org/10.48550/arXiv.1810.11711

7. Yosinski J., Clune J., Nguyen A., Fuchs T., Lipson H. Understanding neural networks through deep visualization // arXiv. 2015. arXiv:1506.06579v1. https://doi.org/10.48550/arXiv.1506.06579

8. Carlini N., Wagner D. Towards evaluating the robustness of neural networks // Proc. of the IEEE Symposium on Security and Privacy (SP). 2017. P. 39–57. https://doi.org/10.1109/sp.2017.49

9. Li Z., Chen P.-Y., Liu S., Lu S., Xu Y. Zeroth-order optimization for composite problems with functional constraints // Proceedings of the AAAI Conference on Artificial Intelligence. 2022. V. 36. N 7. P. 7453–7461. https://doi.org/10.1609/aaai.v36i7.20709

10. Guo C., Gardner J., You Y., Wilson A., Weinberger K. Simple blackbox adversarial attacks // Proceedings of Machine Learning Research. 2019. V. 97. P. 2484–2493.


Рецензия

Для цитирования:


Тетерев Н.В., Трифонов В.Е., Левина А.Б. Анализ уязвимости нейросетевых моделей YOLO к атаке Fast Sign Gradient Method. Научно-технический вестник информационных технологий, механики и оптики. 2024;24(6):1066-1070. https://doi.org/10.17586/2226-1494-2024-24-6-1066-1070

For citation:


Teterev N.V., Trifonov V.E., Levina A.B. Analysis of the vulnerability of YOLO neural network models to the Fast Sign Gradient Method attack. Scientific and Technical Journal of Information Technologies, Mechanics and Optics. 2024;24(6):1066-1070. (In Russ.) https://doi.org/10.17586/2226-1494-2024-24-6-1066-1070

Просмотров: 14


Creative Commons License
Контент доступен под лицензией Creative Commons Attribution 4.0 License.


ISSN 2226-1494 (Print)
ISSN 2500-0373 (Online)