Аннотация доклада.
В докладе будут рассмотрены вопросы устойчивости моделей сегментации изображений к состязательным атакам – специальным модификациям входных данных, призванных воздействовать на работу моделей машинного (глубокого) обучения. Семантическая сегментация играет важную роль в определении (понимании) содержания изображения. Семантическая сегментация – это такой вид разметки данных, который позволяет определять, какие объекты находятся на изображении, разметив их границы и местоположение. Соответственно, состязательные атаки на такого рода модели направлены на искажение этой информации (сокрытие объектов, изменение их границ или меток и т.п.). В докладе рассмотрены как существующие атаки на модели семантической сегментации, так программные инструменты тестирования устойчивости к ним.