Нейросеть научили выявлять уязвимости в текстовых капчах
Ученые Санкт-Петербургского государственного университета (СПбГУ) и Санкт-Петербургского федерального исследовательского центра РАН (СПб ФИЦ РАН) научили нейросеть выявлять возможные уязвимости в компьютерных тестах (CAPTCHA), которые применяются для определения, человек или компьютер пытается попасть на какой-либо сайт.
Разработка позволит повысить безопасность интернет-ресурсов, сообщили ТАСС в пресс-службе СПбГУ.
"Предложенный нами метод позволяет обучить систему - решатель капчи на наборе данных (датасете) из небольшого числа изображении. Одна из значительных проблем при обучении моделей искусственного интеллекта - это сбор датасета достаточного для обучения объема. Основное отличие нашего подхода от аналогов в том, что он позволяет распознавать гораздо более сложные текстовые тесты, в которых содержится более 20 искажений сразу (изменение размеров и интервалов между буквами, создание "шума", наложение элементов друг на друга и другие)", - привели в пресс-службе слова старшего преподавателя кафедры информатики СПбГУ Анастасии Корепановой.
Как уточнили в пресс-службе, раньше считалось, что напечатать символы, изображенные в искаженном виде, или отметить на фотографиях необходимые объекты может только человек, но с развитием искусственного интеллекта эффективность таких тестов ставится под сомнение. Поэтому разрабатывают новые алгоритмы для повышения безопасности сайтов.
Разработанный метод позволил даже на основании ограниченного набора данных распознать 63% искаженных изображений, предлагаемых в качестве компьютерного теста. По мнению экспертов, этот показатель говорит о небезопасности сайтов, использующих подобный вид капчи.
"Результаты исследования могут применяться для улучшения безопасности интернет-ресурсов. При обращении внимания специалистов по информационной безопасности на уязвимости, выявленные в ходе исследования, могут быть эффективнее доработаны методы распознавания и обхода капчи, и на этой основе разработаны улучшенные алгоритмы защиты от автоматизированных атак" - привели в пресс-службе слова руководителя Лаборатории теоретических и междисциплинарных проблем информатики СПб ФИЦ РАН Максима Абрамова.