Автор: Шкерин Никита Владимирович
Актуальность задачи
•Актуальность данного исследования обусловлена необходимостью противодействия новому поколению киберугроз, основанных на ИИ. В отличие от традиционных атак, ИИ-атаки особенно сложны и имеют большое количество потенциальных критических целей, что делает их особенно опасными. Новизна работы заключается в анализе известных атак на основе машинного обучения в контексте классических атак. В анализе существующих и потенциальных атаках, а также в методах защиты. Кроме того, исследование затрагивает вопросы регулирования и стандартизации ИИ в кибербезопасности, что имеет важное значение для формирования области защиты информации.
Постановка задачи исследования
•Целью работы является исследование компьютерных атак, использующих методы машинного обучения, обнаружение потенциальных типов классических атак, в которых на данный момент не используются технологии ИИ. Для достижения этой цели необходимо провести анализ современных ИИ-атак и методов защиты на основе изучения научных публикаций, аналитических отчетов, практик индустрии, и нормативных документов.
Объект исследования
Объектом исследования являются компьютерные атаки, реализуемые с применением методов машинного обучения и искусственного интеллекта, а также системы защиты от таких атак. Включает:
•Современные виды ИИ-атак (например, генерация фишинга через GPT, атаки на модели МЛ, автоматизированные эксплойты);
•Методы обнаружения и противодействия на основе МЛ (анализ поведения, сигнатурные и ансамблевые модели, deep learning);
•Инфраструктуру кибербезопасности, использующую ИИ.
1.6 Цель исследования
Современные компьютерные атаки, использующие методы машинного обучения, представляют собой качественно новый этап развития киберугроз. В настоящее время злоумышленники активно применяют ИИ-технологии для автоматизации фишинговых атак через генерацию убедительных текстов и изображений, подбора уязвимостей в программном обеспечении, а также для создания адаптивных вредоносных программ, способных изменять свое поведение в зависимости от среды выполнения. Особую опасность представляют атаки на сами системы машинного обучения, такие как adversarial-атаки, когда злоумышленники вносят незаметные для человека изменения во входные данные, что приводит к ошибочным решениям ИИ-систем. Эти методы уже сегодня демонстрируют высокую эффективность, что подтверждается растущим числом успешных киберопераций против корпоративных и государственных систем.
В ближайшей перспективе можно ожидать дальнейшего усложнения ИИ-атак за счет интеграции генеративных моделей нового поколения, способных создавать сверхреалистичный контент для социальной инженерии. Особую угрозу будут представлять самообучающиеся вредоносные программы, которые смогут самостоятельно исследовать уязвимости в сетях и адаптироваться к системам защиты в реальном времени. Кроме того, с развитием квантовых вычислений могут появиться принципиально новые векторы атак, способные взламывать современные криптографические алгоритмы, что потребует разработки новых методов защиты на основе квантово-устойчивого машинного обучения.
В долгосрочной перспективе развитие компьютерных атак на основе ИИ может привести к появлению полностью автономных кибервооружений, способных без вмешательства человека проводить сложные многоэтапные операции по нарушению работы критической инфраструктуры. Одновременно с этим ожидается рост угроз, связанных с манипуляцией общественным сознанием через персонализированные deepfake и targeted-дезинформацию. Однако параллельно будут развиваться и защитные технологии — системы ИИ нового поколения, это позволят создавать более устойчивые системы кибербезопасности. Ключевым фактором успеха в этом противостоянии станет развитие в области регулирования ИИ-технологий, и создание глобальных стандартов кибербезопасности.
Использованные методы и средства
•На первом этапе исследования был проведен анализ современных научных публикаций, посвященных применению методов машинного обучения в области кибербезопасности. Были рассмотрены работы, опубликованные в ведущих рецензируемых журналах, а также материалы конференций по искусственному интеллекту и информационной безопасности. Законодательные акты, стандарты и практики сообщества. Этот этап позволил выявить ключевые тенденции, актуальные угрозы и наиболее эффективные алгоритмы, применяемые в данной области.
•Далее было выполнено изучение аналитических отчетов и практик от компаний, специализирующихся на кибербезопасности. Анализ материалов помог исследовать как методы машинного обучения используются не только в защите, но и в реальных атаках. Были рассмотрены примеры автоматизированных фишинговых кампаний, атак на системы компьютерного зрения и эксплуатации уязвимостей в моделях ИИ. Это позволило сформировать представление о современных тактиках злоумышленников и методах их нейтрализации.
Использованные методы и средства
•Кроме того, исследование включало анализ законодательных и нормативных документов, регулирующих применение ИИ в кибербезопасности. Изучены международные стандарты, российские технические регламенты и инициативы в области этики ИИ. Особый акцент был сделан на требования к безопасности систем, использующих машинное обучение, и правовые аспекты их внедрения. Это позволило не только оценить текущее состояние регулирования, но и выявить пробелы, которые могут повлиять на дальнейшее развитие технологий защиты. В результате была сформирована комплексная картина, объединяющая теоретические исследования, практический опыт и нормативную базу.
Заключение
•В ходе проведенного исследования были достигнуты следующие ключевые результаты:
•1. Анализ угроз: Систематизированы современные типы компьютерных атак, использующих методы машинного обучения (МЛ), включая генеративные атаки (фишинг, deepfake), adversarial-атаки и автоматизированные эксплойты. Выявлены их ключевые характеристики и уязвимости, которые они эксплуатируют.
•2. Методы защиты: проанализированы классификация методов противодействия ИИ-атакам, включая технические (adversarial training, ансамбли моделей), организационные (стандарты, обучение персонала) и перспективные направления (квантовые и биоинспирированные подходы).
•3. Нормативная база: Проанализированы российские и международные стандарты в области ИИ (ПНСТ 836-2023, ISO/IEC 5469), а также экспериментальные правовые режимы
•Исследование подтвердило необходимость адаптации систем кибербезопасности к новому поколению ИИ-угроз. Разработанные решения демонстрируют высокую эффективность и соответствуют актуальным требованиям регуляторов.