25 December 2024

ИИ способен создавать тысячи вредоносов с низкой вероятностью обнаружения

НАСТОЯЩИЙ МАТЕРИАЛ (ИНФОРМАЦИЯ) ПРОИЗВЕДЕН, РАСПРОСТРАНЕН И (ИЛИ) НАПРАВЛЕН ИНОСТРАННЫМ АГЕНТОМ «РОСКОМСВОБОДА» ЛИБО КАСАЕТСЯ ДЕЯТЕЛЬНОСТИ ИНОСТРАННОГО АГЕНТА «РОСКОМСВОБОДА». 18+
Хотя с помощью LLM сложно создать вредоносное ПО с нуля, говорится в исследовании ИБ-экспертов из Palo Alto Networks, преступники могут легко использовать их для переписывания или обфускации существующего вредоносного кода, что в итоге затруднит его обнаружение.
Фото: коллаж «Роскомсвобода» / Canva AI

Эксперты Palo Alto Networks в ходе исследований выяснили, что большие языковые модели (LLM) могут быть использованы для массовой генерации новых вариантов вредоносного JavaScript-кода, что значительно затрудняет их обнаружение. В рамках эксперимента исследователи использовали LLM для переписывания существующего кода и добились создания 10 000 новых версий без изменения их функционала.

«Хотя с помощью LLM сложно создать вредоносное ПО с нуля, преступники могут легко использовать их для переписывания или обфускации существующего вредоносного кода, что в итоге затруднит его обнаружение», — пишут исследователи.

Вредоносный код был преобразован с помощью методов, таких как переименование переменных, вставка случайных строк, удаление пробелов и полная реимплементация кода. Эти изменения не только усложняли анализ, но и снижали вероятность выявления таких скриптов системами машинного обучения.

Согласно исследованию, модели вроде Innocent Until Proven Guilty и PhishingJS ошибочно классифицировали переработанный код как безвредный в 88% случаев. Более того, загруженные на платформу VirusTotal, такие скрипты также обманули анализаторы, избегая обнаружения.

Одним из преимуществ использования LLM для обфускации является то, что переписанный код выглядит более естественно, чем при применении стандартных инструментов вроде obfuscator.io. Это делает его ещё сложнее для отслеживания.

Эксперты предупреждают, что подобные подходы могут стать инструментом хакеров для массового производства новых видов малвари. Однако эти же технологии могут быть использованы и для улучшения защиты. Например, LLM можно применять для генерации обучающих данных, которые помогут усовершенствовать алгоритмы классификации вредоносного ПО.

Среди других угроз выделяются новые атаки на системы искусственного интеллекта. Например, исследователи из Северной Каролины разработали метод TPUXtract, который позволяет с высокой точностью красть конфигурации моделей машинного обучения с использованием аппаратных процессоров TPU. Эти данные затем могут использоваться для воссоздания моделей или атак на их инфраструктуру.

Развитие генеративного ИИ открывает как возможности, так и новые риски. Масштабное создание вариантов вредоносного ПО и обман систем защиты становятся реальностью, что требует внедрения новых методов обнаружения и защиты. Исследования подчёркивают необходимость совместной работы специалистов для противодействия угрозам кибербезопасности.

Contacts

For general questions

[email protected]

For legal questions

[email protected]

Contacts for media:

Telegram: moi_fee
Signal: moi_fee.13

18+

On December 23, 2022, the Ministry of Justice included Roskomsvoboda in the register of unregistered public associations performing the functions of a foreign agent. We disagree with this decision and are appealing it in court.