«Мы больше не можем доверять тому, что слышим и видим»: как и зачем киберпреступники используют ИИ

Опубликовано От Sergey

Тема искусственного интеллекта окружена маркетинговым шумом и изобилует туманными терминами: нейросети, машинное обучение, глубокое обучение. Но далеко не все могут внятно объяснить, какое обучение еще машинное, а какое — уже глубокое. Пока любители технологий обсуждают автопилот Tesla и смотрят, как Siri общается с «Алисой», на темной стороне идет активная работа по внедрению ИИ в мошеннические схемы.

Михаил Кондрашин, технический директор Trend Micro в России и СНГ, рассказывает, какие возможности ИИ уже используют для киберпреступлений и что нас ждет в будущем.

«Мы больше не можем доверять тому, что слышим и видим»: как и зачем киберпреступники используют ИИ

Михаил Кондрашин

Что есть что в мире ИИ

Прежде чем рассказывать о преступном применении ИИ, разберемся с терминами.

Искусственный интеллект (Artificial Intelligence, AI) — это технология, с помощью которой компьютерная система может имитировать действия человека в аналогичной ситуации. Датой появления ИИ считается 1956 год, когда на Дартмутском семинаре это направление анонсировал Марвин Мински, Клод Шеннон, Джон Мак-Карти и Натаниэль Рочестер. Обычно к сфере ИИ относят системы, которые выполняют функции человека — распознавание речи и образов, поиск решений и взаимосвязей, обучение.

Главное отличие ИИ от других компьютерных систем — отсутствие предопределенности: ИИ может выдавать разные реакции на одни и те же входные данные. Практически невозможно понять, каким образом ИИ пришел к выводу.

Существует много способов реализации ИИ, например, на базе множества правил или экспертных систем. Наибольшее распространение с 1980-х годов получила технология машинного обучения (Machine Learning, ML). Машинным обучением называют любые методы, которые позволяют системам «учиться» без явного программирования этого поведения.

Смысл машинного обучения состоит в том, что компьютерная система получает на вход большой набор данных и информацию о том, какие из них содержат нужные характеристики. Такими данными могут быть, например, сведения о финансовых транзакциях, а также о том, какие из них являются мошенническими.

Система обрабатывает данные по специальному алгоритму, накапливая их. Потом все решения принимаются уже в соответствии с накопленными «знаниями» — ML-системы подобно человеческому мозгу в процессе своего обучения создают множество взаимосвязей.

Для повышения эффективности машинного обучения массивы накопленных данных и их обработку стали проводить на нескольких уровнях, формируя целые сети условных «нейронов» — слоев, имитирующих человеческий мозг. Такая технология получила название «глубокого обучения» — Deep Learning, DL. Конкретные реализации систем глубокого обучения обычно называют нейронными сетями.

Актуальные киберугрозы, связанные с ИИ

Изучая теневые форумы, мы обнаружили, что киберпреступники уже активно используют преимущества ИИ. Рассмотрим некоторые из этих направлений.

Дипфейки

Одним из наиболее заметных способов вредоносного использования ИИ стали дипфейки (Deepfakes). Под этим термином понимается использование нейросетей для создания фальшивого аудио- и видеоконтента, который практически невозможно отличить от подлинного.

Эта технология становится мощным оружием в современных информационных войнах, в результате которых человек больше не может полагаться на то, что он видит или слышит. А благодаря интернету, социальным сетям и мессенджерам подделки могут быстро распространяться на многомиллионные аудитории в считаные часы.

Самые опасные последствия дипфейков:

  • уничтожение репутации политиков публичных личностей;
  • троллинг, преследование и унижение людей в сети;
  • шантаж, вымогательство и мошенничество, подделка документов;
  • фальсификация или манипулирование электронными доказательствами в уголовных расследованиях;
  • нарушение работы финансовых рынков;
  • распространение дезинформации и манипулирование общественным мнением;
  • подстрекательство к актам насилия и социальным протестам;
  • снижение доверия к медиа.

Дипфейки приобрели известность в конце 2017 году, когда анонимный пользователь Reddit разместил сгенерированные ИИ порнофильмы , в которых на тела женщин были наложены лица Тейлор Свифт, Скарлетт Йоханссон, Обри Плаза, Гал Гадо и Мейзи Уильямс.

Взлом капчи

Капча (CAPTCHA, Completely Automated Public Turing test to tell Computers and Humans Apart, публичный тест Тьюринга) — компьютерный тест, пройти который легко для человека, но сложно или невозможно для компьютера.

Различные варианты капчи используются на сайтах, чтобы помешать созданию новых аккаунтов, добавлению новых комментариев или ответов на форумах без участия человека. Разработка систем для решения капчи позволит киберпреступникам злоупотреблять сервисами в автоматизированном режиме.

Пост на киберпреступном форуме с предложением XEvil. Источник: Trend Micro

На криминальных форумах уже предлагается ПО XEvil, реализованное на базе нейронных сетей и успешно взламывающее многие варианты капчи. Инструмент использует от 80 до 100 процессорных потоков. Стоимость аренды такого инструмента составляет всего 4 тыс. рублей в неделю или 10 тыс. рублей в месяц.
 

Обход спам-фильтров и антивирусного ПО

Новым этапом противостояния киберпреступников и разработчиков защитных решений стало внедрение ИИ. Ориентируясь на успешный опыт внедрения нейросетей для распознавания вредоносного ПО, киберзлодеи стали использовать глубокое обучение для разработки способов скрыться от обнаружения.

Еще в 2015 году был продемонстрирован обход спам-фильтров с помощью нейросети, которая использовала генеративную грамматику для создания сообщений электронной почты, практически неотличимых от написанных живыми людьми.

В 2017 году во время конференции Hat USA17 исследователи продемонстрировали, как использовать методы машинного обучения для проведения атак с компрометацией деловой переписки (Business Email Compromise, BEC). Разработанная ими методика использует данные из утечек и открытые сведения из социальных сетей, чтобы разработать атаку, которая с высокой вероятностью будет успешной.

На той же конференции был представлен инструмент AVPASS, который позволяет замаскировать вредоносное ПО для Android под добропорядочное приложение. AVPASS достиг нулевого уровня детектирования на онлайновой службе анализа вредоносных программ VirusTotal с более чем 5 тыс. образцов вредоносных программ для Android.

Еще одной демонстрацией вредоносного использования ИИ стал инструмент, который использует машинное обучение для обмана антивирусного детектора на базе ИИ. Встроенная во вредонос нейронка выбирает для использования в атаках функции Windows, которые не обнаруживаются детектором, но при этом обеспечивают необходимую для преступников функциональность. При этом ML-движок антивируса используется для оценки эффективности результата и запуска очередного цикла обучения вредоноса.

Угадывание паролей

Принцип работы инструментов для угадывания паролей, подобных HashCat и John the Ripper, состоит в том, что они генерируют очередной пароль по заданным правилам, вычисляют его хэш, а затем сравнивают его с хэшем реального пароля. В большом числе случаев для генерации паролей используется словарь часто используемых паролей, на базе которого формируются различные варианты. Например, для пароля «password» такими вариациями могут быть «password12345» или «p@ssw0rd».

Повысить эффективность этого процесса позволяет использование генеративно-состязательных нейросетей (Generative adversarial network, GAN), обученных на большом наборе данных из утечек паролей. Такая сеть будет генерировать вариации, соответствующие статистическому распределению, что может значительно ускорить процесс.

Предложение ИИ-инструмента для подбора паролей на киберпреступном форуме. Источник: Trend Micro

Один из инструментов, реализующих эту методику, упоминался на хакерских форумах в феврале 2020 года. В посте была ссылка на репозиторий GitHub, в котором было опубликовано ПО для подбора паролей, обученное на массиве в 1,4 млрд учетных данных.

Представленная в 2019 году система PassGAN использует GAN для изучения статистического распределения похищенных паролей и генерирует качественные варианты, обеспечивая выигрыш в скорости от 51 до 73 % по сравнению с HashCat.

Проникновение в системы

Использование ИИ позволяет улучшить традиционные методы взлома путем создания непредсказуемых способов проведения атак. Одним из инструментов, реализующих эту стратегию, стал представленный на DEFCON 2017 инструмент DeepHack, реализованный на базе нейросети. DeepHack позволяет проводить тестирование сети на проникновение (pentest) без необходимости сбора предварительной информации о системе. Инструмент использует нейронную сеть, которая самостоятельно создает команды для SQL-инъекций и позволяет полностью автоматизировать процесс взлома баз данных на сайтах.

Аналогичный подход использует инструмент DeepExploit, представляющий собой полностью автоматическую систему тестирования на проникновение на базе ML. Для создания и тестирования эксплойтов DeepExploit взаимодействует с известной платформой Metasploit, для обучения используется алгоритм подкрепления под названием Asynchronous Actor-Critic Agents (AC3), который позволяет изучить условия использования уязвимости перед тем, как тестировать её на целевом сервере.

Прогнозы и рекомендации

Высокая результативность использования ИИ для совершения преступлений вызвала рост популярности соответствующих инструментов в киберпреступной среде. Исследователи ожидают стремительного роста как инструментальных средств для проведения кибератак с использованием нейросетей, так и непосредственного внедрения машинного обучения во вредоносное ПО.

Попытки ограничить распространение нейросетей или регулировать их использование на государственном уровне представляются малоэффективными и могут привести скорее к обратному эффекту, когда легитимные компании не смогут использовать передовые технологии из-за законодательных ограничений, в то время как преступники будут активно внедрять их в свою практику.

Более перспективным выглядит развитие технологий детектирования подделок и совершенствование методов выявления использования искусственного интеллекта для автоматической блокировки мошеннических ресурсов, поддельных фото-, аудио- и видеоматериалов. Чрезвычайно важным является как можно более широкое информирование и публичное обсуждение проблемы, которое создаст более критичное восприятие и снизит уровень влияния фальшивок на социальные процессы.

Фото на обложке: Shutterstock/Quardia
Изображения в тексте предоставлены автором

Нашли опечатку? Выделите текст и нажмите Ctrl + Enter

Источник: https://rb.ru/

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *