Ахиллесова пята ИИ-защиты: комбинация CAPTCHA и QR-кодов даёт сбой

Ахиллесова пята ИИ-защиты: комбинация CAPTCHA и QR-кодов даёт сбой

Традиционные методы определения фишинговых писем по грамматическим ошибкам и навязчивому стилю общения больше не работают. Как сообщается в новом отчёте компании Cofense Intelligence под названием «AI Alone is Not Bulletproof», злоумышленники начали активно использовать ChatGPT и другие ИИ-инструменты для создания безупречных текстов.

Несмотря на то, что специалисты по кибербезопасности также применяют искусственный интеллект для защиты электронной почты, многие фишинговые письма всё равно попадают в почтовые ящики пользователей. Основная проблема заключается в том, что модели искусственного интеллекта и машинного обучения обучаются на исторических данных, в то время как новые угрозы развиваются молниеносно.

При этом системы на базе ИИ демонстрируют определённые успехи. По данным Cofense Intelligence, искусственный интеллект способен понимать логику подозрительных писем и распознавать технику тайпсквоттинга — когда хакеры используют опечатки для перенаправления пользователей на вредоносные сайты, например, «vvindows[.]com» или «wallrnart[.]com».

Автор отчёта Джейкоб Малимбан отмечает, что ИИ может как помогать организациям, так и наносить им вред, особенно если модель недостаточно обучена и оставлена без присмотра. Современные шлюзы безопасности электронной почты способны блокировать сообщения с призывами к срочным действиям, однако ситуация усложняется, когда хакеры используют автоматизированные инструменты для сбора информации о сотрудниках компании.

Эксперты предупреждают об опасности компрометации учётных записей — злоумышленники могут обучить ИИ копировать стиль письма жертвы. В сочетании с возможностью отвечать в существующих цепочках писем от имени взломанного аккаунта, это делает новые цели менее бдительными.

Отдельную угрозу представляют дипфейки, позволяющие имитировать внешность и голоса доверенных контактов с растущей точностью. Даже компания LastPass, специализирующаяся на кибербезопасности, признала, что стала жертвой мошенничества с использованием дипфейка, когда злоумышленники подделали голос генерального директора.

Cofense Intelligence приводит пример атаки, в ходе которой преступники смогли имитировать голоса финансового директора и других сотрудников во время конференц-звонка, убедив организацию-жертву перевести средства. Эта изощрённая атака обошлась компании в 25 миллионов долларов.

Искусственный интеллект также демонстрирует низкую эффективность при анализе писем, требующих действий от пользователя, например, сканирования QR-кода. Мошенники легко обходят защиту, встраивая вредоносные ссылки или QR-коды в PDF-файлы и используя CAPTCHA для усложнения автоматического анализа.

По мнению экспертов, наступательный ИИ, используемый злоумышленниками, будет развиваться быстрее защитного, поскольку не ограничен правовыми, авторскими или этическими нормами.

Источник: SecurityLab.ru

Интересно? Поделиться:

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *