Кража личных данных с помощью искусственного интеллекта выросла на 340%: экспертный анализ
По мере развития киберугроз безопасность личности становится важнее, чем когда-либо, на передовой борьбы с кибератаками. Недавний отчёт SlashNext показал, что злоумышленники используют инструменты генеративного ИИ для фишинга, что привело к увеличению числа фишинговых атак на 341% всего за шесть месяцев.
Эта масштабная волна новых атак включает в себя атаки с использованием вредоносных ссылок, компрометацию корпоративной электронной почты (BEC), фишинг с использованием QR-кодов, а также угрозы, связанные с вложениями в электронной почте и многоканальными сообщениями.
Сегодня 80% всех взломов используют скомпрометированные учётные записи, что ежегодно обходится предприятиям в миллиарды долларов. С распространением приложений SaaS и искусственного интеллекта растёт и количество атак на учётные записи — на 71% в годовом исчислении, согласно индексу угроз IBM за 2024 год.
Как технология кражи личных данных с помощью искусственного интеллекта ведет войну внутри организаций
Атаки на основе личных данных становятся всё более изощрёнными, поскольку злоумышленники используют искусственный интеллект для автоматизации и масштабирования.
Кроме того, ИИ используется для создания дипфейков, которые могут вводить в заблуждение как людей, так и системы, что ещё больше усложняет работу служб безопасности.
Такие типы атак могут также влиять на инновации, поскольку организации воспринимают новые продукты или решения как потенциальные цели для взлома хакерами. Это ставит компании в невыгодное положение, поскольку они откладывают внедрение передовых технологий из-за проблем с безопасностью.
Скрытые издержки
В 2023 году Центр по борьбе с кражей личных данных (ITRC) отследил 3205 случаев компрометации данных, что на 72% больше, чем в 2021 году.
Кроме того, по мере распространения краж личных данных с помощью ИИ нарушается непрерывность бизнес-процессов. ITRC обнаружил, что почти 11% всех публичных компаний подверглись взлому в 2023 году. Эти взломы привели к серьёзным сбоям в работе и отвлечению ресурсов на устранение инцидентов, связанных с безопасностью.
Мошеннические боты с искусственным интеллектом следующего поколения и атаки GenAI
Используя GenAI, киберпреступники также могут создавать тексты на любом языке и обходить автоматизированные модели безопасности, которые полагаются на нюансы и ошибки при обнаружении атак.
В заключение отметим, что слияние искусственного интеллекта и киберпреступности положило начало новой эре кражи личных данных с экспоненциально более высокими ставками.
Скрытые издержки, связанные с этими атаками, выходят далеко за рамки финансовых потерь и влияют на доверие, работу и даже инновации. Поскольку ИИ продолжает развиваться, организациям необходимо срочно адаптировать свои стратегии безопасности для борьбы с этой растущей угрозой, иначе они рискуют столкнуться с катастрофическими последствиями.