В России набирает обороты новый вид мошенничества. Теперь аферисты используют не только социальную инженерию (запугивание и угрозы), но и искусственный интеллект.
Как обезопасить себя от дипфейков и утечки данных — специально для E1.RU объяснил Владислав Тушканов, руководитель группы исследований технологий машинного обучения «Лаборатории Касперского».
Например, злоумышленники применяют ИИ на различных этапах кибератаки — от первичного контакта с потенциальной жертвой до разработки вредоносного кода.
«Мы регулярно фиксируем использование ИИ для создания фишинговых страниц, написания программ-вымогателей (например, FunkSec), а также инструментов для продвинутых целевых атак, подобных операциям группы Bluenoroff», — рассказал E1.RU Владислав Тушканов.
Дипфейк — поддельные видео- или аудиосообщения, созданные с помощью искусственного интеллекта. Мошенники часто используют их для кражи данных пользователей и их финансовых средств.
Не только мошенники, но и обычные уральцы стали чаще пользоваться ИИ, и в этом кроется еще одна опасность. Даже на официальных ИИ-сервисах происходят утечки данных конфиденциальной информации.
«Причинами могут быть как кибератаки, так и ошибки в архитектуре или конфигурации сервисов, — продолжил эксперт. — Крупные ИТ-компании следят за безопасностью, но пользователи нередко обращаются к малоизвестным сервисам или бесплатным версиям чат-ботов, уровень защиты которых может быть ниже».
«Проблема в том, что такие сервисы часто не раскрывают информацию о политике конфиденциальности. Если их создатели окажутся недобросовестными, данные пользователя могут быть скомпрометированы», — добавил Владислав Тушканов.
Важно помнить: всё, что пользователь вводит в чат-бот, теоретически может использоваться провайдером сервиса — например, для обучения и улучшения моделей.
«Мы сталкивались с примером, когда сайт предлагал доступ к ChatGPT, и пользователь получал возможность работать с ботом. Однако параллельно на этом же ресурсе публиковались переписки пользователей в открытом доступе, — обратил внимание эксперт. — Поэтому при работе с ИИ-сервисами важно задавать себе вопрос: является ли информация, которую я загружаю, конфиденциальной и критичной для меня или моей компании?»
Не передавайте чат-ботам конфиденциальные корпоративные данные — из-за потенциальных утечек они могут стать публичными. Есть еще несколько базовых правил безопасности.
