Эксперты по кибербезопасности бьют тревогу: исследователи обнаружили MalTerminal — первое известное вредоносное ПО на базе GPT-4, в которое встроен продвинутый ИИ для разработки атак «на лету». Обнаруженный командой SentinelLABS компании SentinelOne и представленный на конференции LABScon 2025, этот исполняемый файл для Windows знаменует собой опасный поворотный момент в киберпреступности. Теперь злоумышленники используют GPT-4 от OpenAI для динамического создания программ-вымогателей или обратных шеллов, обходя традиционные средства защиты и создавая более интеллектуальные, эволюционирующие угрозы. Этот прототип, выпущенный до ноября 2023 года и использующий устаревший API, может вскоре стать реальным оружием, предупреждают эксперты.
В связи с ростом числа фишинговых атак и уловок с использованием искусственного интеллекта, MalTerminal рассказывает о том, как хакеры используют полезные технологии во вред. Аналитики SentinelOne называют это «качественным изменением» в тактике: вредоносное ПО больше не статичное; оно адаптируется в режиме реального времени, усложняя обнаружение и реагирование. Скрипты Python копируют его функции, демонстрируя модульную структуру для лёгкой настройки.
Вредоносное ПО на базе GPT-4: темная сторона ИИ

Хакеры не останавливаются на генерации кода. Они отравляют LLM-программы в электронных письмах скрытыми подсказками, запрятанными в невидимый HTML-код, чтобы обмануть средства безопасности на базе ИИ. В отчёте подробно описывается мошенничество с выставлением счётов, в ходе которого эксплойты скрывались через Follina (CVE-2022-30190), загружались скрипты PowerShell, завершался Defender и блокировалось сохранение уязвимости.
Trend Micro отслеживает бум конструкторов сайтов на базе искусственного интеллекта, таких как Lovable, Netlify и Vercel, способствующих фишингу с января 2025 года. Мошенники создают поддельные страницы CAPTCHA, которые перенаправляют пользователей на страницы, похитившие учетные данные, маскируя злонамеренность под видом законных пользователей и бесплатный хостинг.
Всплеск вредоносного ПО на базе GPT-4 снижает барьеры для злоумышленников, превращая инновации в удобные инструменты для совершения преступлений. Поскольку ИИ управляет и щитами, и мечами, средства защиты должны быстро развиваться.
Читайте также: 10 лучших экспертов по цифровому SEO-маркетингу в Индии
Основные последствия для бизнеса:
- Проводите упреждающие проверки безопасности ИИ уже сейчас — не ждите нарушений.
- Тестовые системы против быстрых инъекций и отравлений LLM, чтобы оставаться впереди.
- Увеличьте расходы на адаптивные детекторы ИИ, соответствующие скорости хакеров.
«Мы вступили в новую эру, когда ИИ не только защищает нас, но и вооружает киберпреступников», — говорит Алекс Деламотт из SentinelOne. Компании, игнорирующие это, рискуют быстро устареть в гонке кибервооружений. Будьте бдительны: обновляйте инструменты, обучайте команды и следите за признаками вредоносного ПО на базе GPT-4.
Больше новостей для чтения: Поведение пользователей ChatGPT: почему люди полагаются на Google?
Структурированные данные повышают видимость поиска ИИ для предприятий