Експерти з кібербезпеки б'ють на сполох, оскільки дослідники виявляють MalTerminal, перше відому шкідливу програму на базі GPT-4, яка вбудовує передовий штучний інтелект для створення атак на льоту. Виявлений командою SentinelLABS компанії SentinelOne та представлений на конференції LABScon 2025, цей виконуваний файл для Windows знаменує собою небезпечний поворот у кіберзлочинності. Зловмисники тепер використовують GPT-4 OpenAI для генерації програм-вимагачів або динамічного зворотного захисту, уникаючи традиційних засобів захисту та створюючи розумніші, еволюціонуючи загрози. Цей експериментальний проект, датований раніше листопада 2023 року — через застарілий API — незабаром може перетворитися на реальну зброю, попереджають експерти.
Зі зростанням кількості фішингових шахрайств та трюків зі штучним інтелектом, MalTerminal висвітлює, як хакери перетворюють корисні технології на шкоду. Аналітики SentinelOne називають це «якісним зрушенням» у тактиці: шкідливе програмне забезпечення більше не залишається статичним; воно адаптується в режимі реального часу, ускладнюючи виявлення та реагування. Скрипти Python відображають його функції, демонструючи модульну конструкцію для легкого налаштування.
Шкідливе програмне забезпечення на базі GPT-4: темна сторона штучного інтелекту

Хакери не зупиняються на генерації коду. Вони отруюють LLM в електронних листах прихованими підказками — захованими в невидимому HTML — щоб обдурити інструменти безпеки зі штучним інтелектом. У звіті детально описано шахрайство з виставленням рахунків, яке приховувало експлойти через Follina (CVE-2022-30190), втрачаючи скрипти PowerShell, блокуючи Defender та блокуючи його збереження.
Trend Micro відстежує бум конструкторів сайтів на основі штучного інтелекту, таких як Lovable, Netlify та Vercel, що підживлюють фішинг з січня 2025 року. Злочинці створюють підроблені сторінки CAPTCHA, які перенаправляють на сайти злодіїв облікових даних, маскуючи зловмисні наміри під справжнім виглядом та безкоштовним хостингом.
Цей сплеск поширення шкідливого програмного забезпечення на базі GPT-4 знижує бар'єри для зловмисників, перетворюючи інновації на легкі інструменти для злочинів. Оскільки штучний інтелект є рушійною силою як щитів, так і мечів, захист має швидко розвиватися.
Також читайте: 10 найкращих експертів з SEO цифрового маркетингу в Індії
Ключові наслідки для бізнесу:
- Проводьте проактивні аудити безпеки штучного інтелекту зараз — не чекайте порушень.
- Тестування систем на наявність швидких ін'єкцій та отруєння LLM, щоб залишатися на крок попереду.
- Збільште витрати на адаптивні детектори штучного інтелекту, які відповідають швидкості хакерів.
«Ми вступили в нову еру, де штучний інтелект озброює кіберзлочинців так само, як і захищає нас», — каже Алекс Деламотт із SentinelOne. Підприємства, які ігнорують це, ризикують швидким застарінням у гонці кіберозброєнь. Будьте пильними: оновлюйте інструменти, навчайте команди та слідкуйте за ознаками шкідливого програмного забезпечення на базі GPT-4.
Більше новин для читання: Поведінка користувачів ChatGPT: чому люди покладаються на Google?
Структуровані дані підвищують видимість пошуку за допомогою штучного інтелекту для підприємств