В днешната киберреалност не е изненада, че киберпрестъпниците използват възможностите на генеративния изкуствен интелект, за да засилят атаките си. Но появата на нови модели, създадени специално за бързо генериране на заплахи, улеснява тази задача още повече.
В края на 2024 г. изследователи откриха нов AI чатбот, предназначен за престъпни цели. Този модел, наречен GhostGPT, предоставя на киберпрестъпниците безпрецедентни възможности – позволявайки им да създават сложни фишинг имейли и зловреден софтуер с лекота и с бързина, немислима само преди няколко години.
Това е възможно, защото GhostGPT функционира без ограничения, каквито имат други модели като ChatGPT, които са подчинени на етични насоки и защитни филтри, блокиращи злонамерени заявки. Най-вероятно става дума за така наречен „wrapper“ – интерфейс или допълнителен слой върху вече съществуващ AI модел, свързан с „jailbreak“-ната версия на ChatGPT или с отворен код LLM (Large Language Model), при която етичните защити са премахнати.
4 основни риска, които GhostGPT носи за компаниите
GhostGPT не регистрира активността на потребителите, което гарантира анонимност. Това го прави особено привлекателен за престъпници, желаещи да останат незабелязани. Лесният достъп и липсата на контрол го превръщат в изключително опасен инструмент, който автоматизира и ускорява престъпни действия, изисквали до скоро повече умения и време. Сред възможностите му са:
1. Персонализиран и масов фишинг
GhostGPT може да създава убедителни, персонализирани фишинг имейли, напасвайки тона и стила според контекста на жертвата. Освен това позволява генерирането на стотици вариации за броени минути, увеличавайки обхвата и ефективността на атаките.
За защита организациите могат да въведат обучения за разпознаване на фишинг, при наличие на ресурси. Това ще помогне на служителите да идентифицират и избегнат подобни атаки.
2. Кражба на идентификационни данни и неоторизиран достъп
GhostGPT значително улеснява кражбата на идентификационни данни. Само с едно запитване той генерира фалшиви страници за вход, които изглеждат като напълно автентични. Престъпниците ги използват във фишинг кампании.
3. Полиморфен зловреден софтуер и зловреден код
Способността на GhostGPT да пише зловреден код по заявка прави създаването на базов зловреден софтуер – а дори и на напълно функционален рансъмуер – достъпно и за неопитни киберпрестъпници.
Най-обезпокояващото е потенциалът за създаване на полиморфен зловреден код, който непрекъснато се променя, за да избегне засичане от антивирусни програми.
4. Оптимизация на атакуващи стратегии и насоки
GhostGPT може да консултира хакери, предоставяйки подробни инструкции как да извършат по-ефективни атаки – от настройка на командни сървъри до избягване на защити или експлоатация на конкретни уязвимости.
Как да се защитим от подобни атаки
На фона на тази еволюция изглежда сякаш надеждата е изгубена. Но има начини компаниите да ограничат рисковете и да предотвратят превръщането на чатботи като GhostGPT в реална заплаха.
Основни мерки за сигурност:
-
Поддържане на системите актуални и прилагане на принципите на Zero Trust, за да се намали повърхността на атака.
-
Многофакторна автентикация (MFA) – за подсилване на контрола на достъпа.
-
DNS филтри – за блокиране на фишинг сайтове още преди зареждането им.
Интелигентни защитни решения:
-
AI-базирани системи за откриване на заплахи, като EDR (Endpoint Detection and Response) или XDR (Extended Detection and Response), които засичат аномалии, причинени от автоматизирани атаки.
-
Разузнаване на заплахите (Threat Intelligence) – за прогнозиране на нови тактики и адаптиране на защитите в реално време.
Заключение
Прилагането на многослойна защита и интеграция на отбранителен AI позволява на компаниите по-ефективно да се справят с атаките, генерирани от GhostGPT и други зловредни AI системи.