GhostGPT – новият зловреден чатбот и неговото въздействие върху киберсигурността

GhostGPT – новият зловреден чатбот и неговото въздействие върху киберсигурността

В днешната киберреалност не е изненада, че киберпрестъпниците използват възможностите на генеративния изкуствен интелект, за да засилят атаките си. Но появата на нови модели, създадени специално за бързо генериране на заплахи, улеснява тази задача още повече.

В края на 2024 г. изследователи откриха нов AI чатбот, предназначен за престъпни цели. Този модел, наречен GhostGPT, предоставя на киберпрестъпниците безпрецедентни възможности – позволявайки им да създават сложни фишинг имейли и зловреден софтуер с лекота и с бързина, немислима само преди няколко години.

Това е възможно, защото GhostGPT функционира без ограничения, каквито имат други модели като ChatGPT, които са подчинени на етични насоки и защитни филтри, блокиращи злонамерени заявки. Най-вероятно става дума за така наречен „wrapper“ – интерфейс или допълнителен слой върху вече съществуващ AI модел, свързан с „jailbreak“-ната версия на ChatGPT или с отворен код LLM (Large Language Model), при която етичните защити са премахнати.

4 основни риска, които GhostGPT носи за компаниите

GhostGPT не регистрира активността на потребителите, което гарантира анонимност. Това го прави особено привлекателен за престъпници, желаещи да останат незабелязани. Лесният достъп и липсата на контрол го превръщат в изключително опасен инструмент, който автоматизира и ускорява престъпни действия, изисквали до скоро повече умения и време. Сред възможностите му са:

1. Персонализиран и масов фишинг

GhostGPT може да създава убедителни, персонализирани фишинг имейли, напасвайки тона и стила според контекста на жертвата. Освен това позволява генерирането на стотици вариации за броени минути, увеличавайки обхвата и ефективността на атаките.


За защита организациите могат да въведат обучения за разпознаване на фишинг, при наличие на ресурси. Това ще помогне на служителите да идентифицират и избегнат подобни атаки.

2. Кражба на идентификационни данни и неоторизиран достъп

GhostGPT значително улеснява кражбата на идентификационни данни. Само с едно запитване той генерира фалшиви страници за вход, които изглеждат като напълно автентични. Престъпниците ги използват във фишинг кампании.

3. Полиморфен зловреден софтуер и зловреден код

Способността на GhostGPT да пише зловреден код по заявка прави създаването на базов зловреден софтуер – а дори и на напълно функционален рансъмуер – достъпно и за неопитни киберпрестъпници.
Най-обезпокояващото е потенциалът за създаване на полиморфен зловреден код, който непрекъснато се променя, за да избегне засичане от антивирусни програми.

4. Оптимизация на атакуващи стратегии и насоки

GhostGPT може да консултира хакери, предоставяйки подробни инструкции как да извършат по-ефективни атаки – от настройка на командни сървъри до избягване на защити или експлоатация на конкретни уязвимости.

Как да се защитим от подобни атаки

На фона на тази еволюция изглежда сякаш надеждата е изгубена. Но има начини компаниите да ограничат рисковете и да предотвратят превръщането на чатботи като GhostGPT в реална заплаха.

Основни мерки за сигурност:

  • Поддържане на системите актуални и прилагане на принципите на Zero Trust, за да се намали повърхността на атака.

  • Многофакторна автентикация (MFA) – за подсилване на контрола на достъпа.

  • DNS филтри – за блокиране на фишинг сайтове още преди зареждането им.

Интелигентни защитни решения:

  • AI-базирани системи за откриване на заплахи, като EDR (Endpoint Detection and Response) или XDR (Extended Detection and Response), които засичат аномалии, причинени от автоматизирани атаки.

  • Разузнаване на заплахите (Threat Intelligence) – за прогнозиране на нови тактики и адаптиране на защитите в реално време.

Заключение

Прилагането на многослойна защита и интеграция на отбранителен AI позволява на компаниите по-ефективно да се справят с атаките, генерирани от GhostGPT и други зловредни AI системи.

Сподели в: