Въпреки контролите за сигурност, които OpenAI е наложила на ChatGPT, за да се опита да го превърне в сигурно пространство, способно да помага на потребителите при изпълнението на различни задачи, киберпрестъпниците са успели да използват тази технология за злонамерени цели.
Последните изследвания показват, че този генеративен изкуствен интелект е способен сравнително лесно да създаде нов клон на полиморфен зловреден софтуер. Основният риск се крие в гъвкавостта на ChatGPT, която му позволява да създава код, който лесно може да бъде използван за зловреден софтуер.
Въпреки че изглежда сложно, заобикалянето на филтрите за съдържание, които не позволяват на ChatGPT да създава зловреден код, всъщност е доста просто. Това разширява кръга на киберпрестъпниците, способни да създават усъвършенствани заплахи, тъй като опростява процесите и премахва необходимостта от разширени технически познания. Чрез използване на непрекъснати запитвания и изискване програмата да се подчини след първия си отказ, както и чрез използване на API на Python вместо на уеб версията, за да се осигурят по-последователни резултати и да се заобиколят филтрите за съдържание, изследователите са установили, че е възможно да накарат ChatGPT да напише уникален, функционален код, който може да се използва злонамерено. След това са установили, че могат да накарат ChatGPT да мутира кода и по този начин да получат полиморфен зловреден софтуер, с който системите за сигурност трудно могат да се справят и който е много уклончив.
Действие и характеристики на полиморфния зловреден софтуер
Полиморфният зловреден софтуер се превърна в една от най-трудните за откриване и борба заплахи поради своята устойчивост и способността си да променя външния вид и поведението си. Антивирусният софтуер – поне този, който разчита твърде много на сигнатури или шаблони – се затруднява да го открие поради способността му да мутира. Тъй като се крие и избягва откриването толкова ефективно, той може да окаже опустошително въздействие върху компютърните системи, да открадне чувствителна информация, да компрометира мрежовата сигурност и да причини непоправими щети. Но какво прави полиморфния зловреден софтуер толкова сложен за справяне?
- Зловредният софтуер променя външния си вид всеки път, когато се изпълнява: полиморфните вируси са проектирани да променят структурата и „цифровия“ си вид всеки път, когато се изпълняват, като напълно пренаписват кода си чрез криптиране на файлове и съответно модифициране на сигнатурите, което ги прави трудни за откриване от антивирусните програми, които разчитат на познати вирусни сигнатури.
- Трансформация на изходния код: този зловреден софтуер използва усъвършенствани техники за замаскиране на кода, за да избегне откриването, като например техники за криптиране и декомпресиране, или включва безполезен или нерелевантен код, за да затрудни анализа.
- Техники за заобикаляне: полиморфният зловреден софтуер може да използва техники за заобикаляне на пясъчници и други техники за заобикаляне, за да избегне откриване и анализ.
- Персонализация: той може да бъде силно персонализиран и насочен, което прави модела му на поведение уникален и труден за откриване от програми, които разчитат на откриване на подозрително поведение.
За да демонстрират на какво е способен зловредният софтуер, базиран на изкуствен интелект, група изследователи създадоха доказателство за концепцията (PoC), зловреден софтуер от типа на кийлогър, наречен BlackMamba, генериран с ChatGPT, който използва Python за произволно модифициране на програмата.
Възможността за кийлогване позволява на нападателя да събира чувствителна информация от всяко устройство и след като я получи, зловредният софтуер използва обща и надеждна платформа за сътрудничество, за да екфилтрира събраните данни чрез злонамерен канал, за да ги продаде в тъмната мрежа или да ги използва в нови атаки.
Благодарение на езика за програмиране с отворен код Python разработчиците могат да превръщат скриптовете в самостоятелни изпълними файлове, които могат да се изпълняват на множество операционни системи.
Този процес демонстрира способността на AI да изучава мрежовата среда и да разпознава моделите за проверка на сигурността, което му позволява да изпълнява зловреден софтуер, без да предизвиква системни предупреждения.
Как да смекчите въздействието на зловреден софтуер, базиран на ИИ
Полиморфният зловреден софтуер вече представлява предизвикателство за специалистите по киберсигурност, но когато ИИ го управлява, неговата сложност и скорост на разпространение стават още по-високи, в съчетание с много по-ниска техническа бариера за влизане в действие на субекта на заплаха, който го създава. Макар че традиционните решения за сигурност използват многопластови системи за разузнаване на данни, за да се борят с някои от най-сложните съвременни заплахи с автоматизирани контроли, които имат за цел да предотвратят нови или нередовни модели на поведение, на практика това не е толкова просто. Разширеното откриване и реагиране (XDR) предлагат допълнителен метод за защита срещу тези атаки.
Решенията за XDR, като ThreatSync на Watchguard, предлагат разширена видимост, подобрено откриване и бърза реакция чрез корелация на телеметрията от различни решения за сигурност, което предоставя на екипите по сигурността пълния контекст на заплахата. Това подобрява ефективността и намалява риска да станете жертва на полиморфен зловреден софтуер, тъй като анализаторите получават по-добра видимост на заплахите, а реакцията в реално време е по-бърза.