Необходима е AI сигурност, за да се преборим с AI кибератаките

Необходима е AI сигурност, за да се преборим с AI кибератаките
microsoft

Технологиите за генериране на изкуствен интелект, като ChatGPT, доведоха до радикални промени в сферата на сигурността почти за една нощ. Генеративните чатботове с изкуствен интелект могат да създават ясна, добре прекъсната проза, изображения и други медии в отговор на кратки подкани от потребителите. ChatGPT бързо се превърна в символ на тази нова вълна на изкуствения интелект, а мощната сила, която тази технология отприщи, не остана незабелязана за киберпрестъпниците.

В момента тече нов вид надпревара във въоръжаването за разработване на технологии, които използват генеративен ИИ за създаване на хиляди злонамерени текстови и гласови съобщения, уеб връзки, прикачени файлове и видеофайлове. Хакерите се стремят да експлоатират уязвими цели, като разширяват обхвата на похватите си за социално инженерство. Инструменти като ChatGPT, Bard на Google и захранваният с ИИ Bing на Microsoft – всички те разчитат на големи езикови модели, за да увеличат експоненциално достъпа до обучение и по този начин да генерират нови форми на съдържание въз основа на тези контекстуални знания.

По този начин генеративният ИИ позволява на хакерите бързо да увеличават скоростта и вариациите на своите атаки, като променят кода на зловредния софтуер или създават хиляди версии на един и същ подход за социално инженерство, за да увеличат вероятността за успех. С напредването на технологиите за машинно обучение ще се увеличава и броят на начините, по които тази технология може да се използва за престъпни цели.

Изследователите на заплахи предупреждават, че джинът на генеративния изкуствен интелект вече е излязъл от бутилката и вече автоматизира хиляди уникално адаптирани фишинг съобщения и варианти на тези съобщения, за да увеличи процента на успех на бандитите. Клонираните имейли отразяват подобни емоции и спешност като оригиналите, но с леко променена формулировка, което затруднява откриването, че са изпратени от автоматизирани ботове.

Отпор с “човешки” подход към ИИ

Днес хората са главните мишени на атаките, свързани с компрометиране на бизнес електронна поща (BEC), които използват многоканален полезен товар, за да възпроизведат човешки емоции като страх (“Кликнете тук, за да избегнете данъчна ревизия от данъчната служба…”) или алчност (“Изпратете вашите идентификационни данни, за да получите отстъпка от кредитната карта…”). Лошите  вече са преработили стратегиите си, за да атакуват директно физически лица, като същевременно се стремят да използват слабости в бизнес софтуера и уязвимости в конфигурацията.

Бързото нарастване на киберпрестъпленията, основани на генеративен изкуствен интелект, прави все по-нереалистично наемането на достатъчно изследователи в областта на сигурността, за да се защитят от този проблем. Технологиите на ИИ и автоматизацията могат да откриват и да реагират на киберзаплахите много по-бързо и по-точно, отколкото хората, което от своя страна освобождава екипите по сигурността да се съсредоточат върху задачи, с които ИИ не може да се справи в момента. Генериращият ИИ може да се използва за предвиждане на огромния брой потенциални заплахи, генерирани от ИИ, чрез прилагане на техники за увеличаване на данните и клониране на ИИ за оценка на всяка основна заплаха и пораждане на хиляди други варианти на същата основна заплаха, което позволява на системата да се обучи на безброй възможни варианти.

Всички тези елементи трябва да бъдат контекстуализирани в реално време, за да се предпазят потребителите от кликване върху злонамерени връзки или отваряне на лоши прикачени файлове. Езиковият процесор изгражда контекстуална рамка, която може да породи хиляди сходни версии на едно и също съобщение, но с малко по-различни формулировки и фрази. Този подход позволява на потребителите да спират настоящите заплахи, като същевременно предвиждат как могат да изглеждат бъдещите заплахи и да  блокират и тях.

Защита от социално инженерство в реалния свят

Нека да разгледаме как една атака на социалното инженерство може да се осъществи в реалния свят. Да вземем простия пример със служител, който получава известие за просрочена фактура от AWS със спешна молба за незабавно плащане чрез банков превод.

Служителят не може да различи дали това съобщение идва от истински човек или от чатбот. Досега наследените технологии прилагаха сигнатури за разпознаване на оригиналните имейл атаки, но сега нападателите могат да използват генеративен ИИ, за да променят леко езика и да породят нови неразкрити атаки. Средството за отстраняване на проблема изисква технология за обработка на естествения език и граф на връзките, която може да анализира данните и да съпостави факта, че двете отделни съобщения изразяват едно и също значение.

В допълнение към обработката на естествения език, използването на технологията за графове на взаимоотношенията извършва базов преглед на всички имейли, изпратени до служителя, за да идентифицира всички предишни съобщения или фактури от AWS. Ако не може да открие такива имейли, системата се предупреждава, за да защити служителя от входящи BEC атаки. Разсеяните служители могат да бъдат подведени да отговорят бързо, преди да обмислят последиците от предоставянето на личните си данни или извършването на финансови плащания на потенциален измамник.

Ясно е, че тази нова вълна на генеративен изкуствен интелект е наклонила предимството в полза на нападателите. В резултат на това най-добрата защита в тази зараждаща се битка ще бъде да се насочат същите оръжия на ИИ срещу нападателите в очакване на следващите им ходове и да се използва ИИ за защита на податливите служители от всякакви бъдещи атаки.

Патрик Харр, главен изпълнителен директор, SlashNext

Сподели в:

Категории:

Следвай ни в: