Ираксе Васкес
Използването на изкуствен интелект (ИИ) в кибератаките вече буди сериозни опасения. От автоматизирано създаване на зловреден софтуер до все по-усъвършенствани фишинг кампании, способността на ИИ да разширява обхвата и ефективността на атаките тревожи специалистите по сигурността.
И все пак, според доклада за нарушения на сигурността на данни (DBIR) за 2024 г. на Verizon, едва 2% от анализираните инциденти с изтичане на данни директно включват използване на ИИ технологии. Това показва, че макар ИИ инструментите да разширяват повърхността за атаки, реалното им въздействие все още не се превръща в значителен брой успешни пробиви.
Сянката на ИИ: нов, но реален риск
Докладът подчертава възникването на нова заплаха: shadow AI – неконтролирано използване на ИИ инструменти от служители, независимо дали през лични или служебни акаунти, извън обхвата на ИТ отделите и без адекватна автентикация. Това поведение може да доведе до изтичане на данни и компрометиране на сигурността.
Затова е изключително важно организациите да създадат ясни протоколи и активно да следят вътрешното използване на ИИ, за да намалят риска и да запазят контрол над цифровите си активи.
Как да използваме ИИ безопасно, без да ограничаваме потенциала му?
Проучването установява, че 14% от служителите са използвали ИИ инструменти от служебни устройства. Сред тях:
-
72% са използвали лични имейли за вход в тези платформи
-
17% са използвали служебни имейли, но без необходимите механизми за защита и автентикация
Това поведение излага ИТ инфраструктурата на риск. Ако служител използва ИИ-базиран текстов генератор чрез личен акаунт, за да създаде чувствителни документи извън корпоративните канали, се отваря врата към уязвимости. Киберпрестъпници могат да се възползват от слабата защита на приложенията или мрежата, за да прихванат данни, оставайки незабелязани.
Какви мерки трябва да предприемат организациите:
🔹 Определяне на вътрешни протоколи
Създаване на ясни правила за използването на ИИ: кои инструменти са разрешени, как се реагира при инциденти, какви стандарти за сигурност се прилагат. Това намалява оперативните рискове и дава увереност на служителите при работа с одобрени инструменти.
🔹 Оценка на специфичните ИИ рискове
Целенасочени оценки на риска в среди, където се интегрира ИИ – например чрез симулации на изтичане на данни или тестове за манипулация. Така могат да се идентифицират слабости още на етап „дизайн“ и да се предприемат превантивни мерки.
🔹 Защита на данните
Определяне на политики за сигурност и контрол на достъпа — криптиране, ролеви ограничения и дефиниране на типа данни, които могат да бъдат използвани от ИИ. Това гарантира, че чувствителната информация остава защитена.
🔹 Контрол върху ИИ инструментите на крайно устройство
WatchGuard Endpoint Security предлага многослойна защита в корпоративни среди.
-
Zero-Trust Application Service блокира неизвестни или некласифицирани приложения, включително ИИ инструменти, докато не бъдат одобрени.
-
Application Control позволява блокиране или наблюдение на приложения по име или категория, така че само одобрените да се използват.
-
Web Access Control ограничава достъпа до сайтове, свързани с генеративен ИИ. Политиките могат да се прилагат по устройства или групи, осигурявайки баланс между гъвкавост и сигурност.
🔹 Инвестиране в обучения
Колкото по-добре информирани са потребителите относно сигурното използване на ИИ, толкова по-ефективно могат да разпознават аномалии, да реагират разумно и да защитават корпоративните активи. Това не само подобрява устойчивостта на организацията, но и повишава цифровата зрялост на екипа.
Финални изводи
Изкуственият интелект не само отваря нови възможности, но и въвежда нови уязвимости в организациите. Рисковете не винаги идват отвън – често те произтичат от вътрешна, нерегулирана или недобре разбрана употреба, която създава предизвикателства, невидими на пръв поглед.
За да се предпазят и да гарантират защита на дигиталните си активи, организациите трябва да изградят ясни насоки за използване на ИИ и да възприемат многослойна стратегия за сигурност. Тя трябва да комбинира обучение, вътрешни политики и технологични решения – интелигентен, проактивен и отговорен подход към ИИ.