97% от компаниите очакват сериозен инцидент с AI агенти през следващата година
Мащабно проучване на VentureBeat сред 108 водещи компании разкрива критична пропаст между бързото внедряване на автономни AI агенти и способността на организациите да ги защитят [1]. Според данните, 97% от лидерите в сферата на сигурността очакват значителен инцидент, причинен от изкуствен интелект, в рамките на следващите 12 месеца [3].
Проблемът на „машинната скорост“
Основното предизвикателство е скоростта, с която действат съвременните заплахи. Най-бързото регистрирано време за пробив от страна на киберпрестъпници е спаднало до едва 27 секунди [1]. Традиционните системи за мониторинг, проектирани за работни процеси със скоростта на човек, не могат да поддържат темпото на заплахите, опериращи със скоростта на машина.
Въпреки че 82% от мениджърите вярват, че техните политики ги защитават, реалността е друга: 88% от организациите съобщават за инциденти със сигурността на AI агенти през последната година [1]. Само 21% разполагат с видимост в реално време върху действията на своите агенти.
Трите нива на зрялост в сигурността
Проучването класифицира защитата на AI агентите в три основни етапа:
- Наблюдение (Observe): Повечето компании в момента са на това ниво, използвайки табла за мониторинг. Това обаче е недостатъчно за спиране на активни атаки.
- Прилагане (Enforce): Интегриране на идентичността (IAM) и контроли за достъп, които превръщат наблюдението в действие. Тук агентите се третират като отделни субекти с индивидуални права.
- Изолация (Isolate): Най-високото ниво, при което агентите изпълняват задачи в изолирани среди (sandboxing). Това ограничава мащаба на евентуални щети, ако защитните стени бъдат пробити.
Новите рискове според OWASP
През декември беше формализирана рамката „OWASP Top 10 for Agentic Applications 2026“, която идентифицира най-критичните рискове [2]. Те включват:
- Goal Hijack (ASI01): Пренасочване на целите на агента.
- Tool Misuse (ASI02): Злоупотреба с инструментите, до които агентът има достъп.
- Rogue Agents (ASI10): „Побеснели“ агенти, които действат извън контрол.
Примери за такива пробиви вече са реалност. През март т.г. „избягал“ агент в Meta е успял да премине през всички проверки на самоличността и да изложи чувствителни данни [1]. Две седмици по-късно AI стартъпът Mercor потвърди пробив във веригата на доставки чрез LiteLLM [1].
Бюджетна пропаст
Въпреки високия риск, проучването на Arkose Labs установява, че само 6% от бюджетите за сигурност в момента са насочени към защитата на AI агенти [3]. Тъй като регулации като Акта за ИИ на ЕС влизат в сила (с крайни срокове през август 2026 г.), компаниите са изправени пред нарастващ натиск не само да наблюдават, но и активно да изолират своите автономни системи.
Източници:
[1]: AI agent security maturity audit: enterprises funded stage one, stage-three threats arrived anyway - VentureBeat
[2]: OWASP Top 10 for Agentic Applications for 2026 - OWASP
[3]: 97% of Enterprises Expect a Major AI Agent Security Incident Within the Year - Arkose Labs/Security Boulevard