10 май 2026 г.
AI Tool Poisoning: Критична уязвимост в сигурността на автономните агенти
Докато индустрията се фокусира върху защитата на самите AI модели, една по-опасна пролука остава широко отворена: инструментите (tools), които тези агенти използват. Според репортаж на Nik Kale във VentureBeat [1], "AI tool poisoning" (отравяне на инструментите) разкрива фундаментален проблем в начина, по който изграждаме доверие в автономните системи.
Автономните агенти обикновено избират инструменти от споделени регистри, като разчитат на описания на естествен език. Проблемът е, че в момента никой не проверява дали тези описания са верни. Атакуващият може да публикува злонамерен инструмент с описание, което подмамва агента да го избере приоритетно пред легитимни алтернативи – форма на "description injection" (инжектиране в описанието).