Najnowsze dane Microsoftu rzucają światło na paradoks współczesnego biznesu. Podczas gdy giganci z listy Fortune 500 masowo wdrażają agenty AI, ponad połowa organizacji wciąż nie posiada odpowiednich zabezpieczeń dla tych systemów. Rozwiązaniem ma być model Zero Trust, traktujący sztuczną inteligencję jako nową tożsamość cyfrową.
Z przytoczonego przez Microsoft raportu wynika, że już ponad 80% firm z listy Fortune 500 zintegrowało agenty AI ze swoimi codziennymi operacjami. Narzędzia te automatyzują kluczowe procesy, ale ich błyskawiczny rozwój często wyprzedza infrastrukturę bezpieczeństwa. Obecnie zaledwie 47% organizacji wprowadziło adekwatne mechanizmy ochronne, co tworzy niebezpieczną lukę, która może zagrażać danym i reputacji przedsiębiorstw.
Co ciekawe, liderem wdrażania agentów AI nie są Stany Zjednoczone, lecz region EMEA (Europa, Bliski Wschód i Afryka). Według raportu Microsoft Cyber Pulse:
- 42% firm z regionu EMEA korzysta z agentów AI na co dzień.
- W USA wskaźnik ten wynosi 29%.
- W Azji technologię tę zaadaptowało jedynie 19% organizacji.
Pod względem branżowym najwięcej wdrożeń agentowej sztucznej inteligencji odnotowuje sektor IT (16%), a tuż za nim plasuje się produkcja (13%) oraz finanse (11%). W handlu detalicznym (9%) agenty wspierają głównie obsługę klienta i logistykę. Eksperci zauważają, że popularyzacja narzędzi low-code i no-code pozwoliła dużym firmom na budowę własnych rozwiązań bez angażowania potężnych zasobów technicznych.
Microsoft wyjaśnia, że jednym z najpoważniejszych wyzwań przy korzystaniu z tej nowej technologii staje się tzw. Shadow AI. Dane wskazują, że aż 29% pracowników korzysta z agentów AI niezatwierdzonych oficjalnie przez firmę. Takie oddolne i spontaniczne tworzenie narzędzi sprawia, że organizacje tracą kontrolę nad tym, jakie dane są przetwarzane i do jakich systemów AI ma dostęp.
Agenty AI przestały być prostymi aplikacjami. Dziś działają w imieniu organizacji, posiadając realny wpływ na biznes. W związku z tym powinny być traktowane jak pełnoprawne tożsamości cyfrowe. Fundamentem bezpieczeństwa ma być od lat promowany przez Microsoft model Zero Trust, oparty na trzech zasadach:
- Ograniczanie uprawnień: Każdy agent otrzymuje dostęp tylko do niezbędnych zasobów.
- Ciągła weryfikacja: Każda operacja jest sprawdzana w czasie rzeczywistym pod kątem tożsamości i ryzyka.
- Założenie naruszenia: Systemy są projektowane tak, by minimalizować skutki ewentualnych incydentów.
Krzysztof Malesa, członek zarządu i dyrektor ds. strategii bezpieczeństwa Microsoft w Polsce, wskazuje na konieczność rozszerzenia dotychczasowych ram ochrony:
Sztuczna inteligencja jest wielkim wsparciem dla działań zespołów zapewniających cyberbezpieczeństwo, ale trzeba pamiętać o tym, że technologia, z której korzystamy, może stać się również celem ataku.
W ostatnim Microsoft Digital Defense Report wskazywaliśmy, że sztuczna inteligencja wdrożona w nieprzemyślany sposób i z pominięciem analizy ryzyka, która dodatkowo pozostawiona jest bez nadzoru, może zostać wykorzystana przez atakujących do zakłócenia działania naszych systemów. Potencjalnym ryzykiem jest również wyciek informacji wskutek manipulowania promptami lub wykorzystania luk w zbiorach danych.
Stosowanie autonomicznych systemów agentowych wiąże się z kolei z wyzwaniem z pogranicza etyki i biznesu – odpowiednio przygotowany adwersarz może próbować manipulacji priorytetami systemów sztucznej inteligencji tak, żeby faworyzowała ona złośliwy podmiot zamiast domyślnych użytkowników. Żeby temu zapobiec, zaleca się testowanie scenariuszy pod kątem takich właśnie konfliktów i stosowanie zabezpieczeń etycznych.
Nowa technologia oznacza zatem nową powierzchnię potencjalnego ataku. Taka sytuacja wymaga przemodelowania podejścia do powszechnie stosowanego i promowanego przez Microsoft podejścia Zero Trust. Do klasycznych obszarów objętych analizą ryzyka i szczególną ochroną, takich jak tożsamość, dane, infrastruktura, sieci, aplikacje i urządzenia, należy dodać kolejny obszar – sztuczną inteligencję.
Warto pamiętać, że odpowiedzialność za bezpieczną integrację AI spoczywa na kierownictwie firm i działach CISO. Tylko pełna przejrzystość w zakresie tego, kto stworzył agenta i jakie ma on uprawnienia, pozwoli na bezpieczne wykorzystanie potencjału innowacji. Dowiedz się więcej z naszych artykułów:
- Microsoft Agent 365. Nowa platforma do zarządzania agentami AI
- Agenty AI w Copilot Studio mogą teraz używać dowolnych aplikacji bez API
- Genialne agenty AI do analizy i researchu w Microsoft 365 Copilot
- Agenty Copilota w Copilot Studio dla użytkowników Microsoft 365 Copilot
- Microsoft Entra Agent ID - nowy sposób zarządzania agentami AI
- Microsoft wprowadza protokół Agent2Agent (A2A) do Copilot Studio
- Orkiestracja wielu agentów AI w Microsoft Copilot Studio

