Dark Mode Light Mode

Czego specjaliści ds. bezpieczeństwa oczekują od generatywnej AI?

Chociaż wciąż są na wczesnym etapie wdrażania, specjaliści ds. cyberbezpieczeństwa są optymistycznie nastawieni do generatywnej AI.

Generatywna AI obiecała wiele w zakresie poprawy odporności cybernetycznej i pomocy praktykom w radzeniu sobie z ewoluującymi zagrożeniami, ale co specjaliści ds. bezpieczeństwa naprawdę myślą o tej nowej technologii?

Raport Crowdstrike „State of AI in Cybersecurity” przeprowadził ankietę wśród 1000 specjalistów ds. cyberbezpieczeństwa, aby ocenić ich opinie na temat generatywnej AI i na jakim etapie wdrażania tej technologii znajdują się w swoich organizacjach.

Raport wykazał, że generatywna AI w bezpieczeństwie pozostaje w fazie początkowej, zaledwie 6% respondentów stwierdziło, że już zakupiło lub wdrożyło narzędzie generatywnej AI w swojej organizacji.

Dodatkowe 11% stwierdziło, że podjęło decyzję o zakupie i jest w trakcie procesu zakupu, podczas gdy 47% specjalistów ds. bezpieczeństwa stwierdziło, że aktywnie badają, oceniają i testują narzędzia generatywne.

Warto zauważyć, że znaczna część zespołów ds. bezpieczeństwa jest na bardzo wczesnym etapie „podróży zakupowej genAI”, a nieco poniżej jednej trzeciej (32%) zgłasza, że wciąż uczą się o narzędziach generatywnej AI, zanim podejmą dalsze kroki.

CrowdStrike stwierdził, że badanie pokazuje, iż większość specjalistów ds. cyberbezpieczeństwa jest podekscytowana nową technologią, a 68% twierdzi, że zamierza zakupić jakąś formę narzędzi generatywnej AI dla swojej organizacji w ciągu najbliższych 12 miesięcy.

Ponadto 63% respondentów stwierdziło, że rozważyłoby zmianę dostawcy zabezpieczeń, jeśli ich alternatywa oferowałaby narzędzia generatywnej AI na swojej platformie. Ciągle też firmy obawiają się zagrożeń takich jak malware na Androida.

Specjaliści ds. cyberbezpieczeństwa chcą, aby generatywna AI skróciła ich czasy reakcji

Odpowiedzi od profesjonalistów z branży wskazały, że wartość narzędzi generatywnej AI jest związana z tym, jak funkcjonują one w szerszym ekosystemie technologicznym, a 80% praktyków stwierdziło, że woleliby, aby była dostarczana przez platformę, a nie jako rozwiązania punktowe.

Wyniki Crowdstrike sugerują, że pomimo niskich wskaźników adopcji, specjaliści ds. cyberbezpieczeństwa są optymistycznie nastawieni do zdolności generatywnej AI do pozytywnego wpływu na odporność cybernetyczną ich organizacji. Zdarza się jednak, choć rzadko, że pojawiają się obawy o tzw. AI jailbreak.

Głównym czynnikiem zakupu generatywnej AI, wskazanym przez respondentów, była poprawa zdolności do wykrywania i reagowania na ataki.

Drugim najczęściej wymienianym czynnikiem napędzającym nadchodzące zakupy generatywnej AI była poprawa efektywności operacyjnej, a następnie wykorzystanie generatywnej AI do łagodzenia skutków niedoborów umiejętności.

Zapytani, czego szukają u dostawcy, trzy najważniejsze kryteria wyboru to potwierdzone przywództwo w dziedzinie cyberbezpieczeństwa, ekspertyza w zakresie reagowania na incydenty oraz wywiad zagrożeń prowadzony przez dostawcę, jak wykazał raport.

Podobnie, trzy najważniejsze wyniki bezpieczeństwa, na które respondenci wskazywali, to osiągnięcie szybszego średniego czasu reakcji, poprawa dokładności wykrywania i zmniejszenie narażenia na ryzyko.

Generatywna AI dla bezpieczeństwa nie jest pozbawiona wyzwań

Narzędzia AI w zakresie bezpieczeństwa obiecują znacznie pomóc pracownikom cybernetycznym skupić się na najpilniejszych zadaniach, a firmy dążą do uwolnienia zespołów ds. bezpieczeństwa, aby mogły proaktywnie badać zagrożenia.

Jednak niektórzy interesariusze wyrazili obawy dotyczące potencjalnego długoterminowego wpływu technologii na szerszą siłę roboczą w dziedzinie cyberbezpieczeństwa. Badanie przeprowadzone na początku tego roku ostrzegało, że jeśli specjaliści ds. bezpieczeństwa będą używać AI do automatyzacji zadań, z którymi zwykle się zmagają, istnieje ryzyko, że mogą stać się zbyt zależni od narzędzi i utracić kluczowe umiejętności.

Na przykład jednym z przypadków użycia generatywnej AI w bezpieczeństwie jest to, że może ona umożliwić młodszym analitykom bezpieczeństwa inżynierię wsteczną zaciemnionych skryptów w złośliwym oprogramowaniu używanym przez aktorów zagrożeń bez pomocy starszych kolegów.

Jeden z ekspertów ds. bezpieczeństwa powiedział ITPro, że obawia się, iż inżynierowie ds. bezpieczeństwa mogą ostatecznie polegać wyłącznie na swoich asystentach AI i nigdy nie zbudować solidnego zrozumienia, jak wykonywać zadania.

Firmy powinny być ostrożne, „posypując generatywną AI” w całym swoim środowisku IT, według jednego z profesjonalistów ds. cyberbezpieczeństwa, który argumentował, że może to zwiększyć złożoność i faktycznie odwrócić uwagę pracowników ds. bezpieczeństwa od „tego, co naprawdę muszą robić, czyli bronić”.

Podczas gdy wiele uwagi poświęcono wykorzystaniu technologii w defensywie, rosną również obawy dotyczące jej użycia przez coraz bardziej biegłych aktorów zagrożeń.

Na początku tego miesiąca eksperci ds. cyberbezpieczeństwa powiedzieli serwisowi ITPro, że istnieje silny argument, że chociaż generatywna AI może poprawić odporność cybernetyczną dzięki automatyzacji i efektywności operacyjnej, aktorzy zagrożeń mogą zyskać więcej na tej technologii, używając jej do zwiększenia liczby ataków, które mogą przeprowadzić w krótkim czasie.

Sprawdź też:

Poprzedni artykuł

"Zależność od SaaS" staje się poważnym problemem

Następny artykuł

Databricks zebrał ogromną rundę finansowania w wysokości 10 miliardów dolarów