Osoba przy komputerze pisząca kod w ciemnym pokoju.

O 550 proc. wzrosło wykorzystanie AI w phishingu w ciągu ostatniego roku. Jak firmy mogą się przed tym bronić?

10.06.2025
Redakcja
Czas czytania: 3 minut/y

Sztuczna inteligencja (AI), która zrewolucjonizowała świat technologii, stała się potężnym narzędziem w rękach cyberprzestępców. Od hiperrealistycznych wiadomości phishingowych po deepfake audio i wideo – nowa era cyberataków, określana jako phishing 2.0, jest szybsza, bardziej precyzyjna i trudniejsza do wykrycia. Raport ENISA „Threat Landscape 2024” alarmuje: wykorzystanie AI w phishingu wzrosło o 550% w ciągu roku, a 17% zaawansowanych ataków typu APT korzysta z tej technologii. Jak firmy mogą się bronić w obliczu tak dynamicznie zmieniających się zagrożeń?

Phishing 2.0: Hiperpersonalizacja i błyskawiczne ataki

Phishing 2.0 to nowa jakość w świecie cyberprzestępczości. Dzięki generatywnej AI, takiej jak GPT-4 czy Claude, przestępcy tworzą wiadomości idealnie dopasowane do stylu i języka odbiorcy

Ataki przygotowywane przez AI mogą być wymierzone w konkretną osobę w czasie krótszym niż 60 sekund

– wynika z raportu ENISA. Fałszywe strony internetowe są niemal nieodróżnialne od oryginalnych, a rozmowy audio lub wideo z rzekomymi przełożonymi (deepfake phishing) stają się codziennością.

Jak podaje Verizon Data Breach Investigations Report 2024, 74% naruszeń danych rozpoczyna się od phishingu, a ataki wspierane AI są o 67% skuteczniejsze od tradycyjnych metod. Co więcej, analiza Mandiant/Google Cloud 2024 wskazuje, że 41% firm na świecie doświadczyło prób wykorzystania deepfake’ów w działaniach socjotechnicznych. Te liczby pokazują, że zagrożenie jest realne i wymaga natychmiastowej reakcji.

Deepfake: Nowy wymiar manipulacji

Technologia deepfake, napędzana AI, pozwala cyberprzestępcom tworzyć fałszywe nagrania głosowe i wizualne, które są niemal nie do odróżnienia od autentycznych. Wyobraźmy sobie szefa firmy, który w rozmowie wideo prosi o natychmiastowy przelew – tylko że to nie on, a syntetyczny sobowtór. Takie scenariusze, kiedyś rodem z filmów science fiction, dziś są rzeczywistością.

Ponad 40% firm doświadczyło prób wykorzystania deepfake’ów w działaniach socjotechnicznych

– alarmuje raport Mandiant.

Tradycyjne metody wykrywania, oparte na sygnaturach, przestają być skuteczne. Ataki są zbyt szybkie i zbyt dobrze dopasowane, by można je było rozpoznać bez zaawansowanych narzędzi. To zmusza organizacje do zmiany podejścia do cyberbezpieczeństwa.

Nowe technologie obrony: AI kontra AI

W odpowiedzi na rosnące zagrożenia firmy takie jak Sprint S.A. wdrażają nowoczesne rozwiązania oparte na AI. Semantyczne bramki pocztowe, analizujące intencję i kontekst wiadomości, wykrywają nawet najbardziej wyrafinowane ataki typu spear-phishing.

Istnieją rozwiązania, które analizują intencję i kontekst każdej wiadomości, wychwytując nawet ‘payload-less’ BEC oraz spear-phishing zanim trafią do skrzynek użytkowników

– tłumaczy Michał Płocharski, CTO w SprintTECH.

Wielowarstwowa analityka behawioralna monitoruje anomalie w zachowaniu nadawców i odbiorców, a ciągłe uwierzytelnianie behawioralne (Continuous MFA) blokuje przejęcie kont w mniej niż minutę. Technologie detekcji deepfake audio, analizujące sygnał akustyczny, pozwalają odróżnić syntetyczny głos od prawdziwego. Dodatkowo, kryptograficzne klucze FIDO2 eliminują ryzyko kradzieży haseł, a zautomatyzowane playbooki SOAR minimalizują czas reakcji na incydenty.

Świadomość użytkowników kluczem do sukcesu

Technologia to jednak tylko część rozwiązania. Eksperci podkreślają, że w walce z phishingiem 2.0 kluczowa jest świadomość użytkowników.

Sztuczna inteligencja redefiniuje zagrożenia cyfrowe, tworząc ataki, które są szybkie, hiperpersonalizowane i często niemożliwe do odróżnienia od autentycznych działań biznesowych

– mówi Płocharski. Dlatego firmy muszą inwestować w ciągłe szkolenia i kampanie edukacyjne, które uczą rozpoznawania nawet najbardziej realistycznych oszustw.

Model „Zero Trust”, zakładający weryfikację każdej interakcji, staje się standardem. Użytkownicy muszą być przygotowani na podejrzliwość wobec każdego e-maila, rozmowy czy prośby o dane, niezależnie od tego, jak autentycznie wyglądają. Kultura bezpieczeństwa cyfrowego to fundament odporności na ataki.

Wyzwania regulacyjne i przyszłość

Unijne regulacje, takie jak AI Act i NIS2, nakładają na firmy nowe obowiązki w zakresie transparentności i raportowania incydentów. Rozwiązania ochronne muszą być zgodne z tymi wymogami, co dodatkowo komplikuje walkę z cyberprzestępczością. Jednak zgodność z prawem to także szansa na budowanie bardziej odpornych systemów.

Przyszłość cyberbezpieczeństwa to ciągły wyścig między technologiami ataku i obrony.

Przyszłość cyberbezpieczeństwa to nie tylko wyścig technologiczny, ale także walka o budowanie świadomości i odporności społecznej na nowe, niewidoczne zagrożenia

– podsumowuje Płocharski. Organizacje, które nie dostosują się do nowej rzeczywistości, staną się łatwym celem.

Jak wygrać z cyberprzestępczością?

Phishing 2.0 i deepfake to wyzwania, które wymagają nowego podejścia do cyberbezpieczeństwa. Inwestycje w technologie AI, takie jak analityka behawioralna czy detekcja deepfake, są niezbędne, ale równie ważna jest edukacja i budowanie kultury bezpieczeństwa. Firmy muszą działać szybko, by nie zostać w tyle w tym technologicznym wyścigu.

Czy Twoja organizacja jest gotowa na atak, który może nadejść w ciągu 60 sekund? Nie czekaj, aż staniesz się celem – zainwestuj w szkolenia i nowoczesne technologie już dziś. Bezpieczeństwo cyfrowe zaczyna się od świadomości – działaj, zanim będzie za późno!

Masz temat, o którym powinniśmy napisać? Skontaktuj się z nami!
Opisujemy ciekawe sprawy nadsyłane przez naszych czytelników. Napisz do nas, opisz dokładnie fakty i prześlij wraz z ewentualnymi załącznikami na adres: redakcja@pkb24.pl.
REKLAMA
REKLAMA