Australijski regulator finansowy ASIC poinformował, że w zeszłym roku zlikwidował prawie 12 000 stron phishingowych i inwestycyjnych.
Eksperci ostrzegają, że sztuczna inteligencja przekształciła cyberprzestępczość w „alejkę supermarketową”, gdzie oszuści wybierają swoje metody ataku.
Co dalej?
Organy regulacyjne i przestępcy będą kontynuować nieustanną grę w kotka i myszkę, w miarę jak technologia szybko ewoluuje.
Prawie 12 000 stron internetowych z oszustwami zostało zamkniętych przez australijski organ regulacji finansowej, który ostrzega, że sztuczna inteligencja „napędza” zagrożenia online.
Australijska Komisja Papierów Wartościowych i Inwestycji (ASIC) podała, że w 2025 roku koordynowała usunięcie 11 964 stron internetowych wyłudzających dane (phishingowych) i oszustw inwestycyjnych.
Ta rekordowa liczba oznaczała 90-procentowy wzrost w likwidacjach w porównaniu z 2024 rokiem, kiedy usunięto 6270 witryn.
Dawało to średnio 32 strony internetowe dziennie, czyli 230 tygodniowo.
Komisarz ASIC, Alan Kirkland, powiedział ABC, że organizacja odnotowała również spadek o „około 11 procent” kwoty strat zgłaszanych przez Australijczyków z powodu oszustw inwestycyjnych.
„To mówi nam, że musimy zrobić więcej, aby nad tym zapanować, ale faktycznie mamy wpływ” – powiedział.
„Mamy zewnętrznego dostawcę, który aktywnie skanuje sieć w poszukiwaniu stron internetowych z oszustwami inwestycyjnymi.”
„Kiedy je identyfikuje, przekazuje je nam, my je sprawdzamy, potwierdzamy, że naszym zdaniem jest to strona z oszustwem, a następnie instruujemy ich, aby ją usunęli.”
„Otrzymujemy również zgłoszenia od obywateli i instytucji finansowych, takich jak banki, i są one przepuszczane przez ten sam proces.”
„Dla nas jest naprawdę ważne, aby wiedzieć, że czuwamy nad tymi stronami internetowymi.”
Od uruchomienia tej usługi usuwania w 2023 roku, ASIC był zmuszony do ciągłego rozwijania swojego podejścia.
Sztuczna inteligencja, jak powiedział pan Kirkland, zaczęła odgrywać dwie kluczowe role w oszustwach.
„Jedna polega na tym, że AI znacznie ułatwia tworzenie nowej strony internetowej” – powiedział.
„Ale drugim sposobem jest to, że AI jest wykorzystywana jako rodzaj zachęty do inwestowania.”
„Często widzimy strony internetowe z oszustwami, które reklamują technologię handlową, gdzie boty handlowe rzekomo są w stanie generować zyski wyższe i znacznie szybsze niż ludzie.”
„Oszuści wykorzystują blichtr AI, aby coś sprzedać.”
„Alejka supermarketu” AI dla oszustów internetowych
ASIC podaje, że od uruchomienia usługi usuwania w 2023 roku usunął ponad 25 000 stron internetowych z oszustwami inwestycyjnymi i phishingiem.
Poinformowano również, że usunięto ponad 1100 reklam oszustw inwestycyjnych w mediach społecznościowych.
Australijczycy stracili łącznie 2,18 miliarda dolarów na rzecz oszustw w 2025 roku, zgodnie z najnowszym raportem Targeting Scams Report Krajowego Centrum Antyoszustw.
W tym samym okresie zgłosili 481 523 oszustw do różnych organów nadzoru.
Ten sam raport odnotował wzrost „wyrafinowania” oszustw w wyniku wykorzystania przez oszustów AI do generowania treści.
Federalny organ nadzoru Scamwatch również ostrzegł przed oszustami wykorzystującymi AI do generowania fałszywych filmów, nagrań audio i lepszego dostosowywania swoich oszustw.
Paul Haskell-Dowland jest profesorem praktyki cyberbezpieczeństwa i prodziekanem ds. partnerstw międzynarodowych i strategicznych na Edith Cowan University.
„Używając AI możesz stworzyć stronę internetową, 10 stron, 100 stron, prawie nieograniczone liczby, praktycznie za naciśnięciem przełącznika” – powiedział.
„Kilka lat temu… wymagało to wiele wysiłku i niezmiennie było wykonywane ręcznie lub za pomocą tanich narzędzi.”
„Nie były zbyt dobre. Można było je dostrzec z daleka, wiadomości nie wyglądały przekonująco, a treść nie była zbyt wartościowa.”
„I niektórzy ludzie zawsze by się na to nabierali, ale zdecydowana większość patrzyłaby na to i przechodziła obok.”
„Era AI całkowicie to zmieniła.”
Tworzenie oszustw stało się „przemysłem usługowym”, według profesora Haskell-Dowlanda.
„Dostępne narzędzia stały się swego rodzaju menu, z którego można wybierać” – powiedział.
„To bardzo podobne do poruszania się w alejce supermarketu i wybierania tych elementów, które chcesz, a następnie pozwalania narzędziom na ich złożenie.”
„To w rzeczywistości nieco gorsze, ponieważ nie chodzi tylko o to, że możesz wygenerować praktycznie wszystko, ale o to, że możesz to teraz zoptymalizować pod kątem swojej grupy docelowej.”
„Zazwyczaj mówimy tutaj o dużych modelach językowych, generatywnej sztucznej inteligencji, którą widzieliśmy w przypadku takich rzeczy jak ChatGPT i Copilot.”
„Nie tylko wykorzystujesz technologię do generowania treści specyficznych dla rynku, który próbujesz zaatakować… możesz nawet wykorzystywać ukierunkowane ataki na osoby.”
„Jeśli chciałbyś zaatakować osoby o wysokim statusie finansowym swoim oszustwem, możesz faktycznie wygenerować treści, które są dla nich zoptymalizowane.”
„[Dzieje się to poprzez] gromadzenie informacji za pośrednictwem LinkedIn, mediów społecznościowych, mediów publicznych, a następnie tworzenie historii lub produktów, które Twoim zdaniem spodobałyby się tej osobie.”
„Gra w kotka i myszkę” między cyberprzestępcami a obrońcami online
Nowe przepisy uchwalone w lutym ubiegłego roku sprawiłyby, że giganci technologiczni, banki i inne instytucje byłyby odpowiedzialne za zwrot pieniędzy ofiarom oszustw.
Zgodnie z tymi przepisami, nazwanymi Ramami Ochrony przed Oszustwami, firmy mediów społecznościowych byłyby zobowiązane do weryfikacji reklamodawców, banki musiałyby potwierdzać tożsamość odbiorców płatności, a operatorzy telekomunikacyjni musieliby wykrywać i zatrzymywać oszukańcze SMS-y i połączenia.
Nie wiadomo jednak, kiedy zostaną wprowadzone obowiązkowe kodeksy dla każdego sektora.
Te ramy ochrony, według pana Kirklanda, będą kluczowe w zmieniającej się walce z oszustwami internetowymi.
„Spodziewamy się, że charakter zagrożeń związanych z oszustwami będzie się nadal rozwijał” – powiedział.
„To oznacza, że jako regulatorzy musimy być stale na bieżąco z tym, jak identyfikujemy oszustwa i je zakłócamy oraz usuwamy strony internetowe.”
„Nowe obowiązki [wynikające z ram ochrony przed oszustwami] będą szczególnie ważne, ponieważ wiele oszustw, które oszukują ludzi, zaczyna się od reklamy w mediach społecznościowych.”
Technologia, tymczasem, będzie się rozwijać „szybko”, według profesora Haskell-Dowlanda.
„Kiedy [ChatGPT] trafił do głównego nurtu, wtedy technologie stały się dostępne” – powiedział.
„Jeśli spojrzeć na jakąkolwiek inną technologię, przejście na efektywnie bezpłatny dostęp zazwyczaj zajmuje bardzo, bardzo dużo czasu.”
„Z AI widzieliśmy, jak pojawiła się niemal z dnia na dzień.”
„Powiedziałbym, że dopiero w ciągu ostatnich trzech do pięciu lat zaczęliśmy widzieć, że jest ona w dużym stopniu wykorzystywana przez przestępców.”
„Technologia nie zwolni, nasze przyjęcie [jej] nie zwolni.”
„Pomyśl o jakimkolwiek produkcie komercyjnym, który teraz kupujesz… trudno byłoby znaleźć coś, co nie ma wbudowanej AI.”
Cyberprzestępcy i ci, którzy próbują ich odpierać, powiedział, toczą „grę w kotka i myszkę”.
„Zawsze jest jakiś poziom wyścigu zbrojeń” – powiedział.
„Czasami cyberprzestępcy są o krok do przodu, a czasami cyberobrońcy… ale będzie to ciągła gra.”
„Nie lekceważyłbym potencjału [trwałego rozwiązania], ponieważ nikt nie przewidział nadejścia AI, więc jest całkiem możliwe, że pojawią się inne technologie, które albo temu zapobiegną, albo potencjalnie pogorszą sytuację.”
„Myślę, że to sytuacja typu „obserwujmy, co się dzieje”, po prostu zobaczymy, jak sprawy rozwiną się w nadchodzących latach.”
Źródło: https://www.abc.net.au/news/2026-04-07/asic-warning-ai-supercharging-scams/106538526


