RóżneZe świata

Nadchodeszła fala przestępstw związanych ze sztuczną inteligencją

Zdjęcie: Brian Penny | Pixabay

Szacuje się, że w 2025 roku globalna cyberprzestępczość pochłonie ponad dziesięć bilionów dolarów. Oszustwa i przestępstwa internetowe gwałtownie się nasilają, w dużej mierze za sprawą wykorzystania sztucznej inteligencji. Tylko w ciągu ostatniego roku liczba przestępstw z użyciem AI wzrosła o 456%.

Ataki phishingowe, kradzież tożsamości, ransomware, oszustwa finansowe oraz deepfake’i – w tym te z udziałem nielegalnych treści – stają się coraz bardziej wyrafinowane i powszechne. Sztuczna inteligencja stała się narzędziem z wyboru dla cyberprzestępców, ponieważ skutecznie zaciera granicę między rzeczywistością a fikcją.

Niedawno ogłoszony przez Google generator wideo może wkrótce zalać internet klipami tworzonymi przez AI, które wyglądają jak profesjonalne produkcje filmowe. Technologia ta potrafi przekształcić dowolne nagranie w realistyczny deepfake, w którym dana osoba mówi lub robi wszystko, co zaprogramuje twórca.

„W całym swoim życiu nie widziałem niczego, co rozwijałoby się szybciej niż sztuczna inteligencja. Ani internet, ani kryptowaluty. A dziś mierzymy jej rozwój w dniach” – mówi Ari Redbord, były prokurator federalny i dyrektor ds. polityki globalnej w TRM Labs, firmie analizującej dane z łańcucha bloków. Redbord podkreśla, że przestępcy często jako pierwsi adaptują przełomowe technologie. „AI wyeliminowała ludzkie ograniczenia z oszustw, cyberprzestępczości i innych form nielegalnej działalności” – dodaje.

Państwa takie jak Chiny i Korea Północna wykorzystują sztuczną inteligencję do wpływania na politykę, destabilizacji społeczeństw i kradzieży danych. „Korea Północna ukradła niedawno 1,5 miliarda dolarów w ciągu jednego dnia, przeznaczając te środki na rozwój broni i inne działania destabilizujące” – mówi Redbord. „Obecnie wykorzystują AI i analizę danych do automatycznego prania pieniędzy pochodzących z tego włamania”.

„Wszyscy główni przeciwnicy Ameryki eksperymentują z AI” – ostrzega Leah Siskind, ekspertka ds. sztucznej inteligencji z Fundacji na rzecz Obrony Demokracji. Przypomina, że w początkowej fazie wojny w Ukrainie Rosja stworzyła deepfake przedstawiający prezydenta Zełenskiego ogłaszającego kapitulację.

Choć niektóre deepfake’i można jeszcze rozpoznać po nienaturalnym głosie czy mimice, Neal O’Farrell, ekspert ds. cyberbezpieczeństwa i dyrektor generalny DropVault, ostrzega, że przestępcy intensywnie pracują nad eliminacją tych niedoskonałości. „Jeśli szukasz takich wskazówek, by odróżnić fałszywe nagranie od prawdziwego, możesz wpaść w pułapkę – przestępcy wiedzą, co zdradza ich dzieło i starają się to ukryć” – mówi.

Jak więc się chronić? O’Farrell radzi, by w przypadku podejrzanego połączenia głosowego lub wideo od znajomego lub członka rodziny, który twierdzi, że potrzebuje pomocy, zadawać konkretne pytania: „Gdzie jesteś? W jakiej jurysdykcji się znajdujesz? Czy mogę porozmawiać z funkcjonariuszem? Czy możesz włączyć kamerę i pokazać mi dowód życia?”. Można też ustalić wcześniej unikalne hasło rodzinne, które nie było nigdy przesyłane online. „Nie kontynuuję rozmowy, dopóki nie podasz mi hasła” – wyjaśnia.

Ekspertów niepokoi tempo, w jakim AI się uczy. Redbord ostrzega, że zbliżamy się do „fazy dojrzałości” przestępczości AI – momentu, w którym systemy sztucznej inteligencji przewyższą ludzkie możliwości pod względem skali, wydajności i zaawansowania. Wówczas AI może całkowicie zautomatyzować oszustwa i cyberataki.

Były dyrektor generalny Google, Eric Schmidt, wydał niedawno ostrzeżenie: „W ciągu najbliższych dwóch lat fundamenty zostaną ugruntowane i nie da się tego zatrzymać. Potem będzie jeszcze ciekawiej – komputery już teraz uczą się planować i nie muszą nas słuchać”.

To oznacza, że rządy i organy ścigania muszą już dziś wykorzystywać sztuczną inteligencję do walki z falą przestępczości, która – jak ostrzegają eksperci – może wkrótce przybrać rozmiary globalnej epidemii.

Źródło: CBN News

pokaż więcej

Podobne wiadomości

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Back to top button