Gra w „dobrą i złą” sztuczną inteligencję wkrótce się zacznie
Ostatnia aktualizacja: 30 stycznia 2024, 12:51
Mikko Hyppönen – ekspert ds. cyberbezpieczeństwa w firmie WithSecure – wskazuje na pięć kluczowych obszarów, w których cyberprzestępcy będą wykorzystywać sztuczną inteligencję (AI) do przeprowadzania ataków. Obok zwiększania liczby deepfake’ów w sieci czy szeroko zakrojonych oszustw, największe zagrożenie w tym roku będzie stanowiła automatyzacja złośliwego oprogramowania. Według Hyppönena rozgrywka pomiędzy dobra i złą AI wystartuje już wkrótce, a jej skutki mogą być niepokojące dla wszystkich.
1. Deepfake
Deepfake to technika polegająca na tworzeniu fałszywych obrazów lub filmów, które mają imitować wygląd i głos prawdziwych osób lub zdarzeń. Może być wykorzystywana do manipulowania opinią publiczną, szantażu lub kradzieży tożsamości. Ekspert WithSecure wskazuje, że chociaż wyrafinowane oszustwa z wykorzystaniem deepfake nie są jeszcze tak popularne jak inne cyberataki, to jest jedynie kwestią czasu, kiedy ich liczba wzrośnie.
Aby zmniejszyć ryzyko nabrania się na próbę oszustwa, Mikko Hyppönen sugeruje powrót do staromodnej metody „bezpiecznych słów”. Warto ustalić je zarówno ze swoimi bliskimi i przyjaciółmi jak i współpracownikami. W sytuacji niepewności, czy rozmowa jest prawdziwa, można poprosić o podanie ustalonego terminu. Słów można używać również np. w skomunikacji na messangerze czy watsupie. Ta metoda nic nie kosztuje, a stanowi podstawowe zabezpieczenieprzed oszustwem. To jest kierunek, który powinni obrać wszyscy w 2024 roku.
2. Deep scam
W tym przypadku określenie deep (ang. głęboki) odnosi się do ogromnej skali oszustwa, za którą odpowiada sztuczna inteligencja. Oszustwa tego typu mogą obejmować przestępstwa inwestycyjne, phishingowe, ataki ransmoware…i wszelkie inne, w których można zastosować automatyzację procesów.
Mikko Hyppönen wskazuje na wykorzystanie sztucznej inteligencji w zwiększaniu poziomu wykorzystania deep scam w branży krótkoterminowego wynajmu przez internet. Dawniej oszuści posługiwali się skradzionymi zdjęciami lokalu, aby następnie ręcznie spreparować ofertę wynajmu. Takie działanie było czasochłonne i można było je wykryć za pomocą odwrotnego wyszukiwania obrazu. W dobie AI wygenerowanie unikatowego i realistycznego obrazu nie stanowi większego problemu.
3. Duże modele językowe w rękach cyberprzestępców
Sztuczna inteligencja już teraz pisze złośliwe oprogramowanie. Duże modele językowe (ang. large language models, LLM), dzięki którym działa np. ChatGPT, w rękach cyberprzestępców stanowią poważne zagrożenie dla ogólnoświatowego bezpieczeństwa cyfrowego. Wykorzystując LLM cyberprzestępcy mogą automatycznie generować inny złośliwy kod dla każdego celu, przez co takie ataki są jeszcze trudniejsze do wykrycia.
4. Luki zero-day
Luka systemowa zero day (inaczej: exploit zero-day) to taka, o której nie wiedzą twórcy oprogramowania lub która nie została jeszcze upubliczniona i naprawiona. Cyberprzestępcy mogą wykorzystywać te luki do m.in. akcji phishingowych, penetracji systemów i zainstalowania złośliwego oprogramowania czy kradzieży danych. Za pomocą sztucznej inteligencji nie tylko programiści mogą sprawniej wyszukiwać luki zero-day w swoim kodzie – cyberprzestępcy również wykorzystują ją w tym celu.
5. Zautomatyzowane złośliwe oprogramowanie
Jak wskazuje ekspert WithSecure, można się spodziewać, że cyberprzestępcy zwiększając skuteczność swoich ataków, będą dążyli do pełnego zautomatyzowania swoich kampanii wykorzystujących złośliwe oprogramowanie. Malware napędzane przez AI będzie w stanie samoistnie zmieniać swój kod, uczyć się na własnych błędach i naprawiać je, aby uniknąć wykrycia i przystosować się do nowego środowiska, w którym działa. Skutkiem tego byłoby rozpoczęcie rozgrywki pomiędzy dobrą a złą sztuczną inteligencję.
Mikko Hyppönen wielokrotnie w swojej karierze podkreślał, że każde inteligentne urządzenie jest podatne na ataki. Jeśli włączyć do tej teorii sztuczną inteligencję i wszystkie maszyny nią napędzane, przyszłość nie rysuje się kolorowo. Ekspert WithSecure wskazuje, że wkrótce człowiek może stać się drugą po AI najbardziej inteligentną istotą na świecie.
O ekspercie:
Mikko Hyppönen pochodzący z Finlandii ekspert ds. cyberbezpieczeństwa, prelegent i autor. Pracuje jako dyrektor ds. badań and cyberbezpieczeństwem w firmie WithSecure.