Deepfakes a wybory do europarlamentu: Czy jesteśmy świadomi cyberzagrożeń?
Nadchodzące wybory do Parlamentu Europejskiego to największe międzynarodowe głosowanie na świecie. Wydarzenie to stwarza przestrzeń do dyskusji o planach i celach w obrębie Wspólnoty. Równocześnie jednak stanowi doskonałą okazję dla cyberprzestępców. Nieustannie rozwijająca się technika tworzenia fałszywych treści wizualnych i dźwiękowych (deepfakes) ma potencjał, aby zaburzyć porządek wyborów. W związku z tym konieczne jest edukowanie społeczeństwa na temat tego zagrożenia.
Deepfakes to bazująca na sztucznej inteligencji metoda obróbki obrazu, umożliwiająca tworzenie sfabrykowanych materiałów wideo. Filmy te często powstają w celu skompromitowania przedstawianych na nich osób, a następnie są wykorzystywane do manipulowania opinią publiczną. Treści deepfakes mogą okazać się szczególnie niebezpieczne w kontekście głosowań, których w nadchodzących miesiącach odbędzie się wiele. Rok 2024 jest bowiem rekordowy pod względem liczby wyborów odbywających się na całym świecie. Urny zostaną w nim otwarte w ponad 50 państwach.
Skąd wzięły się materiały deepfakes?
Deepfakes to wciąż stosunkowo nowe zjawisko. Termin ten po raz pierwszy pojawił się w domenie publicznej w 2017 roku. Użytkownik serwisu Reddit o pseudonimie deepfakes udostępnił wówczas kilka sfabrykowanych filmów wykorzystujących wizerunki celebrytów. Stworzył je za pomocą otwartego oprogramowania Google bazującego na technologii głębokiego uczenia.
– Twórcy sfabrykowanych materiałów audio i wideo korzystają z różnych technik. Najczęściej decydują się na zastosowanie generatywnej sieci przeciwstawnej (GAN), która uczy się rozpoznawać wzorce za pomocą algorytmów. Popularność zyskują także dostępne w internecie generatory deepfakes. Narzędzia te wykorzystują zaawansowane algorytmy sztucznej inteligencji – autokodery. Umożliwiają one modyfikowanie oraz zastępowanie twarzy, a nawet tworzenie zupełnie nowych treści wizualnych. Metoda ta odgrywa kluczową rolę w procesie przenoszenia jednego obrazu na drugi – wyjaśnia Robert Dąbrowski, szef zespołu inżynierów Fortinet w Polsce.
Poważne zagrożenie dla demokracji
Sfabrykowane treści mogą być wykorzystywane do przeprowadzania tzw. ataków dezinformacyjnych. Działania te polegają na rozpowszechnianiu nieprawdziwych, nierzadko sensacyjnych informacji za pomocą różnych kanałów. Mogą być to portale społecznościowe, strony internetowe, wiadomości SMS i e-maile, a nawet tradycyjne media. Choć proceder ten istniał od dawna, technologia deepfakes uczyniła go jeszcze groźniejszym. Wynika to z faktu, że fałszywe informacje znajdują rzekome potwierdzenie w materiałach wideo i audio, przez co wydają się bardziej wiarygodne.
Sytuacji nie pomaga fakt, że według przeprowadzonego przez firmę iProov badania How To Protect Against Deepfakes – Statistics and Solutions, jedynie ok. 30 proc. użytkowników sieci jest świadomych istnienia materiałów deepfakes. Ich autorzy mają więc znaczny potencjał do wywierania realnego wpływania na opinię publiczną. Mogą podejmować różne działania, takie jak wygenerowanie i rozpowszechnienie kontrowersyjnej wypowiedzi kandydata w wyborach lub kierowanie fałszywych, sabotujących kampanię instrukcji do jego sztabu.
Walka z dezinformacją – 5 cech deepfakes
Liczba materiałów deepfakes w sieci dynamicznie wzrasta. Między 2019 a 2023 rokiem przybyło ich o 553 proc. Ich mnogość oraz rosnąca precyzja w odwzorowywaniu rzeczywistości sprawiają, że odróżnienie fałszu od prawdy bywa trudne. Nie jest to jednak niemożliwe. Materiały te wciąż nie są bowiem doskonałe i mają kilka charakterystycznych cech pozwalających na wykrycie oszustwa. W przypadku wątpliwości, czy dane wideo jest prawdziwe, ekspert Fortinet zaleca zwróć uwagę na kilka aspektów:
1. Oczy osoby mówiącej – postaci przedstawione w treściach typu deepfakes przeważnie nie mrugają i nie poruszają gałkami ocznymi.
2. Twarze osób występujących w wideo – nieadekwatna mimika, niedopasowanie ruchu ust do wypowiadanych słów lub punktowe rozmycia mogą świadczyć o nieprawdziwości materiału.
3. Kształt ciała mówcy – technologia deepfakes koncentruje się na jak najwierniejszym odwzorowaniu twarzy, często zaniedbując resztę ciała postaci. Jeżeli jej sylwetka jest pozbawiona detalu lub wydaje się wyglądać nienaturalnie, istnieje duże prawdopodobieństwo, że wideo jest sfabrykowane.
4. Światło i kolory – obrazy deepfakes są podatne na przebarwienia. Dodatkowo pojawiające w nich cienie często pojawiają się pod niewłaściwym kątem, a oświetlenie zyskuje nienaturalne barwy.
5. Nietypowa perspektywa i ruchy mówców – mowa ciała osób przedstawionych w materiałach deepfakes często nie jest spójna z ich wypowiedziami. Ponadto postacie te mogą zanikać, gdy zbliżają się do innych osób i obiektów w wideo.
Walka z dezinformacją wymaga zaangażowania na wielu frontach. Media społecznościowe takie jak Facebook czy Twitter pracują nad wdrożeniem mechanizmów wykrywających i blokujących treści deepfakes. Powstają także osobne programy służące do identyfikowania sfabrykowanych materiałów. Podstawowym warunkiem sukcesu jest jednak dynamiczne rozwijanie świadomości zagrożenia w społeczeństwie.
Badania iProov How To Protect Against Deepfakes – Statistics and Solutions:
www.iproov.com/blog/deepfakes-statistics-solutions-biometric-protection