ŚwiatWiadomości Prasowe

Wybory 2025: ponad połowa Polaków nie zna pojęcia „deepfake”. Eksperci ostrzegają przed nową erą dezinformacji

Wybory prezydenckie zbliżają się wielkimi krokami. To wydarzenie, które w naturalny sposób przyciąga uwagę opinii publicznej, ale także cyberprzestępców. Mogą oni, działając w ramach zleceń lub realizując własne cele, podejmować różne działania, aby zakłócić przebieg kampanii oraz samych wyborów. Przestępcy coraz chętniej wykorzystują deepfake’i – sfabrykowane nagrania audio i wideo generowane przez sztuczną inteligencję. Chociaż technologia ta staje się coraz bardziej dostępna, jej rozpoznawalność w społeczeństwie wciąż jest niska. Według raportu Dezinformacja oczami Polaków 2024, aż 58 proc. Polaków nie zna pojęcia „deepfake”.

Skala potencjalnych nadużyć rośnie wraz z upowszechnianiem się narzędzi bazujących na sztucznej inteligencji. Specjalistyczne rozwiązania umożliwiają generowanie deepfake’ów, klonowanie głosu czy tworzenie zaawansowanych treści phishingowych. W efekcie coraz trudniej odróżnić prawdziwe komunikaty od tych wygenerowanych sztucznie, zwłaszcza gdy są one kierowane w precyzyjnie dobranym momencie i do odpowiednio sprofilowanej grupy odbiorców.

Technologia w służbie manipulacji – jak powstają deepfake’i?

Deepfake to technika wykorzystująca algorytmy sztucznej inteligencji – najczęściej generatywne sieci przeciwstawne (GAN) oraz autokodery – do tworzenia realistycznych, ale całkowicie fałszywych materiałów audio i wideo.

Systemy te „uczą się” cech fizycznych danej osoby, a następnie odtwarzają je w zupełnie nowym kontekście. Dzięki takim narzędziom jak FraudGPT czy ElevenLabs, możliwe staje się na przykład kopiowanie głosu polityka oraz wygenerowanie wideo, w którym „wypowiada” on słowa, jakie w rzeczywistości nigdy nie padły. Co istotne, twórcy tych sfabrykowanych materiałów wcale nie muszą posiadać zaawansowanej wiedzy programistycznej ani informatycznej. Wystarczy, że mają dostęp do gotowych rozwiązań, nierzadko dostępnych w modelu cybercrime-as-a-service (CaaS). Fakt ten sprawia, że deepfake’i stają się coraz powszechniejszym zjawiskiem – zauważa Robert Dąbrowski, szef zespołu inżynierów Fortinet w Polsce.

Czy Polacy potrafią rozpoznać sfabrykowany materiał?

Jedynie 42 proc. respondentów przeprowadzonego przez Koalicję Razem Przeciw Dezinformacji badania „Dezinformacja oczami Polaków 2024” spotkało się z pojęciem „deepfake”. Statystyka ta sugeruje, że ponad połowa Polaków może nie mieć świadomości istnienia tego zjawiska, co czyni ich bardziej podatnymi na manipulację. Tezę tę potwierdza fakt, że ponad 20 proc. ankietowanych nie było w stanie wymienić ani jednej cechy, która umożliwia rozpoznanie sfabrykowanego materiału.

Tymczasem treści typu deepfake nieustannie przybywa. Według opublikowanego przez Regula raportu Deepfake Trends, pomiędzy 2022 a 2024 rokiem w sieci pojawiło się o 12 proc. więcej sfalsyfikowanych nagrań głosowych oraz o 20 proc. więcej materiałów wideo.

Nie należy spodziewać się, że w najbliższym czasie ta tendencja się zmieni. W związku z tym kluczowym jest, aby społeczeństwo wiedziało czym są deepfake’i oraz potrafiło je skutecznie identyfikować – mówi ekspert Fortinet.

Pięć cech materiału deepfake

Chociaż sztuczna inteligencja coraz lepiej imituje głos i obraz, większość materiałów typu deepfake nadal ma subtelne cechy i zawiera błędy, które pozwalają na ich rozpoznanie. Przed uznaniem danego materiału za wiarygodny warto więc dokładnie mu się przyjrzeć – szczególnie pod kątem następujących elementów:

Oczy osoby mówiącej – Brak mrugania lub nienaturalny ruch gałek ocznych

Mimika i usta – Opóźnienie między ruchem warg a dźwiękiem, sztuczna mimika twarzy lub punktowe rozmycia wokół ust

Sylwetka – Zniekształcone kontury ciała, brak detali poza twarzą lub nienaturalna postawa

Ruch i perspektywa – Postać może poruszać się w nienaturalny sposób lub „zanikać”, gdy wchodzi w interakcję z otoczeniem

Kluczowa jest czujność i krytyczne myślenie. Należy powstrzymać się od natychmiastowych, emocjonalnych reakcji na sensacyjne materiały krążące w mediach społecznościowych. Wszystkie podejrzane treści warto najpierw starannie przeanalizować, ponieważ – zważywszy na rosnącą liczbę deepfake’ów w sieci – wcale nie muszą być one zgodne z rzeczywistością.

Raport Dezinformacja oczami Polaków 2024:
www.lbm.uw.edu.pl/images/Dezinformacja_oczami_Polakw_edycja_2024.pdf

Deepfake Trends 2024:
regulaforensics.com/resources/deepfake-trends-2024-report/?success=true

Click to rate this post!
[Total: 0 Average: 0]

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Witryna jest chroniona przez reCAPTCHA i Google Politykę Prywatności oraz obowiązują Warunki Korzystania z Usługi.

Accessibility Toolbar