Wykorzystanie AI (artificial intelligence) do deepfake i dlaczego jest to tak groźne?

Autor: Iwona Kula

Na początek warto zastanowić się co to są te deepfake’i?

Deepfake to technologia, która wykorzystuje sztuczną inteligencję (AI) do tworzenia realistycznych, ale fałszywych obrazów, nagrań wideo lub dźwiękowych. Technologia ta często bazuje na sieciach neuronowych, takich jak Generative Adversarial Networks (GAN), które potrafią wygenerować bardzo przekonujące fałszywe treści.

Jak działa technologia deepfake?

Zbieranie danych:

  • Aby stworzyć deepfake, najpierw potrzebne są duże ilości materiału źródłowego, np. zdjęcia, nagrania wideo lub dźwiękowe konkretnej osoby.

Trenowanie modelu AI: następnie, sieć neuronowa jest trenowana na zebranych danych. Sieć uczy się, jak osoba wygląda, mówi, porusza się i wyraża emocje.

  • Generowanie deepfake’a: po zakończeniu treningu, AI jest w stanie stworzyć nowe obrazy lub nagrania wideo, które wyglądają i brzmią jak ta osoba, ale są w rzeczywistości fałszywe.

Dlaczego deepfake’s są groźne?

  • Dezinformacja i manipulacja:
  • Polityka: deepfake’s mogą być wykorzystywane do tworzenia fałszywych wypowiedzi polityków, co może wpływać na opinię publiczną, wyniki wyborów oraz międzynarodowe relacje.
  • Społeczeństwo: fałszywe nagrania mogą być używane do manipulowania opinią publiczną, szerzenia fałszywych informacji i wywoływania niepokojów społecznych.
  • Szantaż i wyłudzenia: deepfake’s mogą być wykorzystywane do tworzenia fałszywych kompromitujących materiałów, które są następnie używane do szantażowania osób prywatnych lub publicznych.
  • Naruszenie prywatności: deepfake’s mogą być używane do tworzenia fałszywych filmów pornograficznych z udziałem osób publicznych lub prywatnych bez ich zgody, co stanowi poważne naruszenie prywatności i godności osobistej.
  • Podważenie zaufania do mediów: rozprzestrzenianie fałszywych nagrań wideo może prowadzić do erozji zaufania do tradycyjnych mediów oraz autentycznych źródeł informacji, co utrudnia odbiorcom odróżnienie prawdy od fałszu.
  • Cyberbezpieczeństwo: deepfake’s mogą być używane do oszustw, takich jak fałszywe nagrania wideo lub dźwiękowe rozmów z pracownikami, które mają na celu wyłudzenie poufnych informacji lub przejęcie kontroli nad systemami komputerowymi.

Jak przeciwdziałać zagrożeniom związanym z deepfake’ami?

  • Edukacja i świadomość: podnoszenie świadomości na temat istnienia deepfake’ów i ich potencjalnych zagrożeń jest kluczowe dla przeciwdziałania ich skutkom.
  • Technologie wykrywania: rozwój i implementacja zaawansowanych narzędzi do wykrywania deepfake’ów, które potrafią analizować treści wideo i audio w celu identyfikacji fałszywych materiałów.
  • Regulacje prawne: wprowadzenie i egzekwowanie regulacji prawnych dotyczących tworzenia i rozpowszechniania deepfake’ów może ograniczyć ich negatywne skutki.
  • Weryfikacja źródeł: zawsze sprawdzaj źródła informacji i zwracaj uwagę na podejrzane treści, szczególnie te, które wydają się zbyt sensacyjne, aby były prawdziwe.

Deepfake’s stanowią poważne zagrożenie dla różnych aspektów życia społecznego, politycznego i prywatnego. Ważne jest, abyśmy byli świadomi tych zagrożeń i podejmowali kroki w celu ochrony przed nimi.

W tym miejscu powinniśmy postawić kardynalne pytanie – czy w dzisiejszych czasach można obronić się przed deepfake’s generowanym przez AI?

Odpowiedz brzmi tak, ale obrona przed deepfake’ami generowanymi przez AI jest wyzwaniem, ale istnieją strategie i technologie, które mogą pomóc w wykrywaniu i przeciwdziałaniu ich negatywnym skutkom. Oto kilka metod, które są stosowane obecnie:

1. Technologie wykrywania deepfake’ów

W odpowiedzi na rozwój deepfake’ów, naukowcy i inżynierowie opracowali zaawansowane algorytmy i narzędzia do ich wykrywania. Oto kilka przykładów:

  • Analiza cech fizjologicznych: narzędzia te analizują mikroekspresje, mruganie oczu, ruchy ust i inne subtelne cechy fizjologiczne, które mogą być trudne do idealnego odtworzenia przez deepfake.
    • Analiza artefaktów wideo: algorytmy mogą wykrywać niespójności w pikselach, oświetleniu, krawędziach i innych elementach obrazu, które mogą wskazywać na manipulację.
    • Technologie oparte na sieciach neuronowych: wykorzystanie modeli uczących się na dużych zbiorach danych, aby rozpoznawać wzorce typowe dla deepfake’ów.

2. Edukacja i świadomość publiczna

  • Kampanie informacyjne: edukowanie społeczeństwa o istnieniu deepfake’ów i ich potencjalnych zagrożeniach. Informowanie, jak rozpoznawać podejrzane treści.
  • Szkolenia: organizowanie szkoleń dla pracowników firm, urzędników i innych osób, które mogą być narażone na ataki z wykorzystaniem deepfake’ów.

3. Weryfikacja źródeł

  • Weryfikacja tożsamości: upewnienie się, że informacje pochodzą z zaufanych i autentycznych źródeł. Sprawdzanie wiarygodności i autentyczności treści przed ich udostępnieniem lub rozpowszechnieniem.
  • Zastosowanie technologii blockchain: użycie blockchain do śledzenia pochodzenia treści multimedialnych i zapewnienia ich autentyczności.

4. Regulacje prawne i polityki

  • Legislacja: wprowadzenie i egzekwowanie przepisów prawnych dotyczących tworzenia, rozpowszechniania i używania deepfake’ów w sposób szkodliwy. Przykłady to przepisy przeciwko oszustwom, nękaniu i szantażowi.
  • Polityki firmowe: tworzenie wewnętrznych polityk dotyczących korzystania z technologii AI i deepfake’ów, aby zapobiegać ich nadużyciom.

5. Rozwój współpracy międzynarodowej

  • Współpraca między rządami, firmami technologicznymi i organizacjami międzynarodowymi: Wspólne inicjatywy i programy mające na celu zwalczanie zagrożeń związanych z deepfake’ami.

6. Technologie uwierzytelniania

  • Podpisy cyfrowe i weryfikacja autentyczności: używanie podpisów cyfrowych do potwierdzenia autentyczności nagrań i obrazów.
  • Biometria: używanie biometrii, takiej jak odciski palców, rozpoznawanie twarzy, do potwierdzenia tożsamości osób na nagraniach.

7. Śledzenie i monitoring

  • Monitoring mediów społecznościowych: aktywne monitorowanie platform społecznościowych pod kątem podejrzanych treści i ich szybkiego usuwania.

Obrona przed deepfake’ami wymaga wieloaspektowego podejścia, łączącego zaawansowane technologie, edukację społeczną, regulacje prawne i współpracę międzynarodową. Choć wyzwanie jest znaczące, te działania mogą znacznie ograniczyć skuteczność deepfake’ów i zmniejszyć ryzyko związane z ich użyciem.

A na koniec warto pokazać kilka przykładów deepfake’s oraz podzielić je na kilka kategorii w zależności od ich zastosowania i wpływu. Oto kilka znanych przykładów:

1. Deepfake w polityce

Fałszywe przemówienia polityków: w 2018 roku pojawiło się wideo Baracka Obamy, w którym rzekomo mówił rzeczy, których nigdy nie powiedział. Było to stworzone jako przykład pokazujący, jak technologia deepfake może być użyta do rozpowszechniania dezinformacji.

Wybory prezydenckie w USA: przed wyborami w 2020 roku pojawiło się kilka deepfake’ów przedstawiających kandydata na prezydenta Joe Bidena w kompromitujących sytuacjach, mających na celu wpłynięcie na opinię publiczną.

2. Deepfake w rozrywce

Sceny filmowe: w 2019 roku stworzono deepfake z Keanu Reevesem, który pojawiał się w scenach z różnych filmów, w których nigdy nie grał.

Humorystyczne filmy: na YouTube można znaleźć wiele deepfake’ów, gdzie twarze celebrytów są podmieniane w popularnych scenach filmowych lub teledyskach, co jest wykorzystywane głównie dla zabawy i rozrywki.

3. Deepfake w mediach społecznościowych

Aplikacje mobilne: aplikacje takie jak Reface czy Zao pozwalają użytkownikom na podmianę swoich twarzy na twarze celebrytów w krótkich filmach lub gifach.

Fałszywe konta: deepfake’owe filmy i zdjęcia są używane na platformach społecznościowych, takich jak Instagram czy TikTok, aby stworzyć fałszywe tożsamości lub promować fałszywe produkty.

4. Deepfake w oszustwach

Ataki phishingowe: w 2019 roku dyrektor generalny jednej z brytyjskich firm stracił 243 tysiące dolarów, po tym jak został oszukany przez deepfake’owy głos imitujący szefa niemieckiej spółki matki, który nakazał mu przelanie pieniędzy na fałszywe konto.

Szantaż: fałszywe kompromitujące wideo lub zdjęcia mogą być używane do szantażowania osób publicznych lub prywatnych.

5. Deepfake w reklamie

Kampanie marketingowe: firma Malaria Must Die stworzyła kampanię z Davidem Beckhamem, który mówił w dziewięciu różnych językach za pomocą technologii deepfake, aby podnieść świadomość na temat malarii.

6. Deepfake w edukacji i badaniach

Eksperymenty i badania: naukowcy tworzą deepfake’i, aby badać ich wpływ na społeczeństwo, opracowywać metody wykrywania i zrozumieć, jak technologia może być zarówno używana, jak i nadużywana.

Podsumowując: technologia deepfake ma zarówno pozytywne, jak i negatywne zastosowania. Jest wykorzystywana do celów rozrywkowych i edukacyjnych, ale także może być używana do dezinformacji, oszustw i innych złośliwych działań. Ważne jest, aby być świadomym tych zagrożeń i rozwijać narzędzia oraz strategie do ich wykrywania i zwalczania.

Autor: Tomasz Szepelak

Ekspert z wieloletnim doświadczeniem w branży IT, posiadający obszerną wiedzę techniczną obejmującą Cyberbezpieczeństwo w środowiskach Windows i Linux, znajdowanie podatności na stronach internetowych oraz udzielanie zaleceń dotyczących zamykania znalezionych podatności. Jest odpowiedzialny za wsparcie użytkowników końcowych, instalację, wdrożenie i utrzymanie różnych komponentów LAN/WAN w środowisku korporacyjnym w strukturach firmy międzynarodowej. Uczestniczy w różnorodnych projektach, jako niezależny lider projektu, pracuje nad wdrożeniami nowych rozwiązań. Może pochwalić się również szeroką wiedzą w zakresie procesów IT i tytułem ITIL® Expert.