Czym jest deepfake?

Jest to pojęcie, które coraz częściej spotykamy w sieci i które stało się w obecnych czasach bardzo popularne. W związku z powyższym postaram się w niniejszym artykule przedstawić pojęcie deepfake’u i z jaką odpowiedzialnością wiąże się jego stosowanie.

Czym jest zatem deepfake? Pojęcie wywodzi się z połączenia dwóch wyrazów „deep learnig” czyli „głębokie uczenie się” oraz „fake”, czyli „fałszywy”.

Według Aktu o sztucznej inteligencji (AI Akt):

„deepfake” oznacza wygenerowane przez AI lub zmanipulowane przez AI obrazy, treści dźwiękowe lub treści wideo, które przypominają istniejące osoby, przedmioty, miejsca, podmioty lub zdarzenia, które odbiorca mógłby niesłusznie uznać za autentyczne lub prawdziwe;

Wraz z rozwojem sztucznej inteligencji musimy mierzyć się z kolejnymi złośliwymi wytworami sztucznej inteligencji, a jednym z przykładów jest właśnie deepfake. Każdy może wygenerować postać, obraz, film, który wygląda realistycznie, może mieć nawet pobraną próbkę głosu od tej osoby i ciężko będzie zwykłemu człowiekowi zweryfikować, czy ten wytwór jest fałszywy czy realistyczny. Obraz potrafi kompletnie zmanipulować człowieka, który nie wczytując się, czy nie zapoznając się z żadnymi szczegółami, uzna dane zjawisko za realistyczne.

Oznaczanie treści generowanych przez AI

Zgodnie z unijnym rozporządzaniem czyli AI Akt nałożona zostaje odpowiedzialność na podmioty korzystające z systemów sztucznej inteligencji do generowania obrazów, dźwięków, filmów powinny być oznakowane jako wynik AI i wskazywać jednoznacznie źródło swojego pochodzenia jako AI. informacja powinna być jednoznaczna – treści te są zmanipulowane lub wytworzone przez sztuczną inteligencję.

Kiedy nie ma obowiązku oznaczania treści generowanych przez AI?

Wyjątkami od konieczności oznaczania treści, obrazów, audio, wideo generowanych przez AI czy zmanipulowanych jest wykorzystywanie takich treści zgodnie z prawem w celu np.

  1. wykrywania przestępstw, zapobiegania przestępstwom, prowadzenia postępowań przygotowawczych w sprawie, ścigania sprawców.;
  2. generowane treści stanowią część pracy lub programy, który mają wyraźnie artystyczny, twórczy, satyryczny, fikcyjny czy podobny do powyższych charakter, wtedy należy jedynie ujawnić istnienie takich treści, aby nie utrudniało to wyświetlania czy korzystania z takiego utworu.

Czy istnieje możliwość wykrycia deepfake’u przez zwykłego człowieka?

Odpowiedź na to pytanie nie jest oczywista. Na ten moment istnieją pewne możliwości weryfikacji czy choćby zwątpienie w realność danego wytworu, natomiast sztuczna inteligencja rozwija się w tak zaskakująco szybki i nieprzewidywalny sposób, iż te „ludzkie” możliwości mogą zostać niedługo wyeliminowane.

Przykładami, kiedy możemy posiąść wątpliwość co do realizmu deepfake’u może być:

  1. brak synchronizacji pomiędzy ustami a wymawianymi słowami w trakcie wideo czy prowadzonej rozmowy wideo;
  2. brak odpowiednich proporcji ciała;
  3. wadliwa perspektywa na zdjęciu;
  4. brak światła w oczach osoby widocznej na zdjęciu.

Są to jedynie przykłady, które mogą wpływać na sposób postrzegania tego co widzimy na co dzień.

Czy istnieje jakaś odpowiedzialność za stosowanie i wykorzystywanie deepfake’u?

Nie wiem czy kogokolwiek zaskoczę tą informacją, ale kwestia deepfake’ów nie jest wprost uregulowana prawnie. Sztuczna inteligencja rozwija się w niesamowitym tempie, więc regulacje nie nadążają nad wprowadzaniem odpowiednich zapisów w istniejących aktach prawnych. W związku z używaniem, tworzeniem, modyfikowaniem deepfake’ów problemem może stać się sama inicjatywa i pomysł na ściganie osób, które się tego dopuściły ze względu na zaawansowane możliwości techniczne.

Treści generowane w formie deepfake’u mogą naruszać nasze prawo do prywatności, nasz wizerunek, powodować szkodę, działać na sferę emocjonalną, doprowadzić do pomówienia. W pierwszej kolejności zatem możemy zwrócić uwagę na przepisy cywilne dotyczące naprawienia szkody. Z kolei patrząc na powyższe zagadnienie z perspektywy karnej możemy mówić o oszustwie dokonanym poprzez zmanipulowane i nieprawdziwe wytwory AI.

Niestety nie ma żadnych prawnych przepisów, które by pozwalałby wprost zastosować dane sankcje, więc zapewne z biegiem czasu orzecznictwo ukształtuje pewne standardy prowadzenia postępowań sądowych w tym zakresie.

Podsumowanie

Zgodnie z AI Akt stosowanie deepfake’u podlega pod systemy ryzyka, zatem generowane treści w ten sposób powinny być weryfikowane przed ich publikacją, aby zweryfikować, jakie konsekwencje niesie za sobą ich publikacja i czy nie ma ona szkodliwego wpływu na osoby trzecie. Jeżeli ten wpływ będzie niekorzystny, to taka publikacja nie powinna mieć miejsca.

Deepfake może rodzić ryzyko konfliktu, naruszenia przepisów prawa, naruszenia dóbr osobistych osób trzecich oraz szerzyć dezinformację. Oznaczanie takich treści to prosty sposób, by chronić się przed manipulacją.

Zostań ze mną, jeśli chcesz wiedzieć więcej o tym, jak AI wpływa na nasze życie — i jak nie dać się nabrać.

Masz jakieś pytania to kliknij w link poniżej i umów się na poradę prawną!

Photo by Steve Johnson on Unsplash