Home Na czasie Deepfakes – nie daj się oszukać technologii wideo

Deepfakes – nie daj się oszukać technologii wideo

0
0
97

Rosną obawy związane z deepfakes, czyli nagraniami stworzonymi przez sztuczną inteligencję, w których zazwyczaj twarz jednej osoby jest nałożona na inna postać. Rozwój technologii przyniósł w tym obszarze medium, którego potencjał jest przerażający. Przykładem jest pokazowy „wywiad” z Vladimirem Putinem. Wideo prezentuje jedynie możliwości wykorzystania tej technologii, a konwencja rozmowy pozwala gołym okiem ocenić, że nie jest to prawdziwy wywiad. Nietrudno sobie jednak wyobrazić, jak techniki deepfakes będą się rozwijać i że mogą być użyte w złych zamiarach, które prowadzą do poważnych naruszeń.

Ocena prawdziwości informacji staje się swoistym obowiązkiem. Trzeba zwiększyć czujność już teraz i wyrobić nawyk uważnego przyglądania się także materiałom wideo. Niedługo technologia deepfakes może być na tyle doskonała, że fałsz informacji będzie mogła „dostrzec” jedynie inna technologia.

Poniżej dekonspiracja deepfake z przykładami 5 niedociągnięć technologii:

 1.    Różnice w rozdzielczości obrazu między twarzą lub sylwetką a resztą nagrania

Filmy źródłowe często mają lepszą jakość niż docelowy plik, co może dawać dziwny efekt, w którym twarz jest w bardzo dobrej rozdzielczości, a tło w wyraźnie gorszej. Można to zobaczyć w filmiku: Steve Buscemi / Jennifer Lawrence, który stał się bardzo popularny. Widać tu wyraźne rozmycie tła ze Złotych Globów w porównaniu do bardzo żywego obrazu twarzy.

2.    „Rozmazany” widok przedmiotów lub mało płynny ruch

Takie efekty są często skutkiem deepfake w ujęciach, w których twarz jest zasłonięta lub pod ostrym kątem do widza. Widoczne jest to na nagraniu, w którym Jim Carrey jest podstawiony w postać graną przez Jacka Nicholsona w „Lśnieniu”. Brak płynności ruchu wyraźnie widać w scenie z kwestią: „Here’s Johnny!”.

3.    Niekonsekwentnie skalowane twarze

Deepfake z ujęciami kamery pod wieloma kątami, może nie radzić sobie ze skalowaniem twarzy i przekształcaniem jej tak, aby uzyskać odpowiednią – wiarygodną wielkość we wszystkich scenach. Przykładem tego problemu może być wideo: Sylvester Stallone Terminator 2.

4.    Zmienny obrys twarzy i sylwetki

Jeśli krawędzie twarzy na obrazie (jak broda, brwi, kości policzkowe), a także cechy charakterystyczne (jak zarost, zmarszczki czy znamiona), zmieniają się w trakcie filmu, możemy mieć do czynienia z deepfake. Takie „niekonsekwencje” ze zmianami w linii kości policzkowych i szczęki można zaobserwować w wideo Bill Hader/Tom Cruise.

5.    Różne odcienie skóry i „świecącą się” cera

Dopasowywanie odcienia skóry i ruchów twarzy, szczególnie na granicach obrazu jest ciągle jeszcze dla deepfake trudne, podobnie jak charakterystyczny połysk cery. Ten przykład dobrze widać w nagraniu: Jim Carrey / Alison Brie.

 

Dodaj komentarz

Przeczytaj również

Cyfryzacja biznesu w Polsce: firmy powinny przyspieszyć obrany kurs

Jedna trzecia firm w Polsce zamierza zwiększać wydatki na realizację transformacji cyfrowe…