Na czasieDeepfakes – nie daj się oszukać technologii wideo > redakcja Opublikowane 1 czerwca 20200 0 100 Podziel się Facebook Podziel się Twitter Podziel się Google+ Podziel się Reddit Podziel się Pinterest Podziel się Linkedin Podziel się Tumblr Rosną obawy związane z deepfakes, czyli nagraniami stworzonymi przez sztuczną inteligencję, w których zazwyczaj twarz jednej osoby jest nałożona na inna postać. Rozwój technologii przyniósł w tym obszarze medium, którego potencjał jest przerażający. Przykładem jest pokazowy „wywiad” z Vladimirem Putinem. Wideo prezentuje jedynie możliwości wykorzystania tej technologii, a konwencja rozmowy pozwala gołym okiem ocenić, że nie jest to prawdziwy wywiad. Nietrudno sobie jednak wyobrazić, jak techniki deepfakes będą się rozwijać i że mogą być użyte w złych zamiarach, które prowadzą do poważnych naruszeń.Ocena prawdziwości informacji staje się swoistym obowiązkiem. Trzeba zwiększyć czujność już teraz i wyrobić nawyk uważnego przyglądania się także materiałom wideo. Niedługo technologia deepfakes może być na tyle doskonała, że fałsz informacji będzie mogła „dostrzec” jedynie inna technologia.Poniżej dekonspiracja deepfake z przykładami 5 niedociągnięć technologii: 1. Różnice w rozdzielczości obrazu między twarzą lub sylwetką a resztą nagraniaFilmy źródłowe często mają lepszą jakość niż docelowy plik, co może dawać dziwny efekt, w którym twarz jest w bardzo dobrej rozdzielczości, a tło w wyraźnie gorszej. Można to zobaczyć w filmiku: Steve Buscemi / Jennifer Lawrence, który stał się bardzo popularny. Widać tu wyraźne rozmycie tła ze Złotych Globów w porównaniu do bardzo żywego obrazu twarzy.2. „Rozmazany” widok przedmiotów lub mało płynny ruchTakie efekty są często skutkiem deepfake w ujęciach, w których twarz jest zasłonięta lub pod ostrym kątem do widza. Widoczne jest to na nagraniu, w którym Jim Carrey jest podstawiony w postać graną przez Jacka Nicholsona w „Lśnieniu”. Brak płynności ruchu wyraźnie widać w scenie z kwestią: „Here’s Johnny!”.3. Niekonsekwentnie skalowane twarzeDeepfake z ujęciami kamery pod wieloma kątami, może nie radzić sobie ze skalowaniem twarzy i przekształcaniem jej tak, aby uzyskać odpowiednią – wiarygodną wielkość we wszystkich scenach. Przykładem tego problemu może być wideo: Sylvester Stallone Terminator 2.4. Zmienny obrys twarzy i sylwetkiJeśli krawędzie twarzy na obrazie (jak broda, brwi, kości policzkowe), a także cechy charakterystyczne (jak zarost, zmarszczki czy znamiona), zmieniają się w trakcie filmu, możemy mieć do czynienia z deepfake. Takie „niekonsekwencje” ze zmianami w linii kości policzkowych i szczęki można zaobserwować w wideo Bill Hader/Tom Cruise.5. Różne odcienie skóry i „świecącą się” ceraDopasowywanie odcienia skóry i ruchów twarzy, szczególnie na granicach obrazu jest ciągle jeszcze dla deepfake trudne, podobnie jak charakterystyczny połysk cery. Ten przykład dobrze widać w nagraniu: Jim Carrey / Alison Brie.