Tech

Filmy Deepfake są bardziej realistyczne niż kiedykolwiek. Oto, jak sprawdzić, czy film jest prawdziwy, czy sztuczny

Pamiętasz, jak „fałszywy” w Internecie oznaczał obraz źle przerobiony w Photoshopie? Ach, prostsze czasy. Teraz wszyscy kąpiemy się w morzu Filmy generowane przez sztuczną inteligencję i deepfakes, od fałszywych filmów gwiazd po fałszywe transmisje katastrof, a ustalenie, co jest prawdziwe, staje się prawie niemożliwe.

I będzie coraz gorzej. Sora, narzędzie wideo AI od OpenAI, już mąci wody. Ale teraz jego nowa, wirusowa „aplikacja społecznościowa”, Sora 2, jest najpopularniejszą kartą w Internecie. Oto kicker: jest to kanał w stylu TikTok, dostępny tylko dla zaproszonych, w którym wszystko jest w 100% fałszywe.

Autor nazwał to już „głęboki, fałszywy sen o gorączce” i dokładnie o to chodzi. To platforma, która z każdym dniem coraz lepiej radzi sobie z przekształcaniem fikcji w rzeczywistość, a stawka jest ogromna. Jeśli masz trudności z oddzieleniem inteligencji rzeczywistej od sztucznej, nie jesteś sam.

Oto kilka przydatnych wskazówek, które powinny pomóc Ci przebić się przez szum i dotrzeć do prawdy w każdej sytuacji inspirowanej sztuczną inteligencją.


Nie przegap żadnej z naszych bezstronnych treści technicznych i recenzji laboratoriów. Dodaj CNET jako preferowane źródło Google.


Z technicznego punktu widzenia filmy Sory robią wrażenie w porównaniu do konkurentów takich jak Midjourney V1 I Google, widzę 3. Charakteryzują się wysoką rozdzielczością, zsynchronizowanym dźwiękiem i zaskakującą kreatywnością. Najpopularniejsza funkcja Sory, zwana „kameą”, pozwala używać postaci innych osób i wstawiać je do niemal każdej sceny generowanej przez sztuczną inteligencję. To imponujące narzędzie, które pozwala uzyskać przerażająco realistyczne filmy.

Dlatego tak wielu ekspertów martwi się o Sorę. Dzięki aplikacji każdy może łatwo tworzyć niebezpieczne deepfake, szerzyć dezinformację i zacierać granicę między tym, co jest prawdziwe, a tym, co nie. Osoby publiczne i celebryci są szczególnie podatne na te deepfakes, a syndykaty je uwielbiają SAG-AFTRA zmusiła OpenAI do wzmocnienia barier ochronnych.

Identyfikowanie treści AI jest ciągłym wyzwaniem dla firm technologicznych, platform mediów społecznościowych i wszystkich innych osób. Ale nie jest to całkowicie beznadziejne. Oto kilka rzeczy, na które należy zwrócić uwagę, aby ustalić, czy film został nakręcony przy użyciu Sory.

Poszukaj znaku wodnego Sora

Każdy film nagrany w aplikacji Sora na iOS zawiera znak wodny po jego pobraniu. To białe logo Sora – ikona chmury – odbijające się wokół krawędzi filmu. Przypomina to znak wodny w filmach TikTok.

Treści ze znakiem wodnym to jeden z największych sposobów, w jaki firmy zajmujące się sztuczną inteligencją mogą wizualnie pomóc nam wykryć treści generowane przez sztuczną inteligencję. Na przykład model „nano banana” Google Gemini automatycznie dodaje znaki wodne do swoich zdjęć. Znaki wodne są świetne, ponieważ stanowią wyraźny znak, że treść została stworzona przy pomocy sztucznej inteligencji.

Ale znaki wodne nie są idealne. Po pierwsze, jeśli znak wodny jest statyczny (nie porusza się), można go łatwo przyciąć. Nawet w przypadku przenoszenia znaków wodnych, takich jak Sora, istnieją aplikacje zaprojektowane specjalnie do ich usuwania, więc samym znakom wodnym nie można w pełni ufać. Kiedy zapytano o to dyrektora generalnego OpenAI Sama Altmana, powiedział, że społeczeństwo będzie musiało dostosować się do świata, w którym każdy może tworzyć fałszywe filmy o kimkolwiek. Oczywiście przed Sorą w OpenAI nie było popularnego, łatwo dostępnego i niewymagającego umiejętności sposobu tworzenia takich filmów. Jednak jego argument trafnie wskazuje na potrzebę polegania na innych metodach uwierzytelniania.

Sprawdź metadane

Wiem, prawdopodobnie myślisz, że nie ma możliwości sprawdzenia metadanych filmu wideo, aby ustalić, czy jest prawdziwy. Rozumiem, skąd pochodzisz; to dodatkowy krok i możesz nie wiedzieć, od czego zacząć. Ale to świetny sposób, aby stwierdzić, czy film został nakręcony przy użyciu Sory, i jest to łatwiejsze, niż mogłoby się wydawać.

Metadane to zbiór informacji, który jest automatycznie dołączany do tworzonej treści. Daje lepszy wgląd w sposób tworzenia obrazu lub filmu. Może zawierać typ aparatu użytego do zrobienia zdjęcia, lokalizację, datę i godzinę nagrania filmu oraz nazwę pliku. Każde zdjęcie i film posiadają metadane, niezależnie od tego, czy zostały stworzone przez człowieka, czy przez sztuczną inteligencję. Wiele treści generowanych przez sztuczną inteligencję będzie miało dane uwierzytelniające, które również wskazują pochodzenie sztucznej inteligencji.

OpenAI jest częścią Koalicji na rzecz Pochodzenia i Autentyczności Treści, co oznacza dla Ciebie, że filmy Sora zawierają metadane C2PA. Możesz użyć narzędzia do weryfikacji Content Authenticity Initiative, aby zweryfikować metadane filmu, obrazu lub dokumentu. Oto jak to zrobić. (Inicjatywa na rzecz autentyczności treści jest częścią C2PA.)

Jak sprawdzić metadane zdjęcia, filmu lub dokumentu:

1. Przejdź do tego adresu URL: https://verify.contentauthenticity.org/
2. Załaduj plik, który chcesz sprawdzić.
3. Naciśnij Otwórz.
4. Sprawdź informacje na panelu po prawej stronie. Jeśli jest to wygenerowany przez sztuczną inteligencję, powinien to uwzględnić w sekcji podsumowania treści.

Gdy uruchomisz wideo Sora za pomocą tego narzędzia, wyświetli się informacja, że ​​wideo zostało „opublikowane przez OpenAI” i będzie zawierać informację, że zostało wygenerowane przez sztuczną inteligencję. Wszystkie filmy Sora powinny zawierać te dane uwierzytelniające, które pozwalają zweryfikować, czy zostały utworzone przy użyciu Sory.

Narzędzie to, jak wszystkie detektory AI, nie jest doskonałe. Istnieje wiele sposobów, w jakie filmy AI mogą uniknąć wykrycia. Jeśli masz inne filmy inne niż Sora, mogą one nie zawierać niezbędnych sygnałów w metadanych, aby narzędzie mogło określić, czy zostały utworzone przy użyciu sztucznej inteligencji. Na przykład filmy AI utworzone za pomocą Midjourney nie są tagowane, co potwierdziłem podczas testów. Nawet jeśli film został utworzony przez Sorę, ale następnie został uruchomiony w aplikacji innej firmy (np. do usuwania znaku wodnego) i ponownie pobrany, istnieje mniejsze prawdopodobieństwo, że narzędzie oznaczy go jako sztuczną inteligencję.

Narzędzie do uwierzytelniania treści Inicjatywy Potwierdzenia prawidłowo oznaczyło film, który nakręciłem za pomocą Sory, jako wygenerowany przez sztuczną inteligencję, wraz z datą i godziną jego utworzenia.

Zrzut ekranu: Katelyn Chedraoui/CNET

Poszukaj innych tagów AI i dołącz własne

Jeśli korzystasz z jednej z platform mediów społecznościowych Meta, takich jak Instagram lub Facebook, możesz uzyskać pomoc w ustaleniu, czy coś jest sztuczną inteligencją. Meta ma wewnętrzne systemy, które pomagają oznaczać treści AI i oznaczać je jako takie. Te systemy nie są idealne, ale wyraźnie widać tagi postów, które są oznaczone. TikTok i YouTube mają podobne zasady tagowania treści AI.

Jedynym naprawdę niezawodnym sposobem sprawdzenia, czy coś zostało wygenerowane przez sztuczną inteligencję, jest ujawnienie tego przez twórcę. Wiele platform mediów społecznościowych oferuje obecnie ustawienia, które pozwalają użytkownikom oznaczać swoje posty jako wygenerowane przez sztuczną inteligencję. Nawet proste potwierdzenie lub ujawnienie w tytule może pomóc każdemu zrozumieć, jak coś powstało.

Kiedy przewijasz Sorę, wiesz, że nic nie jest prawdziwe. Kiedy jednak opuścisz aplikację i udostępnisz filmy wygenerowane przez sztuczną inteligencję, naszym wspólnym obowiązkiem będzie odkrycie, w jaki sposób film został utworzony. Ponieważ modele sztucznej inteligencji, takie jak Sora, w dalszym ciągu zacierają granicę między rzeczywistością a sztuczną inteligencją, od nas wszystkich zależy, aby jak najdokładniej określić, kiedy coś jest prawdziwe lub sztuczne.

Co najważniejsze, zachowaj czujność

Nie ma jednej, niezawodnej metody, która pozwalałaby na szybkie i dokładne określenie, czy film jest prawdziwy, czy wykonany przez sztuczną inteligencję. Najlepszą rzeczą, jaką możesz zrobić, aby uchronić się przed oszustwem, jest to, aby nie wierzyć automatycznie i bezkrytycznie we wszystko, co zobaczysz w Internecie. Kieruj się instynktem – jeśli coś wydaje się nierealne, prawdopodobnie takie jest. W tych bezprecedensowych czasach wypełnionych sztuczną inteligencją najlepszą obroną jest dokładne sprawdzanie oglądanych filmów. Nie wystarczy tylko rzucić okiem i odejść bez zastanowienia. Sprawdź, czy nie ma zniekształconego tekstu, znikających obiektów i ruchu sprzecznego z fizyką. I nie złość się, jeśli od czasu do czasu zostaniesz oszukany; nawet eksperci się mylą.

(Ujawnienie: Ziff Davis, spółka matka CNET, złożyła w kwietniu pozew przeciwko OpenAI, zarzucając naruszenie praw autorskich Ziff Davis w zakresie szkolenia i obsługi systemów sztucznej inteligencji.)



Enlace de origen