Po celém světě se deepfake těší velké pozornosti. Vzhledem k tomu, že se objevilo mnoho mezinárodních společností, které využívají deepfakes generované AI, panuje všeobecná shoda na obecném přístupu k tomuto problému. Začátkem tohoto roku se Google na C2PA stal řídícím výborem s dalšími, jako jsou OpenAI, Adobe, Microsoft, AWS a členové RIAA. Kvůli obavám z deepfake a mainstreamových dezinformací AI budou pracovníci IT chtít přijmout práci této agentury a uvádět konkrétní odkazy na pověření obsahu.

Pověření obsahu: Nový standard

Průmysl se chystá plošně regulovat specifickou oblast správy vizuálních a obrazových dat, takže IT tým na to bude klást zvláštní důraz. Content Credentials je způsob, jakým digitální metadata mohou tvůrci nebo držitelé obsahu využít k získání řádných kreditů a k zavedení poctivosti do ekosystému. Tato nenávratná metadata sestávají ze jména umělce a podrobností a jsou při exportu nebo stažení zapsána přímo do obsahu.

Štítky obsahu vytvořené podle stejných pravidel a povolení mají velké šance na implementaci standardizovaného označování v úplném a akceptujícím světě díky váze společností, které za tímto nápadem stojí. Pověření obsahu představují jedinečnou příležitost z různých důvodů. Pomůže posílit důvěryhodnost a spolehlivost mezi publikem, protože poskytuje tolik potřebné informace o autorovi nebo tvůrčím procesu. To rozvíjí atmosféru místnosti, která pomáhá bojovat proti dezinformacím a dezinformacím. 

Připojte jakékoli kontaktní údaje k jejich práci, abyste posílili identitu umělců, aby je uživatelé mohli vysledovat a propojit za účelem uznání a viditelnosti. Kromě toho budou přijata některá opatření zaměřená na internetový obsah, který není skutečný, například obsah, který je falešný a vytvořený za účelem klamání lidí. Historie Austrálie odráží největší nárůst hloubkových podvodů, podobně jako v jiném světě. Sumsub ve své třetí zprávě o podvodech s identitou uvedl, že počet deepfakeů v Austrálii vzrostl 15krát ve srovnání s předchozím rokem a sofistikovanost padělaných médií směrem k realistické formě dále postoupila.

Vzhledem k tomu, že lidské oko téměř okamžitě vypne ostrahu, stávají se deepfakes vysoce přesvědčivé. Výzkum naznačuje, že kategorizace obrázků může trvat až 13 milisekund, což je mnohem kratší doba, než je doba, po kterou člověk zpracuje informace a ověří je nebo je odmítne. Australský komisař pro eSafety poznamenává, že „vývoj inovací, které pomohou identifikovat deepfakes, zatím nedrží krok s technologií“. Australská vláda se zavázala k boji proti deepfakes.

Boj s deepfakes v Austrálii

Deepfakes představují velmi reálnou hrozbu pro stabilitu a bezpečnost všech Australanů. Jakákoli dlouhodobá kampaň zaměřená na prevenci deepfake by se měla zaměřit na osvětové kampaně, které lidem pomohou pochopit, jak deepfake fungují a jaké jsou dostupné možnosti, jak se těmto trikům vyhnout.

Aby tato vize mohla nabýt života, bude nutné dosáhnout celoodvětvového konsenzu, přičemž hlavní zainteresované strany na straně nabídky poskytují technologii a mají největší dopad na AI. Ale tam se odehrávají přihlašovací údaje k obsahu. Zatímco pověření k obsahu jsou nejlepší šancí na vytvoření standardů, které uzavře problém s hlubokými falešnými zprávami, otázky detekce, regulace a potrestání zneužití zůstanou. To znamená, že preventivní opatření není založeno na průmyslovém odvětví ani není podporováno masami předních představitelů v mediálním průmyslu. Takové implementace mohou oslovit velkou část internetu a v takových časech je většina webových stránek okamžitě stejně informovaná jako virové stránky ve vyhledávači.

Lidé zapojení do IT a umělé inteligence, kteří se zabývají tvorbou obsahu, budou toužit. Měli by rozumět přihlašovacím údajům k obsahu přesně tak, jak se vývojáři webu dostali do úrovně zapletení s bezpečností, SEO a všemi standardy, které jsou k dispozici na ochranu obsahu před zákazem. Mezi kroky, které by měli podniknout, patří:

Implementace pověření obsahu: Za prvé, IT odborníci by měli zajistit, aby jejich společnost plně implementovala a integrovala pověření obsahu do pracovních postupů, aby byla zachována autentičnost obsahu a sledovatelnost.

Prosazování transparentnosti: Návrh interně i externě s partnery a zákazníky vede k organizovanému prosazování toho, aby organizace byly transparentní ohledně používání AI a přijímaly etické postupy při vytváření a distribuci obsahu.

Podpora regulace: Zvažte průmyslové orgány a vládu, aby řídily utváření politiky a předpisů, aby čelily výzvám způsobeným deepfakes. To nebude zahrnovat pouze účast na mnoha veřejných konzultacích, které vláda o AI povede, ale také pomůže utvářet politickou práci.

Spolupráce: Spojte větší odbornost s ostatními profesionály a organizacemi tím, že vytvoříte sdílené, konzistentní přístupy a nástroje pro určení hluboce falešných rizik.

Příprava strategií odezvy: Postavte se výzvám, které představují deepfakes, a připravte své plány, když bude tato technologie odhalena, jako je zvládání poškození a komunikace.

Využití zdrojů komunity: Platforma by také měla využívat zdroje od komunit zabývajících se kybernetickou bezpečností, jako je komisař pro eSafety, aby měla včas aktuální vývoj.

Tvorba deepfakes je nejnáročnějším úkolem pro odborníky na informační technologie, kteří musí najít použitelné řešení. Content Credentials poskytují světu skvělou začínající organizaci, na které lze stavět zbytek odvětví.