YouTube opracowuje narzędzia do wykrywania użycia generowanych przez AI wersji głosów użytkowników lub ich fizycznych podobizn w filmach bez ich zgody. W dzisiejszym ogłoszeniu platforma należąca do Google stwierdziła, że te narzędzia będą chronić twórców na jej platformie.
Ogłoszenie jest mile widzianym wydarzeniem, ponieważ narzędzia te odnoszą się do głównych obaw dotyczących rozprzestrzeniania się deepfake'ów, co czasami prowadzi do strat finansowych i reputacyjnych. Wielu ma nadzieję, że dzięki temu proces identyfikacji i zgłaszania deepfake'ów stanie się bardziej płynny.
Dwa narzędzia skupiają się na ochronie muzyków i osobistości publicznych
Firma wyjaśniła, że pracuje nad dwoma narzędziami. Pierwsze to narzędzie do identyfikacji głosu śpiewającego, które będzie częścią systemu YouTube Content ID. Ta funkcja automatycznie wykrywa treści generowane przez AI, symulujące głosy śpiewające innych osób na platformie i automatycznie je usuwa.
W przypadku drugiego narzędzia YouTube opracowuje technologię, która umożliwia popularnym osobom, takim jak twórcy, sportowcy, muzycy i artyści, wykrywanie i usuwanie deepfake'ów ich twarzy na platformie. Firma zauważyła, że te narzędzia, wraz z aktualizacjami prywatności i warunkami korzystania z usługi, wystarczą, aby chronić twórców.
Jednak celem YouTube nie jest powstrzymanie ludzi przed korzystaniem ze sztucznej inteligencji na swojej platformie; firma chce jedynie zapewnić odpowiedzialne korzystanie ze sztucznej inteligencji i umożliwić twórcom kontrolowanie wykorzystania ich wizerunku.
W artykule napisano:
„Uważamy, że AI powinna wzmacniać ludzką kreatywność, a nie ją zastępować. Jesteśmy zobowiązani do współpracy z naszymi partnerami, aby zapewnić, że przyszłe postępy wzmocnią ich głosy, i będziemy nadal rozwijać bariery ochronne, aby zająć się problemami i osiągnąć nasze wspólne cele”.
Tymczasem YouTube nie podał terminu, kiedy te funkcje zostaną udostępnione użytkownikom, zaznaczając jedynie, że narzędzie do wykrywania głosu śpiewającego wciąż wymaga dopracowania. Program pilotażowy ma ruszyć na początku 2025 roku.
YouTube promuje technologię zapobiegającą scrapowaniu danych przez AI
YouTube zasugerował również, że pracuje nad narzędziem, które uniemożliwi firmom AI korzystanie z treści na jego platformie w celu trenowania ich modeli bez zgody właścicieli. Widząc to jako poważny problem, platforma stwierdziła, że inwestuje w systemy, które będą wykrywać i blokować osobom trzecim pobieranie danych z jego platformy i naruszanie jego Warunków korzystania z usługi.
Jednak przyznało, że twórcy mogą chcieć współpracować z firmami AI. Dlatego pracuje nad sposobami, aby umożliwić twórcom YouTube kontrolowanie sposobu, w jaki osoby trzecie wykorzystują ich treści na platformie.
Pomimo twardego stanowiska YouTube wobec firm AI wykorzystujących jego treści do trenowania swoich modeli, platforma i jej spółka macierzysta, Google, wykorzystują te treści w tym samym celu, ale zgodnie z warunkami korzystania z usług. Planuje nadal wykorzystywać treści do odpowiedzialnego rozwijania narzędzi AI.