OpenAI niedawno wprowadziło GPT-4o, swój najnowszy model sztucznej inteligencji, który zawiera funkcje tekstowe, wokalne i wizualne. Reklamowany jako znaczący postęp w stosunku do swoich poprzedników pod względem szybkości i funkcjonalności, GPT-4o jest oferowany użytkownikom za darmo.  Jednak ta bezpłatna usługa ma ukryty koszt: dane użytkowników.

Przeczytaj także: OpenAI przedstawia ChatGPT-4o: bezpłatny dostęp z ograniczeniami

„Będzie bezpłatne dla wszystkich użytkowników, a płatni użytkownicy będą nadal mieli do pięciu razy większą pojemność niż użytkownicy bezpłatni”.

CTO OpenAI Mira Murati 

Narzędzie AI przechwytuje treści stron trzecich, budząc obawy dotyczące prywatności

GPT-4o gromadzi obszerne dane użytkownika, w tym teksty, nagrania audio i obrazy. To gromadzenie danych wykracza poza dane użytkownika i obejmuje dane innych stron biorących udział w interakcji. Na przykład, gdy użytkownik przesyła zrzut ekranu artykułu z New York Times w celu podsumowania, OpenAI przechowuje zawartość zrzutu ekranu chronioną prawem autorskim. Praktyka ta jest również dość problematyczna z punktu widzenia prywatności i praw autorskich, gdyż użytkownicy często nie są świadomi, że udostępniają dane, które do nich nie należą.

Przeczytaj także: Czy bezpieczeństwo w OpenAI zeszło na drugi plan?

„GPT-4o pochłania nie tylko informacje o użytkownikach, ale także dane osób trzecich, które ujawniają się podczas interakcji z usługą AI.”

Strateg

OpenAI obejmuje „kapitalizm inwigilacyjny” – czerpie zyski z danych

Ze względu na niedobór odpowiednich danych szkoleniowych spada również jakość danych szkoleniowych. W związku z tym OpenAI zastosowało kilka podejść do pozyskiwania danych. Jak donosi „The New York Times”, OpenAI dokonało transkrypcji ponad miliona godzin filmów na YouTube, co było niezgodne z zasadami YouTube pod koniec 2021 roku. 

Chociaż Google, właściciel YouTube, nie złożył pozwu, być może dlatego, że również gromadzi dane, ta sprawa pokazuje, jak daleko firmy AI są skłonne się posunąć, aby uzyskać dane.

Źródło: Hype Insights

W szczególności dzięki GPT-4o OpenAI szybko gromadzi dużą ilość danych multimodalnych generowanych przez użytkowników, stosując podobne podejście do modeli biznesowych we-media. W tym modelu platformy technologiczne oferują produkty i usługi za darmo i zarabiają pieniądze, gromadząc dane użytkowników. Podejście to odzwierciedla ogólne trendy „kapitalizmu nadzoru”, w którym firmy czerpią korzyści z inwigilacji celów.

„The Times” stwierdził, że choć użytkownicy wyrazili zgodę na takie działania, kwestie dotyczące naruszeń praw autorskich pozostają aktualne. Może to prowadzić do udostępniania danych, których użytkownicy nie posiadają, stwarzając w ten sposób problemy dla twórców treści. Wyniki sztucznej inteligencji są często nie do rozpoznania na podstawie oryginalnego zbioru danych, co utrudnia właścicielowi praw autorskich wykrycie naruszenia. 

Twórcy treści podejmują działania i zakazują wykorzystywania ich pracy przez sztuczną inteligencję

Wykorzystywanie sztucznej inteligencji do nieautoryzowanych szkoleń stanowi realny problem, dlatego twórcy i wydawcy treści zaczynają podejmować środki zabezpieczające. Niektórzy stosują środki technologiczne, aby zapobiec kradzieży danych, podczas gdy inni zmieniają warunki świadczenia usług, aby zakazać wykorzystywania ich treści do tworzenia sztucznej inteligencji. Niedawno firma Sony Music wystosowała pisma do ponad 700 firm zajmujących się generatywną sztuczną inteligencją i usługami transmisji strumieniowej, prosząc o zaprzestanie działalności.

Przeczytaj także: Wybitni muzycy żądają zabezpieczeń przed wtargnięciem sztucznej inteligencji

Co więcej, ponad 200 muzyków, w tym Billie Eilish, Katy Perry i Smokey Robinson, podpisało list otwarty do twórców sztucznej inteligencji, firm technologicznych i platform cyfrowych. W piśmie żądają, aby firmy „zaprzestały wykorzystywania sztucznej inteligencji (AI) do naruszania i dewaluacji praw ludzkich artystów”.

Jak wcześniej informował Cryptopolitan, ChatGPT przestał działać we wtorek wcześnie, a użytkownicy nie mogli uzyskać dostępu do innowacyjnego narzędzia sztucznej inteligencji przez kilka godzin. Awaria rozpoczęła się o godzinie 00:PDT i była słyszana głównie od społeczności użytkowników urządzeń mobilnych, zwłaszcza tych, którzy korzystają z aplikacji ChatGPT na Androida. Według DownDetector większość problemów wystąpiła w produkcie ChatGPT, a nie w interfejsie strony internetowej lub aplikacji mobilnej

Kryptopolityczne raporty Brendy Kanany