Ujawnienie: Poglądy i opinie wyrażone tutaj należą wyłącznie do autora i nie reprezentują poglądów i opinii redakcji crypto.news.

Koncentracja rozwoju sztucznej inteligencji (AI) w rękach kilku potężnych korporacji budzi poważne obawy dotyczące prywatności indywidualnej i społecznej.

Dzięki możliwości przechwytywania zrzutów ekranu, rejestrowania naciśnięć klawiszy i ciągłego monitorowania użytkowników za pomocą obrazu komputerowego, firmy te mają niespotykany dotąd dostęp do naszego życia osobistego i poufnych informacji.

Może Cię również zainteresować: Zdecentralizowana sztuczna inteligencja: wykorzystanie blockchainu dla bardziej sprawiedliwej przyszłości | Opinia

Czy ci się to podoba, czy nie, Twoje prywatne dane są w rękach setek, jeśli nie tysięcy firm. Na rynku istnieją narzędzia, które pozwalają każdemu sprawdzić, ile firm ma swoje. Dla większości ludzi jest to kilkaset. Wraz z rozwojem sztucznej inteligencji jest tylko gorzej.

Firmy na całym świecie wdrażają technologię OpenAI do swojego oprogramowania, a wszystko, co wpiszesz, jest przetwarzane przez scentralizowane serwery OpenAI. Co więcej, pracownicy OpenAI ds. bezpieczeństwa opuszczają firmę.

A kiedy pobierzesz aplikację taką jak Facebook, można zebrać prawie 80% Twoich danych. Może to obejmować takie rzeczy, jak Twoje nawyki i hobby, zachowanie, orientacja seksualna, dane biometryczne i wiele innych.

Dlaczego firmy zbierają te wszystkie informacje?

Krótko mówiąc, może to być bardzo dochodowe. Rozważmy na przykład firmę zajmującą się handlem elektronicznym, która chce większej sprzedaży. Jeśli nie mają szczegółowych danych o swoich klientach, będą musieli polegać na szerokich, nieukierunkowanych kampaniach marketingowych.

Załóżmy jednak, że mają bogate profile danych na temat danych demograficznych, zainteresowań, wcześniejszych zakupów i zachowań klientów w Internecie. W takim przypadku mogą wykorzystać sztuczną inteligencję do dostarczania hipertargetowanych reklam i rekomendacji produktów, które zwiększają znacząco sprzedaż.

W miarę jak sztuczna inteligencja wkracza w każdy aspekt naszego życia, od reklam i mediów społecznościowych po bankowość i opiekę zdrowotną, rośnie ryzyko ujawnienia lub niewłaściwego wykorzystania poufnych informacji. Dlatego potrzebujemy poufnej sztucznej inteligencji.

Dylemat danych

Weź pod uwagę ogromne ilości danych osobowych, które każdego dnia powierzamy gigantom technologicznym, takim jak Google i OpenAI. Każde zapytanie, każdy e-mail, każda interakcja z asystentami AI – wszystko to jest rejestrowane i analizowane. Ich model biznesowy jest prosty: Twoje dane wprowadzane do wyrafinowanych algorytmów w celu kierowania reklam, polecania treści i utrzymywania interakcji z ich platformami.

Ale co się stanie, gdy posuniesz się do skrajności? Wielu z nas wchodzi w interakcję ze sztuczną inteligencją tak blisko, że zna ona nasze najgłębsze myśli, lęki i pragnienia. Dałeś mu wszystko o sobie, a teraz może symulować Twoje zachowanie z niesamowitą dokładnością. Giganci technologiczni mogą to wykorzystać, aby zmanipulować Cię, abyś kupował produkty, głosował w określony sposób, a nawet działał wbrew własnym interesom.

Na tym polega niebezpieczeństwo scentralizowanej sztucznej inteligencji. Kiedy garstka korporacji kontroluje dane i algorytmy, mają one ogromną władzę nad naszym życiem. Mogą kształtować naszą rzeczywistość, nawet nie zdając sobie z tego sprawy.

Lepsza przyszłość danych i sztucznej inteligencji

Odpowiedź na te obawy dotyczące prywatności leży w ponownym przemyśleniu podstawowej warstwy sposobu przechowywania i obliczania danych. Budując od podstaw systemy z nieodłącznymi funkcjami bezpieczeństwa i prywatności, możemy stworzyć lepszą przyszłość dla danych i sztucznej inteligencji, która szanuje prawa jednostki i chroni wrażliwe informacje. Jednym z takich rozwiązań jest zdecentralizowana, niezalogowana, prywatna sztuczna inteligencja obsługiwana przez poufne maszyny wirtualne (VM). Poufne maszyny wirtualne odgrywają kluczową rolę w zapewnianiu prywatności danych podczas przetwarzania AI. Te maszyny wirtualne zostały zaprojektowane do bezpiecznego przetwarzania i przechowywania wrażliwych danych przy użyciu zaufanych środowisk wykonawczych opartych na sprzęcie, aby zapobiegać nieautoryzowanemu dostępowi i naruszeniom danych.

Funkcje takie jak bezpieczna izolacja sprzętu, szyfrowanie podczas przesyłania i przechowywania, bezpieczne procesy rozruchu i zaufane środowiska wykonawcze (TEE) pomagają zachować poufność i integralność danych. Wykorzystując te technologie, firmy mogą zapewnić ochronę danych użytkowników na całym etapie przetwarzania AI, bez narażania prywatności.

Może Cię również zainteresować: Brakującym ogniwem w zdecentralizowanym Internecie jest poufność | Opinia

Dzięki takiemu podejściu zachowujesz pełną kontrolę nad swoimi danymi. Możesz wybrać, co chcesz udostępnić i komu. Osiągnięcie prawdziwie prywatnej i bezpiecznej sztucznej inteligencji to złożone wyzwanie wymagające innowacyjnych rozwiązań. Choć zdecentralizowane systemy są obiecujące, jedynie kilka projektów aktywnie pracuje nad rozwiązaniem tego problemu. LibertAI, projekt, w którym biorę udział, wraz z inicjatywami takimi jak Morfeusz, może badać zaawansowane techniki kryptograficzne i zdecentralizowane architektury, aby zapewnić, że dane pozostaną zaszyfrowane i pod kontrolą użytkownika w całym procesie przetwarzania AI. Wysiłki te stanowią ważny krok w kierunku wykorzystania potencjału poufnej sztucznej inteligencji.

Potencjalne zastosowania poufnej sztucznej inteligencji są ogromne. W opiece zdrowotnej mogłoby to umożliwić badania na dużą skalę wrażliwych danych medycznych bez narażania prywatności pacjentów. Badacze mogą wydobywać wnioski z milionów rekordów, zapewniając jednocześnie bezpieczeństwo poszczególnych danych.

W finansach poufna sztuczna inteligencja może pomóc w wykrywaniu oszustw i prania pieniędzy bez ujawniania osobistych informacji finansowych. Banki mogłyby udostępniać dane i współpracować nad modelami sztucznej inteligencji bez obawy o wycieki i naruszenia. A to dopiero początek. Od spersonalizowanej edukacji po ukierunkowane reklamy – poufna sztuczna inteligencja może otworzyć cały świat możliwości, stawiając prywatność na pierwszym miejscu. W świecie web3 autonomiczni agenci mogliby przechowywać klucze prywatne i bezpośrednio podejmować działania na blockchainie.

Wyzwania

Oczywiście wykorzystanie pełnego potencjału poufnej sztucznej inteligencji nie będzie łatwe. Należy pokonać wyzwania techniczne, takie jak zapewnienie integralności zaszyfrowanych danych i zapobieganie wyciekom podczas przetwarzania.

Istnieją również przeszkody regulacyjne, które należy pokonać. Przepisy dotyczące prywatności danych i sztucznej inteligencji wciąż ewoluują, a firmy będą musiały postępować ostrożnie, aby zachować zgodność. RODO w Europie i HIPAA w USA to tylko dwa przykłady złożonego krajobrazu prawnego.

Jednak być może największym wyzwaniem jest zaufanie. Aby poufna sztuczna inteligencja mogła się sprawdzić, ludzie muszą wierzyć, że ich dane będą naprawdę bezpieczne. Będzie to wymagało nie tylko rozwiązań technologicznych, ale także przejrzystości i jasnej komunikacji ze strony stojących za nimi firm.

Droga przed nami

Pomimo wyzwań przyszłość poufnej sztucznej inteligencji rysuje się w jasnych barwach. W miarę jak coraz więcej branż zdaje sobie sprawę ze znaczenia prywatności danych, zapotrzebowanie na bezpieczne rozwiązania AI będzie tylko rosło.

Firmy, które będą w stanie spełnić obietnicę dotyczącą poufnej sztucznej inteligencji, zyskają znaczną przewagę konkurencyjną. Będą mogli uzyskać dostęp do ogromnych zasobów danych, które wcześniej były niedostępne ze względu na obawy dotyczące prywatności. Będą mogli to zrobić dzięki zaufaniu i pewności swoich użytkowników.

Ale nie chodzi tu tylko o możliwości biznesowe. Chodzi o budowanie ekosystemu sztucznej inteligencji, który stawia ludzi na pierwszym miejscu. Takie, które szanuje prywatność jako prawo podstawowe, a nie refleksję.

W miarę jak zmierzamy w stronę przyszłości w coraz większym stopniu opartej na sztucznej inteligencji, poufna sztuczna inteligencja może okazać się kluczem do uwolnienia jej pełnego potencjału przy jednoczesnym zapewnieniu bezpieczeństwa naszych danych. To wygrana dla obu stron, której nie możemy zignorować.

Przeczytaj więcej: Blockchain może uwolnić nas od koszmarów inwigilacji w Internecie | Opinia

Autor: Jonathan Schemoul

Jonathan Schemoul to przedsiębiorca technologiczny, dyrektor generalny Twentysix Cloud, aleph.im i członek-założyciel LibertAI. Jest starszym programistą zajmującym się blockchainem i sztuczną inteligencją, specjalizującym się w zdecentralizowanym przetwarzaniu w chmurze, IoT, systemach finansowych i skalowalnych zdecentralizowanych technologiach dla web3, gier i sztucznej inteligencji. Jonathan jest także doradcą dużych francuskich instytucji finansowych i przedsiębiorstw, takich jak Ubisoft, zajmującym się zarządzaniem i promowaniem regionalnych innowacji.