Zarówno sztuczna inteligencja, jak i kryptowaluty działają z zawrotną szybkością i mają charakter głęboko techniczny, co utrudnia ich regulację, ale sygnaliści są uciszani.

Kolejny tydzień i kolejne ostrzeżenie przed sztuczną inteligencją.

Jednak ten list otwarty – wyrażający obawy, że może on pogłębić nierówności, podsycić dezinformację i doprowadzić do powstania niekontrolowanych systemów sztucznej inteligencji, które „potencjalnie mogą doprowadzić do wyginięcia ludzkości” – uderzył inaczej.

Dlaczego? Ponieważ czterech anonimowych sygnatariuszy to obecni pracownicy OpenAI, twórcy niezwykle popularnego ChatGPT. Pracowało tam sześć innych osób.

Znaczący jest fakt, że tak wiele osób ściśle zaangażowanych w udostępnianie sztucznej inteligencji masom obawia się o przyszłość. Chociaż wierzą, że ta wciąż rodząca się technologia może zapewnić ludzkości „bezprecedensowe korzyści”, obawiają się, że społeczeństwo – i organy regulacyjne – nie rozumieją pełnego obrazu sytuacji.

„Firmy zajmujące się sztuczną inteligencją posiadają istotne, niepubliczne informacje na temat możliwości i ograniczeń swoich systemów, adekwatności stosowanych przez nie środków ochronnych oraz poziomów ryzyka różnych rodzajów szkód. Jednakże obecnie mają one jedynie niewielkie obowiązki w zakresie udostępniania części tych informacji rządom, a żadnego ze społeczeństwem obywatelskim. Nie sądzimy, aby można było na nich polegać, że podzielą się nimi dobrowolnie”.

Prawo do ostrzeżenia

Podobieństwa między sztuczną inteligencją a przestrzenią kryptograficzną są dość wyraźne. Obie branże rozwijają się z zawrotną szybkością i mają charakter głęboko techniczny. Stwarza to ogromne przeszkody zarówno dla rządów, jak i organów regulacyjnych. Po pierwsze, niektórym politykom może być trudno zająć się samą kwestią. Wystarczy zapytać przedstawiciela USA Brada Shermana, który niesławnie nazwał twórcę Bitcoina „Saratoshi Nagamoto”. 

https://twitter.com/guti_uno/status/1684383259025883137

Od tego momentu trudno jest przygotować wykształcone przepisy, które zachęcałyby do innowacji wśród dobrych aktorów, a jednocześnie powstrzymywały przestępczość wśród złych. Zanim władze nadrobią zaległości, takie branże są często tak nierozpoznawalne, że przedstawiane przepisy nie odzwierciedlają realiów wykorzystania danej technologii… i obszarów, w których leży największe ryzyko. Wymowne jest, że w USA nadal istnieje znaczny paraliż regulacyjny dotyczący kryptowalut – ponad 15 lat po pierwszym uruchomieniu Bitcoina.

Jak zauważono w liście otwartym dotyczącym sztucznej inteligencji, brak skutecznego nadzoru ze strony rządu oznacza, że ​​istnieje ogromna zależność od sygnalistów w firmach, którzy pociągają ich do odpowiedzialności. Jedna z największych obaw autorów dotyczy tego, jak umowy o zachowaniu poufności skutecznie uniemożliwiają im zabieranie głosu.

„Zwykła ochrona sygnalistów jest niewystarczająca, ponieważ koncentruje się na nielegalnej działalności, podczas gdy wiele zagrożeń, które nas niepokoją, nie zostało jeszcze uregulowanych. Niektórzy z nas słusznie obawiają się różnych form odwetu.”

Prawo do ostrzeżenia

Ponownie istnieje tu symetria między sztuczną inteligencją a kryptowalutami – o czym świadczy niedawny, dogłębny i potępiający raport opublikowany przez niezależnego eksperta, którego zadaniem było zbadanie implozji FTX w 2022 r. W tym przypadku stwierdzono, że sześciu anonimowych sygnalistów posiadających uzasadnione obawy zostały spłacone kwotą 25 milionów dolarów. Jednemu z nich kazano przeprosić przebywającego w więzieniu dyrektora generalnego Sama Bankmana-Frieda, co ostatecznie doprowadziło do ugody w wysokości 16 milionów dolarów po rezygnacji ze stanowiska.

Chociaż branża kryptowalut poczyniła obiecujące postępy w naprawie błędów z przeszłości po szeregu bankructw w ostatnich latach – wśród nich BlockFi, Voyager i Celsjusza – można argumentować, że pozostaje jeszcze wiele do zrobienia. To sprawia, że ​​cztery zobowiązania wymagane od firm zajmujących się sztuczną inteligencją w tym liście otwartym mają szczególne zastosowanie w sektorze aktywów cyfrowych.

Do wiodących firm zajmujących się sztuczną inteligencją wzywa się, aby powstrzymały się od egzekwowania klauzul zabraniających przekazywania krytyki pracownikom zaniepokojonym pojawiającym się ryzykiem, a także do wprowadzenia anonimowych procedur, aby można było zgłaszać wątpliwości zarządom, organom regulacyjnym i ekspertom. Niektórych z największych kontrowersji wokół kryptowalut można było uniknąć, gdyby obowiązywały podobne zabezpieczenia.

Oprócz przyjęcia kultury otwartej krytyki wzywa się liderów zajmujących się sztuczną inteligencją, aby przysięgli, że nie podejmą działań odwetowych wobec pracowników, którzy ujawniają poufne informacje po wyczerpaniu wszystkich innych możliwości eskalacji problemu.

Nie jest jasne, jak bardzo ten list otwarty poruszy igłę w dążeniu do uregulowania sztucznej inteligencji. Można też coś powiedzieć na temat nieodłącznej przejrzystości technologii blockchain, w której przepływ środków – i zapisy transakcji – można monitorować w czasie rzeczywistym. Duże modele językowe, zwykle budowane za zamkniętymi drzwiami, są w porównaniu z nimi znacznie bardziej nieprzejrzyste.

Jednak konsekwencje zaniechania działań i potencjalne szkody, na jakie narażają się zwykli konsumenci, są jednakowo poważne w obu branżach. Zbyt wielu inwestorów kryptowalut straciło oszczędności swojego życia, ponieważ nie zostali odpowiednio poinformowani o ryzyku – z powodu braku koordynacji między międzynarodowymi organami regulacyjnymi, aby zapobiec pozostaniu bez kontroli złych aktorów na morzu. A w miarę jak sztuczna inteligencja z każdym dniem staje się coraz mądrzejsza i bardziej intuicyjna w obsłudze, zagrożone mogą być także źródła utrzymania milionów ciężko pracujących ludzi.

Może cię zainteresować także: Kraken i Binance pozwani na 13 miliardów dolarów. Dlaczego?