Kilku obecnych i byłych pracowników OpenAI i Google DeepMind oskarżyło swoje firmy o ukrywanie zagrożeń związanych ze sztuczną inteligencją, które mogą potencjalnie spowodować wyginięcie ludzkości. W liście otwartym pracownicy zarzucili, że firmy zajmujące się sztuczną inteligencją stawiają zysk na pierwszym miejscu, unikając „skutecznego nadzoru [rządowego]”.

Przeczytaj także: OpenAI szykuje następcę GPT-4 ze względów bezpieczeństwa

List otwarty został podpisany przez 11 byłych pracowników OpenAI, dwóch z Google DeepMind i poparty przez „ojca chrzestnego AI” Geoffreya Hintona, dawniej Google. Stwierdzono, że motywacja zysku i luki w przepisach pozwalają firmom ukrywać zagrożenia stwarzane przez zaawansowaną sztuczną inteligencję.

Sztuczna inteligencja może doprowadzić do „wyginięcia ludzkości”

Z pisma wynika, że ​​firmy zajmujące się sztuczną inteligencją, takie jak OpenAI i Google DeepMind, twórca Gemini, nie udostępniły publicznie informacji o nieodpowiednich zabezpieczeniach i poziomach ryzyka swoich systemów, ponieważ nie są do tego zobowiązane.

Bez nadzoru regulacyjnego programy sztucznej inteligencji mogą wyrządzić ludziom poważne szkody. Pracownicy ostrzegali:

„Zagrożenia te obejmują dalsze pogłębianie się istniejących nierówności… aż po utratę kontroli nad autonomicznymi systemami sztucznej inteligencji, która może skutkować wyginięciem ludzkości”.

Jak zauważyli sygnatariusze listu, same firmy zajmujące się sztuczną inteligencją przyznały się do tego ryzyka. W maju 2023 roku dyrektorzy generalni OpenAI, Anthropic i Google DeepMind podpisali list otwarty Centrum Bezpieczeństwa AI. W liście czytamy po prostu: „Ograniczenie ryzyka wyginięcia spowodowanego sztuczną inteligencją powinno być globalnym priorytetem, obok innych zagrożeń na skalę społeczną, takich jak pandemie i wojna nuklearna”.

Firmy zajmujące się sztuczną inteligencją są coraz częściej przedmiotem kontroli ze względu na przedkładanie nowatorskich produktów i zysków nad bezpieczeństwo i ochronę. Twórca ChatGPT, firma OpenAI, odnotowała obawy wyrażone w piśmie i oświadczyła, że ​​pracuje nad opracowaniem bezpiecznej sztucznej inteligencji.

„Jesteśmy dumni z naszych osiągnięć w dostarczaniu najbardziej wydajnych i najbezpieczniejszych rozwiązań AI. systemów i wierzymy w nasze naukowe podejście do radzenia sobie z ryzykiem” – powiedziała dziennikowi New York Times rzeczniczka OpenAI Lindsey Held.

„Zgadzamy się, że rygorystyczna debata ma kluczowe znaczenie, biorąc pod uwagę znaczenie tej technologii, i będziemy nadal współpracować z rządami, społeczeństwem obywatelskim i innymi społecznościami na całym świecie”.

Sygnaliści boją się odwetu

Byli pracownicy OpenAI i Google oświadczyli, że chcieliby objąć rolę nadzorczą do czasu, aż organy regulacyjne opracują przepisy zobowiązujące twórców sztucznej inteligencji do publicznego ujawniania większej ilości informacji o swoich programach.

Jednakże umowy o zachowaniu poufności i prawdopodobieństwo odwetu ze strony pracodawców zniechęcają pracowników do publicznego wyrażania swoich obaw. Zgodnie z listem:

„Niektórzy z nas zasadnie obawiają się różnych form odwetu, biorąc pod uwagę historię takich przypadków w branży. Nie jesteśmy pierwszymi, którzy spotykają się z tymi kwestiami lub o nich mówią”.

Sygnaliści są chronieni przez prawo w USA, ale ci, którzy wypowiadają się na temat zagrożeń związanych ze sztuczną inteligencją, nie są objęci tą ochroną, ponieważ technologia ta nie została jeszcze uregulowana.

Przeczytaj także: ChatGPT nadal rozpowszechnia kłamstwa, twierdzi unijny organ nadzoru danych

W piśmie wezwano firmy zajmujące się sztuczną inteligencją do zapewniania weryfikowalnych, anonimowych informacji zwrotnych, wspierania kultury otwartej krytyki i niestosowania odwetu wobec sygnalistów.

Badacz sztucznej inteligencji, Lance B. Eliot, powiedział, że firmy podchodzą do krytyki kija i marchewki. Pracownicy, którzy nie wypowiadają się przeciwko ryzyku, są nagradzani awansami i podwyżkami.

Z drugiej strony sygnaliści i krytycy tracą opcje na akcje i mogą zostać wyrzuceni z firmy i po cichu umieszczeni na czarnej liście społeczności przywódców AI.

Raportowanie kryptopolityczne autorstwa Jeffreya Gogo