Dario Amodei, dyrektor generalny Anthropic, niedawno wspomniał, że firmy zajmujące się sztuczną inteligencją powinny przechodzić obowiązkowe wymagania dotyczące testowania. Dotyczy to również jego własnej firmy, Anthropic. Celem jest zapewnienie, że te technologie są bezpieczne dla ogółu społeczeństwa przed ich wprowadzeniem na rynek.
Amodei odpowiadał na pytanie na szczycie bezpieczeństwa AI, który niedawno odbył się w San Francisco, organizowanym przez amerykańskie Departamenty Handlu i Stanu. W swojej odpowiedzi dyrektor generalny stwierdził: „Myślę, że absolutnie musimy uczynić testowanie obowiązkowym, ale musimy również być bardzo ostrożni w tym, jak to robimy.”
Te uwagi następują po wydaniu przez brytyjskie i amerykańskie Instytuty Bezpieczeństwa AI wyników testów modelu Claude 3.5 Sonnet firmy Anthropic. Testy te przeprowadzono w różnych kategoriach, które obejmują zastosowania biologiczne i cyberbezpieczeństwo. Wcześniej zarówno OpenAI, jak i Anthropic zgodziły się na przedłożenie swoich modeli agencjom rządowym.
Główne firmy, takie jak Anthropic, przestrzegają samodzielnie nałożonych zasad bezpieczeństwa
Amodei wspomniał, że główne firmy dobrowolnie zgodziły się na pewne samodzielnie nałożone wytyczne. Obejmuje to ramy przygotowania OpenAI oraz politykę odpowiedzialnego skalowania Anthropic. Dodał jednak, że potrzebna jest dalsza praca, aby zapewnić bezpieczeństwo.
„Nie ma nic, co naprawdę weryfikowałoby lub zapewniało, że firmy naprawdę przestrzegają tych planów w literze i duchu. Po prostu powiedzieli, że będą,” powiedział Amodei. Dodał również: „Myślę, że sama publiczna uwaga i to, że pracownicy się tym interesują, wywołały pewną presję, ale ostatecznie uważam, że to nie będzie wystarczające.”
Amodei wierzy, że potężne systemy AI mają zdolność do przewyższania najinteligentniejszych ludzi. Uważa również, że takie systemy mogą stać się dostępne do 2026 roku. Dodaje, że firmy zajmujące się AI wciąż testują pewne katastrofalne zagrożenia i zagrożenia biologiczne, z których żadne obecnie nie są realne. Niemniej jednak, te hipotetyczne testy mogą stać się rzeczywistością znacznie wcześniej.
Ostrzegł również, że wymagania dotyczące testowania systemów AI powinny być elastyczne, biorąc pod uwagę, że technologia się rozwija. W jego słowach, to bardzo trudny „problem społeczno-polityczny” do rozwiązania.
System krok po kroku do rozpoczęcia kariery w Web3 i zdobywania wysoko płatnych pracy w kryptowalutach w 90 dni.