Amerykański Instytut Bezpieczeństwa Sztucznej Inteligencji, będący częścią Narodowego Instytutu Standardów i Technologii (NIST) podlegającego Departamentowi Handlu Stanów Zjednoczonych, ogłosił nowe umowy mające na celu wzmocnienie badań i oceny bezpieczeństwa AI. Umowy te, sformalizowane za pośrednictwem Memoranda of Understanding (MOU), ustanawiają ramy współpracy z dwiema wiodącymi firmami AI, Anthropic i OpenAI. Partnerstwa mają na celu ułatwienie dostępu do nowych modeli AI od obu firm, umożliwiając instytutowi przeprowadzanie dokładnych ocen zarówno przed, jak i po publicznym udostępnieniu tych modeli.

Porozumienia o współpracy umożliwiają U.S. AI Safety Institute prowadzenie wspólnych badań z Anthropic i OpenAI, skupiając się na ocenie możliwości AI i identyfikacji zagrożeń bezpieczeństwa. Oczekuje się, że ta współpraca rozwinie metodologie łagodzenia potencjalnych zagrożeń związanych z zaawansowanymi systemami AI. Elizabeth Kelly, dyrektor U.S. AI Safety Institute, podkreśliła, że ​​bezpieczeństwo jest kluczowym elementem innowacji technologicznych i wyraziła oczekiwanie na nadchodzącą współpracę techniczną z tymi firmami AI. Zauważyła, że ​​umowy te stanowią ważny kamień milowy w trwających wysiłkach instytutu na rzecz odpowiedzialnego rozwoju AI.

Oprócz tych współprac, U.S. AI Safety Institute przekaże informacje zwrotne zarówno Anthropic, jak i OpenAI na temat możliwych ulepszeń bezpieczeństwa ich modeli. Prace te będą prowadzone w ścisłej współpracy z U.K. AI Safety Institute, odzwierciedlając szersze międzynarodowe wysiłki na rzecz zapewnienia bezpiecznego i godnego zaufania rozwoju technologii AI.

Działania U.S. AI Safety Institute mają swoje korzenie w długiej historii NIST w zakresie rozwoju nauki o pomiarach, technologii i standardów. Oceny przeprowadzane na podstawie tych umów przyczynią się do szerszych inicjatyw NIST w zakresie AI, które są zgodne z rozporządzeniem wykonawczym administracji Bidena-Harrisa w sprawie AI. Celem jest wspieranie bezpiecznego, pewnego i godnego zaufania rozwoju systemów AI, w oparciu o dobrowolne zobowiązania złożone przez wiodących programistów AI administracji.

Według raportu Reutersa, w środę kalifornijscy ustawodawcy zatwierdzili kontrowersyjny projekt ustawy o bezpieczeństwie AI, który teraz czeka na decyzję gubernatora Gavina Newsoma. Newsom, demokrata, ma czas do 30 września, aby zawetować projekt ustawy lub podpisać go jako prawo. Ustawa nakazuje testy bezpieczeństwa i inne zabezpieczenia dla modeli AI przekraczających określone koszty lub moc obliczeniową, co zdaniem niektórych firm technologicznych może utrudniać innowacje.

Wyróżniony obraz za pośrednictwem Pixabay