Компании по искусственному интеллекту OpenAI и Anthropic недавно согласились предоставить Институту безопасности ИИ США ранний доступ к любым «значимым» новым моделям ИИ, которые они разрабатывают, сообщает Cointelegraph.
Хотя соглашение якобы было подписано из соображений общей безопасности, неясно, какова будет конкретная роль правительства, когда технологические прорывы будут иметь серьезные последствия для безопасности.
Генеральный директор и соучредитель OpenAI Сэм Альтман заявил на платформе социальных сетей X, что соглашение является необходимым шагом, и подчеркнул необходимость того, чтобы Соединенные Штаты продолжали лидировать на национальном уровне.
И OpenAI, и Anthropic стремятся развивать общий искусственный интеллект (AGI), то есть ИИ, который может выполнить любую задачу с помощью человеческих ресурсов. У каждой компании есть собственный устав и миссия по безопасному созданию ОИИ, в основе которого лежит польза для человека.
Подписывая соглашение с правительством США о раскрытии своих моделей до выпуска продукта, компании передают эту ответственность федеральному правительству.
OpenAI, возможно, находится на грани прорыва: его проекты «Клубника» и «Орион», как сообщается, способны к продвинутому рассуждению и решению проблем галлюцинаций в ИИ, сообщает Cointelegraph. Правительство США уже видело эти инструменты и их ранние внутренние версии в ChatGPT.
В блоге Национального института стандартов и технологий указывается, что соглашение и связанные с ним рекомендации по безопасности являются добровольными для участвующих компаний. Сторонники утверждают, что такое мягкое регулирование способствует росту и позволяет отрасли регулировать себя.
Однако одной из потенциальных проблем легкого регулирования является отсутствие прозрачности. Если OpenAI или Anthropic добьются успеха, закон не будет требовать раскрытия информации, если правительство решит, что общественность не должна знать об этом.