Демократы Сената и один независимый депутат направили письмо генеральному директору OpenAI Сэму Альтману относительно стандартов безопасности компании и практики трудоустройства по отношению к информаторам.

Вероятно, наиболее важной частью письма, впервые полученного The Washington Post, был пункт 9, который гласил: «Обязуется ли OpenAI предоставить свою следующую базовую модель правительственным учреждениям США для тестирования, проверки, анализа и оценки перед развертыванием?» ?»

В письме изложены 11 дополнительных пунктов, которые необходимо решить, в том числе обеспечение обязательства OpenAI выделить 20% своих вычислительных мощностей для поддержки исследований в области безопасности и протоколов, чтобы предотвратить кражу продуктов искусственного интеллекта у OpenAI злоумышленником или иностранным противником.

Регулирующий контроль

Хотя контроль со стороны регулирующих органов не является чем-то новым для OpenAI и охватывающего его сектора искусственного интеллекта, письмо законодателей-демократов было вызвано сообщениями осведомителей о слабых стандартах безопасности для GPT-4 Omni, призванных гарантировать, что выпуск продукта на рынок не будет отложен.

Связано: Synchron, ChatGPT, чтобы помочь парализованным пациентам снова общаться в чате и отправлять текстовые сообщения

Информаторы OpenAI также заявили, что попытки довести до сведения руководства проблемы безопасности были встречены ответными мерами и предположительно незаконными соглашениями о неразглашении, что побудило осведомителей подать жалобу в Комиссию по ценным бумагам и биржам в июне 2024 года.

Вскоре после того, как в июле технологические гиганты Microsoft и Apple отказались от членства в совете директоров OpenAI из-за усиления контроля со стороны регулирующих органов, решение не занимать место в совете директоров было принято, несмотря на инвестиции Microsoft в OpenAI в размере 13 миллиардов долларов в 2023 году.

Экзистенциальные страхи сохраняются

Бывший сотрудник OpenAI Уильям Сондерс недавно сообщил, что он покинул компанию, потому что чувствовал, что текущие исследования в OpenAI могут представлять существенную угрозу человечеству, сравнив потенциальную траекторию OpenAI с печально известной катастрофой Титаника в 1912 году.

Сондерс пояснил, что его не беспокоит текущая версия модели большого языка ChatGPT OpenAI, а больше интересуют будущие версии ChatGPT и потенциальное развитие продвинутого сверхчеловеческого интеллекта.

Информатор утверждал, что сотрудники, работающие в секторе искусственного интеллекта, имеют право предупреждать общественность о потенциально опасных возможностях, проявляемых быстрым развитием синтетического интеллекта.

Журнал: AI Eye: представляет ли ИИ угрозу ядерного уровня? Почему все поля ИИ продвигаются одновременно, глупые каламбуры