Несколько нынешних и бывших сотрудников OpenAI и Google DeepMind обвинили свои компании в сокрытии рисков ИИ, которые потенциально могут спровоцировать вымирание человечества. В открытом письме рабочие заявили, что компании, занимающиеся искусственным интеллектом, ставят прибыль на первое место, избегая при этом «эффективного [правительственного] надзора».

Читайте также: OpenAI выбирает преемника GPT-4 из-за проблем с безопасностью

Открытое письмо было подписано 11 бывшими сотрудниками OpenAI, двое из Google DeepMind, и одобрено «крестным отцом ИИ» Джеффри Хинтоном, ранее работавшим в Google. В нем говорится, что мотивы получения прибыли и лазейки в регулировании позволяют компаниям скрывать угрозы, исходящие от передового искусственного интеллекта.

ИИ может привести к «вымиранию человечества»

Согласно письму, такие компании, занимающиеся искусственным интеллектом, как OpenAI и Google DeepMind, создатель Gemini, не делились публично информацией о недостаточной защите и уровнях риска своих систем, поскольку от них не требуется этого.

Без надзора со стороны регулирующих органов программы искусственного интеллекта могут нанести серьезный вред людям. Сотрудники предупредили:

«Эти риски варьируются от дальнейшего усиления существующего неравенства… до потери контроля над автономными системами искусственного интеллекта, что потенциально может привести к исчезновению человечества».

Как отметили подписавшие письмо, сами компании, занимающиеся искусственным интеллектом, признали эти риски. В мае 2023 года генеральные директора OpenAI, Anthropic и Google DeepMind подписали открытое письмо Центра безопасности ИИ. В письме просто говорилось: «Снижение риска исчезновения ИИ должно стать глобальным приоритетом наряду с другими рисками социального масштаба, такими как пандемии и ядерная война».

Компании, занимающиеся искусственным интеллектом, все чаще подвергаются пристальному вниманию из-за того, что ставят новые продукты и получение прибыли выше безопасности и защищенности. Производитель ChatGPT, компания OpenAI, отметила обеспокоенность, высказанную в письме, и заявила, что работает над разработкой безопасного искусственного интеллекта.

«Мы гордимся своим опытом создания наиболее эффективных и безопасных систем искусственного интеллекта. системы и верим в наш научный подход к устранению рисков», — заявила New York Times пресс-секретарь OpenAI Линдси Хелд.

«Мы согласны с тем, что тщательное обсуждение имеет решающее значение, учитывая значимость этой технологии, и мы продолжим взаимодействовать с правительствами, гражданским обществом и другими сообществами по всему миру».

Информаторы опасаются возмездия

Бывшие сотрудники OpenAI и Google заявили, что хотели бы выполнять надзорную роль, пока регулирующие органы разрабатывают законы, которые обязывают разработчиков ИИ публично раскрывать больше информации о своих программах.

Однако соглашения о конфиденциальности и вероятность ответных мер со стороны работодателей не позволяют работникам публично выражать свои опасения. Согласно письму:

«Некоторые из нас обоснованно опасаются различных форм возмездия, учитывая историю подобных случаев в отрасли. Мы не первые, кто сталкивается с этими проблемами или говорит об этом».

Информаторы защищены законом в США, но те, кто говорит об опасностях искусственного интеллекта, не защищены, поскольку технология еще не регулируется.

Также читайте: ChatGPT по-прежнему распространяет ложь, говорит наблюдатель за данными ЕС

В письме содержится призыв к компаниям, занимающимся искусственным интеллектом, обеспечить проверяемую анонимность обратной связи, поддерживать культуру открытой критики и не принимать ответных мер против информаторов.

Исследователь искусственного интеллекта Лэнс Б. Элиот говорит, что компании применяют к критике метод кнута и пряника. Сотрудники, которые не высказываются против рисков, вознаграждаются продвижением по службе и повышением заработной платы.

С другой стороны, разоблачители и критики теряют свои опционы на акции и могут быть вынуждены покинуть компанию и молча занесены в черный список лидерского сообщества ИИ.

Криптополитические репортажи Джеффри Гого