По данным Wall Street Journal, OpenAI, компания, ответственная за разработку ChatGPT, недавно подверглась серьезному нарушению безопасности, что вызвало обеспокоенность по поводу потенциальных рисков национальной безопасности. Инцидент, произошедший в начале прошлого года, выявил внутренние дискуссии между исследователями и сотрудниками, но не поставил под угрозу основной код системы OpenAI. Несмотря на серьезность инцидента, OpenAI предпочла не раскрывать его публично, и это решение привело к внутренней и внешней проверке.

Внутренние коммуникации OpenAI скомпрометированы

В начале 2023 года хакер взломал внутреннюю систему обмена сообщениями OpenAI и извлек подробную информацию о технологии искусственного интеллекта компании. По словам двух человек, знакомых с ситуацией, хакеры посетили онлайн-форум, где сотрудники обсуждали последние достижения в области искусственного интеллекта, но не взломали систему, в которой хранятся основные технологии.

Руководители OpenAI предпочитают не раскрывать это общественности

По данным источников, руководители OpenAI проинформировали сотрудников об этом на общем собрании, состоявшемся в штаб-квартире компании в Сан-Франциско в апреле 2023 года, также был проинформирован совет директоров. Несмотря на нарушение, руководители решили не уведомлять общественность, сославшись на то, что никакая информация о клиентах или партнерах не была скомпрометирована. Они оценили, что хакер был человеком, не имеющим связей с иностранным правительством, и не сообщил об этом правоохранительным органам, включая ФБР.

Обеспокоенность по поводу иностранного шпионажа растет

Нарушение усилило опасения среди сотрудников OpenAI, что иностранные противники, особенно Китай, могут украсть технологию искусственного интеллекта и поставить под угрозу национальную безопасность США. Инцидент также вызвал внутри компании дебаты об адекватности мер безопасности OpenAI, а также о более широких рисках, связанных с искусственным интеллектом.

Возникают проблемы с безопасностью ИИ

После инцидента руководитель технического проекта OpenAI Леопольд Ашенбреннер представил совету директоров записку, в которой выразил обеспокоенность по поводу уязвимости компании к шпионажу со стороны иностранных организаций. Позже Ашенбреннер был уволен из-за предполагаемой утечки информации. Он считает, что меры безопасности компании недостаточны для защиты от изощренных угроз со стороны иностранных субъектов.

Официальное заявление OpenAI

Представитель OpenAI Лиз Буржуа признала обеспокоенность Ашенбреннера, но заявила, что его уход не связан с поднятыми им вопросами. Она подчеркнула, что OpenAI стремится создать безопасный общий искусственный интеллект (AGI), но не согласилась с оценкой Ашенбреннером ее протоколов безопасности.

Технологический шпионаж в контексте китайско-американской войны

Опасения по поводу потенциальных связей с Китаем не беспочвенны. Например, президент Microsoft Брэд Смит недавно заявил, что китайские хакеры использовали системы компании для атак на федеральные сети. Однако юридические ограничения запрещают OpenAI дискриминировать при найме на работу по признаку национального происхождения, поскольку блокирование иностранных талантов может помешать прогрессу ИИ в США.

(От DEI или MEI: Почему политика найма ИИ-единорога ScaleAI заставляет Маска и Coinbase часто кивать?)

Важность разнообразных талантов

Мэтт Найт, руководитель службы безопасности OpenAI, подчеркнул, что привлечение лучших мировых специалистов необходимо, несмотря на риски. Он подчеркнул важность достижения баланса между проблемами безопасности и необходимостью инновационного мышления для развития технологий искусственного интеллекта.

Вся индустрия искусственного интеллекта сталкивается с проблемами

OpenAI — не единственная компания, сталкивающаяся с этими проблемами. Такие конкуренты, как Meta и Google, также разрабатывают мощные системы искусственного интеллекта, некоторые из которых имеют открытый исходный код, что способствует прозрачности и коллективному решению проблем в отрасли. Однако сохраняются опасения по поводу использования ИИ для введения в заблуждение информации и замены рабочих мест.

Оценка рисков национальной безопасности: ИИ может создать биологическое и химическое оружие

Некоторые исследования, проведенные такими компаниями, занимающимися искусственным интеллектом, как OpenAI и Anthropic, показали, что нынешняя технология искусственного интеллекта не представляет большого риска для национальной безопасности. Тем не менее, продолжаются дебаты о будущем потенциале ИИ для создания биологического и химического оружия или взлома правительственных систем. Такие компании, как OpenAI и Anthropic, активно решают эти проблемы, укрепляя свои протоколы безопасности и создавая комитеты, занимающиеся безопасностью ИИ.

Законодательные меры правительства: ограничения на некоторые технологии искусственного интеллекта

Федеральные законодатели и законодатели штатов рассматривают правила, которые будут ограничивать выпуск определенных технологий искусственного интеллекта и наказывать за вредное использование. Правила призваны снизить долгосрочные риски, хотя эксперты полагают, что потребуются годы, прежде чем появятся серьезные опасности, связанные с ИИ.

Прогресс Китая в области искусственного интеллекта

Китайские компании добиваются быстрого прогресса в технологиях искусственного интеллекта, а в Китае проживает большое количество ведущих мировых исследователей искусственного интеллекта. Такие эксперты, как Клеман Деланг из Hugging Face, полагают, что Китай вскоре может превзойти Соединенные Штаты в возможностях искусственного интеллекта.

Призыв к ответственной разработке ИИ

Даже если текущие шансы невелики, такие видные деятели, как Сьюзен Райс, призывают к серьезному рассмотрению наихудших сценариев развития ИИ, подчеркивая ответственность за устранение потенциально серьезных рисков.

Эта статья Wall Street Journal: Хакеры вторглись в OpenAI, вызвав обеспокоенность по поводу национальной безопасности. Впервые появилась на канале Chain News ABMedia.