TLDR

  • В начале 2023 года OpenAI столкнулась с нарушением безопасности, когда хакер получил доступ к внутренним системам обмена сообщениями.

  • Хакер украл подробности о разработке технологий искусственного интеллекта OpenAI из обсуждений сотрудников, но не украл основной код искусственного интеллекта.

  • OpenAI не раскрыла публично информацию о взломе и не сообщила о нем правоохранительным органам, полагая, что это не представляет угрозы национальной безопасности.

  • Инцидент вызвал у некоторых сотрудников обеспокоенность по поводу потенциальной уязвимости перед иностранными противниками, такими как Китай.

  • Нарушение возобновило дебаты о безопасности ИИ, прозрачности и потенциальных последствиях для национальной безопасности.

Выяснилось, что OpenAI, создатель ChatGPT, в начале 2023 года подвергся серьезному нарушению безопасности.

Согласно сообщению New York Times, хакер получил доступ к внутренним системам обмена сообщениями компании и украл подробности о разработке технологий искусственного интеллекта OpenAI.

Взлом, произошедший в апреле 2023 года, позволил злоумышленнику получить доступ к онлайн-форуму, где сотрудники обсуждали новейшие технологии OpenAI.

Хотя хакер не проник в системы, в которых компания размещает и создает свой ИИ, им удалось извлечь конфиденциальные детали из внутренних обсуждений. Важно отметить, что основной код ИИ, самый ценный актив OpenAI, оставался в безопасности.

Руководители OpenAI рассказали об инциденте сотрудникам во время общего собрания в офисе компании в Сан-Франциско и проинформировали совет директоров.

Однако они решили не публиковать эту новость и не сообщать о ней правоохранительным органам, таким как ФБР. Компания аргументировала это тем, что никакая информация о клиентах или партнерах не была украдена, и они полагали, что хакером был частное лицо, не имеющее известных связей с иностранными правительствами.

Это решение подняло вопросы о прозрачности и безопасности в быстро развивающейся области искусственного интеллекта. Инцидент также вновь усилил обеспокоенность по поводу потенциальной уязвимости компаний, занимающихся искусственным интеллектом, перед иностранными противниками, особенно Китаем.

Леопольд Ашенбреннер, бывший руководитель технической программы OpenAI, направил совету директоров компании докладную записку после взлома.

Он утверждал, что OpenAI не делает достаточно, чтобы помешать китайскому правительству и другим иностранным противникам украсть его секреты. Ашенбреннер, который позже был уволен из компании по несвязанным с этим причинам, выразил обеспокоенность тем, что меры безопасности OpenAI могут оказаться недостаточно надежными, чтобы защитить от кражи ключевых секретов, если иностранные субъекты проникнут в компанию.

OpenAI опровергла эти утверждения. Лиз Буржуа, представитель OpenAI, заявила: «Мы ценим обеспокоенность, которую Леопольд выразил во время работы в OpenAI, и это не привело к его увольнению». Она добавила: «Хотя мы разделяем его приверженность созданию безопасного искусственного интеллекта, мы не согласны со многими утверждениями, которые он с тех пор сделал о нашей работе. Это включает в себя его характеристики нашей безопасности, в частности, этот инцидент, о котором мы рассказали нашему совету директоров до того, как он присоединился к компании».

Этот инцидент подчеркивает хрупкий баланс, который компаниям, занимающимся искусственным интеллектом, приходится находить между открытостью и безопасностью.

В то время как некоторые компании, такие как Meta, свободно делятся своими разработками в области ИИ в виде программного обеспечения с открытым исходным кодом, другие придерживаются более осторожного подхода. OpenAI вместе с такими конкурентами, как Anthropic и Google, добавляет ограничения в свои приложения искусственного интеллекта, прежде чем предлагать их публике, с целью предотвратить неправильное использование и потенциальные проблемы.

Мэтт Найт, руководитель службы безопасности OpenAI, подчеркнул приверженность компании обеспечению безопасности:

«Мы начали инвестировать в безопасность за несколько лет до ChatGPT. Мы находимся в пути не только для того, чтобы понять риски и опережать их, но и для того, чтобы повысить нашу устойчивость».

Нарушение также привлекло внимание к более широкой проблеме потенциального влияния ИИ на национальную безопасность. Хотя нынешние системы искусственного интеллекта в основном используются в качестве инструментов для работы и исследований, существуют опасения по поводу будущих приложений, которые могут представлять более серьезные риски.

Некоторые исследователи и лидеры национальной безопасности утверждают, что даже если математические алгоритмы, лежащие в основе нынешних систем искусственного интеллекта, не опасны сегодня, они могут стать таковыми в будущем.

Сьюзан Райс, бывший советник по внутренней политике президента Байдена и бывший советник по национальной безопасности президента Барака Обамы, подчеркнула важность серьезного отношения к потенциальным рискам:

«Даже если наихудшие сценарии имеют относительно низкую вероятность, если они имеют большое воздействие, мы обязаны отнестись к ним серьезно. Я не думаю, что это научная фантастика, как многие любят утверждать».

В ответ на растущую обеспокоенность OpenAI недавно создала Комитет по безопасности и защите, чтобы изучить, как ей следует справляться с рисками, создаваемыми будущими технологиями. В состав комитета входит Пол Накасоне, бывший генерал армии, возглавлявший Агентство национальной безопасности и Киберкомандование.

Сообщение «Нераскрытый взлом OpenAI в 2023 году поднимает вопросы о безопасности и прозрачности ИИ» впервые появилось на Blockonomi.