Хотя газета New York Times сообщила, что OpenAI имеет уязвимости безопасности, компания, занимающаяся искусственным интеллектом, не проинформировала ФБР, правоохранительные органы или общественность.

The New York Times сообщила в отчете от 4 июля, что компания OpenAI, занимающаяся искусственным интеллектом, столкнулась с нарушением безопасности в 2023 году, но предпочла не объявлять об инциденте публично. Сообщается, что руководители компании упомянули об инциденте безопасности на внутренней встрече в апреле, но не предали его огласке, поскольку злоумышленник не имел доступа к информации о клиентах или партнерах.

Кроме того, руководство OpenAI также считает, что этот инцидент безопасности не представляет угрозы национальной безопасности, поскольку они определили, что злоумышленник был индивидуальным субъектом и не был связан с каким-либо иностранным правительством, и поэтому не сообщил об этом в ФБР или другой закон. Сообщите об этом правоохранительным органам.

В отчете также отмечается, что злоумышленникам удалось проникнуть во внутреннюю систему связи OpenAI и украсть детали разработки технологии искусственного интеллекта компании из обсуждений сотрудников на онлайн-форумах. Однако злоумышленники не имели доступа к ключевым системам OpenAI или кодам, используемым для хранения и создания искусственного интеллекта.

Сообщается, что отчет New York Times основан на информации, предоставленной двумя источниками, знакомыми с ситуацией.

Проблемы бывших сотрудников и реакция компании

The New York Times сообщила, что Леопольд Ашенбреннер, бывший исследователь OpenAI, принял меры после нарушения безопасности. Он представил служебную записку совету директоров компании. В меморандуме Ашенбреннер подчеркнул необходимость усиления мер безопасности, особенно для предотвращения кражи коммерческих тайн компании иностранными державами, включая Китай.

В ответ представитель компании OpenAI Лиз Буржуа ответила, что компания понимает обеспокоенность Ашенбреннера и намерена продолжать вкладывать ресурсы и усилия в разработку безопасной технологии общего искусственного интеллекта (AGI). Однако у Лиз Буржуа есть сомнения по поводу некоторых моментов, высказанных Ашенбреннером, и она подвергает сомнению некоторые детали. Он отметил, что компания уже занималась соответствующими вопросами безопасности до прихода Ашенбреннера и общалась по этому вопросу с советом директоров.

При этом Ашенбреннер также утверждал, что его уволили из-за утечки информации и политических факторов. Но Буржуа ясно дал понять, что его отъезд не имеет ничего общего с высказанными им опасениями по поводу безопасности.

Мэтт Найт, директор по безопасности OpenAI, подтвердил газете New York Times твердую приверженность компании обеспечению безопасности. Он отметил, что OpenAI уже инвестировала в область безопасности до запуска ChatGPT, что показывает, что компания смотрит в будущее и готовится к возможным проблемам безопасности. Найт также откровенно признал, что развитие технологий искусственного интеллекта действительно сопряжено с определенными рисками, но он также подчеркнул, что компания активно выявляет эти риски и стремится их понять, чтобы лучше реагировать на потенциальные угрозы и смягчать их.

Газета New York Times подала иск против OpenAI и Microsoft из-за проблем с авторскими правами, утверждая, что две компании использовали ее контент для обучения своих собственных моделей искусственного интеллекта без разрешения, и между ними может возникнуть конфликт интересов. Однако OpenAI оспаривает обвинения New York Times и считает, что ее иск не имеет разумной фактической основы.

Заключение:

Нельзя игнорировать вопросы безопасности в сфере искусственного интеллекта. Независимо от того, является ли отчет New York Times полностью правдивым, он напоминает нам, что будь то OpenAI или другие компании, занимающиеся технологиями искусственного интеллекта, они должны поставить безопасность в основу разработки, принять меры по предотвращению, обнаружению и устранению, обеспечивая при этом прозрачность и своевременность. Сообщайте общественности об инцидентах, связанных с безопасностью.

В то же время нам следует опасаться возможных мотивационных проблем в материалах СМИ, особенно в контексте споров об авторских правах. Настоящим мы призываем средства массовой информации оставаться объективными и беспристрастными, а споры, связанные с авторскими правами, следует разрешать законными способами.

Наконец, игроки отрасли, средства массовой информации и регулирующие органы должны работать вместе, чтобы ответственно способствовать здоровому и устойчивому развитию технологий. #OpenAI #安全漏洞 #人工智能 #AI