Недавний отчет раскрывает нарушение безопасности в OpenAI, когда в прошлом году хакер получил доступ к внутренним системам обмена сообщениями, украв детали конструкции технологий искусственного интеллекта компании. Газета New York Times сообщила об утечке, произошедшей на онлайн-форуме, где сотрудники OpenAI делились информацией о своем текущем прогрессе.

Читайте также: В настоящее время расследуется очевидное «самоубийство» южнокорейского робота

Сообщается, что утечка произошла на онлайн-форуме, где сотрудники OpenAI делились последними обновлениями. По словам двух анонимных источников, знакомых с инцидентом, хакер не получил доступа к основным системам, с помощью которых OpenAI разрабатывает и хранит свой ИИ, таким как ChatGPT. По данным NY Times, компания не сообщила общественности о взломе, поскольку ничего критического не было скомпрометировано и не было никакой угрозы национальной безопасности. 

OpenAI сохраняет меры безопасности после взлома

Руководители OpenAI поделились этой информацией с сотрудниками во время общего собрания в апреле прошлого года и с советом директоров. Несмотря на нарушение, компания не рассматривала возможность участия федеральных правоохранительных органов, возложив вину за инцидент на частное лицо, не связанное с каким-либо иностранным государством. 

Читайте также: ChatGPT превосходит людей в рассказывании шуток, показывают исследования

Хотя инцидент с утечкой данных не затронул основные системы организации, которые считаются наиболее чувствительными, согласно отчету, инцидент указывает на необходимость принятия адекватных мер для защиты передовых технологий искусственного интеллекта.

Судебная битва между NYT и OpenAI принимает неожиданный поворот

В связи с этим недавно серьезное обновление получила судебная тяжба между The New York Times и OpenAI. OpenAI подала документы, призывающие суд обязать известного издателя доказать оригинальность своих статей, предоставив подробные исходные материалы для каждой работы, защищенной авторским правом. Этот запрос еще больше усложнил дело, поскольку в основе дела лежат утверждения о несанкционированном использовании контента NYT для обучения моделей ИИ. 

«The Times утверждает, […] что она «инвестирует огромное количество времени». . . опыт и талант», в том числе посредством «глубоких расследований, которые обычно занимают месяцы, а иногда и годы для составления отчетов и подготовки результатов, в сложных и важных областях общественного интереса».

Юристы OpenAI

В запросе содержится требование к The New York Times предоставить всю документацию, связанную с процессом авторства, а именно, заметки репортера, записи интервью и записи источников. Юристы OpenAI также отметили, что, по данным NYT, компания тратит значительные ресурсы на производство журналистики мирового уровня. Поэтому суть дела в методах создания, времени, труде и инвестициях. Таким образом, они утверждают, что OpenAI имеет право проверять эти аспекты в процессе обнаружения. 

Читайте также: В Шанхае пройдет Всемирная конференция по искусственному интеллекту 2024 года

The New York Times ответила OpenAI в официальном уведомлении, выпущенном 3 июля, с возражением против требования предоставить исходные материалы по контракту. Юридическая группа NYT заявила, что запрос OpenAI является новым и основывает свои аргументы на неверном толковании авторских прав. Они утверждали, что процесс создания материалов, защищенных авторским правом, не имеет отношения к основной проблеме дела.

Ожидается, что в ближайшем будущем администрация Байдена объявит о новых правилах, призванных предотвратить неправомерное использование американских технологий искусственного интеллекта вызывающими беспокойство странами, включая Китай и Россию. Это первоначальные меры, которые предлагаются для сдерживания нынешних сложных приложений искусственного интеллекта, таких как ChatGPT. 

Криптополитический репортаж Бренды Канана