Odaily Planet Daily News Сотрудники OpenAI и Google DeepMind совместно выразили обеспокоенность тем, что передовой искусственный интеллект таит в себе огромные риски и его срочно необходимо укреплять. В ответ OpenAI опубликовала сегодня заявление, в котором подчеркнула свою приверженность созданию мощных и безопасных систем искусственного интеллекта. OpenAI заявила, что, учитывая важность технологии искусственного интеллекта, мы согласны с содержанием открытого письма и то, как проводить серьезные дискуссии, имеет решающее значение для лучшего содействия развитию технологии искусственного интеллекта. Мы продолжим взаимодействовать с правительствами, гражданским обществом и другими сообществами по всему миру, чтобы работать вместе над созданием гармоничной среды искусственного интеллекта. Включение анонимных «горячих линий» по вопросам добросовестности и комитетов безопасности (Комитет по безопасности и защите), в которых участвуют члены совета директоров и руководители службы безопасности компании, — все это эффективные средства регулирования ИИ. OpenAI отмечает, что компания не будет выпускать новые технологии искусственного интеллекта до тех пор, пока не будут приняты необходимые меры безопасности. Компания подтвердила свою поддержку государственного регулирования и свое участие в Добровольном обязательстве по безопасности искусственного интеллекта. Отвечая на опасения по поводу мести, представитель подтвердил, что компания расторгла соглашения со всеми бывшими сотрудниками о неунижении достоинства и удалила такие положения из стандартных документов об увольнении. (IT House) Ранее сегодня 13 бывших и нынешних сотрудников OpenAI (ChatGPT), Anthropic (Claude), DeepMind (Google) и экспертов в области искусственного интеллекта запустили петицию «Право предупреждать искусственный интеллект». Целью петиции является пропаганда усиления защиты информаторов для повышения осведомленности общественности о рисках, связанных с передовыми системами искусственного интеллекта. Бывший сотрудник OpenAI Уильям Сондерс отметил, что при работе с потенциально опасными новыми технологиями должны быть способы поделиться информацией о рисках с независимыми экспертами, правительствами и общественностью.