Дебаты о политике в области искусственного интеллекта (ИИ) включают множество спорных вопросов, в том числе тот, который существовал на протяжении всей истории вычислений: битва между системами с открытым и закрытым исходным кодом. Сегодня эта линия разлома снова открылась: законодатели в Калифорнии и Европе пытаются ограничить «модели искусственного интеллекта с открытым весом».

Модели с открытым исходным кодом, как и программное обеспечение с открытым исходным кодом до них, представляют собой общедоступные системы, которые позволяют различным сторонам проверять и изменять их базовый код для различных целей. Некоторые критики утверждают, что алгоритмические модели или системы с открытым исходным кодом «исключительно опасны» и их следует ограничить. Однако произвольные нормативные ограничения систем искусственного интеллекта с открытым исходным кодом будут иметь серьезные недостатки, ограничивая инновации, конкуренцию и прозрачность.

Этот вопрос приобрел новую актуальность в последнее время после важных заявлений правительства и промышленности. Во-первых, 30 июля Министерство торговли опубликовало крупный отчет о таких моделях, как того требовал указ президента Джо Байдена в октябре. Итоговый отчет в основном очень приветствует системы искусственного интеллекта с открытым весом и «намечает для них осторожный, но оптимистичный путь». В отчете делается вывод, что «не существует достаточных данных о предельных рисках моделей фундаментов двойного назначения с широко доступными весами моделей, чтобы сделать вывод о том, что ограничения на веса моделей в настоящее время уместны или что ограничения никогда не будут уместны в будущем».

Связанный: Только Конгресс и DARPA могут обуздать опасности искусственного интеллекта

Этот отчет последовал вслед за заявлением Федеральной торговой комиссии о моделях с открытым весом, в котором говорится, что они «имеют потенциал стимулировать инновации, снижать затраты, расширять выбор потребителей и в целом приносить пользу обществу». Эти позитивные заявления администрации Байдена также были поддержаны Дж. Д. Вэнсом, выбранным республиканцами на пост вице-президента, который высказался в поддержку искусственного интеллекта с открытым исходным кодом как средства противодействия крупным технологиям. Это говорит о том, что существует двухпартийная поддержка искусственного интеллекта с открытым исходным кодом.

Другим важным событием стал недавний выпуск Meta новейшей и самой мощной версии своей передовой модели искусственного интеллекта «Llama 3.1». Марк Цукерберг, основатель и генеральный директор Meta, объявил о выпуске эссе на тему «ИИ с открытым исходным кодом — это путь вперед». Хотя Llama не является полностью системой с открытым исходным кодом (Meta по-прежнему контролирует базовый исходный код), модель допускает дополнительную разработку приложений. Это способствует большему количеству инноваций и конкуренции в сфере ИИ.

Но даже если разработчики ИИ с открытым исходным кодом, похоже, получат зеленый свет от федеральных чиновников, другие государственные и международные регуляторы могут ограничить их потенциал.

Неясно, будут ли крупномасштабные модели искусственного интеллекта с открытым весом вообще законными при нисходящем и крайне ограничительном подходе Европы к технологическому регулированию. Meta уже объявила, что не будет выпускать свою следующую мультимодальную модель искусственного интеллекта в Европейском Союзе «из-за непредсказуемого характера европейской нормативно-правовой среды». Это последовало за аналогичным заявлением Apple в конце июня о том, что она не будет внедрять самые современные функции искусственного интеллекта в Европе «из-за нормативной неопределенности», связанной с техническими правилами ЕС.

Вот почему Америка должна избегать такого рода поспешного нормативного болота, которое ЕС создал для новаторов в области искусственного интеллекта. Чрезмерное европейское регулирование уже уничтожило цифровые инвестиции и формирование бизнеса, оставив континент практически лишенным каких-либо крупных технологических игроков, конкурирующих на глобальном уровне.

К сожалению, такие разрушающие инновации мандаты могут появиться на уровне штатов в Соединенных Штатах. Законодатели-демократы в Калифорнии предложили SB 1047, который создаст «Пограничное модельное подразделение» для обеспечения соблюдения множества новых правил и наказаний в области ИИ. Закон потребует от передовых разработчиков предоставить «разумные гарантии» того, что «производные модели не представляют собой необоснованного риска причинения или возможности критического ущерба». Это невозможный стандарт для поставщиков с открытым исходным кодом, и ведущие технологические эксперты предупреждают, что законопроект «серьезно ограничит модели искусственного интеллекта с открытым исходным кодом» и «задушит искусственный интеллект с открытым исходным кодом и снизит безопасность».

Это может показаться нелогичным, поскольку сторонники калифорнийского закона называют его мерой безопасности ИИ. Однако, если законопроект блокирует современные исследования в области искусственного интеллекта и подрывает инновации, это также ограничит важные системы и приложения, повышающие безопасность. Хуже того, этот результат подорвет безопасность во-вторых, послужив подарком Китаю, который агрессивно стремится достичь своей заявленной цели — обогнать Америку и стать мировым лидером в области искусственного интеллекта к 2030 году.

Китай быстро сокращает отставание от США в области инноваций в области искусственного интеллекта. Излишне говорить, что китайское правительство не будет беспокоиться о выполнении требований калифорнийских бюрократов. Они просто будут идти вперед. Как правильно заметил Цукерберг из Meta в июльском посте в Facebook, «ограничение американских инноваций закрытой разработкой увеличивает вероятность того, что мы вообще не будем лидерами», поэтому «наша лучшая стратегия — построить надежную открытую экосистему».

Сэм Альтман из OpenAI высказал аналогичную точку зрения в июльской редакционной статье, в которой он выступал за сотрудничество с другими демократическими странами в противодействии авторитарным режимам, таким как Китай и Россия. «Убедившись, что модели с открытым исходным кодом доступны разработчикам в этих странах, мы еще больше укрепим наше преимущество», — написал Альтман. «Проблема того, кто возглавит развитие ИИ, заключается не только в экспорте технологий, но и в экспорте ценностей, которые поддерживаются этой технологией».

Действительно, сильная и разнообразная база технологий искусственного интеллекта не только укрепляет нашу экономику и обеспечивает лучшие приложения и рабочие места, но также укрепляет нашу национальную безопасность и позволяет нашим ценностям плюрализма, личной свободы, индивидуальных прав и свободы слова формировать глобальные рынки информационных технологий. . ИИ с открытым исходным кодом будет играть решающую роль в достижении этой цели — до тех пор, пока политики позволят это сделать.

Адам Тирер — старший научный сотрудник Программы технологий и инноваций Института Р-Стрит. Ранее он работал старшим научным сотрудником в Фонде наследия и директором по телекоммуникационным исследованиям в Институте Катона. Он получил степень магистра в области международного управления бизнесом в Университете Мэриленда и степень бакалавра в Университете Индианы в Блумингтоне.

Эта статья предназначена для общих информационных целей и не предназначена и не должна рассматриваться как юридическая или инвестиционная консультация. Взгляды, мысли и мнения, выраженные здесь, принадлежат только автору и не обязательно отражают или представляют взгляды и мнения Cointelegraph.