Недавний шаг администрации Байдена по ограничению доступа Китая к конкретным пакетам программного обеспечения, например, используемому в OpenAI, который поддерживает ChatGPT, расширил масштаб дискуссий относительно возможности сдерживания распространения искусственного интеллекта. Обеспокоенность возникает по мере того, как модели искусственного интеллекта с открытым исходным кодом становятся популярными, поскольку в некоторой степени эти правила могут стать неэффективными из-за этой растущей новой тенденции.

США ужесточают контроль за экспортом ИИ

Правительство США пытается предотвратить распространение инструментов искусственного интеллекта, которые могут быть использованы для нарушений безопасности, путем ужесточения экспортного контроля, чтобы прекратить поставки моделей искусственного интеллекта, принадлежащих конкретным владельцам. Эти новые меры, которые распространяются на Китай и некоторые другие страны, такие как Россия и Иран, затруднят изучение и получение технологий, предназначенных для ведения войны или кибератак. Их можно назвать индивидуальными моделями, которые не имеют открытого исходного кода и созданы американскими технологическими лидерами, такими как OpenAI, Google DeepMind и Anthropic.

В то время как Министерство торговли США занимается разработкой новых правил, определяющих, какой именно контроль, с другой стороны, разведывательное сообщество США работает над новыми способами сбора и анализа данных для дальнейшего выявления и пресечения террористической деятельности внутри и за пределами границ США. . Такие санкции были введены после нескольких лет предыдущих блокировок экспорта более совершенных устройств искусственного интеллекта в Китай, что существенно ударило по крупнейшим производителям США, таким как Nvidia. Таким образом, Nvidia начала поставлять менее производительные чипы, которым не нужна специальная экспортная лицензия, чтобы выйти на рынки за пределами США.

Модели искусственного интеллекта с открытым исходным кодом бросают вызов ограничениям на экспорт

Однако, несмотря на то, что эти правила конкретно направлены на исключение встроенных моделей ИИ, в отрасли наблюдается растущая тенденция внедрения моделей с открытым исходным кодом, что, в свою очередь, может в некоторых случаях привести к ослаблению этих мер. Модели с открытым исходным кодом являются открытыми, а это означает, что код и данные обучения — это те, которые каждый может получить из любой точки мира. Это ясно продемонстрировано недавним планом Meta выпустить свою модель LLaMA 3 с открытым исходным кодом и запланированным Google развертыванием семейства открытых моделей, и это приводит к вопросам о том, будет ли желаемое достижение, если доступ к проприетарным моделям будет открыт. оставайся закрытым.

Старший аналитик GlobalData Жозеп Бори отмечает, что движение к открытому исходному коду делает правила менее значимыми из-за отсутствия патентной защиты; следовательно, любая непатентованная модель может быть доступна бесплатно и использоваться каждым. Хотя пока это кажется простым, он утверждает, что контролировать технологию искусственного интеллекта еще сложнее, чем мы думаем.

Растущие ограничения на Востоке из-за ограничения распространения ИИ таким образом способны расколоть сферу технологий и создать долгосрочные проблемы, которые могут повлиять на систему глобального искусственного интеллекта. Кристоф Цемпер, генеральный директор AIPRM, довольно скептически относится к тому, что сценарий конца света не помешает развитию безопасных систем искусственного интеллекта. До сих пор исследования ИИ в основном носили глобальный характер, а международное сотрудничество находилось на подъеме. Тем не менее, авторитарные страны могут попытаться разделить поле, и это может оказать негативное влияние на прогресс.

Ситуация может возникнуть из-за базовых, поскольку еще одна параллельная экосистема ИИ может вмешаться в глобальную торговлю и, таким образом, может оказать большое влияние на бизнес, зависящий от трансграничных цепочек поставок. Существующая практика, которая зависит от сотрудничества между американскими фирмами и компаниями Huawei, сейчас находится под угрозой, поскольку новые ограничения могут разрушить эту давнюю практику. Побочный эффект ИИ, который сейчас явно повлиял на доступ, кажется неразумным, когда он делается совместно для решения грандиозных проблем, стоящих сегодня перед человечеством, говорит Цемпер.

Глобальные последствия для рынка ИИ

Рынок искусственного интеллекта, безусловно, все еще испытывает некоторые сдерживающие проблемы, что свидетельствует о высоком уровне роста. Анализ рынка, проведенный GlobalData, показывает, что к 2030 году мировой рынок ИИ достигнет 909 миллиардов долларов, а совокупный годовой темп роста (CAGR) с 2022 года составит 35%. Отныне общий объем рынка ИИ-чипов прогнозируется на уровне около 116 миллиардов фунтов стерлингов к 2030 году из-за растущего спроса со стороны различных секторов экономики.

Развивающееся регулирование может трансформировать глобальные цепочки создания стоимости и реструктурировать отрасли, что может прозвучать как похоронный звон для прибылей компаний, если им придется разрабатывать новые бизнес-стратегии. Многие полагают, что недавнее ужесточение экспортного контроля прямо пропорционально ожесточенной борьбе за привлечение технологических компаний из США и Китая. Это катализатор инноваций с обеих сторон, с потенциальным сокращением сотрудничества.

Компетентность решения администрации США будет зависеть от того, насколько упомянутым мерам удастся замедлить бешеные закупки технологий искусственного интеллекта конкурентами, не ставя под угрозу инновации и не усугубляя экономические проблемы двух стран.