Закон Европейского Союза об искусственном интеллекте (ИИ) наконец вступил в силу через пять месяцев после его принятия парламентом Европейского Союза. Теперь, когда закон вступил в силу, он становится знаковым регулированием в области ИИ и может задать темп для других стран в регулировании развивающегося сектора.

Однако большинство положений Закона об искусственном интеллекте не вступят в силу немедленно, поскольку существуют сроки для применения правил. Ожидается, что это даст компаниям больше времени для соблюдения закона по мере развития сектора и позволит государствам-членам подготовиться к его обеспечению.

Варианты использования ИИ классифицируются в зависимости от их рисков.

Закон принимает систему классификации на основе рисков для определения правил, которые будут применяться к каждой компании, занимающейся искусственным интеллектом. Категории: «без риска», «минимальный риск», «высокий риск» и «запрещено». Какая бы категория ни попадала в систему ИИ, она будет определять, когда правила, касающиеся ее работы, вступят в силу.

Для запрещенных систем искусственного интеллекта регулятор установил крайний срок — февраль 2025 года — для запрета систем, которые сканируют Интернет с целью расширения баз данных распознавания лиц или манипулирования пользователями, заставляя их принимать решения.

У тех, кто относится к категории приложений высокого риска, также будет шесть месяцев с 1 августа для соблюдения применимых к ним строгих правил. К системам искусственного интеллекта, отнесенным к группе высокого риска, относятся системы, используемые для распознавания лиц, биометрии, критически важных государственных услуг, образования, трудоустройства и медицинского программного обеспечения.

Требования к группе включают предоставление наборов обучающих данных регулирующим органам для проверки и предоставление доказательств человеческого надзора. Они также обязаны проводить предпродажные испытания на соответствие. Для систем высокого риска, используемых государственными учреждениями или для государственных служб, разработчик должен будет зарегистрировать их в базе данных ЕС.

Между тем, около 85% систем ИИ попадают в категорию минимального риска с более гибкими правилами. Тем не менее, в законе предусмотрены штрафы для предотвращения нарушений. Штрафы варьируются от 7% мирового годового оборота, когда компании нарушают запрещенные системы искусственного интеллекта, до 1,5% за предоставление неверной информации регулирующим органам.

Генеративный ИИ с минимальными ограничениями

Что касается разработчиков генеративных систем ИИ, их проблемы ограничены, поскольку Закон называет их модели примерами ИИ общего назначения (GPAI) и классифицирует большинство из них как минимальный риск. Таким образом, ведущие чат-боты с искусственным интеллектом, такие как MetaAI, ChatGPT, Perplexity, Claude AI и т. д., существенно не пострадают.

Закон требует только большей прозрачности от этих компаний, занимающихся искусственным интеллектом, посредством раскрытия данных об их обучении. Ожидается, что они также будут соблюдать правила ЕС об авторском праве. Однако небольшая группа GPAI считается достаточно важной, чтобы вызвать системные риски. Это относится к тем, кто обучен использовать вычислительную мощность выше определенного уровня.

Интересно, что ЕС также несет ответственность за соблюдение правил, касающихся GPAI, хотя каждая страна несет ответственность за реализацию общих правил в соответствии с Законом. У штатов есть время до августа 2025 года создать органы для реализации Закона в своей стране.

Между тем, в отношении некоторых аспектов Закона все еще остается много неясностей. К ним относятся конкретные рекомендации, которые разработчики GPAI должны соблюдать в соответствии с Законом. С этой целью регулирующие органы разрабатывают кодексы практики, а возглавляет работу Управление искусственного интеллекта.

Офис, который является органом, который контролирует и создает экосистему искусственного интеллекта, недавно объявил о процессе консультаций и призвал все заинтересованные стороны принять участие в процессе разработки правил. Он намерен подготовить кодексы к апрелю 2025 года.