Министерство электроники и информационных технологий Индии выпустило важные рекомендации для компаний, использующих платформы искусственного интеллекта (ИИ), в преддверии всеобщих выборов, запланированных на конец этого лета. Рекомендации в первую очередь нацелены на компании, владеющие платформами генеративного искусственного интеллекта, в том числе на таких отраслевых гигантов, как Google и OpenAI, и предписывают им следить за тем, чтобы их услуги не давали ответов, которые могли бы поставить под угрозу целостность избирательного процесса.
В соответствии с рекомендациями компании, предоставляющие платформы искусственного интеллекта, особенно те, которые предлагают недостаточно протестированные или ненадежные системы искусственного интеллекта или модели большого языка (LLM) для индийских пользователей, обязаны маркировать потенциальную ошибочность или ненадежность получаемых результатов. Это требование направлено на информирование пользователей об ограничениях контента, создаваемого ИИ, обеспечивая прозрачность и подотчетность.
Регулирующие меры Индии и законодательные намерения
Рекомендации служат предшественником потенциальных законодательных действий по регулированию платформ искусственного интеллекта в Индии. Государственный министр электроники и информационных технологий Раджив Чандрасекхар подчеркнул, что рекомендация сигнализирует о намерении правительства эффективно ввести законодательство для контроля над платформами генеративного искусственного интеллекта. Чандрасекхар, кандидат в Лок Сабха от Партии Бхаратия Джаната (БДП) на всеобщих выборах 2024 года, указал, что правительство может добиваться от компаний демонстрации платформ искусственного интеллекта и их архитектуры согласия.
Компаниям был дан 15-дневный срок для представления отчета о принятых мерах в ответ на рекомендацию. Они должны соблюдать несколько директив, в том числе получить явное разрешение от правительства Индии, прежде чем развертывать недостаточно тестируемые или ненадежные модели ИИ или LLM. Кроме того, компании должны внедрять такие механизмы, как всплывающие окна с согласием, чтобы информировать пользователей о потенциальной ошибочности результатов, генерируемых ИИ.
Выявление дезинформации и дипфейков
Чтобы бороться с распространением дезинформации и дипфейков, правительство поручило компаниям маркировать ответы, сгенерированные ИИ, постоянным уникальным идентификатором. Эта мера призвана облегчить идентификацию автора любой дезинформации или дипфейкового контента, повышая подотчетность и прозрачность на онлайн-платформах.
Кроме того, рекомендация предписывает всем посредникам и платформам, использующим модели искусственного интеллекта, гарантировать, что их компьютерные ресурсы не способствуют предвзятости, дискриминации или угрозам честности избирательного процесса. Правительство стремится регулировать технологии искусственного интеллекта, защищая избирательный процесс от потенциальных манипуляций или искажений.
Консультации индийского правительства компаниям, занимающимся ИИ, подчеркивают его приверженность регулированию платформ ИИ и обеспечению целостности демократических процессов, особенно в преддверии предстоящих всеобщих выборов. Внедряя меры прозрачности и механизмы подотчетности, правительство стремится снизить риски, связанные с контентом, созданным искусственным интеллектом, и бороться с распространением дезинформации и дипфейков. Поскольку компании готовятся соблюдать директивы, изложенные в рекомендациях, ожидается, что нормативно-правовая база, окружающая технологии искусственного интеллекта в Индии, будет развиваться, формируя будущее цифрового управления и технологической этики в стране.