Голливудская икона Морган Фримен публично заявил о несанкционированном использовании искусственного интеллекта для воспроизведения своего отличительного голоса — проблеме, которая в последнее время привлекла повышенное внимание. 

Уважаемый актер, известный своими ролями в известных фильмах и уникальным вокалом, выразил благодарность своим поклонникам за их активные усилия по сохранению его вокальной личности.

Имитация искусственного интеллекта вызывает беспокойство

Фримен, чей голос узнаваем во всем мире, указал на неэтичный характер этих подражаний в искреннем сообщении на платформе социальных сетей X. Он заявил: «Спасибо моим невероятным поклонникам за вашу бдительность и поддержку в выявлении несанкционированного использования Голос ИИ имитирует меня». 

Это заявление подчеркивает озабоченность актера сохранением аутентичности и целостности перед лицом передовой технологической мимикрии. Это происходит на фоне растущего внимания в Голливуде к голосам, генерируемым искусственным интеллектом, причем Фриман не единственная знаменитость, на которую нацелена такая технология.

Спасибо моим невероятным фанатам за бдительность и поддержку в борьбе с несанкционированным использованием ИИ. голос, подражающий мне. Ваша преданность делу помогает искренности и честности оставаться на первом месте. Благодарный. #ИИ #мошенничество #имитация #Защита личных данных

– Морган Фриман (@morgan_freeman) 28 июня 2024 г.

Вирусная серия TikTok, написанная пользователем, назвавшимся «племянницей» Фримена, еще больше подогрела дебаты. Пользовательница, известная в TikTok как @justinescameraroll, может похвастаться более чем 218 000 подписчиков и имеет эпизоды, в которых она с юмором предлагает Фриману рассказывать о ее повседневных делах. Несмотря на игривый характер этих видеороликов, они поднимают серьезные вопросы о четком разграничении пародии и обманного подражания.

Реакция отрасли и юридические последствия

Проблема репликации голоса с помощью искусственного интеллекта также привлекла внимание других знаменитостей, в том числе Скарлетт Йоханссон. Недавно она рассказала о встрече с генеральным директором OpenAI Сэмом Альтманом, который якобы просил разрешения использовать ее голос для модели искусственного интеллекта ChatGPT, но она отклонила эту просьбу. После ее отказа команда юристов Йоханссон провела активные переговоры с OpenAI после того, как обнаружила, что использовался голос, похожий на ее, что побудило их потребовать объяснений и немедленного прекращения использования.

Это противоречие подчеркивает более широкую обеспокоенность по поводу этического использования ИИ при воспроизведении человеческих качеств без согласия, что влияет на то, как субъекты управляют своими правами и изображениями в эпоху цифровых технологий. Гильдия киноактеров – Американская федерация артистов телевидения и радио (SAG-AFTRA) сыграла важную роль в защите прав актеров и обеспечении соглашений, которые обеспечивают надлежащую компенсацию и согласие за использование их голосов и изображений.

Двигаемся вперед с осторожностью

Проактивная позиция Фримена не беспрецедентна; он разрешил свой голос в избранных проектах, которые соответствуют его профессиональной этике, таких как документальный сериал «Жизнь на нашей планете» и конкретные рекламные кампании. 

Такое одобренное использование резко контрастирует с несанкционированными имитациями, циркулирующими в Интернете, что побуждает к принятию более четких правил и стандартов в растущей области синтетических носителей.

Дискуссии о репликации голоса ИИ продолжают находить отклик в технологических и развлекательных кругах, подчеркивая необходимость сбалансированного подхода, уважающего права личности и одновременно использующего технологические достижения. 

По мере развития диалога индустрии развлечений и разработчикам технологий, возможно, придется более тесно сотрудничать для решения этих сложных проблем, гарантируя, что инновации не будут осуществляться за счет личной неприкосновенности.

Публикация «Морган Фримен выступает против несанкционированного копирования его голоса ИИ» впервые появилась на Coinfea.