Meta объявила о приостановке запуска и обучения своего помощника по искусственному интеллекту в Европе по запросу Ирландской комиссии по защите данных (DPC).

Запрос поступил после того, как DPC, ведущий регулятор конфиденциальности Meta в ЕС, попросил компанию прекратить обучение больших языковых моделей (LLM) с использованием общедоступных данных, собранных пользователями Facebook и репостами Instagram.

Мета заявила, что это решение оставило их «разочарованными» и посчитала это «шагом назад» для конкуренции и инноваций в области ИИ в ЕС. Однако компания настаивает на соблюдении европейских правил.

DPC поддержал приостановку, заявив, что «приветствует это решение» и продолжит работать с Meta после предыдущего «обширного взаимодействия».

По данным европейской некоммерческой организации по защите конфиденциальности NOYB, запрос Meta о временной приостановке деятельности стал результатом жалоб со стороны самой компании, а также других организаций, таких как Норвежский совет потребителей и ряда других органов по защите данных.

Эта проблема продолжается уже много месяцев. Meta заявила, что с марта уведомила европейские органы по защите данных о своей деятельности.

Однако ситуация стала еще более серьезной, когда 22 мая Meta начала уведомлять пользователей о своем обучении ИИ посредством более чем двух миллиардов уведомлений в приложениях и электронных писем. 6 июня NOYB подала жалобу в 11 органов по защите данных.

Meta подтвердила, что консультировалась с DPC 10 июня, и заявила, что включила ответ, чтобы обеспечить соответствие обучения ИИ законам об ИИ.

Мета отмечает, что Google и OpenAI также использовали ИИ для обучения на пользовательских данных. Компания планирует соблюдать законы ЕС по защите данных (GDPR) на правовой основе «законного интереса» — гибкого положения, на которое полагались другие компании, занимающиеся искусственным интеллектом.

Эта пауза подчеркивает сложность и проблемы применения технологий искусственного интеллекта, особенно в контексте все более строгих правил защиты данных.