Ирландская комиссия по защите данных расследует соблюдение «Общих правил защиты данных» при использовании личной информации для обучения ИИ Google в ЕС.

По сообщению Techcrunch от 12 сентября, Ирландская комиссия по защите данных (DPC), агентство, которое контролирует соблюдение Google Общего регламента защиты данных (GDPR) в ЕС, расследует, проводил ли Google ранее проверку воздействия на защиту данных (DPIA). использование личных данных для обучения ИИ.

DPIA — это обязательный процесс в соответствии с GDPR, который оценивает риски для прав и свобод людей, когда их информация используется для целей обработки данных с высоким уровнем риска, включая обучение искусственному интеллекту.

Расследование сосредоточено на том, как Google разработала несколько инструментов искусственного интеллекта, генерирующих контент, в том числе модель большого языка (LLM) PaLM2, которая была представлена ​​на прошлогодней конференции разработчиков ввода-вывода. PaLM2 является основой для многих инструментов искусственного интеллекта Google, таких как чат-бот Gemini (ранее Bard) и функции веб-поиска на основе искусственного интеллекта.

Если будет установлено, что Google нарушает GDPR, DPC может наложить штраф в размере до 4% от годового глобального дохода Alphabet, материнской компании Google.

Изображение сделано во время конференции разработчиков систем ввода-вывода. Источник: Техкранч. Проблемы конфиденциальности

Большие языковые модели, такие как PaLM2, часто требуют для обучения огромных объемов данных, включая конфиденциальную личную информацию. Эту информацию можно получить из общедоступных источников в Интернете или собрать непосредственно у пользователей, что приводит к множеству юридических проблем, связанных с конфиденциальностью и авторским правом.

Многие компании-разработчики ИИ, такие как OpenAI, Meta и даже платформа социальных сетей X (ранее Twitter), принадлежащая Илону Маску, столкнулись с жалобами, связанными с GDPR, по поводу использования ими пользовательских данных для обучения ИИ.

Google, как и многие другие компании, не раскрывает прозрачности в отношении источников данных, используемых для обучения ее инструментов искусственного интеллекта. Однако представитель Google Джей Столл настаивал: «Мы серьезно относимся к нашим обязательствам по GDPR и будем тесно сотрудничать с DPC, чтобы отвечать на запросы».

Расследование DPC является частью более широких усилий органов по защите данных ЕС, направленных на обеспечение соблюдения технологическими компаниями правил конфиденциальности при разработке систем искусственного интеллекта.

В ведомстве подчеркнули, что DPIA играет важную роль в обеспечении защиты прав и свобод граждан при обработке персональных данных с высоким риском. Если Google не проведет DPIA перед обработкой данных пользователей из ЕС для разработки PaLM2, компания может столкнуться с серьезными штрафами.

В настоящее время Google еще не дала официального ответа по этому вопросу.