OpenAI, лидер в разработке технологий искусственного интеллекта, в настоящее время находится в центре жалобы на конфиденциальность в Австрии, поданной группой по защите прав данных Noyb. В жалобе ChatGPT OpenAI обвиняется в распространении ложной информации о человеке и потенциальном нарушении законов о конфиденциальности Европейского Союза.
OpenAI Сэма Альтмана обвиняют в распространении ложной информации о людях: жалоба в Австрии
Жалоба была подана Noyb 29 апреля, в которой утверждалось, что OpenAI не устраняет неточности в информации, предоставленной ее AI-чат-ботом ChatGPT в отношении анонимного общественного деятеля.
Несмотря на просьбы деятеля, OpenAI отказалась исправлять или удалять неточные данные и не раскрыла источники своих обучающих данных.
Этот отказ может представлять собой нарушение строгих правил ЕС по защите данных, призванных защитить личную информацию людей и обеспечить точность данных.
Жалоба Нойба подчеркивает серьезную проблему в области искусственного интеллекта: баланс между технологическим прогрессом и правами людей на неприкосновенность частной жизни.
Общий регламент ЕС по защите данных (GDPR) гласит, что персональные данные должны быть точными и, при необходимости, обновляться; необходимо принять все разумные меры для обеспечения немедленного удаления или исправления неточных персональных данных.
Маартье де Грааф, юрист по защите данных из Noyb, заявил: «Если система не может давать точные и прозрачные результаты, ее нельзя использовать для получения данных о людях».
Технологии должны соответствовать требованиям законодательства, а не наоборот». В этом заявлении подчеркивается юридическое ожидание того, что технологии искусственного интеллекта должны не только расширять свои возможности, но и соответствовать установленным правовым основам, защищающим права людей.
Расследование австрийских властей
Австрийский орган по защите данных исследует методы обработки данных OpenAI, в частности, то, как он обеспечивает точность персональных данных, обрабатываемых его большими языковыми моделями.
Это исследование может создать прецедент в том, как решаются проблемы точности данных в области искусственного интеллекта по всему Европейскому Союзу.
Noyb, аббревиатура от «Не ваше дело», работает в Вене и известна своей приверженностью обеспечению соблюдения стандартов ЕС по защите данных. Стратегически он фокусируется на делах, которые имеют широкие последствия для цифровых прав в Европе.
В Европе аналогичные опасения возникли, когда исследование показало, что чат-бот Microsoft Bing AI, переименованный в Copilot, предоставлял вводящую в заблуждение информацию во время местных выборов в Германии и Швейцарии.
Даже Gemini AI от Google подвергается критике за создание неточных и предвзятых изображений, что побуждает Google извиниться и взять на себя обязательство обновить модель.
Выводы
Эти примеры иллюстрируют растущие проблемы при интеграции ИИ в повседневные приложения, где точность информации и соблюдение законов о конфиденциальности приобретают фундаментальное значение.
Исход жалобы Нойба на OpenAI может иметь серьезные последствия для разработчиков ИИ, потенциально требуя от них принятия более строгих мер по обеспечению точности и прозрачности данных для соблюдения законодательства ЕС.
Поскольку технологии искусственного интеллекта становятся все более интегрированными в общество, задача таких разработчиков, как OpenAI, состоит в том, чтобы гарантировать, что их продукты не только раздвигают границы технологических возможностей.