openai

OpenAI, лидер в разработке технологий искусственного интеллекта, в настоящее время находится в центре жалобы на конфиденциальность в Австрии, поданной группой по защите прав данных Noyb. В жалобе ChatGPT OpenAI обвиняется в распространении ложной информации о человеке и потенциальном нарушении законов о конфиденциальности Европейского Союза.

OpenAI Сэма Альтмана обвиняют в распространении ложной информации о людях: жалоба в Австрии

Жалоба была подана Noyb 29 апреля, в которой утверждалось, что OpenAI не устраняет неточности в информации, предоставленной ее AI-чат-ботом ChatGPT в отношении анонимного общественного деятеля.

Несмотря на просьбы деятеля, OpenAI отказалась исправлять или удалять неточные данные и не раскрыла источники своих обучающих данных.

Этот отказ может представлять собой нарушение строгих правил ЕС по защите данных, призванных защитить личную информацию людей и обеспечить точность данных.

Жалоба Нойба подчеркивает серьезную проблему в области искусственного интеллекта: баланс между технологическим прогрессом и правами людей на неприкосновенность частной жизни.

Общий регламент ЕС по защите данных (GDPR) гласит, что персональные данные должны быть точными и, при необходимости, обновляться; необходимо принять все разумные меры для обеспечения немедленного удаления или исправления неточных персональных данных.

Маартье де Грааф, юрист по защите данных из Noyb, заявил: «Если система не может давать точные и прозрачные результаты, ее нельзя использовать для получения данных о людях».

Технологии должны соответствовать требованиям законодательства, а не наоборот». В этом заявлении подчеркивается юридическое ожидание того, что технологии искусственного интеллекта должны не только расширять свои возможности, но и соответствовать установленным правовым основам, защищающим права людей.

Расследование австрийских властей

Австрийский орган по защите данных исследует методы обработки данных OpenAI, в частности, то, как он обеспечивает точность персональных данных, обрабатываемых его большими языковыми моделями.

Это исследование может создать прецедент в том, как решаются проблемы точности данных в области искусственного интеллекта по всему Европейскому Союзу.

Noyb, аббревиатура от «Не ваше дело», работает в Вене и известна своей приверженностью обеспечению соблюдения стандартов ЕС по защите данных. Стратегически он фокусируется на делах, которые имеют широкие последствия для цифровых прав в Европе.

В Европе аналогичные опасения возникли, когда исследование показало, что чат-бот Microsoft Bing AI, переименованный в Copilot, предоставлял вводящую в заблуждение информацию во время местных выборов в Германии и Швейцарии.

Даже Gemini AI от Google подвергается критике за создание неточных и предвзятых изображений, что побуждает Google извиниться и взять на себя обязательство обновить модель.

Выводы

Эти примеры иллюстрируют растущие проблемы при интеграции ИИ в повседневные приложения, где точность информации и соблюдение законов о конфиденциальности приобретают фундаментальное значение.

Исход жалобы Нойба на OpenAI может иметь серьезные последствия для разработчиков ИИ, потенциально требуя от них принятия более строгих мер по обеспечению точности и прозрачности данных для соблюдения законодательства ЕС.

Поскольку технологии искусственного интеллекта становятся все более интегрированными в общество, задача таких разработчиков, как OpenAI, состоит в том, чтобы гарантировать, что их продукты не только раздвигают границы технологических возможностей.