Обсуждая недавние дебаты о том, как Open и Google приводят свои данные в соответствие с моделью, вы заметите, что в дебатах больше доминируют два термина: open и Google. Статьи, опубликованные в The Wall Street Journal и NY Times, недавно показали, что то, как компании, связанные с ИИ, собирают данные, было не на должном уровне и вызвало головную боль относительно того, какие данные верны и какой этический подход использовался при создании системы, связанной с ИИ. .

Сомнительная тактика OpenAI

Однако на пике популярности New York Times подчеркивала более важные результаты открытого искусственного интеллекта, достигнутые с помощью Whisper. Эта модель транскрипции аудио в текст является дополнением к технологии языкового процессора Open AI, LP-4. Действительно, беспилотный автомобиль OpenAI предназначен не для сбора информации, что является сложной задачей, с которой сталкивается компания; скорее, последнее вступает в игру в таких условиях.

Хотя первоначальная популярность законов о сборе данных была связана с соображениями авторского права добросовестного использования, последнее также стало правовой основой для этих действий. По словам Брокмана, один из основателей и генеральный директор OpenAI предоставил некоторую информацию, необходимую для транскрипции. Однако далее он говорит, что историк также внес свой вклад в транскрипцию.

Тем не менее, корпорация Google занимает центральное место даже в таких небольших вопросах для более крупных предприятий, подобных этому, то есть функция сбора данных, такая как OpenAI, является меньшей организацией и участвует в проектах, ориентированных на отраслевого гиганта, и пользователь был только предупрежден и не сказано, кого виноват YouTube.

Помимо этого подхода, Facebook также контролировал соблюдение TOS и запрещал несанкционированные действия, особенно так называемый сбор данных. В случае с Джоном Конли (представителем YouTube) он ответил на вопрос, использовались ли модели для обучения ИИ на основе контента, после сбора данных от создателей контента.

Напротив. А также тренировочные машины, на чьей стороне Мета — это текущая проблема, ведущая к ее неосуществимости. Группа искусственного интеллекта в фирме, добившаяся успеха в соперничестве с OpenAI, считала, что обе команды использовали все доступные средства для достижения лучшего результата для своих компаний, включая оригинальное мышление, не обращая внимания на какие-либо вопросы в пользу отвергнутой стороны.

Похоже, что Meta подготовила типы вопросов, на которые они хотели получить ответ: какая делегированная работа будет выполняться, кто будет отвечать за закупку книг, издатели, специализирующиеся в конкретных областях. Хотя пользовательский опыт сети чрезвычайно удивителен, установленная государственная политика взяла на себя инициативу вмешиваться в личную конфиденциальность, что было подчеркнуто в 2018 году делом Cambridge Analytica.

Более широкий ландшафт обучения ИИ сталкивается с насущной дилеммой: с одной стороны, вопрос о нехватке данных стал более острым в последние пару лет, с другой стороны. Хотя связь между ними сохраняется, исследователи всегда настаивают на наличии адекватных данных для повышения точности и производительности.

Кроме того, энтузиазм вызывает прогноз Wall Street Journal, согласно которому рост экономики превысит все целевые показатели предыдущего 2020 года и достигнет конца года с самой высокой рыночной точкой. Этот метод основан на двух факторах: использовании моделей, которые могут быть синтетическими для определения внешней матрицы, и учебной программе процесса принятия решений, в которой модели учатся на основе своих решений. Не ждите, что они принесут результаты, но позвольте им быть наблюдаемыми.

Юридические и этические последствия

Отсутствие правила о пиратстве может вызвать проблемы, поскольку ничто не может позволить пользователям получить доступ к объектам, защищенным авторским правом, и понимание миссии может возникнуть вокруг закона, этики и т. д. Становятся ли данные нематериальной собственностью и основой для знания и утверждения того, что принадлежит вам, а что? это не так, когда известно, что данные и пользователь являются источником бизнеса, когда использование этих данных необоснованно? Этот риск может привести к тому, что руководители программы исследований и разработок сосредоточатся на их рассмотрении и выработке ответов.

Взаимосвязь целей групповых кампаний будет означать, что конфиденциальность и использование данных — это ответы, о которых организация не знает достаточно, чтобы сделать свою деятельность законной. Действительно, проблемы (такие как этические проблемы, связанные с процессом интеллектуального анализа данных, используемого для исследований и разработок ИИ) усложняются, потому что нам приходится учитывать нормативные ограничения и конфиденциальность данных (поскольку природа данных находится в контексте о том, как данные обрабатываются и используются).

Самая жесткая конкуренция в области искусственного интеллекта будущего заключается в выявлении лучших данных для обучения систем искусственного интеллекта, и, более того, речь идет о том, будут ли такие данные подвергаться общим этическим или правовым нормативным рамкам. Все, что связано с ИИ, по самой своей природе подчеркивает и расширяет такие концепции, как инновации и внедрение посредством фильтров наборов данных для корпораций.

Быть технологическим искусственным интеллектом никогда не бывает статичным, поэтому главной проблемой всегда будет использование данных, и оно будет продолжать оставаться одним из приоритетов членов сообщества, которые обретают форму благодаря использованию искусственного интеллекта, лучшего.

Оригинал истории: https://www.nytimes.com/2024/04/06/technology/tech-giants-harvest-data-artificial-intelligence.html?smid=nytcore-ios-share&sgrp=c-cb