Обговорюючи нещодавню дискусію про те, як Open і Google отримують свої дані як модель, ви помітите, що в дискусії більше домінують два терміни: відкритий і Google. Статті, нещодавно опубліковані в The Wall Street Journal і NY Times, показують, що те, як компанії, пов’язані зі штучним інтелектом, збирають дані, було не на належному рівні та викликало головний біль щодо того, які дані є правдивими та який етичний кут використовувався при створенні системи, пов’язаної зі штучним інтелектом. .

Сумнівна тактика OpenAI

Однак на піку свого розвитку New York Times наголосила на більших результатах Open AI, представлених у Whisper. Ця модель транскрипції аудіо в текст вдосконалена як доповнення до технології Open AI Language Processor, LP-4. Дійсно, безпілотний автомобіль OpenAI не збирає інформацію, що є складним питанням, з яким компанія звертається; скоріше останній вступає в дію за таких умов.

Хоча початкова популярність законів про збір даних була пов’язана з міркуваннями щодо авторського права на добросовісне використання, останні також стали правовою основою для цих актів. За словами Брокмана, один із засновників і генеральний директор OpenAI надав деяку інформацію, необхідну для транскрипції. Однак він продовжує, що історик також зробив свій внесок у транскрипцію.

Однак корпорація Google займає центральне місце навіть у вирішенні цих невеликих проблем у таких великих підприємствах, як ця, тобто функція збору даних, як-от OpenAI, є меншою організацією та бере участь у проектах, орієнтованих на гіганта галузі, і користувач був лише попереджений і не сказав, кого звинуватив YouTube.

Окрім цього підходу, Facebook також охопив основу дотримання TOS і заборонив несанкціоновані дії, особливо так зване збирання даних. У випадку з Джоном Конлі (представником YouTube) він відповів на запитання, чи використовувалися моделі для навчання ШІ на основі контенту після збору даних від творців контенту.

Навпаки. А також навчання машин, на якому боці Meta є актуальною проблемою, що призводить до її нездійсненності. Група штучного інтелекту у фірмі, яка досягла успіху в суперництві OpenAI, вважала, що обидві команди використовували всі доступні засоби, щоб досягти кращих результатів для своїх компаній, включаючи оригінальне мислення, не звертаючи уваги на жодні питання на користь сторони, якій було відмовлено.

Meta, схоже, підготувала типи запитань, на які вони прагнули отримати відповідь щодо того, яка делегована робота буде виконана, хто буде відповідати за закупівлю книг у яких видавництв, що спеціалізуються на певних галузях. Незважаючи на те, що користувачі мережі надзвичайно дивовижні, державна політика взяла на себе ініціативу втручатися в особисту конфіденційність, що було підкреслено у 2018 році у справі Cambridge Analytica.

Широкий ландшафт навчання ШІ стикається з гострою дилемою: з одного боку, питання про дефіцит даних стало більш гострим за останні пару років, з іншого боку. Хоча зв’язок між ними зберігається, дослідники завжди наполягають на наявності відповідних даних для підвищення точності та підвищення продуктивності.

Крім того, прогноз Wall Street Journal пробуджує ентузіазм, який прогнозує підвищення за межі всіх цілей до початку 2020 року та перетинає кінець року з найвищою ринковою точкою. Цей метод базується на двох факторах: покладаючись на моделі, які можуть бути синтетичними для зовнішньої матриці, і навчальний план процесу прийняття рішень, де моделі навчаються на своїх рішеннях. Не очікуйте, що вони принесуть результати, але дозвольте їм спостерігати.

Юридичні та етичні наслідки

Відсутність правила про піратство може спричинити проблеми, оскільки ніщо не дозволить користувачам отримати доступ до об’єктів, захищених авторським правом, і розуміння місії може виникнути навколо закону, етики тощо. Чи стають дані нематеріальною власністю та основою для знання та визначення того, що є вашим і що це не так, у яких даних і користувачі, як відомо, є джерелом бізнесу, коли використання цих даних є невиправданим? Цей ризик полягав би в тому, щоб керівники програми науково-дослідної групи зосередилися на їх перегляді та виробленні відповідей.

Взаємозв’язок у цілях групових позовів передбачає, що конфіденційність і використання даних є відповідями, які організація не знає достатньо, щоб зробити свою діяльність законною. Дійсно, виклики (такі як етичні питання щодо процесу інтелектуального аналізу даних, що використовується для досліджень і розробок штучного інтелекту) стають складнішими, оскільки ми повинні враховувати обмеження регулювання та конфіденційність даних (оскільки природа даних знаходиться в контексті про те, як дані обробляються та використовуються).

Найжорсткіша конкуренція AI майбутнього полягає у визначенні найкращих даних для навчання систем AI, і навіть більше, це стосується того, чи будуть такі дані піддаватися загальним етичним або правовим нормам. Все навколо штучного інтелекту за своєю природою підкреслює та розширює такі концепції, як інновації та впровадження за допомогою фільтрів набору даних для компаній.

Бути технологічним штучним інтелектом ніколи не буває статичним, тому головною проблемою завжди буде використання даних, і це й надалі залишатиметься одним із пріоритетів членів спільноти, які формуються за допомогою штучного інтелекту, найкращого.

Оригінальна історія з: https://www.nytimes.com/2024/04/06/technology/tech-giants-harvest-data-artificial-intelligence.html?smid=nytcore-ios-share&sgrp=c-cb