За даними Cointelegraph, News Media Alliance (NMA) стверджує, що розробники штучного інтелекту значною мірою покладаються на незаконне копіювання захищених авторським правом матеріалів із новинних видань і журналістів для навчання своїх моделей. У 77-сторінковій документації та супровідній заявці до Бюро авторських прав США NMA заявило, що набори даних, які використовуються для навчання моделей ШІ, містять значно більше вмісту видавців новин порівняно з іншими джерелами. Це призводить до того, що контент, створений штучним інтелектом, порушує авторські права видавців і ставить новинні видання в конкуренцію моделям штучного інтелекту.

NMA стверджує, що в той час як видавці новин інвестують і ризикують, розробники ШІ отримують винагороду з точки зору користувачів, даних, створення бренду та грошей на рекламу. Зменшення доходів, можливості працевлаштування та заплямовані стосунки з глядачами є іншими невдачами, з якими стикаються видавці. Щоб вирішити ці проблеми, NMA рекомендував Бюро авторських прав оголосити, що використання вмісту публікації для монетизації систем ШІ шкодить видавцям. Група також закликала до різних моделей ліцензування та заходів прозорості, щоб обмежити використання матеріалів, захищених авторським правом, і вжити заходів для видалення захищеного вмісту зі сторонніх веб-сайтів.

Незважаючи на визнання переваг генеративного штучного інтелекту, NMA зазначив, що видання та журналісти можуть використовувати штучний інтелект для коректури, генерації ідей та оптимізації пошукових систем. Чат-боти зі штучним інтелектом, як-от ChatGPT від OpenAI, Bard від Google і Claude від Anthropic, за останні 12 місяців стали частіше використовуватися. Однак методи навчання цих моделей штучного інтелекту піддалися критиці, і всі вони зіткнулися з позовами про порушення авторських прав у суді. Google заявив, що візьме на себе юридичну відповідальність, якщо її клієнти, як стверджується, порушили авторські права за використання її генеративних продуктів штучного інтелекту в Google Cloud і Workspace, але її пошуковий інструмент Bard не поширюється на цю обіцянку правового захисту. OpenAI і Google не відразу відповіли на запит про коментар.