Компанії зі штучного інтелекту OpenAI і Anthropic нещодавно погодилися надати Інституту безпеки ШІ США ранній доступ до будь-яких «основних» нових моделей ШІ, розроблених їхніми відповідними фірмами. 

Хоча угоду нібито було підписано через взаємну стурбованість безпекою, незрозуміло, якою буде роль уряду в разі технологічного прориву зі значними наслідками для безпеки. 

Генеральний директор і співзасновник OpenAI Сем Альтман назвав угоду необхідним кроком у нещодавній публікації на платформі соціальних мереж X. 

OpenAI і Anthropic працюють над однією метою: розробкою загального штучного інтелекту (AGI). Немає наукового консенсусу щодо того, як саме слід визначати AGI, але основна ідея полягає в тому, що штучний інтелект здатний робити все, що може робити людина за наявності необхідних ресурсів. 

Обидві компанії окремо мають статути та місії, які пояснюють, що їхні незалежні цілі — безпечне створення AGI з інтересами людства. Якщо одна або обидві компанії досягнуть успіху, вони стануть фактичними охоронцями технологій, здатних наповнити машини інтелектом людини. 

Уклавши угоду з урядом США щодо розкриття інформації про свої моделі до запуску будь-якого продукту, обидві компанії поклали цю відповідальність на федеральний уряд. 

Площа 51

Як нещодавно повідомляв Cointelegraph, OpenAI може бути на порозі прориву. Вважається, що проекти компанії «Полуниця» та «Оріон» здатні використовувати передові міркування та нові методи вирішення проблеми галюцинацій ШІ.

Згідно зі звітом The Information, уряд США вже впровадив ці інструменти та будь-які ранні внутрішні ітерації ChatGPT із ними.

Повідомлення в блозі Національного інституту стандартів і технологій США вказує на те, що ця угода та пов’язані з нею правила безпеки є добровільними для компаній-учасниць. 

На думку компаній і аналітиків, які її підтримують, переваги цієї форми легкого регулювання полягає в тому, що вона стимулює зростання та дозволяє сектору регулювати себе. Прихильники, такі як Альтман, цитують цю угоду як приклад того, як саме така співпраця може принести користь як уряду, так і корпоративному світу. 

Однак одним із потенційно тривожних побічних ефектів регулювання легким дотиком є ​​відсутність прозорості. Якщо OpenAI або Anthropic досягнуть успіху у своїй місії, а уряд вважає, що громадськості не потрібно знати, то, схоже, не буде жодного правового стимулу для розкриття інформації. 


За темою: генеральний директор Anthropic каже, що майбутнє штучного інтелекту – це вулик із корпоративною структурою