Дебати щодо політики штучного інтелекту (ШІ) включають багато суперечливих питань, у тому числі одне, яке існувало протягом всієї історії обчислювальної техніки: боротьба між відкритими та закритими системами. Сьогодні цей розлом знову відкрився, коли законодавці в Каліфорнії та Європі намагаються обмежити «моделі штучного інтелекту з відкритими вагами».
Відкриті вагові моделі, як і програмне забезпечення з відкритим кодом до них, є загальнодоступними системами, які дозволяють різним сторонам перевіряти та змінювати їх базовий код для різних цілей. Деякі критики стверджують, що алгоритмічні моделі або системи з відкритим вихідним кодом є «виключно небезпечними» і повинні бути обмежені. Однак довільні нормативні обмеження систем штучного інтелекту з відкритим кодом мали б серйозні недоліки, обмежуючи інновації, конкуренцію та прозорість.
Нещодавно це питання набуло нової актуальності після важливих заяв від уряду та промисловості. По-перше, 30 липня Міністерство торгівлі опублікувало великий звіт про такі моделі, який вимагався указом щодо штучного інтелекту, який президент Джо Байден підписав у жовтні. Остаточний звіт здебільшого дуже вітає відкриті системи ШІ та «окреслює обережний, але оптимістичний шлях» для них. У звіті робиться висновок, що «немає достатніх доказів щодо граничних ризиків моделей основи подвійного призначення з широко доступними вагами моделей, щоб зробити висновок, що обмеження на вагу моделей на даний момент є прийнятними, а також що обмеження ніколи не будуть прийнятними в майбутньому».
За темою: лише Конгрес і DARPA можуть приборкати небезпеки ШІ
Цей звіт з’явився після заяви Федеральної торгової комісії щодо моделей з відкритими вагами, в якій говориться, що вони «мають потенціал стимулювати інновації, зменшувати витрати, розширювати вибір споживачів і загалом приносити користь громадськості». Ці позитивні заяви адміністрації Байдена також підтвердив Дж. Д. Венс, кандидат від республіканців на посаду віце-президента, який висловив підтримку ШІ з відкритим кодом як засобу протидії великим технологіям. Це свідчить про те, що ШІ з відкритим вихідним кодом існує двопартійна підтримка.
Іншою важливою подією став нещодавній випуск компанією Meta останньої та найпотужнішої версії своєї прикордонної моделі штучного інтелекту «Llama 3.1». Марк Цукерберг, засновник і генеральний директор Meta, оголосив про випуск есе про те, як «Штучний інтелект з відкритим кодом — це шлях вперед». Хоча Llama не є ідеально відкритою системою — Meta все ще контролює базовий вихідний код — модель дозволяє розробляти додаткову програму поверх. Це сприяє більшій інновації та конкуренції в ШІ.
Але навіть якщо здається, що розробники штучного інтелекту з відкритим кодом отримають зелене світло від федеральних чиновників, інші державні та міжнародні регулятори можуть обмежити їхній потенціал.
Незрозуміло, чи будуть широкомасштабні відкриті моделі штучного інтелекту навіть легальними за низхідного та дуже обмежувального підходу Європи до технологічного регулювання. Meta вже оголосила, що не випускатиме свою наступну мультимодальну модель ШІ в Європейському Союзі «через непередбачуваний характер європейського нормативного середовища». Це сталося після того, як наприкінці червня Apple оголосила про те, що не буде розгортати найсучасніші функції ШІ в Європі «через нормативну невизначеність», пов’язану з технічним регламентом ЄС.
Ось чому Америка повинна уникати поспішного регуляторного болота, створеного ЄС для інноваторів ШІ. Європейське надмірне регулювання вже знищило цифрові інвестиції та формування бізнесу, залишивши континент майже позбавленим будь-яких великих технологічних гравців, які конкурують у всьому світі.
На жаль, такі мандати, що руйнують інновації, можуть бути впроваджені на державному рівні в Сполучених Штатах. Демократичні законодавці в Каліфорнії запропонували SB 1047, який передбачає створення «відділу прикордонної моделі» для забезпечення дотримання низки нових правил і покарань щодо ШІ. Закон вимагатиме, щоб передові розробники надали «розумну впевненість», що «похідні моделі не становлять необґрунтованого ризику заподіяння чи сприяння критичній шкоді». Це неможливий стандарт для провайдерів з відкритим кодом, щоб задовольнити провідні технологічні експерти, які попереджають, що законопроект «серйозно обмежить відкриті моделі штучного інтелекту» і «задушить штучний інтелект з відкритим кодом і знизить безпеку».
Це може здатися нелогічним, оскільки прихильники каліфорнійського закону описують його як захід безпеки ШІ. Однак, якщо законопроект блокує сучасні дослідження штучного інтелекту та підриває інновації, це також обмежить важливі системи та програми для підвищення безпеки. Що ще гірше, такий результат підірве безпеку в інший спосіб, виступаючи як подарунок для Китаю, який агресивно прагне досягти своєї заявленої мети випередити Америку та стати світовим лідером у сфері ШІ до 2030 року.
Китай швидко скорочує відставання від США в інноваціях ШІ. Зайве говорити, що китайський уряд не хвилюватиметься про виконання будь-яких вимог каліфорнійських бюрократів. Вони будуть просто орати вперед. Як правильно зазначив Цукерберг з Meta в липневому дописі на Facebook, «обмеження американських інновацій закритою розробкою збільшує ймовірність того, що ми взагалі не лідируємо», тому «наша найкраща стратегія — побудувати міцну відкриту екосистему».
Сем Альтман з OpenAI зробив подібну думку в липневій редакційній статті, в якій він виступав за співпрацю з іншими демократичними країнами для протидії авторитарним режимам, таким як Китай і Росія. «Переконавшись, що моделі з відкритим вихідним кодом будуть доступні для розробників у цих країнах, ми ще більше посилимо нашу перевагу», — написав Альтман. «Завдання щодо того, хто очолить ШІ, полягає не лише в експорті технологій, а в експорті цінностей, які підтримує ця технологія».
Дійсно, потужна та різноманітна база технологій штучного інтелекту не тільки зміцнює нашу економіку та забезпечує кращі програми та робочі місця, але також зміцнює нашу національну безпеку та дозволяє нашим цінностям плюралізму, особистої свободи, прав особи та свободи слова формувати глобальні ринки інформаційних технологій. . Штучний інтелект з відкритим вихідним кодом відіграватиме вирішальну роль у досягненні цієї мети — до тих пір, поки політики це дозволять.
Адам Тірер є постійним старшим науковим співробітником Програми технологій та інновацій Інституту R Street. Раніше він працював старшим науковим співробітником Heritage Foundation і директором відділу досліджень телекомунікацій в Інституті Катона. Він має ступінь магістра з управління міжнародним бізнесом в Університеті Меріленда та ступінь бакалавра в Блумінгтонському університеті Індіани.
Ця стаття призначена для загальної інформації та не призначена і не повинна розглядатися як юридична чи інвестиційна порада. Погляди, думки та погляди, висловлені тут, є лише автором і не обов’язково відображають погляди та думки Cointelegraph.