Інститут безпеки штучного інтелекту (ШІ) Сполученого Королівства має намір розширитися на міжнародному рівні завдяки новому офісу в Сполучених Штатах.

20 травня Мішель Донелан, міністр технологій Великобританії, оголосила, що влітку інститут відкриє свій перший офіс за кордоном у Сан-Франциско.

У повідомленні говориться, що стратегічний вибір офісу в Сан-Франциско дозволить Сполученому Королівству «використати багатство технічних талантів, доступних у районі затоки», а також співпрацювати з однією з найбільших у світі лабораторій ШІ, розташованих між Лондоном і Сан-Франциско.

Крім того, у компанії заявили, що цей крок допоможе їй «зміцнити» відносини з ключовими гравцями в США для забезпечення глобальної безпеки штучного інтелекту «в інтересах суспільства».

У лондонському відділенні Інституту безпеки штучного інтелекту вже є команда з 30 осіб, яка працює над розширенням і набуває додаткових знань, зокрема, у сфері оцінки ризиків для передових моделей ШІ.

Донелан сказав, що розширення представляє лідера Великобританії та бачення безпеки штучного інтелекту в дії.

«Це ключовий момент у здатності Великої Британії вивчати як ризики, так і потенціал штучного інтелекту з глобальної точки зору, зміцнюючи наше партнерство зі США та прокладаючи шлях для інших країн використовувати наш досвід, оскільки ми продовжуємо лідирувати у світі Безпека ШІ».

Це сталося після знаменного британського саміту з безпеки штучного інтелекту, який відбувся в Лондоні в листопаді 2023 року. Цей саміт став першим у своєму роді, присвяченим безпеці штучного інтелекту в глобальному масштабі.

За темою: Microsoft загрожує багатомільярдний штраф у ЄС за Bing AI

У заході взяли участь лідери з усього світу, включаючи США та Китай, а також провідні голоси у сфері штучного інтелекту, зокрема президент Microsoft Бред Сміт, генеральний директор OpenAI Сем Альтман, генеральний директор Google і DeepMind Деміс Хассабісс та Ілон Маск.

У цьому останньому повідомленні Сполучене Королівство повідомило, що також публікує добірку останніх результатів інституту з тестування безпеки, яке він провів для п’яти загальнодоступних передових моделей ШІ.

Він анонімізував моделі та сказав, що результати дають «моментальний знімок» можливостей моделей замість того, щоб позначати їх як «безпечні» чи «небезпечні».

Частина висновків включала те, що деякі моделі можуть вирішити завдання кібербезпеки, хоча інші мають проблеми з більш просунутими. Було виявлено, що кілька моделей мають знання на рівні доктора філософії з хімії та біології.

Було зроблено висновок, що всі протестовані моделі були «дуже вразливі» до базових джейлбрейків і що протестовані моделі не змогли виконати більш «складні, трудомісткі завдання» без нагляду людини.

Ян Хогерт, голова інституту, сказав, що ці оцінки допоможуть зробити внесок у емпіричну оцінку можливостей моделі.

«Безпека штучного інтелекту все ще є дуже молодою сферою, яка розвивається. Ці результати представляють лише невелику частину підходу до оцінки, який розробляє AISI».

Журнал: «Sic AI один проти одного», щоб запобігти AI-апокаліпсису: Девід Брін, автор наукової фантастики