Rząd Wielkiej Brytanii zgodził się przeznaczyć 12 milionów funtów na zestaw przełomowych projektów poświęconych podejmowaniu właściwych decyzji w sytuacji, gdy znaczący rozwój sztucznej inteligencji grozi pogłębieniem luk. Fundusze te zostały przyznane za pośrednictwem RAi UK, tj. Responsible AI UK, projektu o wartości 31 milionów funtów zaplanowanego na cztery lata w celu zbadania konsekwencji i implikacji społecznych generatywnej sztucznej inteligencji. Odpowiednim przykładem mogą być trzy projekty skupiające się na takich kwestiach, jak zdrowie, zabezpieczenie społeczne, egzekwowanie prawa i usługi finansowe, a także dwa pozostałe projekty dotyczące odpowiedzialności sztucznej inteligencji za inteligentne operacje i udział społeczeństwa w projektowaniu nowych technologii.

Wzmocnienie egzekwowania prawa i usług finansowych

Ponieważ trudno jest zapewnić całkowity sukces AML-CFT bez skutecznego wdrożenia wspólnych zasad i ścisłej współpracy między organami egzekwowania prawa a dostawcami usług finansowych, walka z praniem pieniędzy i finansowaniem terroryzmu będzie kontynuowana.

Wykresy wskazują, że jeśli zdarzenia są PRAWDOPODOBNE, to ich cena wynosi około 3 GBP. Musimy także wydać 5 milionów dolarów, aby uporać się z brakiem sztucznej inteligencji w organach ścigania. Kierująca inicjatywą profesor Marion Oswald z Uniwersytetu Northumbria wyjaśniła już, że właśnie od tego AI może zacząć być rozwiązaniem problemu nadmiaru informacji i nieefektywności operacyjnej. Narzędzia sztucznej inteligencji nie spełniają jednak prawnych standardów zapewniania rozsądnych wyników w przypadku sztucznej inteligencji. W tej kolejności można opracować strukturę, która łączyłaby nieprzewidywalność spowodowaną sztuczną inteligencją z trzema głównymi grupami, na które wpływa sztuczna inteligencja, pomagając w ten sposób w tworzeniu aplikacji, które mogłyby generować probabilistyczne wyniki sztucznej inteligencji, zachowując jednocześnie sprawiedliwość i odpowiedzialność.

Rozwiązanie ograniczeń LLM

Kolejne 3 funty. Na projekt, który uwzględnia ograniczenia dużych modeli językowych (LLM), wykorzystywanych w procesach medycznych i społecznych, przeznaczono kwotę 5 milionów dolarów. Inicjatywą kierowała profesor z Uniwersytetu Londyńskiego, Maria Liakata.  W tym względzie uważa, że ​​integralną częścią ujednolicenia praktyk etycznych jest potrzeba wiarygodnego stosowania modeli. Projekt ma na celu dogłębną analizę barier społeczno-technicznych, a także zapobieganie niezamierzonym skutkom we wrażliwych obszarach, w których stale dochodzi do naruszania prywatności, np. Prawo i opieka zdrowotna. 

Projekt Participatory Harm Auditing Workbenches and Metodologies, realizowany na Uniwersytecie w Glasgow, korzysta ze sponsoringu w wysokości 3 funtów. ,5 milionów. Dr Simone Stumpf, liderka zespołu, zwróciła uwagę, że głównym zadaniem, jakie starają się osiągnąć, jest zatem złagodzenie czynników zachęcających do błędnego przewidywania i generowania sztucznej inteligencji. Dzięki temu projektowi pomożemy osobom posiadającym największą wiedzę w poszczególnych dziedzinach wykorzystać narzędzia do wykrywania potencjalnych zagrożeń i pozostawić system w dobrej kondycji. Umożliwi to innym zainteresowanym stronom wzięcie aktywnego udziału w procesie decyzyjnym, a tym samym zapewni, że systemy sztucznej inteligencji przyszłych pokoleń będą tworzone z uwzględnieniem wszelkich kwestii etycznych.  

Dodatkowe wsparcie ze strony UKRI

Brytyjski fundusz na rzecz badań i innowacji (UKRI) Technology Missions Fund zainwestował 4 miliony funtów, co ma na celu wzmocnienie tych projektów. Spośród nich 750 000 funtów przeznaczono na rzecz Digital Good Network, Instytutu Alana Turinga i Instytutu Ady Lovelace, których celem jest ułatwienie udziału społeczeństwa i nadanie władzy głosowi publicznemu w badaniach nad sztuczną inteligencją i procesie kształtowania polityki. Profesor Helen Kennedy, która przewodniczy tej inicjatywie i zawsze podkreśla zaangażowanie społeczeństwa w opracowywanie uczciwych i odpowiedzialnych polityk w zakresie sztucznej inteligencji, podkreśliła znaczącą rolę opinii publicznej w tym procesie. Ponadto fundusz w wysokości 650 000 funtów zostanie przeznaczony na projekt opracowany przez The Productivity Institute, mający na celu wdrożenie sztucznej inteligencji. 

Profesor Diane Coyle opowiadała się za interdyscyplinarnymi badaniami poprzez wypełnienie luki nie tylko między badaczami, ale także między decydentami, przedsiębiorstwami i twórcami technologii sztucznej inteligencji, aby zapewnić, że technologia sztucznej inteligencji zwiększa produktywność i dobrobyt społeczeństwa. Takie fundusze strategiczne stanowią część portfela projektów o wartości 1 miliarda funtów wdrożonych przez UKRI w celu wspierania badań i rozwoju sztucznej inteligencji. Jest to jedno ze działań podjętych przez Wielką Brytanię w celu poprawy swojej pozycji konkurencyjności w zakresie etycznego rozwoju sztucznej inteligencji.