O governo do Reino Unido acordou 12 milhões de libras para um conjunto de projetos disruptivos dedicados à tomada de decisões corretas, quando o desenvolvimento significativo da inteligência artificial ameaça o aprofundamento das lacunas. Este financiamento foi alocado através da RAi UK, ou seja, Responsible AI UK, um projeto de £ 31 milhões programado para quatro anos para examinar as consequências e implicações sociais da IA ​​generativa. Um exemplo relevante seriam os três projetos que visam questões como a saúde, a segurança social, a aplicação da lei e as indústrias de serviços financeiros, e os outros dois projetos que analisam a responsabilização da IA ​​pelas operações inteligentes e a participação pública na conceção de novas tecnologias.

Fortalecimento da aplicação da lei e dos serviços financeiros

Como é difícil tornar a luta contra a lavagem de dinheiro e o financiamento do terrorismo um sucesso total sem a implementação efetiva de regras comuns e uma colaboração estreita entre as agências de segurança pública e os provedores de serviços financeiros, a luta contra a lavagem de dinheiro e o financiamento do terrorismo continuará.

Os gráficos indicam que se os eventos forem PROVÁVEIS, então eles seriam em torno de £ 3. Também precisamos gastar US$ 5 milhões para lidar com a falta de IA para a aplicação da lei. Então, o Prof. Marion Oswald, da Universidade de Northumbria, que lidera a iniciativa, já explicou o fato de que esse é precisamente o lugar onde a IA pode começar a ser uma solução para o problema da sobrecarga de informações e ineficiência operacional. No entanto, as ferramentas de IA não atendem aos padrões da lei para produzir resultados razoáveis ​​para IA. Uma estrutura poderia ser desenvolvida nesta ordem que vincularia a imprevisibilidade causada pela IA com os três principais grupos impactados pela IA, ajudando assim a produzir aplicativos que poderiam produzir resultados probabilísticos de IA, mas manter a justiça e a responsabilidade.

Abordando as limitações dos LLMs

Mais £ 3. A soma de US$ 5 milhões é destinada ao projeto que se concentra nas restrições de grandes modelos de linguagem (LLMs), que são alavancados no processo que é médico e social. Uma professora da Universidade de Londres chamada Maria Liakata liderou esta iniciativa. Nesse sentido, ela avalia que a parte integral do alinhamento de práticas éticas é a necessidade de aplicação confiável dos modelos. O projeto visa uma análise completa de barreiras sociotécnicas, bem como a prevenção de resultados não intencionais em áreas sensíveis onde a violação de privacidade acontece o tempo todo, por exemplo, direito e assistência médica.

O projeto Participatory Harm Auditing Workbenches and Methodologies, sediado na Universidade de Glasgow, se beneficia de um patrocínio de £ 3,5 milhões. A Dra. Simone Stumpf, líder da equipe, destacou que melhorar os incentivos de previsão e geração incorreta de IA é, portanto, a principal tarefa que eles estão tentando realizar. Por meio deste projeto, ajudaremos aqueles que têm mais experiência em campos específicos a usar ferramentas para detectar riscos potenciais e deixar o sistema em boas condições. Isso permitirá que outras partes interessadas participem ativamente do processo de tomada de decisão e, assim, garantam que os sistemas de IA das gerações futuras sejam criados com todas as questões éticas em mente.

Suporte adicional do UKRI

O UK Research and Innovation (UKRI) Technology Missions Fund investiu uma economia de £ 4 milhões, que visa reforçar esses projetos. Entre eles, £ 750.000 foram alocados para The Digital Good Network, The Alan Turing Institute e The Ada Lovelace Institute, com o objetivo de facilitar a participação pública e dar poder às vozes públicas no processo de pesquisa e formulação de políticas de IA. A professora Helen Kennedy, que lidera essa iniciativa e sempre destaca o engajamento público no desenvolvimento de políticas de IA justas e responsáveis, destacou o papel significativo da opinião pública aqui. Além disso, esse fundo de £ 650.000 será alocado para um projeto compilado pelo The Productivity Institute visando a implementação de IA.

Diane Coyle, uma professora, defendeu a pesquisa interdisciplinar ao preencher a lacuna não apenas entre pesquisadores, mas também entre formuladores de políticas, empresas e desenvolvedores de tecnologia de IA para garantir que a tecnologia de IA aumente a produtividade e o bem-estar da sociedade. Esses fundos estratégicos são parte de um portfólio de projetos de £ 1 bilhão implementado pelo UKRI para reforçar a pesquisa e o desenvolvimento de IA. Esta é uma das medidas tomadas pelo Reino Unido para melhorar sua posição de competitividade no desenvolvimento ético de IA.