Federal Reserve otimista com a IA impulsionando a economia

A Reserva Federal dos EUA levantou recentemente a ideia de que a inteligência artificial (IA) poderia provocar deflação na reunião do Comité Federal de Mercado Aberto (FOMC), o que poderia impulsionar o crescimento económico. O Legislativo discutiu fatores que poderiam levar à deflação no futuro.

Inicialmente, os membros do comité citaram factores como o contínuo abrandamento das pressões entre a oferta e a procura de produtos e no mercado de trabalho. Consideram também o impacto desfasado do passado aperto da política monetária sobre os salários e os preços, o atraso na resposta da evolução do mercado de arrendamento aos preços da habitação e as perspectivas de novas melhorias do lado da oferta. No entanto, acreditam que as tecnologias relacionadas com a IA também podem desempenhar um papel importante na desaceleração da inflação. A aplicação desta tecnologia inovadora pode melhorar significativamente a produtividade das empresas e, assim, promover o crescimento económico.

Fonte: X Netizen compilou atas da reunião do FOMC

Os participantes da reunião também observaram que as expectativas de inflação no longo prazo permanecem estáveis, o que é visto como fundamental para desacelerar o processo inflacionário. Por isso, clamam por dados mais favoráveis ​​para garantir que a inflação possa avançar de forma constante em direção à meta de 2%.

A ênfase no papel da IA ​​na mitigação dos fatores inflacionários mostra a crescente aceitação desta tecnologia emergente em vários setores e países. O governo dos EUA poderá eventualmente dar mais apoio à indústria, especialmente porque tem pressionado pela regulamentação regional da IA. Em dezembro de 2023, a administração Biden iniciou um plano para revolucionar a IA, com foco especial na sua segurança, proteção e confiança. A iniciativa estabelece padrões fundamentais para a implantação segura de IA generativa e é a primeira ordem executiva dos EUA a regulamentar com segurança a IA. Esta medida é consistente com os esforços da UE em matéria de IA.

Gigantes da tecnologia alertam sobre riscos de IA

Apesar das perspectivas promissoras da IA, grandes empresas de tecnologia, incluindo Nvidia, Meta, Microsoft e Google, enfatizaram os riscos da inteligência artificial em documentos submetidos à Comissão de Valores Mobiliários dos EUA (SEC).

Na secção “Fatores de Risco” dos seus relatórios financeiros, estes gigantes da tecnologia alertaram para questões relacionadas com o desenvolvimento da IA. Por exemplo, Meta mencionou que a tecnologia de IA poderia ser usada para influenciar eleições. De acordo com um relatório da Bloomberg, a Microsoft mencionou as questões legais que podem surgir do uso de dados pelos seus sistemas de IA, incluindo a responsabilidade por direitos autorais. Ao mesmo tempo, a empresa-mãe do Google, Alphabet, expressou o impacto da IA ​​nos direitos humanos e na privacidade.

A IA generativa está conquistando o mundo! Mas a Nintendo ainda não quer usá-lo? Furukawa: Existem preocupações sobre os direitos de propriedade intelectual

Estas revelações de risco contrastam fortemente com as discussões otimistas sobre IA em teleconferências de resultados e declarações públicas. Alguns dos avisos vão contra as relações públicas de algumas empresas. A Adobe, por exemplo, observou que a disseminação da IA ​​poderia ameaçar as vendas de software, apesar de ter mencionado anteriormente a importância do Photoshop.

Embora nem todos os riscos revelados se concretizem, alguns sim. Por exemplo, Huida alertou sobre restrições aos seus produtos devido ao uso indevido de IA. Posteriormente, o governo dos EUA impôs controles à exportação de chips avançados para a China.

As previsões da Fed contrastam fortemente com os avisos dos gigantes tecnológicos, sugerindo que, ao mesmo tempo que promovemos o desenvolvimento da IA, também precisamos de ser cautelosos quanto aos riscos que esta pode trazer. O futuro da IA ​​está cheio de potencial e acompanhado de desafios. Como equilibrar os dois se tornará o foco de atenção de todas as partes.