Escrito por: IOSG Ventures

1. A perspectiva de agentes centralizados de inteligência artificial

Os agentes de inteligência artificial têm o potencial de revolucionar a forma como interagimos com a web e realizamos tarefas online. Embora haja muita discussão sobre o aproveitamento de agentes de IA para trilhos de pagamento de criptomoedas, é importante reconhecer que empresas estabelecidas da Web 2.0 também estão bem posicionadas para oferecer conjuntos abrangentes de produtos para agentes.

A maioria dos agentes da Web2 aparece na forma de assistentes ou ferramentas verticais, com capacidades de execução apenas fracas. Isto se deve ao fato de o modelo básico não estar suficientemente maduro, bem como à incerteza regulatória e outros motivos. Os agentes de hoje ainda estão no primeiro estágio. Eles podem ter um bom desempenho em áreas específicas, mas basicamente não têm capacidade de generalização. Por exemplo, a Alibaba International tem um agente que ajuda os comerciantes a responder a e-mails relativos a disputas de cartão de crédito. Um agente muito simples chama o registro de remessa e outros dados, gera e envia de acordo com o template, e tem uma alta taxa de sucesso para evitar que a administradora do cartão de crédito deduza dinheiro.

Gigantes da tecnologia como Apple e Google, bem como empresas especialistas em inteligência artificial como OpenAI ou Anthropic, parecem particularmente adequados para explorar as sinergias do desenvolvimento de sistemas de agentes. A força da Apple reside no seu ecossistema de dispositivos de consumo que servem como hospedeiros para modelos de IA e um portal para interação do usuário. O sistema Apple Pay da empresa permite que os agentes facilitem pagamentos online seguros. O Google, com seu vasto índice de dados da web e capacidade de fornecer incorporações em tempo real, pode fornecer aos agentes um acesso sem precedentes às informações. Enquanto isso, potências de IA como OpenAI e Anthropic podem se concentrar no desenvolvimento de modelos especializados capazes de lidar com tarefas complexas e gerenciar transações financeiras. Além das grandes empresas Web2, há também um grande número de startups nos Estados Unidos que estão construindo esses agentes, como ajudar dentistas a gerenciar consultas ou auxiliar na geração de relatórios pós-diagnóstico e de tratamento, que são cenários muito detalhados.

Contudo, estes gigantes da Web 2.0 enfrentam o clássico dilema do inovador. Apesar das suas proezas tecnológicas e domínio do mercado, devem navegar nas águas traiçoeiras da inovação disruptiva. O desenvolvimento de agentes verdadeiramente autónomos representa um afastamento significativo dos seus modelos de negócio estabelecidos. Além disso, a imprevisibilidade da IA, combinada com os elevados riscos das transações financeiras e da confiança dos utilizadores, colocam desafios significativos.

2. O dilema do inovador: desafios enfrentados pelos provedores centralizados

O Dilema do Inovador descreve o paradoxo de que as empresas bem-sucedidas muitas vezes têm dificuldade em adotar novas tecnologias ou modelos de negócios, mesmo quando essas inovações são críticas para o crescimento a longo prazo. No cerne do problema está a relutância das empresas existentes em introduzir novos produtos ou tecnologias cuja experiência inicial do utilizador pode não ser tão sofisticada como as suas ofertas existentes. Estas empresas temem que a adoção de tais inovações possa alienar a sua atual base de clientes, que está habituada a um certo nível de refinamento e fiabilidade. Esta hesitação decorre do risco de minar as expectativas há muito cultivadas pelos utilizadores.

2.1 Imprevisibilidade do agente e confiança do usuário

Grandes empresas de tecnologia como Google, Apple e Microsoft construíram seus impérios com base em tecnologias e modelos de negócios comprovados. A introdução de agentes totalmente autónomos representa um afastamento significativo destas normas estabelecidas. Esses agentes, principalmente nas fases iniciais, inevitavelmente apresentarão imperfeições e aspectos imprevisíveis. A natureza não determinística dos modelos de IA significa que existe sempre o risco de comportamento inesperado, mesmo após testes extensivos.

As apostas são muito altas para essas empresas. Um passo em falso poderia não só prejudicar a sua reputação, mas também expô-los a riscos jurídicos e financeiros significativos. Isto cria um forte incentivo para que atuem com cautela, potencialmente perdendo as vantagens de serem pioneiros no espaço dos agentes.

Para provedores centralizados que consideram a implantação de agentes, o risco de protestos dos clientes é significativo. Ao contrário das startups, que podem girar rapidamente sem muito a perder, os gigantes da tecnologia estabelecidos têm milhões de usuários que esperam um serviço consistente e confiável. Qualquer grande passo em falso do agente pode levar a um pesadelo de relações públicas.

Considere um cenário em que um agente toma uma série de decisões financeiras erradas em nome de um usuário. O clamor resultante ameaça minar a confiança cuidadosamente construída ao longo dos anos. Os usuários podem questionar não apenas o agente, mas todos os serviços baseados em IA da empresa.

2.2 Critérios de avaliação ambíguos e desafios regulatórios

Além disso, como avaliar o que constitui uma resposta “correta” do agente complica ainda mais a questão. Em muitos casos, não está claro se a resposta do agente foi realmente errada ou simplesmente um acidente. Essa área cinzenta pode levar a disputas que prejudicam ainda mais o relacionamento com os clientes.

Talvez o obstáculo mais assustador enfrentado pelos fornecedores de agentes centralizados seja o ambiente regulatório complexo e em evolução. À medida que estes agentes se tornam mais autónomos e lidam com tarefas cada vez mais sensíveis, entram numa zona regulamentar cinzenta que pode representar desafios significativos.

As regulamentações financeiras são particularmente complicadas. Se um agente tomar decisões financeiras ou executar transações em nome dos usuários, poderá estar sujeito à regulamentação dos reguladores financeiros. Além disso, os requisitos de conformidade podem ser amplos e variar significativamente entre jurisdições.

Há também a questão da responsabilidade. Quem é o responsável se uma decisão tomada pelo agente resultar em prejuízo financeiro ou outros danos ao usuário? usuário? empresa? A própria inteligência artificial? Estas são questões que os reguladores e legisladores estão apenas começando a abordar.

2.3 O preconceito do modelo pode ser uma fonte de controvérsia

Além disso, à medida que os agentes se tornam mais complexos, podem entrar em conflito com as regulamentações antitruste. Se os agentes de uma empresa favorecem consistentemente os produtos ou serviços dessa empresa, isso pode ser considerado comportamento anticompetitivo. Isto é especialmente importante para os gigantes da tecnologia, que já estão sob escrutínio quanto ao seu domínio de mercado.

A imprevisibilidade dos modelos de IA acrescenta outra camada de complexidade a estes desafios regulamentares. A Web2 tem dificuldade em garantir a conformidade quando não consegue prever ou controlar totalmente o comportamento da IA. Esta imprevisibilidade pode levar a uma inovação mais lenta com os agentes Web2, à medida que as empresas enfrentam estas complexidades, o que, por sua vez, pode dar uma vantagem a soluções Web3 mais flexíveis.

3. Oportunidades da Web3

À medida que as capacidades do modelo subjacente do LLM melhoram, o agente tem a oportunidade de entrar na próxima forma, um agente com autonomia relativamente elevada. Atualmente, é improvável que as grandes empresas ousem tocar neste aspecto. Ajudar os usuários a pedir uma pizza pode ser o limite. As empresas iniciantes podem ser ousadas, mas enfrentarão muitos obstáculos técnicos. Por exemplo, o próprio agente não possui identidade e qualquer operação precisa emprestar a identidade e a conta do usuário do agente. Mesmo que a identidade seja emprestada, o sistema tradicional não é tão fácil de apoiar o agente a operar livremente. A tecnologia Web3 oferece oportunidades únicas para o desenvolvimento de agentes de IA, resolvendo potencialmente alguns dos desafios enfrentados pelos fornecedores centralizados. No sistema Web3, o agente pode realizar vários DIDs controlando a carteira. Seja o pagamento por meio de criptografia ou usando vários protocolos não licenciados, é muito amigável para o agente. Quando o agente começa a realizar comportamentos econômicos complexos, há uma grande probabilidade de que o agente e o agente interajam entre si em alta intensidade. Neste momento, se a suspeita mútua entre os agentes não puder ser resolvida, o sistema económico do agente não será um sistema económico completo. Este também é um aspecto que pode ser abordado usando tecnologia de criptografia.

Além disso, os incentivos criptoeconômicos podem facilitar a descoberta de agentes e fornecer uma penalidade para que os agentes sejam cortados ou cortados caso se comportem mal. Isto cria um sistema auto-regulado em que o bom comportamento é recompensado e o mau comportamento é punido, reduzindo assim potencialmente a necessidade de supervisão centralizada e proporcionando um certo grau de tranquilidade aos que se sentem pioneiros na delegação de transacções financeiras a agentes totalmente autónomos.

O staking criptoeconómico tem o duplo propósito de precisar de ser cortado em caso de mau comportamento, ao mesmo tempo que serve como um sinal de mercado crítico no processo de descoberta de agentes. Quer seja para outros agentes ou para pessoas que procuram um serviço específico, a intuição é simples, quanto mais apostas, mais confiança o mercado tem na atuação de um determinado agente e mais tranquilo fica o utilizador. Isto poderia criar um ecossistema de agentes mais dinâmico e responsivo, no qual os agentes mais eficazes e confiáveis ​​se destacariam naturalmente.

A Web3 também pode criar um mercado de agentes aberto. Esses mercados permitem um maior grau de experimentação e inovação do que confiar em fornecedores centralizados. Startups e desenvolvedores independentes podem contribuir para o ecossistema, levando potencialmente a um avanço e profissionalização mais rápidos dos agentes.

Além disso, redes distribuídas como Grass e OpenLayer podem fornecer aos agentes acesso a dados abertos da Internet e informações fechadas que requerem autenticação. Este amplo acesso a diversas fontes de dados pode permitir que os agentes Web3 tomem decisões mais informadas e forneçam serviços mais abrangentes.

Web 2.0 x Web 3.0

4. Limitações e desafios dos agentes de inteligência artificial Web3

4.1 Adoção limitada de pagamentos criptográficos

Este artigo não estaria completo se não refletissemos sobre alguns dos desafios de adoção que os agentes da Web 3.0 enfrentarão. O problema é que a adoção de criptomoedas como soluções de pagamento na economia fora da rede ainda é limitada. Atualmente, apenas algumas plataformas online aceitam pagamentos criptográficos, o que limita os casos de utilização prática de agentes baseados em criptomoedas na economia real. Sem uma integração profunda das soluções de pagamento criptografado na economia em geral, o impacto dos proxies da Web 3.0 continuará a ser limitado.

4.2 Tamanho da transação

Outro desafio é a escala das típicas transações de consumo online. Muitas destas transações envolvem quantias relativamente pequenas de dinheiro, o que pode não ser suficiente para justificar a necessidade de um sistema sem confiança para a maioria dos utilizadores. Se existirem alternativas centralizadas, o consumidor médio poderá não ver o valor de utilizar um agente descentralizado para pequenas compras diárias.

5. Conclusão

A relutância das empresas de tecnologia em oferecer agentes de IA totalmente autônomos devido à imprevisibilidade dos modelos não determinísticos cria oportunidades para startups de criptografia. Essas startups de criptografia podem aproveitar mercados abertos e segurança criptoeconômica para preencher a lacuna entre o potencial da agência e a implementação real.

Ao aproveitar a tecnologia blockchain e os contratos inteligentes, os agentes criptográficos de IA podem oferecer níveis de transparência e segurança que os sistemas centralizados teriam dificuldade em igualar. Isto pode ser particularmente atraente para casos de uso que exigem um alto nível de confiança ou envolvem informações confidenciais.