Conversamos com o cofundador da Nesa, Harry Yang, sobre o andamento do projeto e as escolhas pessoais que ele fez como especialista na área de IA na grande onda dos tempos.

Entrevistado: Harry Yang, cofundador e CTO da Nesa

Entrevista e redação: Wendy, Foresight News

Estes são tempos de ouro para especialistas na área de IA (inteligência artificial). Os talentos de IA enfrentam múltiplas escolhas: desde gigantes tradicionais da Internet até grandes empresas de IA representadas pela OpenAI, usando Web2 para criar novos cenários de aplicações de IA e administrar novas startups, ou buscando usar IA e blockchain/Crypto para combinar Combinar métodos para resolver pontos problemáticos do mercado e criar novos modelos económicos e ecológicos.

Harry Yang escolheu o terceiro caminho.

Nesa, cofundada por ele e vários outros talentos de IA formados em universidades renomadas como MIT, Carnegie Mellon University e Cambridge University, é um dos projetos selecionados para o Programa Acelerador MVB da 7ª Temporada do Binance Labs e será selecionado em 2024. Um dos principais projetos emergentes da trilha AI+Crypto. No site oficial da empresa, uma das visões que Nesa descreve a todos é “colocar a IA na cadeia para o futuro”.

Harry Yang, doutor em inteligência artificial pela University of Southern California, trabalha na equipe de IA da Meta Corporation há muitos anos. Apesar de antes ter “pouco conhecimento” sobre criptografia e Web3, “quanto mais eu investia e aprendia sobre isso, mais gostava” porque “a ideia de uma plataforma descentralizada se alinha muito bem com a minha visão para o futuro do artificial inteligência.” Este é o maior sentimento que Harry Yang, o cofundador e diretor de tecnologia (CTO) da Nesa, teve desde a fundação da empresa.

Foresight News conversou recentemente com ele sobre o andamento do projeto e as escolhas pessoais que ele fez como especialista na área de IA em meio à enorme onda dos tempos.

Notícias prospectivas: Chris Dixon, sócio fundador do fundo criptográfico a16z, publicou recentemente um novo livro sobre a próxima geração da Internet. Um comentário interessante da Bloomberg sobre este livro é que os problemas que a Web3, ou a chamada empresa de "Internet da próxima geração" está tentando resolver, são na verdade causados ​​​​por um grupo de gigantes da tecnologia investidos por VCs como a16z. Por exemplo, Meta. Qual foi o papel da sua experiência de trabalho na gigante da tecnologia Meta na sua decisão de criar uma plataforma de IA descentralizada nesta jornada empreendedora?

Harry Yang: Meta é uma plataforma centralizada, mas eles também abrem o código-fonte de muitos modelos. Não tenho nada contra plataformas centralizadas. Aprendi muito com minha experiência pessoal trabalhando lá. Também ganhei experiência em primeira mão na construção de modelos como Make-A-Video e Llama. Isso proporcionou uma base técnica muito boa para minha experiência na Nesa.

Em relação à centralização e à descentralização, penso que é mais uma escolha do que uma competição. Para algumas aplicações você pode preferir uma plataforma centralizada. Mas acredito que em muitos cenários você pode preferir escolher uma plataforma descentralizada.

Acho que agora é um ótimo momento para as pessoas começarem a construir de forma independente e a criar mais projetos porque a IA realmente capacita muitos projetos pessoais e permite que você seja um empreendedor e um CEO. No passado, era necessária uma equipe inteira para implementá-lo, os tempos são diferentes e o desenvolvimento está cada vez mais rápido, mas ainda acho que há muitos aplicativos que queremos ver e que podem ser criados agora.

As plataformas descentralizadas dão a todos a capacidade e o poder de fazer o que quiserem, não apenas aqueles que trabalham para Meta, OpenAI ou Google. Se você não trabalhar para essas empresas, como estará envolvido na construção do futuro? Acho que as plataformas descentralizadas dão esta oportunidade a todos.

Foresight News: Este é o horário nobre para especialistas na área de IA. Quer você trabalhe para a OpenAI ou outra grande empresa emergente de IA, inicie uma empresa Web2 focada em IA ou escolha a abordagem Web3+AI para criar uma nova empresa, as oportunidades são abundantes. O fundador da Coinbase disse uma vez, quando a empresa abriu o capital, que ele perdeu a oportunidade de ouro da Internet, mas acabou encontrando uma oportunidade geracional em blockchain/criptografia. Para você pessoalmente, por que escolheu o caminho que seguiu? Dez anos depois, os resultados das diferentes escolhas acima podem apresentar diferenças consideráveis.

Harry Yang: Minha formação é mais em IA. Antes de iniciar a Nesa, eu sabia muito pouco sobre criptografia e Web3. Claro, nosso CEO Patrick Colangelo tem muita experiência (em criptografia) e a equipe tem muita experiência no desenvolvimento de aplicações Web3. Foi uma grande experiência de aprendizado para mim e fiquei muito apaixonado por essa área no processo. Definitivamente houve uma curva de aprendizado (entrar no Web3) e tive que gastar muito tempo tentando entender diferentes áreas. Mas quanto mais me envolvo e aprendo, mais gosto porque aqui tem muita autonomia e liberdade para fazer as coisas.

A ideia de uma plataforma descentralizada alinha-se muito bem com a minha visão para o futuro da inteligência artificial. Como você disse, as pessoas podem trabalhar em caminhos diferentes, como grande empresa, pequena empresa, Web2 ou Web3. Só acho que não devemos pensar muito em qual caminho seguir, mas se você escolher um caminho, apenas se comprometa com ele e aproveite.

Até agora, gostei muito do caminho que escolhi.

Foresight News: Então, quais são os problemas do mercado que Nesa, da qual você é cofundador, está tentando resolver? Qual é a solução?

Harry Yang: O que torna Nesa diferente é que queremos resolver o problema de inferência de modelos. Muitas empresas estão fazendo isso agora, como inferência com Llama, Mistral, geração de áudio e geração de imagens sob difusão estável. Hospedamos modelos de todos os tipos, incluindo imagens, texto, áudio e vídeo, permitindo que você realize diversos tipos de inferência em nossa plataforma.

O problema que queremos resolver é como fazer (as coisas acima) com facilidade e a um preço mais acessível. Em termos de métodos de operação específicos, compartilhamos todos os recursos GPU da comunidade de forma distribuída. Ao otimizar modelos para aproveitar GPUs e CPUs de última geração, todos podem contribuir e receber tokens em troca. Nossos preços são mais baratos do que outras plataformas, até mesmo AWS ou GCP (nota: plataformas de nuvem da Amazon e do Google, respectivamente).

Outro ponto problemático [que estamos tentando resolver] é a privacidade e a segurança, porque há algumas coisas que você pode não querer que o ChatGPT faça. Por exemplo, se você deseja um chatbot que fale como você como seu assistente pessoal, você precisa carregar todo o seu histórico de bate-papo do WhatsApp ou WeChat e deixar o ChatGPT aprender com ele. Mas você provavelmente não quer fazer isso.

Em nossa plataforma, todos os dados são criptografados e todos os treinamentos e inferências também são criptografados. Você pode nos confiar seus dados e informações pessoais sabendo que eles não serão visíveis para ninguém. E você pode ver todo o processo por meio de tecnologias como TEE (Trusted Execution Environment) e prova de conhecimento zero para garantir que tudo esteja seguro.

Então, acho que os pontos problemáticos que vamos resolver são preço, segurança e privacidade – é disso que se trata Nesa.

Foresight News: Para o público em geral, você pode explicar brevemente o que é inferência de modelo, quão cara ela é em um cenário Web2 como OpenAI ou outras grandes empresas, e como você está reduzindo o preço?

Harry Yang: Se você executar a inferência de modelo em nossa plataforma, precisará pagar taxas de gás. Alugamos recursos computacionais de provedores como Io.net, GCP ou AWS, mas também usamos nós computacionais de PCs e até Raspberry Pis. Eles estão disponíveis gratuitamente e podem ser mais baratos que os provedores de serviços em nuvem.

Nós crowdsourcing recursos de computação. Se você se registrar (em nossa plataforma), poderá contribuir com seu laptop ou desktop doméstico para esta rede de nós de computação. Em troca, você recebe tokens NES. É assim que mantemos nossos preços baixos.

Notícias prospectivas: Existem muitos projetos AI + Crypto agora. Você acabou de mencionar algumas coisas que tornam Nesa diferente, mas existem projetos que oferecem soluções semelhantes. Então, qual é a sua estratégia competitiva?

Harry Yang: O que há de único na Nesa é que nossa visão para o futuro é um modelo privado hospedado. No momento, nossa plataforma hospeda modelos como Llama, ChatGPT da OpenAI, Mistral, StableDiffusion e DALL-E, mas você também poderá usá-los em outros lugares. Embora nossa inferência seja mais barata e segura, esses modelos não se limitam à nossa plataforma.

Atualmente estamos desenvolvendo modelos que podem ser utilizados em aplicações, como modelos de geração de vídeo, modelos de geração de imagens, chatbots pessoais e chatbots conversacionais personalizados com base nas informações do usuário. Como nosso treinamento e inferência de modelos são suficientemente seguros e privados, podemos desenvolver modelos que atendam às necessidades personalizadas com base nas informações do usuário. No futuro, você também verá cada vez mais modelos proprietários desenvolvidos por nós mesmos na plataforma.

Além disso, você pode executar Character AI ou DALL-E no Nesa, que é melhor e mais confidencial. Outra coisa única sobre nós é que é muito fácil de usar. Ao entrar na plataforma você verá uma lista de páginas com todos os modelos e basta clicar para conversar com Llama ou Mistral. Ele funciona muito rápido e é criptografado de ponta a ponta.

Acho que esta é uma plataforma única como nenhuma outra.

Notícias prospectivas: Para a maioria dos modelos, eles tendem a exigir muitos dados e, quanto mais dados, melhor. Fornecer dados através de nós distribuídos ou indivíduos pode significar que o número de pessoas que contribuem com dados para a plataforma será relativamente limitado. Então, que tipo de cliente normalmente cria seus modelos ou aplicativos em uma plataforma como a Nesa?

Harry Yang: Nossos compradores podem ser empresas e instituições financeiras. Cooperaremos com bancos e seguradoras. Eles confiam muito em nós, por isso usarão seus próprios dados - como informações de segurança social ou informações de privacidade pessoal que não são fáceis de compartilhar com outras plataformas, e então usarão esses dados para executar o. modelo em nossa plataforma.

Para usuários individuais, existem muitos modelos matadores em nossa plataforma que podem ser usados ​​diretamente. Ele pode substituir o ChatGPT porque é criptografado com segurança, portanto, além de responder perguntas e conversar, você também pode compartilhar suas informações pessoais. Esses modelos não apenas conhecem você melhor do que o ChatGPT, mas também podem executar tarefas como geração de imagens, geração de vídeos e chatbots.

Portanto, tanto empresas como indivíduos são usuários de nossos serviços.

Foresight News: Você falou sobre alguns casos ou cenários de uso específicos, que são clientes muito sensíveis à privacidade e segurança dos dados. Algumas das principais tecnologias usadas aqui também são publicadas em seu site, uma das quais são as provas de conhecimento zero (ZK). Idealmente, as instituições financeiras ou o setor da saúde poderiam adotar esta tecnologia para resolver problemas que enfrentam, como a privacidade e a segurança dos dados. No entanto, já escrevemos muitos artigos para discutir o desenvolvimento da tecnologia ZK. Atualmente, parece que a adoção em larga escala desta tecnologia enfrenta alguns problemas. Então, o que você acha sobre esse assunto?

Harry Yang: Fora do ZK, existem outras soluções (em termos de segurança e privacidade de dados), como o uso do TEE (Trusted Execution Environment), uma tecnologia madura para criptografia de dados e modelos. Existem alguns nós equipados com TEE, mas como as máquinas com TEE são mais caras, o overhead é maior. Esta é uma das soluções para problemas de hardware.

Para soluções de software, como você mencionou, temos provas de conhecimento zero. Nossa equipe conta com ótimos especialistas nesta área. Eles propuseram como usar provas de conhecimento zero com grandes modelos de linguagem. Essa nossa tecnologia leva cerca de 40 minutos para ser comprovada e validada usando modelos Llama como Llama 8B ou Llama 3, por isso ainda é relativamente lenta.

A velocidade é o ponto problemático das soluções atuais de conhecimento zero. Mas se você não precisa de resultados imediatos ou em tempo real, acho que isso é aceitável, pois garante que seus dados e modelos sejam seguros e privados.

É claro que, além das provas de conhecimento zero, também estamos trabalhando em uma ampla gama de soluções, como aprendizagem distribuída, marca d'água digital e criptografia homomórfica. Tudo isso combinado tornará nossos sistemas mais seguros, e alguns desses cenários são, na verdade, muito rápidos.

Notícias prospectivas: Falando em hardware, a NVIDIA se tornou uma grande vencedora na atual onda de IA. Tanto a Web2 quanto a Web3 criaram novas demandas por chips. Muitas empresas também estão competindo por recursos de hardware e chips. Isso pressionará você? Para você, as soluções descentralizadas de hardware e poder de computação aumentarão ainda mais sua pressão ou poderão aliviá-la um pouco?

Harry Yang: Na verdade, nossa visão é aproveitar e centralizar todas as GPUs e CPUs com poder de computação descentralizado. Isto porque não podemos contar com gigantes como Nvidia ou AMD. Apenas aproveitamos todos os outros nós de computação externamente. Claro, esta é apenas uma visão, e como será implementada, acho que levará mais tempo para ver se pode fornecer significativamente uma grande quantidade de poder computacional para a comunidade, ou se há novos desafios.

Isso parece um pouco centralizado e levará algum tempo para provar isso. Mas até agora, acho que está funcionando muito bem. À medida que mais pessoas aderem, podemos dimensionar mais o sistema. Porque quando construímos nossos próprios modelos, também precisamos de muitas GPUs.

Embora também possamos obtê-lo no GCP ou no Google, eles têm cotas e é difícil acertar as contas depois de pagar. Assim, à medida que nossa plataforma fica maior e melhor, usamos apenas nossas próprias GPUs de crowdsourcing e não precisamos depender dessas grandes empresas. Este é o nosso plano.

Foresight News: Na sua opinião, quais são os maiores desafios enfrentados atualmente pela Nesa e pela plataforma AI+Crypto de forma mais ampla?

Harry Yang: Acho que a tecnologia (nesta área) amadureceu. Temos ChatGPT e vários modelos grandes. É por isso que a IA é tão popular agora.

Para Nesa, fomos uma das primeiras equipes a fazer isso, então houve muitos desafios técnicos em termos de escalonamento, balanceamento de carga e como hospedar um grande número de modelos e garantir que poderíamos suportar muito tráfego de consulta .

Dimensionar essas consultas e modelos na plataforma é um grande desafio para nós. Estamos trabalhando duro para tornar nossos sistemas mais robustos e estáveis, para que possam funcionar 24 horas por dia e lidar com diversas consultas simultaneamente. Estamos trabalhando para esse objetivo.

Foresight News: Em que estágio de progresso Nesa está agora? O que os usuários e a comunidade podem esperar no curto prazo?

Harry Yang: Temos uma rede de teste aberta a alguns usuários e usuários na lista de permissões. Muitas pessoas já estão testando nossa plataforma. O feedback geral tem sido muito positivo, pois é simples de operar e pode ser registrado via API ou UI web. Os usuários também podem ligar para nossos modelos ou registrar-se como mineradores e contribuir com seu poder computacional.

Há três coisas principais que podemos esperar no curto prazo: a primeira coisa é, claro, a rede principal que está aberta ao público e todos poderão usá-la; a segunda coisa é que estamos integrando mais recursos de segurança e privacidade; - como Prova de conhecimento zero - adicionando mais modelos para que as pessoas possam optar por ativá-lo ou desativá-lo com base em suas necessidades; a terceira coisa é construir ou hospedar mais modelos em cima do Nesa; Esses modelos devem ser melhores e mais rápidos que os modelos de código aberto existentes. Os usuários podem usar nossos próprios modelos para geração de imagens, chatbots e geração de vídeo. Estas são as próximas coisas que podemos esperar da Nesa.

Foresight News: Existe um cronograma específico para a mainnet?

Harry Yang: O plano é cerca de um mês depois.

Foresight News: Notei algumas mudanças em sua equipe fundadora. Há alguns meses, outro sócio também formado pela Universidade de Cambridge foi incluído na equipe fundadora. É claro que, ao mesmo tempo, também vi novos membros se juntando. Por exemplo, Yue Zhang é professor assistente na University of Southern California. Há algo que você possa revelar sobre as mudanças na equipe fundadora?

Harry Yang: Tivemos um membro que nos ajudou nos estágios iniciais do projeto, e acho que sua saída foi mais por motivos pessoais. Naquela época, ele ainda trabalhava em outra empresa e tinha menos tempo para se dedicar a esse projeto, o que não era adequado.

A equipe Nesa trabalha junta há muito tempo. A maioria dos membros da nossa equipe se conhece há muitos anos, muitos deles há 8 anos. Como resultado, a nossa equipa é muito unida, o que é uma grande razão pela qual conseguimos crescer tão rapidamente como empresa e como projeto.

Foresight News: Como membro criativo da equipe, qual crença você mais deseja transmitir a todos?

Harry Yang: Pessoalmente, estou ansioso pelo desenvolvimento futuro, não apenas da plataforma Nesa, mas também da IA. Francamente, sinto-me 10 vezes mais produtivo agora do que antes do ChatGPT.

Tenho muitas ideias e muitas coisas que quero construir, e nossa equipe tem muitas coisas que queremos que aconteçam. Portanto, estamos recrutando os melhores talentos em IA, Web3, criptografia e diversas áreas.

Venha se juntar a nós para fazer algo verdadeiramente emocionante e importante.