Odaily Planet Daily News OpenAI fez quatro atualizações em seu modelo em outubro para ajudar seu modelo de IA a conduzir melhores conversas e melhorar os recursos de reconhecimento de imagem. A primeira grande atualização é a Live API, que permite aos desenvolvedores criar aplicativos de fala gerados por IA usando um único prompt, permitindo conversas naturais semelhantes ao modo de fala avançado do ChatGPT. Anteriormente, os desenvolvedores tinham que “costurar” vários modelos para criar essas experiências. A entrada de áudio muitas vezes precisa ser totalmente carregada e processada antes que uma resposta seja recebida, o que significa maior latência para aplicações em tempo real, como conversas de voz para falar. Com os recursos de streaming da API Realtime, os desenvolvedores agora podem obter interações instantâneas e naturais, como um assistente de voz. A API é executada em GPT-4, lançada em maio de 2024, e pode realizar inferências de áudio, visual e texto em tempo real. Outra atualização inclui ferramentas de ajuste fino para desenvolvedores, permitindo-lhes melhorar as respostas de IA geradas a partir de entrada de imagem e texto. Os spinners baseados em imagens permitem que a inteligência artificial compreenda melhor as imagens, melhorando assim a busca visual e os recursos de detecção de objetos. O processo inclui feedback de humanos, que fornecem exemplos de respostas boas e ruins para o treinamento. Além das atualizações de fala e visão, a OpenAI também está introduzindo “destilação de modelo” e “cache de dicas” que permitem que modelos menores aprendam com modelos maiores e reduzam custos e tempo de desenvolvimento ao reutilizar texto processado. A OpenAI espera que a receita aumente para US$ 11,6 bilhões no próximo ano, acima dos US$ 3,7 bilhões esperados em 2024, informou a Reuters. (Cointelégrafo)