A inteligência artificial teve um ano de destaque em 2024. A tecnologia de ponta conquistou prêmios, atraiu investidores, encantou Wall Street e mostrou que poderia raciocinar matematicamente — até explicando equações diferenciais.
Isso também atraiu a atenção de reguladores globais, preocupados com riscos de privacidade e segurança. Outros temiam que a IA pudesse em breve evoluir para inteligência geral artificial (AGI) e, em seguida, superinteligência artificial — superando as habilidades cognitivas humanas. Cenários catastróficos foram postulados e discutidos: bioterrorismo, sistemas de armas autônomas e até eventos de "nível de extinção".
Aqui estão 10 destaques da IA em 2024.
#1 GenAI domina
A inteligência artificial generativa (GenAI), um subconjunto da IA, é capaz de criar algo do nada (bem, além de seus volumosos dados de treinamento). Por exemplo, se você a provocar com uma linha de texto, ela pode gerar uma história de fantasmas de 500 palavras.
A GenAI tomou o centro do palco em 2024. E não foi apenas o ChatGPT, o chatbot habilitado por IA desenvolvido pela OpenAI. O Gemini do Google, o Copilot da Microsoft, o Claude da Anthropic e a série Llama 3 da Meta também ajudaram a expandir os limites, desenvolvendo software que poderia ler e gerar não apenas texto, mas também áudio, vídeo e imagens.
Os laboratórios de IA gastaram livremente para impulsionar esses avanços. O gasto em IA disparou para $13,8 bilhões em 2024, mais de seis vezes o valor gasto em 2023, segundo a Menlo Ventures, em "um sinal claro de que as empresas estão mudando de experimentação para execução, incorporando a IA no cerne de suas estratégias de negócios."
#2 A IA conquista prêmios Nobel em física e química
Mais evidências de que a IA veio para ficar foram fornecidas em outubro, quando a Academia Real Sueca de Ciências anunciou os Prêmios Nobel de 2024. Geoffrey Hinton e John Hopfield receberam o prêmio de física "por descobertas e invenções fundamentais que possibilitam o aprendizado de máquina com redes neurais artificiais." Redes neurais são uma tecnologia central na IA de hoje.
Hinton, um cientista da computação britânico-canadense e psicólogo cognitivo — ou seja, não um físico — tem sido frequentemente chamado de "Padrinho da IA." Seu trabalho inovador em redes neurais remonta à década de 1980, quando usou ferramentas da física estatística como uma máquina de Boltzmann para avançar o aprendizado de máquina.
Em outro lugar, Demis Hassabis — co-fundador e CEO da Google DeepMind — e John Jumper foram homenageados com o Prêmio Nobel de Química por desenvolver um modelo de inteligência artificial que pode prever estruturas complexas de proteínas.
O canadense ganha o Prêmio Nobel por seu trabalho em IA. Fonte: Justin Trudeau
#3 Nvidia supera a Apple como a empresa mais valiosa do mundo
É necessário um tipo especial de chip de computador para treinar e executar os enormes modelos de linguagem (LLMs) que foram tão dominantes em 2024, e o fabricante de chips Nvidia produziu mais dessas unidades de processamento gráfico especiais, ou GPUs, do que qualquer empresa no mundo.
Não é surpreendente, então, que a Nvidia também se tornasse a empresa mais valiosa do mundo em 2024 — alcançando $3,53 trilhões em capitalização de mercado no final de outubro, eclipsando os $3,52 trilhões da Apple.
"Mais empresas estão agora adotando a inteligência artificial em suas tarefas cotidianas e a demanda por chips da Nvidia permanece forte", comentou Russ Mould, diretor de investimentos da AJ Bell.
A Nvidia manterá sua dominância na fabricação em 2025 e além? As GPUs Blackwell amplamente antecipadas da Nvidia, esperadas para serem lançadas no quarto trimestre, foram adiadas devido a falhas de design, segundo relatos, mas dado o enorme avanço da Nvidia nas GPUs — que controlou 98% do mercado em 2023 — poucos esperam que ela seja superada tão cedo.
#4 Legislação de IA na UE
Todo mundo quer uma inteligência artificial que seja segura, protegida e benéfica para a sociedade em geral, mas passar leis e implementar regras para garantir uma IA responsável não é uma tarefa fácil. Ainda assim, em 2024, as autoridades regulatórias globais deram alguns primeiros passos.
A Lei de Inteligência Artificial da União Europeia entrou em vigor em agosto, introduzindo salvaguardas para sistemas de IA de propósito geral e abordando algumas preocupações de privacidade. A lei estabelece regras rigorosas sobre o uso de IA para reconhecimento facial, por exemplo, mas também busca abordar riscos mais amplos como a automação de empregos, a disseminação de desinformação online e o risco à segurança nacional. A legislação será implementada em fases, se estendendo até 2027.
Regular a IA não será fácil, no entanto, como a Califórnia descobriu em 2024 com sua proposta de legislação SB 1047 que foi sidelined (vetada) pelo governador do estado em setembro. Descrita como o "esforço mais abrangente até agora para regular a inteligência artificial", a SB 1047 teve apoio de alguns defensores da IA como Geoffrey Hinton e Elon Musk, que argumentaram que ela fornecia as guardrails urgentemente necessárias para essa tecnologia em rápida evolução.
Mas também atraiu críticas de outros tecnólogos, como Andrew Ng, fundador da DeepLearning.AI, porque impôs responsabilidade aos desenvolvedores de IA e isso poderia, em tese, sufocar a inovação.
#5 Emergência de pequenos modelos de linguagem (SLMs)
Modelos de IA massivamente grandes que são treinados em bilhões de pontos de dados se tornaram comuns em 2024. O ChatGPT foi treinado em 570 gigabytes de dados textuais extraídos da internet — cerca de 300 bilhões de palavras, por exemplo.
Mas para muitas empresas, o futuro da IA reside em modelos de linguagem menores e específicos da indústria, alguns dos quais começaram a surgir em 2024.
Em abril, a Microsoft lançou seus pequenos modelos de linguagem Phi-3, enquanto a Apple apresentou oito pequenos modelos de linguagem para seus dispositivos portáteis. A Microsoft e a Khan Academy agora estão usando SLMs para melhorar o tutoria de matemática para os alunos, por exemplo.
"Há muito mais capacidade computacional disponível na borda porque os modelos estão ficando menores para cargas de trabalho específicas, [e] você pode realmente tirar muito mais proveito disso", explicou Yorke Rhodes, diretor de transformação digital, blockchain e cadeia de suprimentos em nuvem da Microsoft, em uma conferência em maio.
Os SLMs requerem menos dados de treinamento e poder computacional para se desenvolver e operar, e suas capacidades “estão realmente começando a se aproximar de alguns dos grandes modelos de linguagem”, acrescentou.
#6 A IA agentiva passou para o primeiro plano
Chatbots como ChatGPT são todos sobre fazer perguntas e receber respostas sobre uma ampla gama de tópicos — embora também possam escrever código de software, redigir e-mails, gerar relatórios e até escrever poesia.
Mas os agentes de IA vão um passo além dos chatbots e podem realmente tomar decisões para os usuários, permitindo que alcancem objetivos específicos. Na indústria da saúde, um agente de IA poderia ser usado para monitorar dados de pacientes, fazendo recomendações quando apropriado para modificar um tratamento específico, por exemplo.
Luna é um agente de IA construído na Virtuals. Fonte: X
Olhando para o futuro, a empresa de consultoria em tecnologia Gartner nomeou a IA agentiva como uma de suas "Principais Tendências Tecnológicas Estratégicas para 2025." De fato, até 2028, cerca de um terço dos aplicativos de software corporativo incluirão IA agentiva, prevê a empresa, subindo de menos de 1% em 2024.
Agentes de IA poderiam até ser usados para escrever contratos inteligentes baseados em blockchain (tecnicamente já podem fazê-lo, mas os riscos de um erro e perda de fundos são altos no momento). O projeto de blockchain Avalanche já começou a construir uma nova máquina virtual na interseção de IA e blockchains para fazer isso em uma linguagem natural. "Você escreve seus programas de [contrato inteligente] em inglês, alemão, francês, tagalo, chinês [...] uma linguagem natural que sua mãe ensinou você em sua língua materna", disse o fundador da Ava Labs, Emin Gün Sirer.
A programação de contratos inteligentes, como está hoje, é realmente difícil, então um agente de IA fácil de usar poderia potencialmente trazer "bilhões de novos usuários [de blockchain]", previu Sirer.
#7 Modelos de raciocínio para resolver 'problemas difíceis'
Os chatbots possuem outras limitações. Eles podem ter dificuldades com problemas matemáticos simples e tarefas de codificação de software, por exemplo. Eles não são bons em responder a perguntas científicas.
A OpenAI buscou remediar a situação em setembro com o lançamento do OpenAI o1, uma nova série de modelos de raciocínio "para resolver problemas difíceis", como equações diferenciais. A resposta foi em sua maioria positiva.
"Finalmente, um modelo de IA capaz de lidar com todos os problemas complexos de ciência, codificação e matemática que sempre estou alimentando", twittou o colunista do New York Times Kevin Roose.
Em testes, o o1 teve desempenho tão bom quanto os 500 melhores alunos dos EUA em uma qualificação para a Olimpíada de Matemática dos EUA, por exemplo, e superou a precisão em nível de doutorado humano em um benchmark de problemas de física, biologia e química, relatou a OpenAI.
#8 Focalizando na AGI
Por que os avanços na resolução estruturada de problemas, conforme descrito acima, são importantes? Eles aproximam a IA progressivamente de fornecer inteligência semelhante à humana, ou seja, inteligência geral artificial, ou AGI.
Os modelos o3 da OpenAI, lançados logo antes do Natal, tiveram um desempenho ainda melhor do que o o1, especialmente em testes de matemática e codificação, enquanto outros projetos como o Gemini 2.0 do Google também progrediram em 2024 na solução de problemas estruturados — ou seja, quebrando tarefas complexas em etapas gerenciáveis.
No entanto, a AGI ainda permanece um objetivo distante na visão de muitos especialistas. Os modelos avançados de hoje ainda carecem de uma compreensão intuitiva de conceitos físicos como gravidade ou causalidade, por exemplo. Nem os algoritmos de IA atuais conseguem formular perguntas por conta própria, ou aprender se e quando os cenários tomam um rumo inesperado.
No geral, "AGI é uma jornada, não um destino — e estamos apenas no começo", declarou recentemente Brian Hopkins, vice-presidente de tecnologia emergente da empresa de consultoria Forrester.
# 9 Sinais de uma iminente escassez de dados de treinamento
Inquestionavelmente, 2024 foi um ano emocionante para desenvolvedores e usuários de IA, e poucos esperam que a inovação em IA diminua tão cedo. Mas também houve sugestões em 2024 de que a sub-época LLM da IA pode já ter atingido seu pico.
A razão é uma iminente escassez de dados. Empresas como OpenAI e Google podem em breve ficar sem dados, o sangue vital da IA, usados para "treinar" sistemas de inteligência artificial massivos.
Afinal, só se pode extrair tantos dados da internet. Além disso, os desenvolvedores de LLM estão descobrindo que nem sempre conseguem reunir dados publicamente disponíveis impunemente. O New York Times, por exemplo, processou a OpenAI por violação de direitos autorais em relação ao seu conteúdo de notícias. É improvável que seja a única grande organização de notícias a buscar reparação nos tribunais.
"Todos na indústria estão vendo retornos decrescentes", disse Demis Hassabis, da Google.
Uma resposta pode ser treinar algoritmos usando dados sintéticos — dados gerados artificialmente que imitam dados do mundo real. O LLM Claude 3 da Anthropic, por exemplo, foi treinado, pelo menos em parte, com dados sintéticos, ou seja, "dados que geramos internamente", de acordo com a empresa.
Mesmo que o termo "dados sintéticos" possa soar como um oxímoro, cientistas, incluindo alguns especialistas médicos, dizem que criar novos dados do zero tem potencial. Isso poderia apoiar a IA médica preenchendo conjuntos de dados incompletos, por exemplo, o que poderia ajudar a eliminar preconceitos contra certos grupos étnicos.
A Anthropic está tentando liderar o caminho com uma IA ética. Fonte: Anthropic
#10 Emergência de uma IA mais ética
Curiosamente, a Anthropic explica em detalhes como obtém seus dados de treinamento no artigo mencionado acima. De particular importância, ela opera seu sistema de rastreamento de sites "de maneira transparente", o que significa que os provedores de conteúdo da web — como o The New York Times, presumivelmente — "podem identificar facilmente as visitas da Anthropic e sinalizar suas preferências para a Anthropic."
A empresa fez esforços consideráveis para prevenir o uso indevido de sua tecnologia, até criando um oficial de escalonamento responsável, cujo escopo foi ampliado em 2024 na tentativa de criar uma IA "segura". Os esforços da empresa não passaram despercebidos. A revista Time a nomeou uma das 100 empresas mais influentes em 2024, elogiando-a como a "Empresa de IA Apostando que a Segurança Pode Ser uma Estratégia Vencedora."
Dada a tendência do desenvolvimento da IA em 2024 e as preocupações públicas sobre os potenciais riscos catastróficos desses novos sistemas de ponta, parece totalmente provável que mais desenvolvedores em breve adotem uma IA mais transparente e responsável.
Revista: Protocolo de História ajuda criadores de IP a sobreviver ao ataque da IA... e a serem pagos em criptomoedas