O Google está trabalhando para eliminar respostas erradas e potencialmente perigosas dos resultados de pesquisa de IA. No entanto, o novo recurso “Visão geral da IA” às vezes apresenta piadas e sátiras nas redes sociais e sites satíricos incorretamente como fatos.

A recente divulgação de resultados de pesquisa de inteligência artificial pelo Google atraiu muita atenção, mas não pelas razões positivas esperadas. A gigante da tecnologia anunciou uma série de novas ferramentas de inteligência artificial na semana passada como parte de sua estratégia recém-lançada “Era Gemini”. Junto com isso, vem uma mudança significativa em seu serviço exclusivo de pesquisa na web, onde as respostas às perguntas nos resultados da pesquisa agora são exibidas em linguagem natural diretamente sobre os links do site.

Embora a atualização do Google torne a tecnologia de busca mais avançada e possa lidar com questões mais complexas dos usuários, ela também levanta algumas preocupações. Por exemplo, quando a IA processa resultados de pesquisa, por vezes apresenta informações incorretas ou enganosas aos utilizadores, o que é particularmente problemático quando se trata de temas sensíveis como a eugenia. A eugenia tem sido utilizada de forma errada em algumas políticas desumanas ao longo da história, pelo que a precisão e a sensibilidade da sua informação são particularmente importantes.

Além disso, a IA também tem precisão insuficiente na identificação de coisas específicas, como distinguir entre cogumelos venenosos e não tóxicos. Isto lembra-nos que, ao utilizar ferramentas de pesquisa de IA, precisamos de ser extremamente cuidadosos com questões relacionadas com saúde e segurança e procurar confirmação profissional sempre que possível.

Quando o Google AI fornece respostas de “visão geral da IA”, às vezes faz referência a conteúdo de mídias sociais como o Reddit, que pode ter sido destinado ao humor ou à sátira. Isso resulta no fornecimento de algumas respostas obviamente erradas ou sem sentido aos usuários.

Por exemplo, alguns usuários relataram que, quando perguntaram como lidar com a depressão, a IA do Google sugeriu “pular da ponte Golden Gate”. Outras respostas confirmaram absurdamente uma capacidade antigravitacional que permitiria às pessoas permanecer no ar desde que não olhassem para baixo.

Estes exemplos mostram que, embora a IA tenha feito progressos na entrega de resultados de pesquisa, ainda existem deficiências em termos de precisão e fiabilidade e são necessárias mais melhorias.

A intenção original da cooperação do Google com o Reddit é tornar mais fácil para os usuários encontrarem e participarem de comunidades e discussões de seu interesse. No entanto, a colaboração também expôs alguns riscos, especialmente quando a IA processa conteúdo do Reddit. Como a IA pode não ter capacidade suficiente para discernir a autenticidade ou o contexto das informações, ela pode adotar e citar informações do Reddit indiscriminadamente. Essa adoção indiscriminada de informações pode fazer com que sugestões enganosas ou até ridículas apareçam nos resultados de pesquisa.

Por exemplo, a IA certa vez deu uma sugestão inadequada de que as crianças deveriam comer pelo menos uma pedra pequena por dia e rotulou incorretamente a sugestão como vinda de um geólogo da Universidade da Califórnia, Berkeley. Este exemplo ilustra que a IA pode ignorar a credibilidade e a adequação das informações ao processar informações de rede, enganando assim.

Embora o Google tenha excluído ou corrigido algumas respostas obviamente ridículas, os modelos gerados por IA às vezes produzem respostas imprecisas ou fictícias, um fenômeno conhecido como “alucinação”. Essas “alucinações” podem ser consideradas afirmações falsas porque a IA está criando algo que não é factual.

Enquanto isso, a IA do Google recomendou erroneamente o uso de cola para evitar que o queijo escorregasse da pizza, uma sugestão decorrente de um comentário de uma década no Reddit.

O modelo ChatGPT da OpenAI é conhecido por fabricar fatos, incluindo acusar falsamente o professor de direito Jonathan Turley de agressão sexual com base em uma viagem da qual ele não participou. Este incidente reflete que a IA pode ter excesso de confiança no processamento de informações e não conseguir distinguir com precisão a autenticidade do conteúdo na Internet.

Além disso, o excesso de confiança da IA ​​pode levá-la a aceitar indiscriminadamente todas as informações na Internet como verdadeiras. Esta confiança pode levar a julgamentos errados, como condenar indevidamente empresas no contexto das leis antitrust e atribuir falsamente a culpa a antigos executivos da Google.

Quando os usuários pesquisam perguntas relacionadas à cultura pop no Google, o recurso Sugestões de pesquisa de IA às vezes pode trazer alguns resultados engraçados ou confusos. Isso pode ocorrer porque a IA encontra desafios de compreensão ao processar conteúdo da cultura pop, especialmente quando o conteúdo contém humor, sátira ou contextos sociais específicos. Ao mesmo tempo, pode ser difícil para a IA captar com precisão a verdadeira intenção destes conteúdos, resultando em sugestões ou respostas fornecidas que podem não estar de acordo com as expectativas dos utilizadores, desencadeando algumas reações inesperadas.

Além disso, o Google AI fornece sugestões atualizadas para o problema da ingestão de pedras pelas crianças, sugerindo que os possíveis motivos incluem a curiosidade das crianças, dificuldades de processamento sensorial ou distúrbios alimentares. Isto demonstra mais uma vez que devemos ser extremamente cautelosos ao utilizar as informações fornecidas pela IA, especialmente quando as informações estão relacionadas com conselhos de saúde e segurança, e devemos procurar aconselhamento e ajuda profissional.

Conclusão:

Embora o recurso de sugestões de pesquisa do Google AI tenha feito progressos técnicos significativos, suas deficiências em precisão e confiabilidade ainda podem levar a consequências graves. Desde a adopção indiscriminada de informações em plataformas de redes sociais como o Reddit, até à informação enganosa sobre temas sensíveis como a eugenia, até à autocriminalização inadequada no domínio jurídico, estes incidentes realçaram a importância da IA ​​na triagem e julgamento de informações.

Além disso, o problema dos modelos de IA fabricarem factos ou produzirem “alucinações” também mostra as suas limitações no tratamento de problemas complexos. Por conseguinte, devemos permanecer vigilantes relativamente às informações fornecidas pela IA, procurar aconselhamento profissional e apelar aos criadores e investigadores para que continuem a melhorar a tecnologia da IA ​​para garantir que esta traz mais benefícios aos seres humanos do que riscos. #GoogleAI #准确性 #AI模型 #可靠性