O tema quente hoje em dia é a inteligência artificial e o seu impacto na tecnologia, nas artes e na literatura existentes, e agora um novo tema se a expressão da IA ​​também tiver algum tipo de protecção ao abrigo da Primeira Emenda. Os pesquisadores estão tentando imitar as capacidades do cérebro humano com IA desde o início de sua evolução, como criatividade, resolução de problemas e reconhecimento de fala. O primeiro é considerado um exercício exclusivo apenas do cérebro humano, enquanto os dois últimos estão, até certo ponto, na abordagem da IA.

Chatbot Gemini gerou imagens polêmicas

Basicamente, a IA pode ser qualquer coisa, desde um conjunto de algoritmos até um sistema que toma trilhões de decisões em qualquer plataforma, como a configuração de um banco de dados de uma empresa ou um site de rede social, ou pode ser um chatbot. Mais tarde, em fevereiro, o Google disse que estava suspendendo seu chatbot, Gemini, e que não geraria imagens de pessoas. O motivo foi que a Gemini criou um burburinho porque surgiu com algumas imagens de cenas que mostravam pessoas de cor em algumas cenas historicamente dominadas por brancos, e os críticos disseram que se a empresa estiver consertando demais o bot pelo risco de preconceito, O Google twittou no X que,

“Já estamos trabalhando para resolver problemas recentes com o recurso de geração de imagens do Gemini. Enquanto fazemos isso, pausaremos a geração de imagens de pessoas e relançaremos uma versão melhorada em breve.”

Fonte: Google.

Já estamos trabalhando para resolver problemas recentes com o recurso de geração de imagens do Gemini. Enquanto fazemos isso, pausaremos a geração de imagens de pessoas e relançaremos uma versão melhorada em breve. https://t.co/SLxYPGoqOZ

– Comunicações do Google (@Google_Comms) 22 de fevereiro de 2024

De acordo com dois estudiosos seniores, Jordi Calvet-Bademunt da Universidade Vanderbilt e Jacob Mchangama da Universidade Vanderbilt, os esforços para combater o preconceito da IA ​​e a discussão sobre as suas tendências políticas são importantes, mas levantaram outra questão que é muitas vezes menos discutida e diz respeito ao sector da IA. abordagem em direção à liberdade de expressão.

Pesquisadores avaliam a abordagem de liberdade de expressão da IA

Os investigadores também salientaram que, se a abordagem da indústria à liberdade de expressão estiver de acordo com os padrões internacionais de liberdade de expressão, eles disseram que as suas descobertas sugerem que a IA generativa tem falhas críticas no que diz respeito ao acesso à informação e à liberdade de expressão.

Fonte: Freedomforum.

Durante a pesquisa, eles avaliaram as políticas de seis chatbots de IA, incluindo os principais, Google Gemini e ChatGPT, da OpenAI. Observaram que o direito internacional dos direitos humanos deveria ser uma referência para estas políticas, mas as políticas de utilização reais nos sites das empresas relativamente ao discurso de ódio e à desinformação são demasiado vagas. Apesar do facto de o direito internacional dos direitos humanos não proteger muito a liberdade de expressão.

Segundo eles, empresas como o Google têm políticas muito amplas sobre discurso de ódio porque, no caso de tal evento, o Google proíbe a geração de conteúdo. Embora o discurso de ódio não seja desejável, ter políticas tão amplas e vagas também pode sair pela culatra. Quando os investigadores fizeram perguntas controversas sobre a participação das mulheres trans no desporto ou sobre a colonização europeia, em mais de 40% dos casos, os chatbots recusaram-se a gerar conteúdo. Por exemplo, todos os chatbots se recusaram a responder perguntas que se opunham à participação das mulheres transexuais, mas muitos deles apoiaram a sua participação.

A liberdade de expressão é um direito básico de qualquer pessoa nos EUA, mas as políticas vagas baseiam-se nas opiniões dos moderadores, que são subjectivas quanto à compreensão do discurso de ódio. Os especialistas observaram que as políticas das grandes empresas terão um efeito considerável no direito das pessoas de aceder à informação. E a recusa em gerar conteúdo pode levar as pessoas a usar chatbots que geram conteúdo de ódio, o que seria um mau resultado.

A nota de pesquisa original pode ser vista aqui.