Ao discutir o recente debate sobre como Open e Google fazem com que seus dados se ajustem ao modelo, você notará que dois termos dominam mais o debate: open e Google. Os artigos publicados no The Wall Street Journal e no NY Times ilustram recentemente que a forma como as empresas relacionadas à IA coletam dados não estava à altura e criaram uma dor de cabeça sobre quais dados são verdadeiros e qual ângulo ético foi usado na criação do sistema relacionado à IA. .

As táticas questionáveis ​​da OpenAI

No entanto, no seu auge, o New York Times enfatizou os maiores resultados da Open AI apresentados com o Whisper. Este modelo de transcrição de áudio para texto é avançado como um complemento ao Processador de Linguagem da Open AI, tecnologia LP-4. Na verdade, o carro autônomo da OpenAI não é pela coleta de informações, o que é uma questão desafiadora com a qual a empresa entra em contato; em vez disso, este último entra em jogo sob tais condições.

Embora a popularidade inicial das leis de recolha de dados estivesse relacionada com considerações de direitos de autor de uso justo, estas últimas também se tornaram uma base legal para estas leis. Como disse Brockman, um dos membros fundadores e CEO da OpenAI forneceu algumas informações necessárias para a transcrição. Porém, ele continua dizendo que o historiador também contribuiu para a transcrição.

No entanto, a Google Corporation está no centro das atenções mesmo para essas pequenas questões para empreendimentos maiores como este, ou seja, uma função de coleta de dados como OpenAI é uma organização menor e engajada em projetos voltados para o gigante da indústria, e o usuário foi apenas avisado e não foi informado quem seria o culpado pelo YouTube.

Além dessa abordagem, o Facebook também cobriu a base de conformidade dos Termos de Serviço e proibiu ações não autorizadas, especialmente a chamada coleta de dados. No caso de John Conly (porta-voz do YouTube), ele respondeu à questão de saber se os modelos foram usados ​​para treinamento de IA baseado em conteúdo após coletar dados dos criadores de conteúdo.

Pelo contrário. Bem como treinar máquinas de que lado o Meta é um problema atual que leva à sua inviabilidade. O grupo de IA da empresa, que teve sucesso com a rivalidade OpenAI, considerou que ambas as equipes utilizaram todos os meios disponíveis para trabalhar em um melhor resultado para suas empresas, incluindo pensamentos originais, sem prestar atenção a qualquer assunto a favor da parte rejeitada.

A Meta parece ter preparado tipos de perguntas que visavam obter resposta sobre quais trabalhos delegados serão realizados, quem será o responsável pela compra de livros de quais editoras especializadas em áreas específicas. Embora a experiência do utilizador da rede seja extremamente surpreendente, a política governamental estabelecida adquiriu a iniciativa de interferir na privacidade individual, o que foi destacado em 2018 pelo caso Cambridge Analytica.

O panorama mais amplo da formação em IA confronta-se com um dilema premente: por um lado, a questão sobre a escassez de dados tornou-se mais aguda nos últimos dois anos, por outro lado. Embora a conexão entre os dois permaneça, os pesquisadores sempre insistem em ter dados adequados para maior precisão e aumento de desempenho.

Além disso, a previsão do Wall Street Journal desperta entusiasmo, que projeta elevações além de todas as metas para o ano anterior de 2020 e cruza o final do ano com o ponto mais alto do mercado. Este método baseia-se em dois fatores: contar com os modelos, que podem ser sintéticos para indicar a matriz externa, e um currículo de processo de tomada de decisão, onde os modelos aprendem com as suas decisões. Não espere que produzam resultados, mas permita que sejam observáveis.

Implicações legais e éticas

A ausência da regra da pirataria pode trazer problemas porque nada pode permitir que os usuários acessem os itens protegidos por direitos autorais, e o entendimento da missão pode surgir em torno da lei, da ética, etc. não é, em que dados e usuários são conhecidos como a fonte do negócio quando o uso desses dados é injustificado? Este risco seria fazer com que o programa da equipa de I&D se concentrasse na sua revisão e na elaboração de respostas.

A relação no propósito das campanhas de ação coletiva implicaria que a privacidade e o uso de dados são respostas que a organização não conhece o suficiente para tornar legítimas as suas operações. Na verdade, os desafios (como as questões éticas relativas ao processo de mineração de dados utilizados para investigação e desenvolvimento de IA) tornam-se complicados porque temos de considerar as restrições regulamentares e a privacidade dos dados (uma vez que a natureza dos dados está dentro do contexto de como os dados são processados ​​e usados).

A competição de IA mais acirrada do futuro reside na identificação dos melhores dados para a formação dos sistemas de IA e, mais ainda, na questão de saber se esses dados serão submetidos a quadros regulamentares éticos ou legais comuns. Tudo em torno da IA, pela sua própria natureza, enfatiza e amplia conceitos como inovação e implementação por meio de filtros de conjuntos de dados para empresas.

Ser uma inteligência artificial tecnológica nunca é estática, então o principal problema sempre será o uso dos dados, e continuará a ser uma das prioridades dos membros da comunidade que se formam através do uso da inteligência artificial, o melhor.

História original de: https://www.nytimes.com/2024/04/06/technology/tech-giants-harvest-data-artificial-intelligence.html?smid=nytcore-ios-share&sgrp=c-cb