Um relatório recente revela uma violação de segurança na OpenAI, onde um hacker acessou sistemas internos de mensagens no ano passado, roubando detalhes de design sobre as tecnologias de IA da empresa. O New York Times relatou esse vazamento, ocorrido em um fórum online onde funcionários da OpenAI compartilharam informações sobre seu progresso atual.

Leia também: O aparente ‘suicídio’ do robô sul-coreano agora está sob investigação

Foi relatado que o vazamento aconteceu em um fórum online onde funcionários da OpenAI compartilharam atualizações recentes. De acordo com duas fontes anônimas familiarizadas com o incidente, o hacker não obteve acesso aos principais sistemas através dos quais a OpenAI desenvolve e armazena sua IA, como o ChatGPT. De acordo com o NY Times, a empresa não relatou a violação ao público porque nada crítico foi comprometido e não houve ameaça à segurança nacional. 

OpenAI mantém medidas de segurança após a violação

Os executivos da OpenAI compartilharam essas informações com os funcionários durante a reunião geral em abril do ano passado e com o conselho de administração. Apesar da violação, a empresa não considerou o envolvimento de agências federais de aplicação da lei, atribuindo o incidente a um particular que não era afiliado a nenhum estado estrangeiro. 

Leia também: ChatGPT supera humanos em contar piadas, mostra estudo

Embora o incidente de violação de dados não tenha afectado os sistemas centrais da organização que são considerados os mais sensíveis, de acordo com o relatório, o incidente apontou para o facto de que é necessário ter medidas adequadas em vigor para proteger tecnologias avançadas de IA.

A batalha legal entre NYT e OpenAI toma um rumo inesperado

Em um desenvolvimento relacionado, a batalha legal entre o The New York Times e a OpenAI recebeu recentemente uma grande atualização. A OpenAI apresentou documentos instando o tribunal a ordenar que a proeminente editora provasse a originalidade de seus artigos, fornecendo materiais de origem detalhados para cada obra protegida por direitos autorais. Este pedido complicou ainda mais o caso, dado que a base do caso está em alegações de uso não autorizado de conteúdo do NYT para treinar modelos de IA. 

“O Times alega que […] ‘investe uma enorme quantidade de tempo, . . . experiência e talento”, inclusive através de “investigações profundas – que geralmente levam meses e às vezes anos para serem relatadas e produzidas – em áreas complexas e importantes de interesse público”.

Advogados da OpenAI

O pedido exige que o The New York Times apresente toda a documentação relacionada ao processo de autoria, nomeadamente, notas do repórter, memorandos de entrevistas e registros de fontes. Os advogados da OpenAI também apontaram que, segundo o NYT, ela gasta recursos significativos para produzir jornalismo de classe mundial. Portanto, os métodos de criação, tempo, trabalho e investimento são o cerne da questão. Assim, afirmam que a OpenAI tem o direito de inspecionar esses aspectos através do processo de descoberta. 

Leia também: Xangai sedia a conferência mundial de IA de 2024

O New York Times respondeu à OpenAI em um aviso legal emitido em 3 de julho para se opor à demanda por material de origem referente ao contrato. A equipe jurídica do NYT afirmou que o pedido da OpenAI é novo e baseia seu argumento em uma interpretação errônea dos direitos autorais. Eles argumentaram que o processo de criação de material protegido por direitos autorais é irrelevante para a questão central do caso.

Espera-se que a administração Biden anuncie novas regras num futuro próximo para evitar o uso indevido da tecnologia de IA dos EUA por países preocupantes, incluindo a China e a Rússia. Estas são as medidas iniciais propostas para conter as atuais aplicações sofisticadas de IA como o ChatGPT. 

Reportagem criptopolitana de Brenda Kanana