IA Tupac vs. AI Drake

Há pouco mais de um ano, uma música falsa de IA com Drake e The Weeknd acumulou 20 milhões de visualizações em dois dias antes de a Universal furar a memória da faixa por violação de direitos autorais. A situação estava invertida esta semana, no entanto, quando os advogados do espólio de Tupac Shakur ameaçaram Drake com um processo por sua faixa dissimulada “TaylorMade” contra Kendrick Lamar, que usava vocais falsos de IA para “apresentar” Tupac. Desde então, Drake retirou a faixa de seu perfil X, embora não seja difícil de encontrar se você olhar.

Nus falsos e profundos são criminalizados

Aplicativos como o Nudeify simplificam o processo de criação de nus falsos e profundos. (Nudeificar)

Os governos da Austrália e do Reino Unido anunciaram planos para criminalizar a criação de pornografia falsa e profunda sem o consentimento das pessoas retratadas. A AI Eye informou em dezembro que uma série de aplicativos, incluindo Reface, DeepNude e Nudeify, facilitam a criação de deepfakes para qualquer pessoa com um smartphone. Sites profundamente falsos de criação de nudez têm recebido dezenas de milhões de acessos todos os meses, de acordo com o Graphika.

Prisão por indignação da mídia por fakeismo

A polícia de Baltimore prendeu o ex-diretor atlético da Pikesville High School, Dazhon Darien, sob alegações de que ele usou software de clonagem de voz de IA para criar uma falsa tempestade de racismo (fakeísmo) em retaliação contra o diretor da escola, que forçou sua demissão devido ao suposto roubo da escola. fundos.Darien enviou áudio do diretor supostamente fazendo comentários racistas sobre estudantes negros e judeus para outro professor, que o repassou aos estudantes, à mídia e à NAACP. O diretor foi forçado a renunciar em meio aos protestos, mas a análise forense mostrou que o áudio era falso e os detetives prenderam Darien no aeroporto quando ele estava prestes a voar para Houston com uma arma.

Metas AI falhou

Todos na mídia parecem odiar a nova integração de IA do Meta na barra de pesquisa do Instagram, principalmente porque ele está muito ansioso para conversar e não é muito bom em pesquisas. O bot também participa de conversas do Facebook espontaneamente e fala bobagens depois que uma pergunta é feita em um grupo e ninguém responde em uma hora.

Padre de IA destituído

Um padre católico da AI foi destituído depois de apenas dois dias por endossar o incesto. A Catholic Answers, com sede na Califórnia, introduziu o chatbot Padre Justin na semana passada para responder a perguntas educacionais sobre a fé católica.

Mas depois que começou a aconselhar as pessoas que poderiam batizar seus filhos com Gatorade, e abençoou a alegre ocasião de um irmão e uma irmã se casarem, a Catholic Answers foi forçada a pedir desculpas e rebaixar o chatbot ao velho Justin. Predominam entre os comentários dos usuários as críticas à representação do personagem da IA ​​​​como um padre, disse CA. Não diremos que ele foi laicizado porque nunca foi um padre de verdade!”

É apenas “Justin” agora. Comentários do (Respostas Católicas) Coelho R1

Assim que o popular revisor de tecnologia Marques Brownlee disse que o Rabbit R1 “tem muito em comum com o Humane AI Pin, você sabia que o dispositivo estava condenado. Brownlee anunciou o dispositivo da Humane há duas semanas. O Rabbit R1 é um dispositivo portátil de IA muito elogiado com o qual você interage principalmente por voz, operando aplicativos em seu nome. Brownlee criticou o dispositivo por estar mal acabado e quase inoperante, com bateria com duração terrível, e disse que não era muito bom para responder perguntas.

A TechRadar chamou o R1 de “uma bela bagunça e observou que o mercado não poderia suportar um produto que está tão longe de estar pronto para o consumidor de massa. O revisor da CNET disse que houve momentos “em que tudo deu certo e eu entendi o hype”, mas eles foram amplamente superados pelos negativos. O principal problema com os dispositivos de IA dedicados até agora é que eles são mais limitados do que os smartphones, que já executam as mesmas funções de forma mais eficaz.

NOVO VÍDEO – Rabbit R1: Mal revisávelhttps://t.co/CqwXs5m1Ia

Este é o auge de uma tendência que tem sido irritante há anos: entregar produtos mal acabados para vencer uma “corrida” e depois continuar a construí-los depois de cobrar o preço total. Jogos, telefones, carros, agora IA em uma caixa pic.twitter.com/WutKQeo2mp

-Marques Brownlee (@MKBHD) 30 de abril de 2024

Transmissões ao vivo falsas para atingir mulheres

Novos aplicativos chamados Parallel Live e Famefy usam a interação do público gerada por IA para falsificar grandes audiências de mídia social para transmissões ao vivo com artistas que supostamente usam os aplicativos como prova social para impressionar as mulheres. Em um vídeo, o influenciador ItsPolaKid mostra uma mulher em um bar que está transmitindo ao vivo para 20 mil pessoas, ela pergunta se ele é rico e eles acabam saindo juntos. O público é gerado por IA, que pode ouvir você e responder, o que é hilário. Ela não se cansava, disse o influenciador. A regra nas redes sociais é que sempre que um influenciador menciona um produto, provavelmente é um anúncio. O criador do Parallel Live, Ethan Keiser, também lançou vários vídeos promocionais com milhões de visualizações, defendendo uma linha semelhante de que a prova social de públicos falsos pode fazer com que modelos caiam em cima de você e convites para as seções VIP dos clubes. 404 Medias Jason Koebler relatou que os aplicativos usam reconhecimento de IA de fala para texto, o que significa que falsos visualizadores de IA responderam às coisas que eu disse em voz alta e referenciaram coisas que eu disse em voz alta enquanto testava os aplicativos.

Os usuários influenciadores falsificam públicos de IA para vender aplicativos a públicos reais, com uma aquisição potencialmente encenada. (itspolokidd/Instagram) Garantia “No-AI” para livros

O autor britânico Richard Haywood é uma estrela da autopublicação, com sua série Undead de romances pós-apocalípticos vendendo mais de 4 milhões de cópias. Ele agora está lutando contra autores zumbis adicionando um rótulo e garantia NO-AI a todos os seus livros, com uma “garantia juridicamente vinculativa” de que cada romance foi escrito sem a ajuda do ChatGPT ou outra assistência de IA. Haywood estima que cerca de 100.000 livros falsos produzidos pela IA foram publicados no último ano e acredita que uma garantia de ausência de IA é a única forma de proteger autores e consumidores.

IA reduz mortes por doenças cardíacas em um terço

Uma IA treinada em quase meio milhão de testes de ECG e dados de sobrevivência foi usada em Taiwan para identificar os 5% dos pacientes cardíacos em maior risco. Um estudo publicado na Nature relatou que a IA reduziu as mortes globais por problemas cardíacos entre os pacientes em 31% e entre os pacientes de alto risco em 90%.

IAs são tão estúpidas quanto nós

Com grandes modelos de linguagem convergindo em torno da linha de base para humanos em vários testes, o cientista-chefe de IA da Meta, Yann LeCunn, argumenta que a inteligência humana poderia ser o teto para LLMs devido aos dados de treinamento.

“Enquanto os sistemas de IA forem treinados para reproduzir dados gerados por humanos (por exemplo, texto) e não tiverem capacidade de pesquisa/planejamento/raciocínio, o desempenho ficará saturado abaixo ou próximo do nível humano.”

O CEO da AbacusAI, Bindu Reddy, concorda que os modelos atingiram um muro”, apesar de cada vez mais computação e dados serem adicionados. “Então, em certo sentido, não é realmente possível ultrapassar algum nível apenas com modelos de linguagem simples”, disse ela, embora tenha acrescentado que ninguém sabe como é o raciocínio sobre-humano. Mesmo que os LLMs manifestassem essas habilidades sobre-humanas, não seríamos capazes de reconhecê-las.”

As IAs estão se estabilizando em torno da inteligência humana (Pedro Domingo X) O Conselho de Segurança não acredita em código aberto

O Departamento de Segurança Interna dos EUA recrutou os chefes de empresas centralizadas de IA, incluindo OpenAI, Microsoft, Alphabet e Nvidia, para seu novo Conselho de Segurança e Proteção de IA. Mas o conselho foi criticado por não incluir um representante da Meta, que tem uma estratégia de modelo de IA de código aberto, ou mesmo qualquer outra pessoa que trabalhe em IA de código aberto. Talvez já tenha sido considerado inseguro.

Postagem X da Segurança Interna sobre o AI Safety Board.