AI Tupac vs. Draco IA

Hace poco más de un año, una canción falsa de AI con Drake y The Weeknd acumuló 20 millones de visitas en dos días antes de que Universal guardara la pista en la memoria por violación de derechos de autor. Sin embargo, la situación estaba al revés esta semana, cuando los abogados del patrimonio de Tupac Shakur amenazaron a Drake con una demanda por su tema "TaylorMade" contra Kendrick Lamar, que utilizó voces falsas de IA para "presentar" a Tupac. Desde entonces, Drake ha eliminado la pista de su perfil X, aunque no es difícil de encontrar si miras.

Desnudos falsos profundos criminalizados

Aplicaciones como Nudeify simplifican el proceso de creación de desnudos falsos profundos. (Desnudar)

Los gobiernos de Australia y el Reino Unido han anunciado planes para criminalizar la creación de pornografía ultrafalsa sin el consentimiento de las personas retratadas. AI Eye informó en diciembre que una variedad de aplicaciones, incluidas Reface, DeepNude y Nudeify, facilitan la creación de deepfakes para cualquier persona con un teléfono inteligente. Los sitios web de creación de desnudos profundamente falsos han recibido decenas de millones de visitas cada mes, según Graphika.

Arresto por indignación mediática por falsificación

La policía de Baltimore arrestó al exdirector deportivo de la escuela secundaria Pikesville, Dazhon Darien, por acusaciones de que utilizó software de clonación de voz con inteligencia artificial para crear una falsa tormenta de racismo (fakeísmo) en represalia contra el director de la escuela, quien forzó su renuncia por el presunto robo de la escuela. fondos. Darien envió un audio del director supuestamente haciendo comentarios racistas sobre estudiantes negros y judíos a otro maestro, quien lo pasó a los estudiantes, los medios de comunicación y la NAACP. El director se vio obligado a dimitir en medio de la protesta, sin embargo, el análisis forense mostró que el audio era falso y los detectives arrestaron a Darien en el aeropuerto cuando estaba a punto de volar a Houston con un arma.

Metas AI falló

Al menos todos en los medios parecen odiar la nueva integración de IA de Meta en la barra de búsqueda de Instagram, principalmente porque está demasiado ansioso por chatear y no es muy bueno en búsquedas. El robot también se une a conversaciones de Facebook sin que se lo soliciten y dice tonterías después de que se hace una pregunta en un grupo y nadie responde en una hora.

Sacerdote de AI expulsado

Un sacerdote católico de AI fue expulsado después de sólo dos días por respaldar el incesto. Catholic Answers, con sede en California, presentó la semana pasada el chatbot Padre Justin para responder preguntas educativas sobre la fe católica.

Pero después de que comenzó a aconsejar a las personas que podían bautizar a sus hijos con Gatorade, y bendijo la feliz ocasión de que un hermano y una hermana se casaran, Catholic Answers se vio obligada a disculparse y degradar el chatbot a Justin. Entre los comentarios de los usuarios prevalecen las críticas a la representación del personaje de AI como un sacerdote, dijo CA. ¡No diremos que ha sido laicizado porque nunca fue un verdadero sacerdote!

Ahora es solo "Justin". (Respuestas católicas) Rabbit R1 opiniones

Tan pronto como el popular crítico de tecnología Marques Brownlee dijo que el Rabbit R1 “tiene mucho en común con Humane AI Pin, supiste que el dispositivo estaba condenado al fracaso, Brownlee programó absolutamente el dispositivo de Humane hace dos semanas. El Rabbit R1 es un dispositivo de IA portátil muy publicitado con el que interactúas principalmente a través de la voz y que ejecuta aplicaciones en tu nombre. Brownlee criticó el dispositivo por estar apenas terminado y casi no funcional, con una duración de batería terrible, y dijo que no era muy bueno para responder preguntas.

TechRadar calificó el R1 como un “hermoso desastre y señaló que el mercado no podía soportar un producto que está lejos de estar listo para el consumidor masivo. El crítico de CNET dijo que hubo momentos "en los que todo encajó y entendí el revuelo", pero fueron ampliamente superados por los aspectos negativos. El principal problema con los dispositivos de IA dedicados hasta ahora es que son más limitados que los teléfonos inteligentes, que ya realizan las mismas funciones de manera más efectiva.

NUEVO VIDEO - Rabbit R1: Apenas revisable https://t.co/CqwXs5m1Ia

Este es el pináculo de una tendencia que ha sido molesta durante años: entregar productos apenas terminados para ganar una "carrera" y luego continuar construyéndolos después de cobrar el precio completo. Juegos, teléfonos, coches, ahora IA en una caja pic.twitter.com/WutKQeo2mp

– Marques Brownlee (@MKBHD) 30 de abril de 2024

Transmisiones en vivo falsas para ligar con mujeres

Las nuevas aplicaciones llamadas Parallel Live y Famefy utilizan la interacción de la audiencia generada por IA para falsificar grandes audiencias en las redes sociales para transmisiones en vivo y, según se informa, los artistas del ligue usan las aplicaciones como prueba social para impresionar a las mujeres. En un vídeo, el influencer ItsPolaKid muestra a una mujer en un bar que transmite en vivo para 20.000 personas, ella le pregunta si es rico y terminan saliendo juntos. La audiencia está generada por IA, que puede escucharte y responder, lo cual es muy gracioso. No podía tener suficiente, dijo la influencer. La regla general en las redes sociales es que cada vez que un influencer menciona un producto, probablemente sea un anuncio. El creador de Parallel Live, Ethan Keizer, también ha lanzado un montón de videos promocionales con millones de visitas, impulsando una línea similar de que las pruebas sociales de audiencias falsas pueden hacer que modelos te caigan encima e invitaciones a las secciones VIP de los clubes. Jason Koebler, de 404 Media, informó que las aplicaciones utilizan reconocimiento de IA de voz a texto, lo que significa que espectadores falsos de IA respondieron a las cosas que dije en voz alta y hicieron referencia a cosas que dije en voz alta mientras probaba las aplicaciones”.

Los usuarios de influencers falsifican audiencias de IA para vender aplicaciones a audiencias reales, con una recuperación potencialmente escenificada. (itspolokidd/Instagram) Garantía “sin IA” para libros

El autor británico Richard Haywood es una superestrella de la autoedición, con su serie Undead de novelas post-apocalípticas vendiendo más de 4 millones de copias. Ahora está luchando contra los autores zombis agregando una etiqueta y una garantía NO-AI a todos sus libros, con una "garantía legalmente vinculante" de que cada novela fue escrita sin la ayuda de ChatGPT u otra asistencia de IA. Haywood estima que alrededor de 100.000 libros falsos producidos por IA se han publicado en el último año y cree que una garantía libre de IA es la única forma de proteger a los autores y consumidores.

La IA reduce en un tercio las muertes por enfermedades cardíacas

En Taiwán se utilizó una IA entrenada en casi medio millón de pruebas de ECG y datos de supervivencia para identificar al 5% de los pacientes cardíacos con mayor riesgo. Un estudio en Nature informó que la IA redujo las muertes generales por problemas cardíacos entre los pacientes en un 31% y entre los pacientes de alto riesgo en un 90%.

Las IA son tan estúpidas como nosotros

Con grandes modelos de lenguaje convergiendo alrededor de la base para humanos en una serie de pruebas, el científico jefe de IA de Meta, Yann LeCunn, sostiene que la inteligencia humana podría ser el techo para los LLM debido a los datos de entrenamiento.

"Mientras los sistemas de IA estén entrenados para reproducir datos generados por humanos (por ejemplo, texto) y no tengan capacidad de búsqueda/planificación/razonamiento, el rendimiento se saturará por debajo o alrededor del nivel humano".

Bindu Reddy, director ejecutivo de AbacusAI, está de acuerdo en que los modelos se han topado con un muro” a pesar de que progresivamente se están agregando más computación y datos. “Así que, en cierto sentido, en realidad no es posible superar cierto nivel con sólo modelos de lenguaje sencillo”, dijo, aunque añadió que nadie sabe cómo es el razonamiento sobrehumano. Incluso si los LLM manifestaran estas habilidades sobrehumanas, no podríamos reconocerlas”.

Las IA se están estancando en torno a la inteligencia humana (Pedro Domingo X) La junta de seguridad no cree en el código abierto

El Departamento de Seguridad Nacional de EE. UU. ha reclutado a los jefes de empresas centralizadas de IA, incluidas OpenAI, Microsoft, Alphabet y Nvidia, para su nueva Junta de Seguridad de IA. Pero la junta ha sido criticada por no incluir a un representante de Meta, que tiene una estrategia de modelo de IA de código abierto, ni a nadie más que trabaje en IA de código abierto. Quizás ya se haya considerado inseguro.

Publicación de Homeland Security X sobre la Junta de Seguridad de AI.