L'IA Tupac contre Drake IA

Il y a un peu plus d'un an, une fausse chanson d'IA mettant en vedette Drake and the Weeknd a accumulé 20 millions de vues en deux jours avant qu'Universal ne perde la mémoire de la piste pour violation du droit d'auteur. Cependant, la chaussure était sur l'autre pied cette semaine, lorsque les avocats de la succession de Tupac Shakur ont menacé Drake de poursuites judiciaires pour son morceau dissident "TaylorMade" contre Kendrick Lamar, qui utilisait des voix falsifiées par l'IA pour "présenter" Tupac. Drake a depuis retiré la piste de son profil X, même si ce n'est pas difficile à trouver si vous regardez.

Les faux nus profonds criminalisés

Des applications comme Nudeify simplifient le processus de création de faux nus profonds. (Nudifier)

Les gouvernements de l'Australie et du Royaume-Uni ont tous deux annoncé leur intention de criminaliser la création de pornographie truquée sans le consentement des personnes représentées. AI Eye a rapporté en décembre qu'une gamme d'applications, notamment Reface, DeepNude et Nudeify, facilitent la création de deepfakes pour toute personne possédant un smartphone. Selon Graphika, les sites Web de création de faux nus reçoivent des dizaines de millions de visites chaque mois.

Arrestation pour indignation médiatique contre le fakeisme

La police de Baltimore a arrêté l'ancien directeur sportif du lycée de Pikesville, Dazhon Darien, pour des allégations selon lesquelles il aurait utilisé un logiciel de clonage vocal d'IA pour créer une fausse tempête de racisme (fakeisme) en représailles contre le directeur de l'école, qui l'avait forcé à démissionner suite au vol présumé de l'école. Darien a envoyé l'audio du directeur faisant soi-disant des commentaires racistes sur les étudiants noirs et juifs à un autre enseignant, qui l'a transmis aux étudiants, aux médias et à la NAACP. Le directeur a été contraint de démissionner au milieu du tollé, mais l'analyse médico-légale a montré que l'audio était faux et les détectives ont arrêté Darien à l'aéroport alors qu'il s'apprêtait à s'envoler pour Houston avec une arme à feu.

L'IA des métas a échoué

Tout le monde dans les médias semble au moins détester la nouvelle intégration de l'IA de Meta dans la barre de recherche Instagram, principalement parce qu'elle est trop désireuse de discuter et qu'elle n'est pas très bonne en recherche. Le robot a également rejoint des conversations Facebook spontanément et dit des bêtises après qu'une question ait été posée dans un groupe, et personne ne répond dans l'heure.

Prêtre IA défroqué

Un prêtre catholique d’AI a été défroqué après seulement deux jours pour avoir approuvé l’inceste. La société californienne Catholic Answers a présenté la semaine dernière le chatbot Father Justin pour répondre à des questions éducatives sur la foi catholique.

Mais après avoir commencé à conseiller aux gens de baptiser leurs enfants avec Gatorade et avoir béni la joyeuse occasion du mariage d'un frère et d'une sœur, Catholic Answers a été contraint de s'excuser et de rétrograder le chatbot au bon vieux Justin. Parmi les commentaires des utilisateurs, la critique de la représentation du personnage d'IA en tant que prêtre est répandue, a déclaré CA. On ne dira pas qu’il a été laïcisé parce qu’il n’a jamais été un vrai prêtre !

C'est juste "Justin" maintenant. (Réponses catholiques) Avis sur Rabbit R1

Dès que le critique technique très populaire Marques Brownlee a déclaré que le Rabbit R1 « a beaucoup en commun avec Humane AI Pin, vous saviez que l’appareil était voué à l’échec. Brownlee avait absolument prévu l’appareil de Humane il y a deux semaines. Le Rabbit R1 est un appareil d’IA portable très médiatisé avec lequel vous interagissez principalement par la voix, et qui exploite des applications en votre nom. Brownlee a critiqué l'appareil pour être à peine terminé et à la limite non fonctionnel, avec une autonomie de batterie terrible, et a déclaré qu'il n'était pas très efficace pour répondre aux questions.

TechRadar a qualifié le R1 de « beau gâchis et a noté que le marché ne pouvait pas supporter un produit qui est si loin d'être prêt pour le consommateur de masse. Le critique de CNET a déclaré qu'il y avait des moments « où tout s'est bien passé et où j'ai compris le battage médiatique », mais ils ont été largement contrebalancés par les points négatifs. Jusqu’à présent, le principal problème des appareils dédiés à l’IA est qu’ils sont plus limités que les smartphones, qui remplissent déjà les mêmes fonctions de manière plus efficace.

NOUVELLE VIDÉO – Rabbit R1 : à peine révisablehttps://t.co/CqwXs5m1Ia

C'est l'apogée d'une tendance qui dérange depuis des années : livrer des produits à peine finis pour gagner une « course » et continuer ensuite à les construire après avoir facturé le prix fort. Jeux, téléphones, voitures, maintenant l'IA dans une boîte pic.twitter.com/WutKQeo2mp

– Marques Brownlee (@MKBHD) 30 avril 2024

De fausses diffusions en direct pour draguer les femmes

De nouvelles applications appelées Parallel Live et Famefy utilisent l'interaction du public générée par l'IA pour simuler de grandes audiences sur les réseaux sociaux pour les diffusions en direct avec des artistes pick-up qui utiliseraient apparemment les applications comme preuve sociale pour impressionner les femmes. Dans une vidéo, l'influenceur ItsPolaKid montre une femme dans un bar qu'il diffuse en direct devant 20 000 personnes, elle lui demande s'il est riche et ils finissent par partir ensemble. Le public est généré par l’IA, qui peut vous entendre et répondre, ce qui est hilarant. Elle n'en avait jamais assez, a déclaré l'influenceur. La règle générale sur les réseaux sociaux est que chaque fois qu'un influenceur mentionne un produit, il s'agit probablement d'une publicité. Le créateur de Parallel Live, Ethan Keizer, a également publié un certain nombre de vidéos promotionnelles avec des millions de vues, poussant une ligne similaire selon laquelle la preuve sociale provenant de faux publics peut inciter des modèles à vous tomber dessus et à vous inviter dans les sections VIP des clubs. 404 Medias Jason Koebler a rapporté que les applications utilisent la reconnaissance vocale de l'IA, ce qui signifie que de faux téléspectateurs IA réagissent à ce que je dis à voix haute et font référence à ce que j'ai dit à haute voix lors du test des applications.

Les utilisateurs influenceurs simulent des audiences IA pour vendre des applications à des audiences réelles, avec une reprise potentiellement échelonnée. (itspolokidd/Instagram) Garantie « No-AI » pour les livres

L'auteur britannique Richard Haywood est une superstar de l'auto-édition, avec sa série de romans post-apocalyptiques Undead vendue à plus de 4 millions d'exemplaires. Il combat désormais les auteurs zombies en ajoutant une étiquette et une garantie SANS IA à tous ses livres, avec une « garantie juridiquement contraignante » que chaque roman a été écrit sans l'aide de ChatGPT ou d'une autre assistance de l'IA. Haywood estime qu'environ 100 000 faux livres produits par l'IA ont été publiés au cours de l'année écoulée et estime qu'une garantie sans IA est le seul moyen de protéger les auteurs et les consommateurs.

L’IA réduit d’un tiers les décès dus aux maladies cardiaques

Une IA entraînée sur près d’un demi-million de tests ECG et de données de survie a été utilisée à Taïwan pour identifier les 5 % des patients cardiaques les plus à risque. Une étude parue dans Nature a rapporté que l'IA réduisait de 31 % le nombre total de décès liés à des problèmes cardiaques chez les patients et de 90 % chez les patients à haut risque.

Les IA sont aussi stupides que nous

Alors que de grands modèles de langage convergent autour de la ligne de base pour les humains lors d'une série de tests, Yann LeCunn, scientifique en chef de l'IA chez Meta, affirme que l'intelligence humaine pourrait être le plafond des LLM en raison des données de formation.

"Tant que les systèmes d'IA sont entraînés à reproduire des données générées par l'homme (par exemple du texte) et n'ont aucune capacité de recherche/planification/raisonnement, les performances satureront en dessous ou autour du niveau humain."

Bindu Reddy, PDG d'AbacusAI, convient que les modèles se sont heurtés à un mur », malgré l'ajout progressif de calculs et de données. "Donc, dans un certain sens, il n'est pas possible de dépasser un certain niveau avec des modèles en langage simple", a-t-elle déclaré, tout en ajoutant que personne ne sait à quoi ressemble un raisonnement surhumain. Même si les LLM manifestaient ces capacités surhumaines, nous ne serions pas capables de les reconnaître.

Les IA stagnent autour de l’intelligence humaine (Pedro Domingo X) Le comité de sécurité ne croit pas à l’open source

Le département américain de la Sécurité intérieure a recruté les chefs d'entreprises centralisées d'IA, notamment OpenAI, Microsoft, Alphabet et Nvidia, pour son nouveau Conseil de sûreté et de sécurité de l'IA. Mais le conseil d'administration a été critiqué pour ne pas avoir inclus de représentant de Meta, qui a une stratégie de modèle d'IA open source, ni même de toute autre personne travaillant sur l'IA open source. Peut-être que cela a déjà été jugé dangereux.

Article X de Homeland Security sur le Conseil de sécurité de l'IA.