AI Tupac vs. AI Drake

Cu puțin peste un an în urmă, o melodie falsă AI cu Drake și The Weeknd a strâns 20 de milioane de vizualizări în două zile înainte ca Universal să distrugă piesa pentru încălcarea drepturilor de autor. Pantoful a fost pe celălalt picior săptămâna aceasta, însă, când avocații moșiei lui Tupac Shakur l-au amenințat pe Drake cu un proces pentru piesa lui „TaylorMade” împotriva lui Kendrick Lamar, care a folosit vocea falsă de AI pentru a „prezenta” Tupac. De atunci, Drake a scos pista din profilul său X, deși nu este greu de găsit dacă te uiți.

Nuduri false profunde incriminate

Aplicații precum Nudeify simplifică procesul de creare a nudurilor false profunde. (Nudeificare)

Guvernele Australiei și ale Regatului Unit au anunțat ambele planuri de a criminaliza crearea de pornografie falsă profundă fără consimțământul persoanelor portretizate. AI Eye a raportat în decembrie că o serie de aplicații, inclusiv Reface, DeepNude și Nudeify, facilitează crearea de deepfake pentru oricine are un smartphone. Site-urile web de creații de nuduri false au primit zeci de milioane de accesări în fiecare lună, potrivit Graphika.

Arestarea scandalului mass-media fals

Poliția din Baltimore l-a arestat pe fostul director de atletism al liceului din Pikesville, Dazhon Darien, din cauza acuzațiilor că a folosit software-ul de clonare a vocii AI pentru a crea o furtună falsă de rasism (fals) ca răzbunare împotriva directorului școlii, care și-a forțat demisia din cauza presupusului furt al școlii. funds.Darien a trimis audio cu directorul care ar fi făcut comentarii rasiste despre elevii de culoare și evrei unui alt profesor, care le-a transmis studenților, presei și NAACP. Directorul a fost forțat să demisioneze pe fondul protestelor, cu toate acestea, analizele criminalistice au arătat că sunetul era fals și detectivii l-au arestat pe Darien la aeroport, când era pe punctul de a zbura cu o armă la Houston.

AI eșuează obiectivele

Toată lumea din mass-media cel puțin pare să urăască noua integrare AI a Metas în bara de căutare Instagram, mai ales pentru că este prea dornic să discute și nu este foarte bun la căutare. Botul s-a alăturat, de asemenea, conversațiilor de pe Facebook fără a fi solicitat și a vorbit prostii după ce a fost pusă o întrebare într-un grup și nimeni nu răspunde într-o oră.

Preot AI defrocat

Un preot catolic AI a fost demis după doar două zile pentru că a susținut incestul. Catholic Answers, din California, l-a prezentat pe Părintele Justin săptămâna trecută pentru a răspunde la întrebări educaționale despre credința catolică.

Dar după ce a început să-i sfătuiască pe oameni să-și boteze copiii cu Gatorade și a binecuvântat ocazia fericită a unui frate și o soră care se căsătoresc, Catholic Answers a fost forțat să își ceară scuze și să retrogradeze chatbot-ul la bătrânul simplu Justin. În rândul comentariilor utilizatorilor, predomină critica față de reprezentarea personajului AI ca preot, a spus CA. Nu vom spune că a fost laicizat pentru că nu a fost niciodată un preot adevărat!”

Este doar „Justin” acum. (Răspunsuri catolice) Recenzii Rabbit R1

De îndată ce recenzentul tehnologic extrem de popular, Marques Brownlee, a spus că Rabbit R1 „are multe în comun cu Humane AI Pin, știai că dispozitivul a fost condamnat, Brownlee a programat absolut dispozitivul lui Humane acum două săptămâni. Rabbit R1 este un dispozitiv AI portabil foarte popular cu care interacționați în primul rând prin voce, cu care operează aplicații în numele dvs. Brownlee a criticat dispozitivul pentru că este abia terminat și la limita nefuncțională, cu o durată de viață groaznică a bateriei și a spus că nu este foarte bun în a răspunde la întrebări.

TechRadar a numit R1 o „mizerie frumoasă și a remarcat că piața nu poate susține un produs care este atât de departe de a fi gata pentru consumatorul de masă. Revizorul CNET a spus că au existat momente „în care totul a făcut clic și am înțeles hype”, dar au fost mult depășite de negative. Principala problemă cu dispozitivele AI dedicate de până acum este că acestea sunt mai limitate decât smartphone-urile, care îndeplinesc deja aceleași funcții mai eficient.

NOU VIDEO – Rabbit R1: Barely Reviewablehttps://t.co/CqwXs5m1Ia

Acesta este punctul culminant al unui trend care este enervant de ani de zile: livrarea de produse abia finite pentru a câștiga o „cursă” și apoi continuarea construcției lor după ce a perceput prețul întreg. Jocuri, telefoane, mașini, acum AI într-o cutie pic.twitter.com/WutKQeo2mp

– Marques Brownlee (@MKBHD) 30 aprilie 2024

Fluxuri live false pentru a atinge femeile

Noile aplicații numite Parallel Live și Famefy folosesc interacțiunea publicului generată de inteligență artificială pentru a falsifica audiențe mari din rețelele sociale pentru streamuri live, artiștii care folosesc aplicațiile ca dovadă socială pentru a impresiona femeile. Într-un videoclip, influencerul ItsPolaKid arată o femeie într-un bar pe care îl transmite în direct la 20.000 de persoane, ea îl întreabă dacă este bogat și ajung să plece împreună. Audiența este generată de inteligență artificială, care vă poate auzi și răspunde, ceea ce este hilar. Ea nu s-a săturat, a spus influențatorul. Regula de bază pe rețelele de socializare este că ori de câte ori un influencer menționează un produs, probabil că este o reclamă. Creatorul Parallel Live, Ethan Keizer, a lansat, de asemenea, o grămadă de videoclipuri promoționale cu milioane de vizionări, împingând o linie similară că dovada socială de la publicul fals poate face ca modelele să cadă peste tine și invitații la secțiunile VIP ale cluburilor. 404 Medias Jason Koebler a raportat că aplicațiile folosesc recunoașterea AI de la vorbire la text, ceea ce a însemnat că telespectatorii falși de AI au răspuns la lucrurile pe care le-am spus cu voce tare și au făcut referire la lucruri pe care le-am spus cu voce tare în timp ce testau aplicațiile.”

Utilizatorii de influență falsifică audiența inteligenței artificiale pentru a vinde aplicații unui public real, cu o preluare potențial în scenă. (itspolokidd/Instagram) Garanție „No-AI” pentru cărți

Autorul britanic Richard Haywood este un superstar de auto-publicare, cu seria sa de romane post-apocaliptice „Undead” vânzându-se în peste 4 milioane de exemplare. Acum se luptă cu autorii zombi adăugând o etichetă NO-AI și o garanție la toate cărțile sale, cu o „garanție obligatorie din punct de vedere legal” că fiecare roman a fost scris fără ajutorul ChatGPT sau alt ajutor AI. Haywood estimează că aproximativ 100.000 de cărți false produse de AI au fost publicate în ultimul an și consideră că o garanție fără AI este singura modalitate de a proteja autorii și consumatorii.

Inteligența artificială reduce decesele cauzate de boli de inimă cu o treime

O IA instruită pe aproape jumătate de milion de teste ECG și date de supraviețuire a fost folosită în Taiwan pentru a identifica primii 5% dintre cei mai mulți pacienți cu risc cardiac. Un studiu din Nature a raportat că IA a redus cu 31% decesele generale legate de inimă în rândul pacienților și cu 90% în rândul pacienților cu risc ridicat.

AI sunt la fel de prosti ca noi

Având în vedere că modelele de limbaj mari converg în jurul liniei de bază pentru oameni la o grămadă de teste, om de știință AI al Meta, Yann LeCunn, susține că inteligența umană ar putea fi plafonul pentru LLM datorită datelor de antrenament.

„Atâta timp cât sistemele AI sunt antrenate să reproducă date generate de om (de exemplu, text) și nu au nicio capacitate de căutare/planificare/raționare, performanța se va satura sub sau în jurul nivelului uman.”

CEO-ul AbacusAI, Bindu Reddy, este de acord că modelele s-au lovit de un zid”, în ciuda faptului că sunt adăugate din ce în ce mai multe calculatoare și date. „Așadar, într-un anumit sens, de fapt, nu este posibil să treci de un anumit nivel doar cu modele de limbaj simplu, a spus ea, deși a adăugat că Nimeni nu știe cum arată raționamentul supraomenesc. Chiar dacă LLM-urile ar manifesta aceste abilități supraomenești, nu am fi capabili să le recunoaștem.”

AI-urile se opresc în jurul inteligenței umane (Pedro Domingo X) Consiliul de siguranță nu crede în sursa deschisă

Departamentul de Securitate Internă din SUA a recrutat șefii companiilor centralizate de AI, inclusiv OpenAI, Microsoft, Alphabet și Nvidia, pentru noul său Consiliu de siguranță și securitate AI. Dar consiliul de administrație a fost criticat pentru că nu a inclus un reprezentant al Meta, care are o strategie de model AI open-source, sau chiar pe oricine altcineva care lucrează la AI open-source. Poate că a fost deja considerat nesigur.

Postarea Homeland Security X despre AI Safety Board.