AI Tupac kontra. AI Drake

Nieco ponad rok temu fałszywa piosenka AI z udziałem Drake’a i Weeknda zdobyła 20 milionów wyświetleń w dwa dni, zanim Universal ukrył utwór w pamięci za naruszenie praw autorskich. Jednak w tym tygodniu sytuacja znalazła się na minusie, kiedy prawnicy zajmujący się majątkiem Tupaca Shakura zagrozili Drake'owi pozwem w związku z jego utworem dissowym „TaylorMade” przeciwko Kendrickowi Lamarowi, w którym wykorzystano sfałszowany wokal AI, aby „przedstawić” Tupaca. Od tego czasu Drake usunął tę ścieżkę ze swojego profilu X, chociaż nie jest trudno ją znaleźć, jeśli się przyjrzysz.

Głębokie fałszywe akty są karane

Aplikacje takie jak Nudeify upraszczają proces tworzenia głębokich fałszywych aktów. (Nagość)

Rządy Australii i Wielkiej Brytanii ogłosiły plany uznania za przestępstwo tworzenia głębokiej fałszywej pornografii bez zgody portretowanych osób. W grudniu AI Eye poinformowało, że szereg aplikacji, w tym Reface, DeepNude i Nudeify, ułatwia tworzenie deepfakes każdemu posiadaczowi smartfona. Według Graphiki strony internetowe z fałszywymi aktami są odwiedzane co miesiąc dziesiątki milionów razy.

Aresztowanie w związku z oburzeniem mediów

Policja w Baltimore aresztowała byłego dyrektora sportowego szkoły średniej w Pikesville, Dazhona Dariena, w związku z zarzutami, że używał oprogramowania do klonowania głosu AI w celu wywołania fałszywej burzy rasistowskiej (fałszywości) w odwecie na dyrektorze szkoły, który wymusił jego rezygnację z powodu rzekomej kradzieży szkoły funduszy. Darien przesłał nagranie wideo przedstawiające dyrektora rzekomo wypowiadającego rasistowskie uwagi na temat czarnych i żydowskich uczniów innemu nauczycielowi, który przekazał to uczniom, mediom i NAACP. W obliczu krzyków dyrektor został zmuszony do ustąpienia ze stanowiska, jednak analiza kryminalistyczna wykazała, że ​​dźwięk był fałszywy, a detektywi aresztowali Dariena na lotnisku, gdy miał lecieć z bronią do Houston.

Metas AI nie powiódł się

Wydaje się, że wszyscy w mediach nienawidzą nowej integracji sztucznej inteligencji Metas w pasku wyszukiwania na Instagramie, głównie dlatego, że jest ona zbyt chętna do czatowania i niezbyt dobra w wyszukiwaniu. Bot włącza się też bez zapowiedzi do rozmów na Facebooku i opowiada bzdury po zadaniu pytania na grupie, na które w ciągu godziny nikt nie odpowiada.

Zdefrakcjonowany kapłan AI

Katolicki ksiądz AI został pozbawiony urzędu już po dwóch dniach za popieranie kazirodztwa. W zeszłym tygodniu organizacja Catholic Answers z siedzibą w Kalifornii wprowadziła chatbota ojca Justina, który ma odpowiadać na pytania edukacyjne dotyczące wiary katolickiej.

Ale kiedy zaczęło doradzać ludziom, aby mogli ochrzcić swoje dzieci za pomocą Gatorade, i pobłogosławiło radosną okazję do zawarcia małżeństwa brata i siostry, Catholic Answers było zmuszone przeprosić i zdegradować chatbota do zwykłego starego Justina. CA stwierdziło, że wśród komentarzy użytkowników powszechna jest krytyka przedstawiania postaci AI jako księdza. Nie powiemy, że został zlaicyzowany, ponieważ nigdy nie był prawdziwym księdzem!”

Teraz to tylko „Justin”. (Odpowiedzi katolickie) Recenzje Rabbit R1

Gdy tylko niezwykle popularny recenzent technologii Marques Brownlee stwierdził, że Rabbit R1 „ma wiele wspólnego z Humane AI Pin, wiedziałeś, że to urządzenie jest skazane na porażkę. Dwa tygodnie temu Brownlee absolutnie przekreślił urządzenie Humane. Rabbit R1 to niezwykle popularne przenośne urządzenie AI, z którym współpracujesz przede wszystkim za pomocą głosu i które w Twoim imieniu obsługuje aplikacje. Brownlee skrytykował urządzenie za ledwie ukończone i na granicy niefunkcjonalności, a także okropnie trzymającą baterię, po czym stwierdził, że nie radzi sobie zbyt dobrze z odpowiadaniem na pytania.

TechRadar nazwał R1 „pięknym bałaganem i zauważył, że rynek nie jest w stanie utrzymać produktu, który jest tak daleki od gotowości dla masowego konsumenta. Recenzent CNETs powiedział, że były momenty, „kiedy wszystko po prostu pasowało i zrozumiałem ten szum”, ale zdecydowanie przeważały nad nimi negatywy. Jak dotąd głównym problemem dedykowanych urządzeń AI jest to, że są one bardziej ograniczone niż smartfony, które już i tak efektywniej wykonują te same funkcje.

NOWY WIDEO – Rabbit R1: Ledwo możliwy do sprawdzeniahttps://t.co/CqwXs5m1Ia

To szczyt irytującego od lat trendu: dostarczanie ledwo gotowych produktów, aby wygrać „wyścig”, a następnie kontynuowanie ich budowy po pobraniu pełnej ceny. Gry, telefony, samochody, teraz sztuczna inteligencja w pudełku pic.twitter.com/WutKQeo2mp

— Marques Brownlee (@MKBHD) 30 kwietnia 2024 r

Fałszywe transmisje na żywo, aby podrywać kobiety

Nowe aplikacje o nazwie Parallel Live i Famefy korzystają z interakcji z publicznością generowanych przez sztuczną inteligencję, aby udawać dużą widownię w mediach społecznościowych na potrzeby transmisji na żywo z udziałem podrywaczy, którzy podobno używają aplikacji jako dowodu społecznego, aby zaimponować kobietom. W jednym z filmów wpływowa influencerka ItPolaKid pokazuje kobietę w barze, który transmituje na żywo dla 20 000 widzów, pyta go, czy jest bogaty, po czym wychodzą razem. Publiczność jest generowana przez sztuczną inteligencję, która może Cię usłyszeć i odpowiedzieć, co jest zabawne. Nie miała dość, powiedziała influencerka. Ogólna zasada obowiązująca w mediach społecznościowych jest taka, że ​​ilekroć influencer wspomina o produkcie, jest to prawdopodobnie reklama. Twórca Parallel Live, Ethan Keizer, również opublikował kilka filmów promocyjnych, które obejrzały miliony osób, forsując podobne stanowisko, że dowód społeczny przedstawiany przez fałszywych widzów może sprawić, że modelki będą się na ciebie rzucać i zapraszać do sekcji VIP klubów. 404 Medias Jason Koebler zgłosił, że aplikacje wykorzystują sztuczną inteligencję do rozpoznawania mowy na tekst, co oznaczało, że widzowie z fałszywą sztuczną inteligencją reagowali na rzeczy, które mówiłem na głos i odwoływali się do rzeczy, które mówiłem na głos podczas testowania aplikacji”.

Użytkownicy wpływowi fałszywi odbiorcy AI, aby sprzedawać aplikacje prawdziwym odbiorcom, z potencjalnie etapowym odbiorem. (itspolokidd/Instagram) Gwarancja „Brak AI” dla książek

Brytyjski autor Richard Haywood jest supergwiazdą wydawniczą, a jego seria postapokaliptycznych powieści Undead sprzedała się w ponad 4 milionach egzemplarzy. Obecnie walczy z autorami zombie, dodając etykietę NO-AI i gwarancję do wszystkich swoich książek, z „prawnie wiążącą gwarancją”, że każda powieść została napisana bez pomocy ChatGPT lub innej pomocy AI. Haywood szacuje, że w ciągu ostatniego roku opublikowano około 100 000 fałszywych książek wyprodukowanych przez sztuczną inteligencję i uważa, że ​​gwarancja niezawierająca sztucznej inteligencji to jedyny sposób ochrony autorów i konsumentów.

Sztuczna inteligencja zmniejsza liczbę zgonów z powodu chorób serca o jedną trzecią

Na Tajwanie wykorzystano sztuczną inteligencję przeszkoloną w zakresie prawie pół miliona testów EKG i danych dotyczących przeżycia, aby zidentyfikować 5% pacjentów z sercem najbardziej zagrożonych. Badanie opublikowane w Nature wykazało, że sztuczna inteligencja zmniejszyła ogólną liczbę zgonów z powodu chorób serca wśród pacjentów o 31%, a wśród pacjentów wysokiego ryzyka o 90%.

Sztuczna inteligencja jest tak samo głupia jak my

Ponieważ w szeregu testów duże modele językowe zbiegają się z wartościami wyjściowymi dla ludzi, główny naukowiec Meta w dziedzinie sztucznej inteligencji, Yann LeCunn, twierdzi, że ludzka inteligencja może stanowić pułap dla LLM ze względu na dane szkoleniowe.

„Dopóki systemy sztucznej inteligencji zostaną przeszkolone w zakresie odtwarzania danych generowanych przez człowieka (np. tekstu) i nie będą miały możliwości wyszukiwania/planowania/wnioskowania, wydajność będzie poniżej lub w pobliżu poziomu ludzkiego”.

Dyrektor generalny AbacusAI, Bindu Reddy, zgadza się, że modele uderzyły w ścianę” pomimo coraz większej liczby obliczeń i dodawania danych. „Więc w pewnym sensie nie da się przekroczyć pewnego poziomu za pomocą prostych modeli językowych” – stwierdziła, chociaż dodała, że ​​nikt nie wie, jak wygląda nadludzkie rozumowanie. Nawet gdyby LLM przejawiały te nadludzkie zdolności, nie bylibyśmy w stanie ich rozpoznać.

Sztuczna inteligencja kładzie nacisk na ludzką inteligencję (Pedro Domingo X). Rada ds. bezpieczeństwa nie wierzy w otwarte oprogramowanie

Departament Bezpieczeństwa Wewnętrznego Stanów Zjednoczonych powołał szefów scentralizowanych firm zajmujących się sztuczną inteligencją, w tym OpenAI, Microsoft, Alphabet i Nvidia, do swojej nowej Rady ds. Bezpieczeństwa i Bezpieczeństwa AI. Zarząd był jednak krytykowany za to, że nie włączył do niego przedstawiciela Meta, która ma strategię dotyczącą modelu sztucznej inteligencji typu open source, ani nikogo innego pracującego nad sztuczną inteligencją typu open source. Być może zostało już uznane za niebezpieczne.

Homeland Security X post na temat Rady Bezpieczeństwa AI.