ШІ Тупак проти А. І. Дрейк

Трохи більше року тому підроблена пісня штучного інтелекту за участю Drake and the Weeknd набрала 20 мільйонів переглядів за два дні, перш ніж Universal викрила трек у пам’яті за порушення авторських прав. Однак цього тижня ситуація змінилася, коли адвокати маєтку Тупака Шакура пригрозили Дрейку судовим позовом через його дисс-трек «TaylorMade» проти Кендріка Ламара, у якому використовувався підроблений штучним інтелектом вокал для «особливості» Тупака. Відтоді Дрейк видалив трек зі свого профілю X, хоча його неважко знайти, якщо ви подивіться.

Глибокі підроблені оголені зображення криміналізовані

Такі програми, як Nudeify, спрощують процес створення глибоких фальшивих оголених. (Оголена)

Уряди Австралії та Сполученого Королівства оголосили про плани криміналізувати створення глибокої фейкової порнографії без згоди зображених людей. У грудні AI Eye повідомила, що ряд програм, включаючи Reface, DeepNude і Nudeify, спрощують створення дипфейків для будь-кого, хто має смартфон. За даними Graphika, веб-сайти із створенням оголеного тіла щомісяця отримували десятки мільйонів переглядів.

Арешт через фейкове обурення ЗМІ

Поліція Балтимора заарештувала колишнього спортивного директора середньої школи Пайксвілля Дажона Даріена за звинуваченнями в тому, що він використовував програмне забезпечення для клонування голосу штучним інтелектом, щоб створити фальшиву расистську бурю (фейкізм) у відповідь на директора школи, який змусив його піти у відставку через нібито крадіжку школи. Дарієн надіслав аудіозапис директора, який нібито робив расистські коментарі щодо темношкірих і єврейських учнів, іншому вчителю, який передав це учням, ЗМІ та NAACP. Директор був змушений піти у відставку на тлі обурення, однак судово-медичний аналіз показав, що звук був підробленим, і детективи заарештували Даріена в аеропорту, коли він збирався летіти до Х’юстона зі зброєю.

Metas AI не вдалося

Здається, принаймні всі медіа ненавидять нову інтеграцію штучного інтелекту Metas у пошуковий рядок Instagram, головним чином тому, що він надто охочий до спілкування та не дуже хороший у пошуку. Бот також приєднувався до бесід у Facebook без запиту та говорив нісенітниці після того, як у групі поставили запитання, і ніхто не відповів протягом години.

Позбавлений сану священик А.І

Католицький священик AI був позбавлений сану лише через два дні за підтримку інцесту. Каліфорнійська компанія Catholic Answers представила чат-бот Father Justin минулого тижня, щоб відповідати на освітні запитання про католицьку віру.

Але після того, як вони почали радити людям, що вони можуть хрестити своїх дітей за допомогою Gatorade, і це благословило радісну подію одруження брата та сестри, Catholic Answers був змушений вибачитися та понизити чат-бота до простого старого Джастіна. Серед коментарів користувачів переважає критика щодо представлення ШІ-персонажа як священика, повідомляє CA. Ми не будемо казати, що він був мирянином, тому що він ніколи не був справжнім священиком!»

Тепер це просто «Джастін». (Католицькі відповіді) Відгуки про Rabbit R1

Як тільки надзвичайно популярний технічний рецензент Маркес Браунлі сказав, що Rabbit R1 «має багато спільного з Humane AI Pin, ви знали, що пристрій приречений, Браунлі повністю відмовився від пристрою Humane два тижні тому. Rabbit R1 — це розкручений портативний пристрій зі штучним інтелектом, з яким ви взаємодієте в основному за допомогою голосу, при цьому він керує програмами від вашого імені. Браунлі розкритикував пристрій за те, що він ледь закінчений і нефункціональний, із жахливим часом автономної роботи, і сказав, що він не дуже добре відповідає на запитання.

TechRadar назвав R1 «гарним безладом» і зазначив, що ринок не може підтримувати продукт, який так далеко не готовий для масового споживача. Рецензент CNET сказав, що були моменти, «коли все просто клацало, і я розумів ажіотаж», але вони були значно переважені негативними. Основна проблема, пов’язана зі спеціальними пристроями AI, полягає в тому, що вони більш обмежені, ніж смартфони, які вже виконують ті самі функції більш ефективно.

НОВЕ ВІДЕО – Rabbit R1: ледве рецензованийhttps://t.co/CqwXs5m1Ia

Це вершина тенденції, яка дратувала протягом багатьох років: доставка ледве готових продуктів, щоб виграти «гонку», а потім продовжувати їх створення після стягнення повної ціни. Ігри, телефони, автомобілі, тепер ШІ в коробці pic.twitter.com/WutKQeo2mp

— Маркес Браунлі (@MKBHD) 30 квітня 2024 р

Фальшиві прямі трансляції для нападу на жінок

Нові програми під назвою Parallel Live і Famefy використовують згенеровану штучним інтелектом взаємодію з аудиторією, щоб підробити велику аудиторію в соціальних мережах для прямих трансляцій, причому пікапери, як повідомляється, використовують програми як соціальний доказ, щоб справити враження на жінок. В одному відео інфлюенсер ItsPolaKid показує жінці в барі, що він веде пряму трансляцію для 20 000 людей, вона запитує його, чи він багатий, і вони разом йдуть. Аудиторія створена штучним інтелектом, яка може почути вас і відповісти, що дуже смішно. Вона не могла насититися, сказав впливовий агент. Основне правило в соціальних мережах полягає в тому, що всякий раз, коли впливовий фактор згадує продукт, це, ймовірно, реклама. Творець Parallel Live Ітан Кейзер також випустив купу рекламних відео з мільйонами переглядів, наполягаючи на тому, що соціальний доказ від фальшивої аудиторії може змусити моделей накидатися на вас і запросити до VIP-секції клубів. 404 Medias Джейсон Кеблер повідомив, що додатки використовують розпізнавання мовлення в текст ШІ, що означало, що підроблені глядачі ШІ реагували на те, що я говорив вголос, і посилалися на те, що я казав вголос під час тестування програм».

Впливові користувачі підробляють аудиторію штучного інтелекту, щоб продавати додатки реальній аудиторії з потенційно поетапним підбором. (itspolokidd/Instagram) Гарантія «No-AI» для книг

Британський письменник Річард Гейвуд — суперзірка, яка займається самвидавом, його серія постапокаліптичних романів «Нежить» розійшлася тиражем понад 4 мільйони примірників. Тепер він бореться з авторами-зомбі, додаючи мітку NO-AI і гарантію на всі свої книги, з «юридично обов’язковою гарантією», що кожен роман був написаний без допомоги ChatGPT або іншої допомоги AI. За оцінками Гейвуда, приблизно за останній рік було опубліковано близько 100 000 підроблених книг, створених ШІ, і вважає, що гарантія відсутності штучного інтелекту є єдиним способом захистити авторів і споживачів.

AI зменшує смертність від серцевих захворювань на одну третину

Штучний інтелект, навчений майже півмільйону ЕКГ-тестів і даних про виживання, був використаний на Тайвані, щоб визначити 5% найвищих пацієнтів із серцевим ризиком. Дослідження в Nature показало, що штучний інтелект знизив загальну смертність від проблем із серцем серед пацієнтів на 31%, а серед пацієнтів групи ризику – на 90%.

ШІ такі ж дурні, як і ми

З огляду на те, що великі мовні моделі збігаються навколо базової лінії для людей під час купи тестів, головний науковець Meta зі штучного інтелекту Янн ЛеКунн стверджує, що людський інтелект може бути верхньою межею для LLM завдяки навчальним даним.

«Поки системи штучного інтелекту навчені відтворювати створені людиною дані (наприклад, текст) і не мають можливості пошуку/планування/міркування, продуктивність буде нижчою або близькою до людського рівня».

Генеральний директор AbacusAI Бінду Редді погоджується, що моделі наткнулися на стіну, незважаючи на те, що додається все більше обчислень і даних. «Тож у певному сенсі неможливо пройти певний рівень за допомогою простих мовних моделей», — сказала вона, хоча додала, що ніхто не знає, як виглядає надлюдське міркування. Навіть якби LLM проявляли ці надлюдські здібності, ми б не змогли їх розпізнати».

Штучний інтелект схиляється навколо людського інтелекту (Педро Домінго X) Рада безпеки не вірить у відкрите джерело

Міністерство внутрішньої безпеки США залучило керівників централізованих компаній зі штучного інтелекту, зокрема OpenAI, Microsoft, Alphabet і Nvidia, до складу нової Ради з питань безпеки та безпеки штучного інтелекту. Але раду критикували за відсутність представника Meta, яка має стратегію моделі штучного інтелекту з відкритим кодом, або будь-кого іншого, хто працює над штучним інтелектом з відкритим кодом. Можливо, його вже визнали небезпечним.

Публікація Homeland Security X про Раду безпеки ШІ.