ИИ Тупак против. ИИ Дрейк

Чуть больше года назад фальшивая песня AI с участием Дрейка и The Weeknd за два дня набрала 20 миллионов просмотров, прежде чем Universal удалила трек из памяти за нарушение авторских прав. Однако на этой неделе ситуация изменилась, когда адвокаты по наследству Тупака Шакура пригрозили Дрейку судебным иском из-за его дисс-трека «TaylorMade» против Кендрика Ламара, в котором использовался фальсифицированный искусственный интеллект вокал, чтобы «показать» Тупака. С тех пор Дрейк удалил трек из своего профиля X, хотя его нетрудно найти, если поискать.

Глубокая фейковая обнаженная натура признана уголовно наказуемой

Такие приложения, как Nudeify, упрощают процесс создания глубокой имитации обнаженной натуры. (Обнажить)

Правительства Австралии и Великобритании объявили о планах ввести уголовную ответственность за создание глубокой фейковой порнографии без согласия изображенных людей. В декабре AI Eye сообщила, что ряд приложений, в том числе Reface, DeepNude и Nudeify, упрощают создание дипфейков для любого, у кого есть смартфон. По данным Graphika, веб-сайты, посвященные созданию глубокой фейковой обнаженной натуры, получают десятки миллионов посещений каждый месяц.

Арест возмущения СМИ фейками

Полиция Балтимора арестовала бывшего спортивного директора средней школы Пайксвилля Дажона Дариена по обвинению в том, что он использовал программное обеспечение для клонирования голоса с помощью искусственного интеллекта, чтобы создать ложный расистский шторм (фейкизм) в отместку директору школы, который вынудил его уйти в отставку из-за предполагаемой кражи школы. фонды. Дариен отправил аудиозапись директора, предположительно делающего расистские комментарии о чернокожих и еврейских учениках, другому учителю, который передал его ученикам, средствам массовой информации и NAACP. Директор был вынужден уйти в отставку из-за протестов, однако судебно-медицинская экспертиза показала, что звук был фальшивым, и детективы арестовали Дэриена в аэропорту, когда он собирался лететь в Хьюстон с пистолетом.

Метас ИИ не удался

По крайней мере, все в средствах массовой информации ненавидят новую интеграцию искусственного интеллекта Meta в панель поиска Instagram, в основном потому, что она слишком стремится к общению и не очень хороша в поиске. Бот также присоединялся к беседам в Facebook без подсказки и говорил ерунду после того, как в группе был задан вопрос, и никто не отвечал в течение часа.

Лишенный сана ИИ-жрец

Католический священник AI был лишен сана всего через два дня за одобрение инцеста. На прошлой неделе калифорнийская компания Catholic Answers представила чат-бота «Отец Джастин», который отвечает на образовательные вопросы о католической вере.

Но после того, как он начал советовать людям крестить своих детей с помощью Gatorade и благословил радостное событие свадьбы брата и сестры, компания Catholic Answers была вынуждена извиниться и понизить статус чат-бота до простого старого Джастина. По словам CA, среди комментариев пользователей преобладает критика изображения ИИ-персонажа в роли священника. Мы не будем говорить, что он светский, потому что он никогда не был настоящим священником!»

Теперь это просто «Джастин». (Католические ответы) Отзывы о Rabbit R1

Как только чрезвычайно популярный технический обозреватель Маркес Браунли сказал, что Rabbit R1 «имеет много общего с Humane AI Pin, вы знали, что устройство обречено, Браунли две недели назад абсолютно точно обозначил устройство Humane. Rabbit R1 — это широко разрекламированное портативное устройство искусственного интеллекта, с которым вы взаимодействуете в основном посредством голоса, и оно управляет приложениями от вашего имени. Браунли раскритиковал устройство за то, что оно едва закончено и практически нефункционально, с ужасным временем автономной работы, и сказал, что оно не очень хорошо отвечает на вопросы.

TechRadar назвал R1 «прекрасным беспорядком» и отметил, что рынок не может поддерживать продукт, который еще далек от того, чтобы быть готовым для массового потребителя. Рецензент CNET сказал, что были моменты, «когда все просто щелкало, и я понимал шумиху», но они были значительно перевешены негативом. Основная проблема специализированных устройств искусственного интеллекта на данный момент заключается в том, что они более ограничены, чем смартфоны, которые уже выполняют те же функции более эффективно.

НОВОЕ ВИДЕО — Кролик R1: едва можно просмотреть https://t.co/CqwXs5m1Ia

Это вершина тенденции, которая раздражала уже много лет: поставлять едва готовые продукты, чтобы выиграть «гонку», а затем продолжать их создавать, взимая полную цену. Игры, телефоны, машины, теперь ИИ в коробке pic.twitter.com/WutKQeo2mp

– Маркес Браунли (@MKBHD), 30 апреля 2024 г.

Фейковые прямые трансляции с целью издеваться над женщинами

Новые приложения под названием Parallel Live и Famefy используют взаимодействие с аудиторией, генерируемое искусственным интеллектом, чтобы имитировать большую аудиторию в социальных сетях для прямых трансляций, а пикаперы, как сообщается, используют приложения в качестве социального доказательства, чтобы произвести впечатление на женщин. В одном из видео влиятельный человек ItsPolaKid показывает женщине в баре, которую он ведет в прямом эфире для 20 000 человек, она спрашивает его, богат ли он, и в итоге они уходят вместе. Аудитория генерируется искусственным интеллектом, который может слышать вас и отвечать, и это весело. Она не могла насытиться, сказал влиятельный человек. Эмпирическое правило в социальных сетях заключается в том, что всякий раз, когда влиятельный человек упоминает продукт, это, вероятно, реклама. Создатель Parallel Live Итан Кейзер также выпустил несколько рекламных видеороликов с миллионами просмотров, продвигая аналогичную линию о том, что социальное доказательство от фальшивой аудитории может заставить моделей падать на вас и приглашать в VIP-секции клубов. Джейсон Кеблер из 404 Media сообщил, что приложения используют распознавание речи в тексте с помощью искусственного интеллекта, что означает, что фальшивые зрители с искусственным интеллектом реагировали на то, что я говорил вслух, и ссылались на то, что я говорил вслух во время тестирования приложений».

Пользователи влиятельных лиц подделывают аудиторию ИИ, чтобы продавать приложения реальной аудитории с потенциально инсценировкой. (itspolokidd/Instagram) Гарантия «Нет ИИ» на книги

Британский писатель Ричард Хейвуд — суперзвезда, публикующая самостоятельно, его серия постапокалиптических романов «Нежить» продана тиражом более 4 миллионов экземпляров. Теперь он борется с авторами-зомби, добавляя ко всем своим книгам маркировку NO-AI и гарантию с «юридически обязательной гарантией», что каждый роман был написан без помощи ChatGPT или другой помощи ИИ. По оценкам Хейвуда, за последний год или около того было опубликовано около 100 000 поддельных книг, выпущенных искусственным интеллектом, и он считает, что гарантия отсутствия искусственного интеллекта — единственный способ защитить авторов и потребителей.

ИИ снижает смертность от сердечно-сосудистых заболеваний на треть

ИИ, обученный почти полумиллиону тестов ЭКГ и данным о выживаемости, использовался на Тайване для выявления 5% пациентов с наибольшим риском сердечно-сосудистых заболеваний. Исследование, опубликованное в журнале Nature, показало, что ИИ снижает общую смертность от проблем с сердцем среди пациентов на 31%, а среди пациентов с высоким риском - на 90%.

ИИ такие же глупые, как и мы

Главный специалист Meta по искусственному интеллекту Янн ЛеКанн, учитывая, что большие языковые модели сходятся вокруг базового уровня для людей в ряде тестов, утверждает, что человеческий интеллект может стать потолком для LLM из-за данных обучения.

«Пока системы искусственного интеллекта обучены воспроизводить данные, сгенерированные человеком (например, текст), и не имеют возможностей поиска/планирования/рассуждения, производительность будет ниже или около человеческого уровня».

Генеральный директор AbacusAI Бинду Редди согласен, что модели зашли в тупик», несмотря на постепенное добавление большего количества вычислений и данных. «Поэтому в каком-то смысле на самом деле невозможно пройти какой-то уровень, используя только простые языковые модели», — сказала она, хотя добавила, что никто не знает, как выглядит сверхчеловеческое мышление. Даже если бы LLM проявили эти сверхчеловеческие способности, мы бы не смогли их распознать».

ИИ стабилизируется вокруг человеческого интеллекта (Педро Доминго X) Совет по безопасности не верит в открытый исходный код

Министерство внутренней безопасности США привлекло глав централизованных компаний, занимающихся искусственным интеллектом, включая OpenAI, Microsoft, Alphabet и Nvidia, в свой новый Совет по безопасности и защите ИИ. Но совет подвергся критике за то, что он не включил в свой состав представителя Meta, у которой есть стратегия модели ИИ с открытым исходным кодом, или кого-либо еще, работающего над ИИ с открытым исходным кодом. Возможно, его уже признали небезопасным.

X-пост Министерства национальной безопасности о Совете по безопасности ИИ.