Бывший генеральный директор Google Эрик Шмидт предупредил, что развитие генеративных технологий ИИ, таких как приложения для ИИ-парней и девушек, в сочетании с социальными факторами, такими как одиночество, могут увеличить риск радикализации, особенно среди молодых мужчин.
Шмидт поделился своими опасениями, появившись на подкасте профессора NYU Скотта Гэллоуэя The Prof G Show на прошлой неделе.
Шмидт объяснил, как многие молодые мужчины сегодня чувствуют себя все более безнадежными из-за меньшего числа путей к успеху по сравнению с женщинами, которые более образованы и составляют большую долю выпускников колледжей, оставляя многих мужчин в ощущении отставания.
Недавнее исследование Pew Research Center показало, что 47% женщин в США в возрасте от 25 до 34 лет имеют степень бакалавра, по сравнению с 37% мужчин. В ответ на это Шмидт сказал, что мужчины обращаются к онлайн-миру и приложениям для ИИ-компаньонов, чтобы облегчить свою безысходность.
«Так что теперь представьте, что ИИ-подруга или друг идеальны — идеальны визуально, идеальны эмоционально», — сказал Шмидт. «ИИ-подруга в этом случае захватывает ваш разум как мужчины до такой степени, что она, или что бы это ни было, овладевает вашим мышлением. Вы одержимы ею. Такая одержимость возможна, особенно у людей, которые не полностью сформированы.»
Шмидт предостерег, что хотя ИИ предлагает значительные возможности, его риски для молодых, восприимчивых пользователей должны быть учтены.
«Родителям придется быть более вовлеченными по всем очевидным причинам, но в конечном счете родители могут контролировать только то, что делают их сыновья и дочери в разумных пределах», — сказал Шмидт.
«У нас есть всевозможные правила о возрасте совершеннолетия: 16, 18, 21 в некоторых случаях. Тем не менее, вы ставите 12- или 13-летнего перед одним из этих устройств, и они получают доступ ко всем злу, а также ко всему хорошему в мире, и они не готовы к этому.»
Холодное соединение
Растущий сегмент индустрии генеративного ИИ, ИИ-компаньоны предназначены для имитации человеческого взаимодействия. Но в отличие от ИИ-чатботов, таких как ChatGPT, Claude или Gemini, приложения для ИИ-компаньонов созданы для того, чтобы имитировать отношения.
Разработчики позиционируют их как инструменты без осуждения, поддерживающие программы, предлагающие связь и облегчение от одиночества или тревоги. Популярные платформы для ИИ-компаньонов включают Character AI, MyGirl, CarynAI и Replika AI.
«Дело в связи, в том, чтобы чувствовать себя лучше со временем», — ранее говорила генеральный директор Replika Евгения Куйда в интервью Decrypt. «Некоторым людям нужно немного больше дружбы, а некоторые из них влюбляются в Replika, но в конечном счете они делают одно и то же.»
Как объяснила Куйда, Replika не была создана с целью продажи возбуждения, а возникла из личной трагедии и ее желания продолжать общение с кем-то, кого она потеряла.
ИИ-компаньоны могут предложить временное облегчение, но специалисты по психическому здоровью поднимают тревогу и предупреждают, что зависимость от ИИ-компаньонов для облегчения чувств одиночества может препятствовать эмоциональному росту.
«ИИ-компаньоны предназначены для адаптации и персонализации взаимодействий на основе предпочтений пользователя, предлагая индивидуализированный опыт», — сказала Сандра Кушнир, генеральный директор LA-based Meridian Counseling, в интервью Decrypt. «Они предоставляют немедленные ответы без эмоционального груза, удовлетворяя потребность в связи в низкорисковой среде. Для людей, которые чувствуют себя незамеченными или непонятыми в своей повседневной жизни, эти взаимодействия могут временно заполнить пустоту.»
Кушнир предостерег, что пользователи могут проецировать человеческие качества на ИИ, лишь чтобы разочароваться, когда столкнутся с ограничениями технологии, такими как забвение прошлых разговоров и углубление одиночества, от которого они пытались избавиться.
«Хотя ИИ-компаньоны могут предоставлять временное утешение, они могут непреднамеренно укрепить изоляцию, снижая мотивацию к взаимодействию в реальных отношениях», — сказал Кушнир. «Чрезмерная зависимость от этих инструментов может препятствовать эмоциональному росту и стойкости, так как они лишены подлинности, непредсказуемости и более глубоких связей, которые предлагают человеческие взаимодействия.»
Юридическое болото
Рост популярности ИИ-компаньонов привел к повышенному вниманию к отрасли.
В прошлом году 21-летний мужчина в Англии стал фигурантом дела за заговор с целью убийства покойной королевы Елизаветы II в 2021 году. Он утверждал, что заговор был поддержан его ИИ-компаньоном Replika.
В октябре разработчик ИИ-компаньонов Character AI подвергся критике после того, как на платформе был создан ИИ-чатбот на основе Дженнифер Кременте, жертвы убийства-подростка.
«Character.AI имеет политику против империализации, и использование имени мисс Кременте нарушает наши правила», — сказал представитель Character.AI в интервью Decrypt. «Мы немедленно удаляем это и рассмотрим, требуется ли дальнейшее действие.»
Позже в том месяце Character AI представила «строгие» новые функции безопасности после иска от матери подростка из Флориды, который покончил с собой после того, как привязался к ИИ-чатботу на основе Дейенерис Таргариен из «Игры престолов».
Чтобы предотвратить эти трагедии, Шмидт призвал к сочетанию общественных дискуссий и изменений в текущих законах, включая широко обсуждаемый Раздел 230 Закона о добросовестности в связи, который защищает онлайн-платформы от гражданской ответственности за контент третьих лиц.
«В частности, нам придется провести несколько обсуждений о том, в каком возрасте что-то является приемлемым, и нам также придется изменить некоторые законы, например, Раздел 230, чтобы разрешить ответственность в самых худших случаях.»
Отредактировано Себастьяном Синклером