Google работает над устранением ошибочных и потенциально опасных ответов из результатов поиска с помощью ИИ. Однако новая функция «Обзор ИИ» иногда неправильно представляет шутки и сатиру в социальных сетях и на сатирических сайтах как факты.

Недавний выпуск результатов поиска Google по искусственному интеллекту привлек большое внимание, но не по ожидаемым положительным причинам. На прошлой неделе технологический гигант анонсировал множество новых инструментов искусственного интеллекта в рамках своей недавно запущенной стратегии «Эра Близнецов». Наряду с этим произошли значительные изменения в фирменной службе веб-поиска, где ответы на вопросы в результатах поиска теперь отображаются на естественном языке прямо поверх ссылок на веб-сайты.

Хотя обновление Google делает технологию поиска более продвинутой и позволяет решать более сложные вопросы пользователей, оно также вызывает некоторые опасения. Например, когда ИИ обрабатывает результаты поиска, он иногда предоставляет пользователям неверную или вводящую в заблуждение информацию, что особенно проблематично, когда речь идет о таких деликатных темах, как евгеника. Евгеника на протяжении всей истории ошибочно использовалась в некоторых бесчеловечных политиках, поэтому точность и конфиденциальность ее информации особенно важны.

Кроме того, ИИ также обладает недостаточной точностью при выявлении некоторых конкретных вещей, например, при различении ядовитых и нетоксичных грибов. Это напоминает нам о том, что при использовании поисковых инструментов искусственного интеллекта нам необходимо быть особенно осторожными с запросами, связанными со здоровьем и безопасностью, и по возможности обращаться за профессиональным подтверждением.

Когда ИИ Google предоставляет ответы «Обзор ИИ», он иногда ссылается на контент из социальных сетей, таких как Reddit, который мог быть предназначен для юмора или сатиры. Это приводит к тому, что пользователям предоставляются явно неправильные или бессмысленные ответы.

Например, некоторые пользователи сообщили, что когда они спросили, как бороться с депрессией, ИИ Google фактически предложил «спрыгнуть с моста Золотые Ворота». Другие ответы абсурдно подтвердили антигравитационную способность, которая позволяла бы людям оставаться в воздухе до тех пор, пока они не смотрят вниз.

Эти примеры показывают, что, хотя ИИ добился прогресса в предоставлении результатов поиска, все еще существуют недостатки в точности и надежности, и необходимы дальнейшие улучшения.

Первоначальная цель сотрудничества Google с Reddit — облегчить пользователям поиск и участие в сообществах и дискуссиях, которые их интересуют. Однако это сотрудничество также сопряжено с некоторыми рисками, особенно когда ИИ обрабатывает контент с Reddit. Поскольку ИИ может не обладать достаточной способностью распознавать подлинность или контекст информации, он может без разбора перенимать и цитировать информацию с Reddit. Такое неразборчивое принятие информации может привести к появлению в результатах поиска вводящих в заблуждение или даже нелепых предложений.

Например, однажды ИИ дал неуместное предложение детям съедать хотя бы один маленький камень в день и ошибочно назвал это предложение исходящим от геолога из Калифорнийского университета в Беркли. Этот пример показывает, что ИИ может игнорировать достоверность и уместность информации при обработке онлайн-информации, тем самым вводя в заблуждение.

Хотя Google удалил или исправил некоторые явно нелепые ответы, модели, созданные ИИ, иногда дают неточные или вымышленные ответы — явление, известное как «галлюцинация». Эти «галлюцинации» можно считать неверными утверждениями, поскольку ИИ создает нечто, не соответствующее действительности.

Тем временем искусственный интеллект Google ошибочно рекомендовал использовать клей, чтобы предотвратить соскальзывание сыра с пиццы. Это предложение вытекает из комментария десятилетней давности на Reddit.

Известно, что модель ChatGPT OpenAI фабрикует факты, в том числе ложно обвиняет профессора права Джонатана Терли в сексуальном насилии на основании поездки, в которой он не участвовал. Этот инцидент отражает то, что ИИ может быть слишком самоуверенным при обработке информации и неспособен точно определить подлинность контента в Интернете.

Кроме того, чрезмерная самоуверенность ИИ может привести к тому, что он без разбора воспримет всю информацию в Интернете как правдивую. Такое доверие может привести к ошибочным суждениям, например, к ошибочному осуждению компаний в контексте антимонопольного законодательства и ложному возложению вины на бывших руководителей Google.

Когда пользователи ищут в Google вопросы, связанные с поп-культурой, функция «Поисковые предложения AI» иногда может выдавать юмористические или запутанные результаты. Это может быть связано с тем, что ИИ сталкивается с проблемами понимания при обработке контента поп-культуры, особенно когда контент содержит юмор, сатиру или определенный социальный контекст. В то же время ИИ может быть сложно точно понять истинную цель этого контента, что приводит к предложениям или ответам, которые могут не соответствовать ожиданиям пользователей, что вызывает некоторые неожиданные реакции.

Кроме того, Google AI предоставляет обновленные предложения по проблеме проглатывания камней детьми, предполагая, что возможные причины включают детское любопытство, трудности с обработкой сенсорной информации или расстройства питания. Это еще раз демонстрирует, что мы должны быть крайне осторожны при использовании информации, предоставляемой ИИ, особенно когда информация касается рекомендаций по охране труда и технике безопасности, и мы должны обращаться за профессиональным советом и помощью.

Заключение:

Хотя функция поисковых предложений Google AI достигла значительного технического прогресса, ее недостатки в точности и надежности все еще могут привести к серьезным последствиям. От неизбирательного распространения информации на платформах социальных сетей, таких как Reddit, до вводящей в заблуждение информации по деликатным темам, таким как евгеника, и неуместной самокриминализации в правовом поле, эти инциденты подчеркнули значение ИИ в проверке информации и принятии решений.

Кроме того, проблема моделей ИИ, фабрикующих факты или порождающих «галлюцинации», также показывает свои ограничения в решении сложных проблем. Поэтому мы должны сохранять бдительность в отношении информации, предоставляемой ИИ, обращаться за профессиональными советами и призывать разработчиков и исследователей продолжать совершенствовать технологию ИИ, чтобы гарантировать, что она приносит людям больше пользы, а не рисков. #GoogleAI #准确性 #AI模型 #可靠性