Google працює над видаленням помилкових і потенційно небезпечних відповідей із результатів пошуку штучного інтелекту. Однак нова функція «Огляд штучного інтелекту» іноді невірно представляє жарти та сатиру в соціальних мережах і на сатиричних сайтах як факт.

Нещодавня публікація Google результатів пошуку за допомогою штучного інтелекту привернула багато уваги, але не з тих позитивних причин, як очікувалося. Минулого тижня технологічний гігант анонсував серію нових інструментів штучного інтелекту в рамках своєї нещодавно запущеної стратегії «Ера Близнюків». Разом з цим відбулися значні зміни в фірмовій службі веб-пошуку, де відповіді на запитання в результатах пошуку тепер відображаються природною мовою безпосередньо над посиланнями на веб-сайті.

Незважаючи на те, що оновлення Google робить технологію пошуку більш просунутою та може відповідати на складніші запитання користувачів, воно також викликає певні занепокоєння. Наприклад, коли штучний інтелект обробляє результати пошуку, він іноді надає користувачам неправильну або оманливу інформацію, що особливо проблематично, коли йдеться про делікатні теми, такі як євгеніка. Протягом історії євгеніка неправильно використовувалася в деяких нелюдських політиках, тому точність і чутливість її інформації є особливо важливими.

Крім того, ШІ також має недостатню точність при ідентифікації конкретних речей, таких як розрізнення отруйних і нетоксичних грибів. Це нагадує нам, що, використовуючи пошукові інструменти штучного інтелекту, ми повинні бути дуже обережними із запитами, пов’язаними зі здоров’ям і безпекою, і шукати професійного підтвердження, де це можливо.

Коли штучний інтелект Google надає відповіді «Огляд штучного інтелекту», він іноді посилається на вміст із соціальних мереж, як-от Reddit, який, можливо, був призначений для гумору чи сатири. Це призводить до того, що користувачам надаються деякі явно неправильні або безглузді відповіді.

Наприклад, деякі користувачі повідомили, що коли вони запитали, як боротися з депресією, Google AI насправді запропонував «стрибнути з мосту Золоті Ворота». Інші відповіді абсурдно підтвердили антигравітаційну здатність, яка дозволяла людям залишатися в повітрі до тих пір, поки вони не дивилися вниз.

Ці приклади показують, що, незважаючи на те, що штучний інтелект досяг прогресу в наданні результатів пошуку, все ще є недоліки в точності та надійності, і потрібні подальші вдосконалення.

Початковий намір співпраці Google з Reddit полягає в тому, щоб полегшити користувачам пошук і участь у спільнотах і дискусіях, які їх цікавлять. Однак ця співпраця також виявила певні ризики, особливо коли штучний інтелект обробляє вміст із Reddit. Оскільки штучний інтелект може не мати достатньої здатності розрізняти автентичність або контекст інформації, він може прийняти та цитувати інформацію з Reddit без розбору. Таке невибіркове прийняття інформації може призвести до появи в результатах пошуку оманливих або навіть смішних пропозицій.

Наприклад, штучний інтелект одного разу дав недоречну пропозицію, що діти повинні їсти принаймні один маленький камінь на день, і неправильно позначив пропозицію як таку, що надходить від геолога з Каліфорнійського університету в Берклі. Цей приклад показує, що штучний інтелект може ігнорувати достовірність і відповідність інформації під час обробки онлайн-інформації, тим самим вводячи в оману.

Хоча Google видалив або виправив деякі явно безглузді відповіді, моделі, згенеровані ШІ, іноді дають неточні або вигадані відповіді, явище, відоме як «галюцинації». Ці «галюцинації» можна вважати неправдивими твердженнями, оскільки штучний інтелект створює щось, що не відповідає дійсності.

Тим часом Google AI помилково рекомендував використовувати клей, щоб запобігти зісковзуванню сиру з піци, пропозиція випливає з коментаря десятирічної давності на Reddit.

Відомо, що модель OpenAI ChatGPT фальсифікує факти, зокрема фальшиво звинувачує професора права Джонатана Терлі в сексуальному насильстві на основі поїздки, у якій він не брав участі. Цей інцидент свідчить про те, що штучний інтелект може бути надто самовпевненим під час обробки інформації та не в змозі точно розрізнити автентичність вмісту в Інтернеті.

Крім того, надмірна самовпевненість штучного інтелекту може без розбору сприймати всю інформацію в Інтернеті як правдиву. Ця довіра може призвести до помилкових суджень, таких як помилкове засудження компаній у контексті антимонопольного законодавства та неправдиве покладання провини на колишніх керівників Google.

Коли користувачі шукають у Google запитання, пов’язані з поп-культурою, функція пошукових пропозицій штучного інтелекту іноді може викликати жартівливі або заплутані результати. Це може бути тому, що штучний інтелект стикається з проблемами розуміння під час обробки контенту поп-культури, особливо якщо вміст містить гумор, сатиру або певний соціальний контекст. У той же час штучному інтелекту може бути важко точно зрозуміти справжнє призначення цього вмісту, що призводить до пропозицій або відповідей, які можуть не відповідати очікуванням користувачів, викликаючи деякі несподівані реакції.

Крім того, Google AI надає оновлені пропозиції щодо проблеми ковтання каміння дітьми, припускаючи, що можливі причини включають дитячу цікавість, труднощі сенсорної обробки або порушення дієти. Це ще раз демонструє, що ми повинні бути надзвичайно обережними, використовуючи інформацію, надану штучним інтелектом, особливо коли інформація стосується порад щодо здоров’я та безпеки, і ми повинні звертатися за професійною порадою та допомогою.

Висновок:

Хоча функція пошукових пропозицій Google AI досягла значного технічного прогресу, її недоліки в точності та надійності все ще можуть призвести до серйозних наслідків. Від невибіркового використання інформації на платформах соціальних мереж, таких як Reddit, до введення в оману інформації на такі делікатні теми, як євгеніка, до невідповідної самокриміналізації в правовому полі, ці інциденти підкреслили важливість ШІ для перевірки інформації та недосконалості.

Крім того, проблема моделей штучного інтелекту, які фабрикують факти або створюють «галюцинації», також демонструє свої обмеження у вирішенні складних проблем. Тому ми повинні залишатися пильними щодо інформації, яку надає штучний інтелект, шукати професійних порад і закликати розробників і дослідників продовжувати вдосконалювати технологію штучного інтелекту, щоб переконатися, що вона приносить людям більше переваг, а не ризиків. #GoogleAI #准确性 #AI模型 #可靠性