Google pracuje nad wyeliminowaniem błędnych i potencjalnie niebezpiecznych odpowiedzi z wyników wyszukiwania AI. Jednak nowa funkcja „Przegląd sztucznej inteligencji” czasami przedstawia żarty i satyrę w mediach społecznościowych i witrynach satyrycznych błędnie jako fakty.

Niedawna publikacja wyników wyszukiwania sztucznej inteligencji Google przyciągnęła wiele uwagi, ale nie z oczekiwanych pozytywnych powodów. Gigant technologiczny ogłosił w zeszłym tygodniu serię nowych narzędzi sztucznej inteligencji w ramach nowo uruchomionej strategii „Era Bliźniąt”. Wraz z tym następuje znacząca zmiana w charakterystycznej usłudze wyszukiwania internetowego, w której odpowiedzi na pytania w wynikach wyszukiwania są teraz wyświetlane w języku naturalnym bezpośrednio nad linkami do witryn internetowych.

Choć aktualizacja Google'a sprawia, że ​​technologia wyszukiwania jest bardziej zaawansowana i może obsłużyć bardziej złożone pytania użytkowników, budzi także pewne obawy. Na przykład, gdy sztuczna inteligencja przetwarza wyniki wyszukiwania, czasami przedstawia użytkownikom nieprawidłowe lub wprowadzające w błąd informacje, co jest szczególnie problematyczne w przypadku drażliwych tematów, takich jak eugenika. Eugenika była w historii niewłaściwie wykorzystywana w niektórych nieludzkich politykach, dlatego dokładność i wrażliwość informacji w niej zawartych jest szczególnie ważna.

Ponadto sztuczna inteligencja ma również niewystarczającą dokładność przy identyfikowaniu konkretnych rzeczy, takich jak rozróżnianie grzybów trujących od nietoksycznych. Przypomina nam to, że korzystając z narzędzi wyszukiwania AI, musimy zachować szczególną ostrożność w przypadku zapytań związanych ze zdrowiem i bezpieczeństwem i w miarę możliwości szukać profesjonalnego potwierdzenia.

Gdy Google AI udostępnia odpowiedzi „przeglądu AI”, czasami odwołuje się do treści z mediów społecznościowych, takich jak Reddit, które mogły mieć charakter humorystyczny lub satyryczny. Prowadzi to do udzielania użytkownikom ewidentnie błędnych lub bezsensownych odpowiedzi.

Na przykład niektórzy użytkownicy zgłosili, że gdy zapytali, jak radzić sobie z depresją, sztuczna inteligencja Google faktycznie zasugerowała „skoczenie z mostu Golden Gate”. Inne odpowiedzi w absurdalny sposób potwierdziły zdolność antygrawitacyjną, która pozwalała ludziom pozostać w powietrzu, dopóki nie patrzyli w dół.

Przykłady te pokazują, że chociaż sztuczna inteligencja poczyniła postępy w dostarczaniu wyników wyszukiwania, nadal występują niedociągnięcia w zakresie dokładności i niezawodności i potrzebne są dalsze ulepszenia.

Pierwotnym zamysłem współpracy Google z Redditem jest ułatwienie użytkownikom znajdowania i uczestniczenia w interesujących ich społecznościach i dyskusjach. Jednak ta współpraca ujawniła również pewne zagrożenia, zwłaszcza gdy sztuczna inteligencja przetwarza treści z Reddita. Ponieważ sztuczna inteligencja może nie mieć wystarczającej zdolności do rozpoznania autentyczności lub kontekstu informacji, może bezkrytycznie przyjmować i cytować informacje z Reddita. To masowe przyjmowanie informacji może prowadzić do pojawiania się w wynikach wyszukiwania wprowadzających w błąd lub nawet absurdalnych sugestii.

Na przykład sztuczna inteligencja kiedyś niewłaściwie zasugerowała, że ​​dzieci powinny jeść co najmniej jeden mały kamień dziennie i błędnie oznaczyła tę sugestię jako pochodzącą od geologa z Uniwersytetu Kalifornijskiego w Berkeley. Ten przykład ilustruje, że sztuczna inteligencja może ignorować wiarygodność i stosowność informacji podczas przetwarzania informacji w Internecie, wprowadzając w ten sposób w błąd.

Chociaż Google usunął lub poprawił niektóre oczywiście absurdalne odpowiedzi, modele generowane przez sztuczną inteligencję czasami dają niedokładne lub fikcyjne odpowiedzi, co jest zjawiskiem znanym jako „halucynacja”. Te „halucynacje” można uznać za nieprawdziwe stwierdzenia, ponieważ sztuczna inteligencja tworzy coś, co nie jest oparte na faktach.

Tymczasem sztuczna inteligencja Google błędnie zaleciła użycie kleju, aby zapobiec zsuwaniu się sera z pizzy, co sugestia opiera się na komentarzu na Reddicie sprzed dziesięciu lat.

Model ChatGPT OpenAI jest znany z fabrykowania faktów, w tym z fałszywego oskarżania profesora prawa Jonathana Turleya o napaść na tle seksualnym w związku z podróżą, w której nie brał udziału. Ten incydent pokazuje, że sztuczna inteligencja może być zbyt pewna siebie podczas przetwarzania informacji i nie potrafić dokładnie rozróżnić autentyczności treści w Internecie.

Ponadto nadmierna pewność siebie sztucznej inteligencji może prowadzić do bezkrytycznego uznawania wszystkich informacji w Internecie za prawdziwe. To zaufanie może prowadzić do błędnych ocen, takich jak błędne skazywanie firm w kontekście przepisów antymonopolowych i fałszywe zrzucanie winy na byłych dyrektorów Google.

Gdy użytkownicy wyszukują w Google pytania związane z popkulturą, funkcja sugestii wyszukiwania AI może czasami wyświetlić zabawne lub mylące wyniki. Może to wynikać z tego, że sztuczna inteligencja napotyka problemy ze zrozumieniem podczas przetwarzania treści popkulturowych, zwłaszcza gdy treści te zawierają humor, satyrę lub określone konteksty społeczne. Jednocześnie sztuczna inteligencja może mieć trudności z dokładnym uchwyceniem prawdziwego celu tych treści, co skutkuje sugestiami lub odpowiedziami, które mogą być niezgodne z oczekiwaniami użytkowników, wywołując nieoczekiwane reakcje.

Ponadto Google AI dostarcza zaktualizowane sugestie dotyczące problemu połykania kamieni przez dzieci, sugerując, że możliwymi przyczynami są dziecięca ciekawość, trudności w przetwarzaniu sensorycznym lub zaburzenia diety. To po raz kolejny pokazuje, że musimy zachować szczególną ostrożność podczas korzystania z informacji dostarczanych przez sztuczną inteligencję, zwłaszcza gdy informacje te dotyczą porad dotyczących zdrowia i bezpieczeństwa, oraz musimy zwrócić się o profesjonalną poradę i pomoc.

Wniosek:

Chociaż funkcja sugestii wyszukiwania Google AI poczyniła znaczny postęp techniczny, jej niedociągnięcia w dokładności i niezawodności mogą w dalszym ciągu prowadzić do poważnych konsekwencji. Od masowego przyjmowania informacji na platformach mediów społecznościowych, takich jak Reddit, przez wprowadzające w błąd informacje na wrażliwe tematy, takie jak eugenika, po niewłaściwą samokryminalizację w dziedzinie prawa – zdarzenia te uwydatniły znaczenie sztucznej inteligencji w sprawdzaniu informacji i błędnych ocenach.

Ponadto problem modeli sztucznej inteligencji fabrykujących fakty lub wytwarzających „halucynacje” również pokazuje swoje ograniczenia w radzeniu sobie ze złożonymi problemami. Dlatego musimy zachować czujność w stosunku do informacji dostarczanych przez sztuczną inteligencję, zasięgnąć profesjonalnej porady i wezwać twórców i badaczy do dalszego udoskonalania technologii sztucznej inteligencji, aby zapewnić ludziom więcej korzyści niż zagrożeń. #GoogleAI #准确性 #AI模型 #可靠性