Google正在努力消除其AI搜索結果中的錯誤和可能危險的回答。然而,新的"AI概述"功能有時會把社交媒體和諷刺網站上的玩笑和諷刺內容錯誤地當作事實來呈現。

Google最近發佈的人工智能搜索結果引起了廣泛關注,但原因並非如預期那樣正面。作爲新推出的“Gemini Era”戰略的一部分,這家科技巨頭在上週宣佈了一系列新型人工智能工具。隨之而來的是其標誌性的網絡搜索服務的顯著變化,現在搜索結果中的問題答案以自然語言的形式直接展示在網站鏈接之上。

儘管Google的這次更新讓搜索技術更加先進,能夠應對更加複雜的用戶提問,但它也引發了一些擔憂。比如,AI在處理搜索結果時,有時會將錯誤的或者具有誤導性的信息呈現給用戶,這在涉及敏感話題如優生學時尤其成問題。優生學曾被錯誤地用於歷史上的一些不人道政策,因此其信息的準確性和敏感度尤爲重要。

此外,AI在識別一些具體事物,比如區分有毒和無毒的蘑菇時,也存在準確度不足的問題。這提醒我們,在使用AI搜索工具時,對於健康和安全相關的查詢,需要格外小心,並儘可能尋求專業的確認。

Google AI在提供"AI概述"答案時,有時會引用來自Reddit等社交媒體的內容,而這些內容可能原本是出於幽默或諷刺的目的。這導致了一些明顯錯誤或荒謬的回答被提供給用戶。

例如,有用戶報告稱,當他們詢問如何應對抑鬱時,Google AI居然建議"跳下金門大橋"。還有的回答荒謬地確認了一種反重力能力,即人可以在空中停留,只要他們不向下看。

這些例子表明,儘管AI在提供搜索結果方面取得了進步,但在準確性和可靠性方面仍存在不足,需要進一步改進。

Google與Reddit的合作初衷是爲了讓用戶能夠更便捷地找到並參與他們感興趣的社區和討論。然而,這項合作也暴露出了一些風險,尤其是在AI處理來自Reddit的內容時。由於AI可能沒有足夠的能力去辨別信息的真僞或背景,它可能會不加甄別地採納並引用Reddit上的信息。這種不加選擇的信息採納可能導致一些誤導性甚至荒謬的建議出現在搜索結果中。

比如,AI曾經給出了一個不當的建議,即孩子們每天至少應該喫一塊小石頭,並且還錯誤地標註了這一建議來源於加州大學伯克利分校的地質學家。這個例子說明了AI在處理網絡信息時可能會忽略信息的可信度和適宜性,從而產生誤導。

Google雖然已經對一些明顯荒謬的回答進行了刪除或更正,但AI生成模型有時會產生不準確或虛構的答案,這種現象被稱爲"幻覺"。這些"幻覺"可以被視爲不真實的陳述,因爲AI在創造一些並非事實的內容。

同時,Google AI曾錯誤地推薦使用膠水以防止奶酪從比薩上滑落,這一建議源自Reddit上一個十年前的評論。

OpenAI的ChatGPT模型曾發生編造事實的情況,包括錯誤地指控法學教授Jonathan Turley性侵,這一指控基於他未曾參與的一次旅行。這一事件反映了AI在處理信息時可能過於自信,未能準確區分互聯網上內容的真僞。

此外,人工智能的過度自信可能導致它不加選擇地接受互聯網上的所有信息爲真實,這種信任可能導致錯誤的判斷,比如,在反壟斷法的背景下錯誤地對公司作出有罪的裁定,並錯誤地將責任歸咎於谷歌的前高管。

當用戶在Google上搜索與流行文化相關的問題時,AI搜索建議的功能有時會帶來一些幽默或令人困惑的結果。這可能是因爲AI在處理流行文化內容時,會遇到理解上的挑戰,尤其是當這些內容包含幽默、諷刺或特定社會背景時。同時,AI可能難以準確把握這些內容的真正意圖,導致提供的建議或答案可能與用戶的預期不符,引發一些意想不到的反應。

此外,Google AI對於兒童攝入石頭這一問題提供了更新後的建議,提出可能的原因包括孩子的好奇心、感官處理上的難題或是飲食上的障礙。這一點再次表明,在利用AI提供的信息時,特別是當這些信息關乎健康和安全的建議,我們必須要格外謹慎,並且一定要尋求專業的意見和幫助。

結語:

Google AI的搜索建議功能雖然在技術上取得了顯著進展,但其準確性和可靠性方面的不足仍可能導致嚴重後果。從Reddit等社交媒體平臺上不加選擇地採納信息,到對優生學等敏感話題的誤導性信息,再到法律領域內的不當自我定罪,這些事件都凸顯了AI在信息篩選和判斷上的重大缺陷。

此外,AI模型編造事實或產生"幻覺"的問題,也表明其在處理複雜問題時的侷限性。因此,我們必須對AI提供的信息保持警惕,尋求專業意見,並呼籲開發者和研究者持續改進AI技術,以確保其爲人類帶來更多益處而非風險。#GoogleAI #准确性 #AI模型 #可靠性