首頁 > 科技要聞 > 科技> 正文

讓用戶吃石頭,給披薩涂膠水,Google AI 搜索瘋了嗎

愛范兒 整合編輯:太平洋科技 發(fā)布于:2024-05-28 14:44

福無雙至,禍不單行,Google 又又又「翻車」了。

2023 年 2 月,追趕 ChatGPT 的 Bard,公開犯了事實(shí)錯誤;2023 年 12 月,Gemini 侃侃而談如同賈維斯,然而視頻經(jīng)過后期處理;2024 年 2 月,Gemini 生成多種膚色的歷史人物,被批評歧視白人。

這回,厄運(yùn)降臨到 Google 的看家本領(lǐng)——搜索。海外網(wǎng)友看熱鬧不嫌事大,甚至上演了一波斗圖狂歡。

被群嘲的 Google AI 搜索,有種清澈的愚蠢

過去不久的 Google I/O 大會,推出的其中一項(xiàng)功能是 AI Overview(AI 概述)。

顧名思義,AI Overview 在網(wǎng)頁頂部生成綜合多個(gè)信源的摘要,同時(shí)附有鏈接。

當(dāng)時(shí),Google 對 AI Overview 很有信心,宣布當(dāng)即向所有美國用戶推出,很快也會推廣到更多國家,預(yù)計(jì)年底覆蓋超過 10 億人。

然而沒過幾天,AI Overview 先在美國用戶這里翻車了。

自制披薩的奶酪容易掉下來怎么辦?

Google 建議您,親,往醬汁里添加約 1/8 杯的膠水即可。特意強(qiáng)調(diào)是無毒的,背后原因令人暖心。

Google 并非現(xiàn)編,而是從「美版貼吧」Reddit 一位用戶 11 年前的評論照搬了答案,可惜它讀不懂人類的幽默。

人一天里應(yīng)該吃多少石頭補(bǔ)充營養(yǎng)?

Google 沒有反駁問題本身的不合理,一本正經(jīng)地胡說八道,根據(jù)加州大學(xué)伯克利分校地質(zhì)學(xué)家的說法,應(yīng)該一天至少吃一塊小石頭,以便攝入維生素和礦物質(zhì)。

答案的源頭是 2021 年的一篇「報(bào)道」,出自以假新聞和諷刺文章聞名的洋蔥新聞。

AI Overview 也不精通美國歷史,掉進(jìn)了陰謀論的陷阱,說奧巴馬是第一位穆斯林總統(tǒng)。

一時(shí)間,X 等社交媒體掀起了一股抽象的浪潮:曬截圖,比拼誰的 Google 回答最荒謬。

競爭異常激烈,在 AI 的世界里,前總統(tǒng)從威斯康星大學(xué)畢業(yè)了 21 次,一只狗曾在 NBA、NFL 和 NHL 打過球,蝙蝠俠是一名警察。

樂子人扎堆的地方,渾水摸魚和顛倒是非的也不會少。

Google 回應(yīng),大部分 AI Overview 的信息是高質(zhì)量的,也提供了有用的鏈接供用戶深入了解,很多「翻車」例子,問題是不常見的,結(jié)果無法重現(xiàn)甚至被篡改過。

比如,一張流傳甚廣的截圖顯示,治療抑郁癥的方法是跳下金門大橋一了百了。事關(guān)人命,Google 特意解釋了,這個(gè)結(jié)果是偽造的。

被 Google 辟謠的截圖

與此同時(shí),Google 沒有辟謠其他例子,而是把它們作為改進(jìn) AI 的養(yǎng)料。怎么不算一次人類反饋的強(qiáng)化學(xué)習(xí)(RLHF)呢?

火眼金睛的網(wǎng)友還發(fā)現(xiàn),之前 Google I/O 精挑細(xì)選的演示里其實(shí)也出現(xiàn)了事實(shí)錯誤,只不過更加隱蔽。

被問到如何修復(fù)卡住的膠片相機(jī),Google 建議打開后門并輕輕地取下膠片,但這樣操作會毀掉照片。

流年不利的 Google,不是第一次在萬眾矚目的公共場合犯錯誤。

2023 年 2 月,Google Bard 在演示時(shí)說,詹姆斯·韋伯太空望遠(yuǎn)鏡是第一個(gè)拍攝太陽系外行星的望遠(yuǎn)鏡。事實(shí)上,第一張系外行星圖像是在 2004 年拍攝的。一個(gè)錯誤,付出市值縮水 1000 億美元的代價(jià)。

這次,除了 AI Overview 本身犯錯,還有一個(gè)槽點(diǎn):這個(gè)功能,它不好關(guān)。一些熱心的開發(fā)者,趕制了擴(kuò)展程序,強(qiáng)制只顯示傳統(tǒng)的搜索結(jié)果。

沒有方便的退出機(jī)制是 Google 的不對,AI Overview 基于傳統(tǒng)搜索頁面,用戶量極大,萬一有不熟悉 AI 的用戶,盲目信任它的結(jié)果并被誤導(dǎo),后果就不好說了。

「Google 怎么會錯 30%?」

其實(shí),AI Overview 被曝光的問題并不新鮮。AI 會犯錯,早就是公開的秘密。

如同起到造型作用的「吸煙有害健康」,AI Overview 下方標(biāo)注著:「生成式 AI 是實(shí)驗(yàn)性的!笴hatGPT 也小字提醒:「可能會犯錯。請核查重要信息!

大語言模型的基礎(chǔ)原理是,通過預(yù)測下一個(gè)單詞或者短語生成概率最大的文本,有時(shí)可能會選擇不正確但看似合理的詞語,也就導(dǎo)致了虛假信息或者說「幻覺」。

AI Overview 的胡言亂語也是幻覺的表現(xiàn),它結(jié)合了大語言模型生成的語句和互聯(lián)網(wǎng)的鏈接,可以引用信源,但不保證信源的準(zhǔn)確。

哪怕用到了 RAG(檢索增強(qiáng)生成)等技術(shù),將檢索系統(tǒng)與生成模型相結(jié)合,限制回答問題的范圍,也只能抑制幻覺,而非根治幻覺。

并且,信源本身的可信度存疑!该腊尜N吧」Reddit,由網(wǎng)友貢獻(xiàn)內(nèi)容,而非權(quán)威媒體。

今年 2 月,Google 與 Reddit 達(dá)成協(xié)議,將其內(nèi)容用于訓(xùn)練 AI 模型。當(dāng)時(shí)就有人懷疑,會否導(dǎo)致「garbage in, garbage out」(垃圾進(jìn),垃圾出)的尷尬情況。

被「幻覺」困擾的不只 Google。去年 5 月,一位網(wǎng)友提問微軟的 New Bing 時(shí),答案明顯錯誤,他點(diǎn)開參考鏈接時(shí)發(fā)現(xiàn),作為引用源的知乎回答,居然也是 AI 生成的,遣詞造句盡顯 AI 風(fēng)味,速度人力所不可及。

AI 搜索們是如何引用信源的,也是個(gè)讓人費(fèi)解的問題。當(dāng)我用中文搜索「怎么給柴犬洗澡」,Perplexity 的信源是搜狐、YouTube、豆瓣日記、B 站,天工是知乎、百度文庫,一時(shí)也不知道哪個(gè)更為權(quán)威,不敢輕信。

既然 AI 搜索都有幻覺,為什么總是 Google 被架在火上烤?

創(chuàng)立于 1998 年的 Google,成為搜索代名詞的 Google,身為 AI 巨擘的 Google,拉高了外界的期待,也必須承擔(dān)犯錯的后果。

相反,Perplexity 的 CEO Aravind Srinivas 表示,輕裝上陣就是他們的優(yōu)勢,字里行間還有些驕傲。

如果你使用我們的產(chǎn)品,80% 表現(xiàn)不錯,你可能覺得印象深刻,但如果你使用 Google 的產(chǎn)品,只有 70% 正確,你可能會不解,Google 怎么會錯 30%?

另外,AI 搜索也導(dǎo)致了一個(gè)用戶認(rèn)知上的轉(zhuǎn)變。

我們以前說「用 Google 搜索」,而介紹搜索的生成式 AI 功能時(shí),Google 自己給博客起的標(biāo)題是「讓 Google 為您進(jìn)行搜索」,主次微妙地倒轉(zhuǎn)了。

過去,Google 展現(xiàn)哪些鏈接可以回答你的問題。現(xiàn)在,Google 自己用 AI 回答你的問題。

傳播錯誤信息的矛頭,從信源本身,轉(zhuǎn)移到了引用信源的 Google 身上。這口鍋,Google 不得不背。

AI 搜索在提供事實(shí)之外,還有哪些可能性

既然幻覺已然是前提,我們應(yīng)該換個(gè)角度看待 AI 搜索,問自己一個(gè)問題:是不是我們的預(yù)期出了錯誤?

其實(shí)在 AI Overview 被批評前,Google CEO 皮查伊就在近日 The Verge 的采訪中提到過,「幻覺」問題仍未解決,甚至可以說是大語言模型固有的特征。

他認(rèn)為,大語言模型不一定是了解事實(shí)的最佳渠道,但這不代表大語言模型是個(gè)廢柴,非黑即白的思維不可取,比如它可以創(chuàng)造詩歌、引入搜索。

CEO 接受采訪也好,I/O 大會也罷,都是在向用戶傳遞一個(gè)理念:不要只把 AI 搜索當(dāng)作對現(xiàn)有網(wǎng)頁的簡單總結(jié),AI 發(fā)光發(fā)熱的地方還有很多。

但 AI Overview 沒能讓人滿意,怪不到用戶頭上,相比演示,現(xiàn)在的 AI Overview 并非完全形態(tài),很多功能還沒有上線。

Google 搜索主管 Liz Reid 在 I/O 展示了一個(gè)「多步推理」的例子,輸入「找到波士頓最好的瑜伽館,展現(xiàn)優(yōu)惠信息,以及從燈塔山出發(fā)的步行時(shí)間」,AI 一步到位,以前要搜索三次的,現(xiàn)在一次就夠了。

同時(shí),AI Overview 未來還將有「規(guī)劃」能力,比如要求 AI 策劃三天的晚餐,用戶可以直接拿到一份食譜,并在中途進(jìn)行細(xì)化,加上「素食」等需求,然后導(dǎo)出到文檔。

Google 的思路,和其他 AI 搜索產(chǎn)品殊途同歸——讓搜索更加可視化、交互性和個(gè)性化,用人話而非關(guān)鍵詞溝通,節(jié)省查找信息的時(shí)間,回答更加復(fù)雜和具體的問題。

秘塔、天工提供從簡潔到深入的不同搜索模式,甚至可以給出大綱和圖譜。

Perplexity 可以控制搜索范圍,既能覆蓋整個(gè)互聯(lián)網(wǎng),也能按照搜索需求,縮小到學(xué)術(shù)論文、YouTube、Reddit。

天工還將 AI 搜索作為一個(gè)門戶,搭載更多的生產(chǎn)力工具,提供了 AI 速讀、音樂創(chuàng)作等智能體,等于在 AI 搜索之上,又搭建了一個(gè) AIGC 內(nèi)容創(chuàng)作平臺。

平時(shí)的大多數(shù)問題,天氣如何,匯率多少,跳轉(zhuǎn)官網(wǎng),其實(shí)通過簡單的傳統(tǒng)搜索就可以得到答案。

但相對復(fù)雜的場景,AI搜索被寄予了厚望,畢竟它比起 ChatGPT 等多了信源,更加方便查證,比起傳統(tǒng)搜索,又能進(jìn)行更多的研究、創(chuàng)作、規(guī)劃、頭腦風(fēng)暴。與其說是比傳統(tǒng)搜索更好的百科全書,不如說更有 agent 的形狀。

當(dāng)然,餅畫得再多,AI 搜索的幻覺還是讓人膈應(yīng)。為此有人建議,安全起見,用生成式 AI,別只看摘要,再用傳統(tǒng)的 Google 搜索檢查一下。所謂風(fēng)水輪流轉(zhuǎn),但大哥還是大哥。

本文來源:愛范兒

愛范兒

網(wǎng)友評論

聚超值•精選

推薦 手機(jī) 筆記本 影像 硬件 家居 商用 企業(yè) 出行 未來
二維碼 回到頂部