賈揚(yáng)清是最受關(guān)注的全球AI科學(xué)家之一,博士期間就創(chuàng)立并開源了著名的深度學(xué)習(xí)框架Caffe,被微軟、雅虎、英偉達(dá)等公司采用。2023年3月,他從阿里離職創(chuàng)業(yè),并在隨后錄制"/>
首頁 > 科技要聞 > 科技> 正文

硅谷創(chuàng)業(yè)一年,賈揚(yáng)清講了自己的AI行業(yè)觀察:成本、市場增量和商業(yè)模式

騰訊科技 整合編輯:甘靈文 發(fā)布于:2024-03-26 16:42

創(chuàng)業(yè)一年的賈揚(yáng)清,選擇的方向是AI Infra。

賈揚(yáng)清是最受關(guān)注的全球AI科學(xué)家之一,博士期間就創(chuàng)立并開源了著名的深度學(xué)習(xí)框架Caffe,被微軟、雅虎、英偉達(dá)等公司采用。

2023年3月,他從阿里離職創(chuàng)業(yè),并在隨后錄制的播客中說,自己并非是因為ChatGPT 火爆而創(chuàng)業(yè),后來創(chuàng)業(yè)項目浮出水面,也確實證實,他沒有直接入局大模型。硅谷著名風(fēng)投a16z在去年發(fā)表的一篇關(guān)于AIGC的文章中就曾經(jīng)提到過:“目前來看,基礎(chǔ)設(shè)施提供商是這個市場上最大的贏家。”

賈揚(yáng)清在去年的文章中也提到,“不過要做這個贏家,就要更聰明地設(shè)計Infra才行”。在他創(chuàng)辦的公司Lepton.AI的官網(wǎng)上,有一句醒目的Slogan“Build AI The Simple Way(以簡單的方式構(gòu)建AI)”。

最近,賈揚(yáng)清在高山書院硅谷站“高山夜話”活動中,給到訪的中國企業(yè)家做了一次深度的閉門分享,分享的內(nèi)容直擊行業(yè)痛點,首先從他最專業(yè)的AI Infra開始,詳細(xì)分析了AI時代的Infra,到底有什么新的特點;然后,基于AI大模型的特點,幫助企業(yè)算了一筆比較詳細(xì)的經(jīng)濟(jì)賬——在不可能三角成本、效率、效果中,如何選才能達(dá)到比較好的平衡點。

最后也討論到AI整個產(chǎn)業(yè)鏈的增量機(jī)會及目前大模型商業(yè)模式的糾結(jié)點:

“每次訓(xùn)練一個基礎(chǔ)大模型,都要從零開始。形象一點來描述,這次訓(xùn)練‘投進(jìn)去10個億,下次還要再追加投10個億’,而模型迭代速度快,可以賺錢的窗口也許只有大概一年。所以每個人都在思考這個終極問題,‘大模型的商業(yè)模式到底怎樣才能真正有效?’”

賈揚(yáng)清的過往經(jīng)驗大部分是TOB的。他也多次在分享中很坦誠地表示,“TOC我看不太清楚,TOB看得更清晰一些。”

“AI從實驗室或者說從象牙塔出來到應(yīng)用的過程中,該蹚過的雷,都會經(jīng)歷一遍。”無論大語言模型給人們多少驚艷,它的發(fā)展都不是空中樓閣,既往的經(jīng)驗和范式有變也有不變。

為了方便閱讀,我們在文首提煉幾個主要觀點,但強(qiáng)烈建議完整閱讀,以了解賈揚(yáng)清完整的思考邏輯:

“一個通用的大模型的效果固然非常好,但是在企業(yè)實際應(yīng)用當(dāng)中,中小型模型加上自己的數(shù)據(jù),可能反而能夠達(dá)到一個更好的性價比。

至于成本問題,我們也算了一筆經(jīng)濟(jì)賬:一臺GPU服務(wù)器就可以提供支撐的7B、13B模型通過微調(diào),性價比可能比直接使用閉源大模型高10倍以上。

我個人認(rèn)為,英偉達(dá)在接下來的3~5年當(dāng)中,還會是整個AI硬件提供商中絕對的領(lǐng)頭羊,我認(rèn)為它的市場發(fā)展占有率不會低于80%。但是今天AI模型逐漸標(biāo)準(zhǔn)化,我們也看到了硬件層面另外一個機(jī)會。

目前我們看到AI應(yīng)用中,有兩大類應(yīng)用,已經(jīng)跨越死亡谷,開始有比較持續(xù)的流量:一個是提效,另外一個是娛樂。

大量的傳統(tǒng)行業(yè)應(yīng)用,其實是AI行業(yè)里值得探究的深水區(qū)。

我個人關(guān)于Supper App的觀點可能稍微保守一些,也有可能是因為我自己的經(jīng)歷很多都在做TOB的服務(wù),我認(rèn)為Super APP會有,但是會很少。”

以下為分享內(nèi)容精華整理:

隨著大型語言模型的興起,出現(xiàn)了一個新概念——Scaling Law(規(guī)模定律)。根據(jù)Scaling Law,大語言模型的性能與其參數(shù)量、訓(xùn)練數(shù)據(jù)的大小和計算量呈冪律關(guān)系。簡單來說,用通用的方法給模型巨大的數(shù)據(jù),讓模型能夠擁有輸出我們想要的結(jié)果的能力。

這就使得AI計算與“云計算”有很大的不同,云計算主要服務(wù)于互聯(lián)網(wǎng)時代的需求,關(guān)注資源的池化和虛擬化:

● 怎么把計算,存儲,網(wǎng)絡(luò),從物理資源變成虛擬的概念,“批發(fā)轉(zhuǎn)零售”;

● 如何在這種虛擬環(huán)境下把利用率做上去,或者說超賣;

● 怎么更加容易地部署軟件,做復(fù)雜軟件的免運(yùn)維(比如說,容災(zāi)、高可用)等等,不一而足。

用比較通俗的語言來解釋,互聯(lián)網(wǎng)的主要需求是處理各種網(wǎng)頁、圖片、視頻等,分發(fā)給用戶,讓“數(shù)據(jù)流轉(zhuǎn)(Moving Data Around)起來。云服務(wù)關(guān)注數(shù)據(jù)處理的彈性,和便捷性。

但是AI計算更關(guān)注以下幾點:

● 并不要求特別強(qiáng)的虛擬化。一般訓(xùn)練會“獨占”物理機(jī),除了簡單的例如建立虛擬網(wǎng)絡(luò)并且轉(zhuǎn)發(fā)包之外,并沒有太強(qiáng)的虛擬化需求。

● 需要很高性能和帶寬的存儲和網(wǎng)絡(luò)。例如,網(wǎng)絡(luò)經(jīng)常需要幾百 G 以上的 RDMA 帶寬連接,而不是常見的云服務(wù)器幾 G 到幾十 G 的帶寬。

● 對于高可用并沒有很強(qiáng)的要求,因為本身很多離線計算的任務(wù),不涉及到容災(zāi)等問題。

● 沒有過度復(fù)雜的調(diào)度和機(jī)器級別的容災(zāi)。因為機(jī)器本身的故障率并不很高(否則 GPU 運(yùn)維團(tuán)隊就該去看了),同時訓(xùn)練本身經(jīng)常以分鐘級別來做 checkpointing,在有故障的時候可以重啟整個任務(wù)從前一個 checkpoint 恢復(fù)。

今天的AI計算 ,性能和規(guī)模是第一位的,傳統(tǒng)云服務(wù)所涉及到的能力,是第二位的。

這其實很像傳統(tǒng)高性能計算領(lǐng)域的需求,在七八十年代我們就已經(jīng)擁有超級計算機(jī),他們體積龐大,能夠提供大量的計算能力,可以完成氣象模擬等服務(wù)。

我們曾做過一個簡單的估算:過去,訓(xùn)練一個典型的圖像識別模型大約需要1 ExaFlop的計算能力。為了形象地描述這一計算量,可以想象全北京的所有人每秒鐘進(jìn)行一次加減乘除運(yùn)算,即便如此,也需要幾千年的時間才能完成一個模型的訓(xùn)練。

那么,如果單臺GPU不足以滿足需求,我們應(yīng)該如何應(yīng)對呢?答案是可以將多臺GPU連接起來,構(gòu)建一個類似于英偉達(dá)的Super POD。這種架構(gòu)與最早的高性能計算機(jī)非常相似。

這時候,如果一臺GPU不夠怎么辦?可以把一堆GPU連起來,做成一個類似于英偉達(dá)的Super POD,它和最早的高性能計算機(jī)長得很像。

這就意味著,我們又從“數(shù)據(jù)流轉(zhuǎn)”的需求,回歸到了“巨量運(yùn)算”的需求,只是現(xiàn)在的“巨量運(yùn)算”有兩個進(jìn)步,一是用于計算的GPU性能更高,另外就是軟件更易用。伴隨著AI的發(fā)展,這將是一個逐漸加速的過程。今年NVIDIA推出的新的DGX機(jī)柜,一個就是幾乎1Exaflops per second,也就是說理論上一秒的算力就可以結(jié)束訓(xùn)練。

去年我和幾位同事一起創(chuàng)辦了Lepton AI。Lepton在物理中是“輕子”的意思。我們都有云計算行業(yè)的經(jīng)驗,認(rèn)為目前AI的發(fā)展給“云”帶來一個完全轉(zhuǎn)型的機(jī)會。所以今天我想重點分享一下,在AI的時代,我們應(yīng)該如何重新思考云的Infrastructure。

企業(yè)用大模型,先算一筆“經(jīng)濟(jì)賬”

隨著模型規(guī)模的不斷擴(kuò)大,我們面臨著一個核心問題:大模型所需的計算資源成本高昂,從實際應(yīng)用的角度出發(fā),我們需要思考如何高效地利用這些模型。

以一個應(yīng)用場景為例,我們可以比較形象地看出一個通用的大型語言模型與針對特定領(lǐng)域經(jīng)過微調(diào)的模型之間的差異。

我們曾經(jīng)嘗試過“訓(xùn)練一個金融領(lǐng)域的對話機(jī)器人”。

使用通用模型,我們直接提問:“蘋果公司最近的財報怎么樣?你怎么看蘋果公司在AI領(lǐng)域的投入。”通用大模型的回答是:“抱歉,我無法回答這個問題。”

針對特定領(lǐng)域微調(diào),我們使用了一個7B的開源模型,讓它針對性地“學(xué)習(xí)”北美所有上市公司的財報,然后問它同樣的問題。它的回答是:“沒問題,感謝您的提問。(Sure,thanks for the question)”口吻十分像一家上市公司的CFO。

這個例子其實可以比較明顯地看出,通用大模型性能固然很出色,但是在實際應(yīng)用中,使用中小型開源模型,并用特定數(shù)據(jù)微調(diào),最終達(dá)到的效果可能更好。

至于成本問題,我們也算了一筆經(jīng)濟(jì)賬:一臺GPU服務(wù)器就可以提供支撐的7B、13B模型通過微調(diào),性價比可能比直接使用閉源大模型高10倍以上。

 

如上圖所示,以Llama2 7B開源模型為例,100萬token的成本大約為0.1美元-0.3美元。使用一臺英偉達(dá)A10GPU服務(wù)器就能支持訓(xùn)練,以峰值速度2500token每秒來計算,一小時的成本大約為0.6美元。自有這臺服務(wù)器,一年的成本大約為5256美元,并不算高。

如果用閉源模型,100萬token消耗速度很快,成本遠(yuǎn)高于0.6美元每小時。

不過成本消耗也要考慮應(yīng)用的種類和模型的輸出速度,模型輸出速度越快,成本也會越高。如果可以有mini-batch(小批量數(shù)據(jù)集)等,同時來跑,它的整體性能就會更好,但是單個的輸出性能可能就會稍微差一點。

這就引出另外一個問題,大模型的輸出速度,怎樣比較合適?

以Chatbot舉例,人說話的速度大概為120詞每分鐘,成人閱讀的速度大概為350詞左右,反向計算token,每秒鐘20個token左右,就能達(dá)到比較好的體驗。如果這樣計算的話,如果應(yīng)用的流量夠大,跑起來成本是不高的。

但是,究竟流量能不能達(dá)到“夠大”,這就變成了“雞生蛋、蛋生雞”的問題。我們發(fā)現(xiàn)了一個很實用的模式可以解決這個問題。

在北美,很多企業(yè)都是先用閉源大模型來做實驗(比如OpenAI的模型)。實驗規(guī)模大概在幾百個million(百萬token),成本大概為幾千美元。一旦數(shù)據(jù)飛輪運(yùn)轉(zhuǎn)起來,再把已有數(shù)據(jù)存下來,用較小的開源模型微調(diào)自己的模型。現(xiàn)在這已經(jīng)變成了相對比較標(biāo)準(zhǔn)的模式。

在考慮AI模型的時候,各家企業(yè)其實都在各種取舍中找平衡。在北美經(jīng)常講一個不可能三角,當(dāng)你買一輛車的時候跑得快、便宜和質(zhì)量好,這三者是不可兼得的。

上文提到的標(biāo)準(zhǔn)模式,其實就是首先追求質(zhì)量,然后再考慮成本,如果想同時滿足這三方面,基本是不可能的。

半年之前我非常強(qiáng)烈地相信開源模型能非常迅速追趕上閉源模型,然而半年之后,我認(rèn)為開源模型和閉源模型之間會繼續(xù)保持一個非常合理的差距,這個差距用比較形象的具體模型舉例來說,閉源模型到GPT-4水平的時候,開源模型可能在GPT3.5左右。

硬件行業(yè)的新機(jī)會

早在2000年初,英偉達(dá)就看到了高性能計算的潛力,于是2004年他們做了CUDA,到今天為止已經(jīng)20年。今天CUDA已經(jīng)成為AI框架和AI軟件最底層的標(biāo)準(zhǔn)語言。

早期,行業(yè)內(nèi)都認(rèn)為高性能計算寫起來很不方便,英偉達(dá)介紹了CUDA,并說服大家它簡單易用,讓大家嘗試來寫。試用之后,大家發(fā)現(xiàn)確實易用且寫出來的高性能計算速度很快,后來幾乎各大公司的研究員們都把自己的AI框架基于CUDA寫了一遍。

CUDA很早就和AI社區(qū)建立了很好的關(guān)系,其它公司也看到了這個市場的巨大機(jī)會,但是從用戶側(cè)來看,大家用其它產(chǎn)品的動機(jī)不強(qiáng)。

所以市場上還會有一個關(guān)注焦點,那就是是否有人能夠撼動英偉達(dá)的地位,除了英偉達(dá),新的硬件提供商還有誰可能有機(jī)會?

首先我的觀點不構(gòu)成投資建議,我個人認(rèn)為英偉達(dá)在接下來的3~5年當(dāng)中,依然還會是AI硬件提供商中絕對的領(lǐng)頭羊,它的市場占有率不會低于80%。

但是今天AI模型逐漸標(biāo)準(zhǔn)化,我們也看到了硬件層面另外一個機(jī)會。前十年中,在AI領(lǐng)域大家都在糾結(jié)的一個問題,雖然很多公司能夠提供兼容CUDA的適配,但是這一層“很脆”。“很脆”的意思是模型多種多樣,所以適配層容易出問題,整個工作鏈就會斷。

今天越來越少的人需要寫最底層的模型,越來越多的需求是微調(diào)開源模型。能夠跑Llama、能夠跑 Mistral,就能滿足大概80%的需求,每一個Corner Case(特殊情況)都需要適配的需求逐漸變少,覆蓋幾個大的用例就可以了。

其它硬件提供商的軟件層在努力兼容CUDA,雖然還是很難,但是今天搶占一定市場占有率,不再是一件不可能的事情;另外云服務(wù)商也想分散一下投資。所以這是我們看到的一個很有意思的機(jī)會點,也是cloud infra在不斷變化的過程。

生成式AI浪潮:哪些是增量機(jī)遇?

我們再看一下AI應(yīng)用的情況。今天我們可以看到AI應(yīng)用的供給在不斷增加。從Hugging Face來看,2022年8月模型數(shù)量大概只有6萬,到2023年9月,數(shù)量就已經(jīng)漲了5倍,增速是非?斓。

目前我們看到AI應(yīng)用中,有兩大類應(yīng)用,已經(jīng)跨越死亡谷,開始有比較持續(xù)的流量:

第一大類是提效(productivity)。例如在電商行業(yè),用AIGC的方式更快生成商品展示圖片。例如Flair AI,應(yīng)用場景舉例來說,我希望能給瓶裝水拍攝一個廣告圖片,僅僅需要把水放在方便的地方,拍一張照片。然后把這張照片發(fā)送給大模型,告訴它,我希望它被放在有皚皚白雪的高山上,背景是藍(lán)天白云。它就能生成一個直接可以上傳電商平臺,作為產(chǎn)品展示的圖片。

其它類型也有很多,比如在企業(yè)海量知識庫做搜索且有更好的交互功能,例如Glean。

第二大類是娛樂(entertainment),比如Soul,以AI的方式做角色扮演及交互。

另外我們還發(fā)現(xiàn)一個趨勢是“套殼APP”越來越少了。其實大家發(fā)現(xiàn)直接“套殼”通用大模型的產(chǎn)品會有一個通病,交互效果特別“機(jī)器人”。

反而是7B、13B的稍小模型,性價比和可調(diào)性都特別好。做個直觀的比喻:大模型就好像是“讀博士”讀軸了,反而是本科生的實操性更強(qiáng)。

做應(yīng)用層,總結(jié)來講有兩條路徑:第一條是訓(xùn)練自己的基礎(chǔ)大模型,或者是自己去微調(diào)模型。

另外就是有自己非常垂直領(lǐng)域的應(yīng)用,背后是很深的場景,直接用Prompt是不可行的。

比如醫(yī)療領(lǐng)域,用戶提需求問:“我昨天做的化驗結(jié)果怎么樣?”這其實需要背后有個大模型,除了對化驗指標(biāo)做出專業(yè)的分析,還需要給用戶提出飲食等建議。

這背后涉及到化驗、保健、保險等產(chǎn)業(yè)鏈的多個細(xì)分場景,需要醫(yī)療產(chǎn)業(yè)鏈很深的經(jīng)驗。需要在既有的經(jīng)驗上加一層AI能力來做好用戶體驗,這是我們今天發(fā)現(xiàn)的比較有持續(xù)性的AI應(yīng)用模式。

關(guān)于未來到底怎樣,預(yù)測未來是最難的。我的經(jīng)驗一直是B端,邏輯主要看供需。AI帶來的增量需求首先是高性能的算力。第二個是高質(zhì)量的模型,以及上層需要的適合這些高性能、高質(zhì)量和高穩(wěn)定性需求的計算的軟件層。

所以我覺得從高性能算力來看,英偉達(dá)顯然已經(jīng)成為贏家。另外這個市場可能會容納2~3家比較好的芯片提供商。

從模型來看,OpenAI肯定是一個已經(jīng)比較確定的贏家,市場足夠大,應(yīng)該能夠容納3-5家不同的模型生產(chǎn)廠商,而且它很有可能還會出現(xiàn)偏地域性的分布。

傳統(tǒng)行業(yè)的AI深水區(qū)

我還想講的是大量的傳統(tǒng)行業(yè)應(yīng)用,這其實是AI行業(yè)里值得探討的深水區(qū)。

大語言模型出現(xiàn),大家曾經(jīng)一度覺得OpenAI弄了一個特別厲害的大模型,寫點Prompt就能搞定任何事情。

但是Google早在世紀(jì)之初就寫過一篇文章,到今天我仍然覺得這個觀點是對的。這篇文章說,機(jī)器學(xué)習(xí)模式只是整個AI鏈路中非常小的一部分,外面還有大量的工作,在今天來說也會變得越來越重要。比如如何收集數(shù)據(jù)、如何保證數(shù)據(jù)和我們的應(yīng)用需求一致,如何來做適配,等等。

模型上線之后還有三件事:第一是跑的穩(wěn)定,第二個是能夠把結(jié)果質(zhì)量等都持續(xù)穩(wěn)定地控制起來,以及還有非常重要的一點是把應(yīng)用當(dāng)中所得到的數(shù)據(jù),以一種回流的方式收集回來,訓(xùn)練下一波更好的模型。

到今天這個方法論依然適用,就是在行業(yè)競爭中,誰能有數(shù)據(jù),誰能夠把用戶的反饋更好地調(diào)試成“下一波訓(xùn)練的時候可以更好的應(yīng)用”的數(shù)據(jù),這也是核心競爭力之一。

今天大家都有這樣一種感覺,大模型的結(jié)構(gòu)相差不大,但是數(shù)據(jù)和工程能力的細(xì)節(jié)才是決定模型之間差別的地方,OpenAI其實持續(xù)在給我們證明這件事。

今天我們看整個技術(shù)棧的架構(gòu)是什么樣子的,a16z給了我們一個非常好的總結(jié)(如下圖):

 

IaaS這一層基本上是英偉達(dá)做“老大”,其它公司在競爭硬件和云平臺,這是最下層的堅實基礎(chǔ)。

云平臺今天也在發(fā)生不斷的變化,大家最近可能在技術(shù)趨勢上聽到一個詞叫做“下云”,以前大家肯定聽說過“全棧上云”。

為什么會出現(xiàn)“我要下云”的思潮?就是因為算力本身是巨大的成本,而且又是可以“自成一體”的成本,所以行業(yè)內(nèi)開始把傳統(tǒng)的云成本和今天AI算力的成本分開來考慮。

今天越來越多的PaaS開始變成Foundation Model,有些是閉源的,有些是開源的,然后在上面再做一層APP。今天每一層都競爭激烈。但是我個人感覺在模型這一層以及往上的上層應(yīng)用這一層,是最活躍的。

模型層主要是開源和閉源之爭。

應(yīng)用層有兩個趨勢:一個是模型在努力往上做應(yīng)用;另外就是是應(yīng)用層在拼命想理解模型到底能有什么能力,然后把自己的應(yīng)用加上AI,讓自己的應(yīng)用更強(qiáng)大。

我個人認(rèn)為,模型往上做應(yīng)用有點難,應(yīng)用把自己的AI能力加進(jìn)來更有希望。

國內(nèi)還有種說法叫做Super APP(超級應(yīng)用),Super APP很重要的一點是需要“端到端把問題解決”。a16z在他的圖上也描述會有一些端到端的APP出來,本質(zhì)上需要模型的推理和規(guī)劃的能力做的非常好。ChatGPT就是端到端全部打通,模型也是自己的,應(yīng)用也是自己的,這是Super App的狀態(tài)。

但是我個人關(guān)于Super App的觀點可能稍微保守一些,也有可能是因為我自己的經(jīng)歷很多時候都在做TOB的服務(wù),我個人的感覺是Super APP會有,但是會很少。

我個人的感覺是,B端的應(yīng)用越來越多的還是會以一種像搭積木一樣,用開源的模型結(jié)合企業(yè)自己的數(shù)據(jù),把企業(yè)自己的應(yīng)用搭起來的一個過程。

大模型的商業(yè)模式:

兩個糾結(jié)和一個市場現(xiàn)象

但是在大模型進(jìn)行商業(yè)化落地的過程中,我觀察到市場還是會有兩個糾結(jié):

第一個糾結(jié)是營收的流向和以往不太一樣,不太對。

正常商業(yè)模式的流向應(yīng)該是:從用戶那里收費(fèi),然后“留成本”給硬件服務(wù)商,比如英偉達(dá)。但是今天是橫向的,從VC(風(fēng)投)拿到融資,直接“留錢”給硬件廠商。但是VC的錢本質(zhì)是投資,創(chuàng)業(yè)者最后可能要10倍還給VC,所以這個資金流向是第一個糾結(jié)。

第二個糾結(jié)是今天的大模型對比傳統(tǒng)軟件,可以創(chuàng)造營收的時間太短。

其實開發(fā)一次軟件之后,可以收回成本的時間比較長。比如像Windows,雖然過幾年迭代一代,但是它底層的很多代碼是不用重寫的。所以一個軟件被寫完,可能在接下來的5-10年當(dāng)中,它給我時間窗口持續(xù)迭代。而且投入的成本大部分是程序員的成本。

但是大模型的特點是,每次訓(xùn)練過一個模型之后,下一次還是要從零開始重新訓(xùn)練。比較形象一點來說“今天投入10個億,再迭代的時候,又得再追加投入十個億”。

但是模型的迭代速度又很快,中間能夠賺錢的時間窗口究竟有多長?今天看起來好像大概是一年左右,甚至更短。

于是大家就開始質(zhì)疑,大模型的成本遠(yuǎn)高于傳統(tǒng)的軟件,但是做完一個模型之后,能賺錢的時間遠(yuǎn)低于傳統(tǒng)的軟件。

所以就回到了這個終極問題,大模型的商業(yè)模式到底怎樣才能真正有效?

我還觀察到一個市場現(xiàn)象,去年整個市場都非常痛苦,硬件需求的突然暴漲,整個供應(yīng)鏈都沒反應(yīng)過來,等待時間很長,甚至可能6個月以上。

最近我們觀察到的一個現(xiàn)象是供應(yīng)鏈沒有那么緊張了。第一是全球供應(yīng)鏈也開始緩過來;第二我個人判斷有一部分以前因為焦慮而提前囤貨的供應(yīng)商,覺得現(xiàn)在要開始收回成本了。之前供不應(yīng)求的緊張狀態(tài)會逐漸變好,但是也不會一下子變成所有人都愁賣的狀態(tài)。

以上就是我基于這波生成式AI爆發(fā),對整個AI產(chǎn)業(yè)造成的影響的個人觀察。也正是在這個浪潮中,Lepton正在持續(xù)幫助企業(yè)和團(tuán)隊在生成式AI落地的過程中找到成本、效果、效率的最佳均衡點。最后,其實可以以Richard S. Sutton——增強(qiáng)學(xué)習(xí)領(lǐng)域開山立派的一位導(dǎo)師,在2019年說的一句話作為總結(jié),“在整個70年的AI科研中,最重要的經(jīng)驗就是,通過一個通用的方法(今天是深度學(xué)習(xí)),來利用大量的計算模型(今天是以英偉達(dá)為代表的異構(gòu)GPU為基礎(chǔ)的高性能計算),這樣的方式是整個70年AI發(fā)展中最有效、最簡單的方式。”

The biggest lesson that can be read from 70 years of AI research is that general methods that leverage computation are ultimately the most effective, and by a large margin.

——Richard Sutton: "The Bitter Lesson"

文章來源:騰訊科技

賈楊清   AI
騰訊科技

網(wǎng)友評論

聚超值•精選

推薦 手機(jī) 筆記本 影像 硬件 家居 商用 企業(yè) 出行 未來
  • 二維碼 回到頂部