亚洲狼人综合干_国产成人自拍网_97久草视频_日韩欧美在线网站_国产福利精品av综合导导航_粉嫩13p一区二区三区_成年人视频网站免费观看_国产亚洲综合久久_秋霞精品一区二区三区_国产精品99久久久久久久久_美女日韩在线中文字幕_久久免费在线观看

當前位置: 首頁 ? 資訊 ? 新科技 ? 正文

華映資本邱諄:大模型行業(yè)泡沫正在顯現(xiàn)

IP屬地 中國·北京 編輯:孫雅 鈦媒體APP 時間:2024-10-12 13:01:48

文|華映資本合伙人邱諄

大模型行業(yè)泡沫正在顯現(xiàn)。

2022年誕生的ChatGPT,已經(jīng)在相當程度上實現(xiàn)了大模型的Scaling law(尺度定律)和通用能力涌現(xiàn)。ChatGPT自身作為一個終端產(chǎn)品的商業(yè)化也持續(xù)有不錯進展。據(jù)2024年7月的非公開數(shù)據(jù),OpenAI的ARR(年經(jīng)常性收入)已經(jīng)達到了相當可觀的41億美元。

但這些收入都是在極度高昂的算力、研發(fā)和運營成本基礎(chǔ)上實現(xiàn)的,而且細看最近OpenAI的發(fā)展,也很難稱得上“順利”。今年以來,包括聯(lián)創(chuàng)約翰·舒爾曼和伊利亞·蘇茨克沃在內(nèi)的多位核心高管已離開,9月下旬更是接連發(fā)生了首席技術(shù)官(CTO)米拉·穆拉蒂離職與蘋果退出參與其最新一輪融資談判的兩大事件。

在華映資本看來,只有當GPT真正賦能所有上層垂直行業(yè)應用場景,即實現(xiàn)所謂大規(guī)模落地實踐,以平臺形式實現(xiàn)商業(yè)化,OpenAI開創(chuàng)的LLM浪潮才算徹底到來。但當前,無論是在to C還是to B側(cè),GPT都更像是一個超級APP,而非一個類似IOS的底層平臺。GPT插件和GPTs已經(jīng)證明了底座LLM不能簡單復制IOS的App Store。

雖然OpenAI剛發(fā)布的o1模型用self-play RL的方法將scaling law推到了一個新的層次,實現(xiàn)了更強的推理邏輯能力,但上述“平臺化瓶頸”并未得到根本改變。各垂直場景目前都尚未看到真正全面爆發(fā)的趨勢。無論是在創(chuàng)業(yè)還是投資層面,大模型行業(yè)泡沫都已顯現(xiàn)。這背后,限制GPT進行平臺型商業(yè)化的根源究竟是什么?

在今年上半年推出的《再訪硅谷:生成式AI隨處可見,VC開始關(guān)注國家安全類項目丨華映資本全球化觀察》中,我們介紹了在生成式AI的浪潮之中,硅谷在Agent、具身、算力、無人駕駛等領(lǐng)域的發(fā)展情況,也提到華映關(guān)注“有底座大模型算法能力的垂直整合應用層公司”,當時華映資本已預見了“應用方數(shù)據(jù)難整合”將是“GPT平臺型商業(yè)化”的底層制約。

以下我們將結(jié)合近期在硅谷深入走訪當?shù)囟辔淮竽P蛷臉I(yè)者后總結(jié)的大量心得,繼續(xù)對大模型創(chuàng)業(yè)、投資的困局以及潛在破局方案進行更詳細拆解。

文章篇幅較長,請參考以下目錄:

一、AI投資邏輯困局

應用場景派 底層技術(shù)派

二、技術(shù)和商業(yè)化路線困局

人工智能產(chǎn)業(yè)化的本質(zhì) 數(shù)據(jù)困局 算力困局

三、潛在破局方案

借鑒互聯(lián)網(wǎng)時代的思考 短期投資策略 長期可能演變

四、總結(jié)

*筆者為華映資本海外合伙人、北大計算機學士及美國南加大多智能體(Agent)方向博士,Robocup冠軍隊成員、騰訊云計算早期T4專家級架構(gòu)師。本文既非學術(shù)論文、也非商業(yè)行研報告,而是以一個AI學界出身、親歷硅谷多周期的投資人視角分析現(xiàn)況和預測趨勢。觀點可能存在很多反共識之處,未必正確,但希望這些視角能對您有所啟發(fā)。同時,硅星人駐硅谷資深記者Jessica對本文內(nèi)容亦有貢獻。

一、AI投資邏輯困局

目前AI領(lǐng)域投資人以及創(chuàng)業(yè)者 (尤其在國內(nèi))主要分成下面兩個"流派":

應用場景派

持這個觀點的投資人,其投資標的是依靠對底座模型的調(diào)用實現(xiàn)垂直行業(yè)大模型商業(yè)化的公司,創(chuàng)始人通常是場景側(cè)或產(chǎn)品背景,對于底座模型的深入理解并非必要。在做該種投資選擇時,需要應對以下問題的挑戰(zhàn):

1. 預測LLM能推動應用場景爆發(fā)的底層driver究竟是什么;

2. 這個driver是否能持續(xù)、未來發(fā)展走向是什么;

3. 應用的全面爆發(fā)需要經(jīng)歷哪些milestones。

如果投資人對以上問題沒有完全自洽的解答,盲目樂觀押注應用場景的爆發(fā),將催生投資和創(chuàng)業(yè)的泡沫。

底層技術(shù)派

持這個觀點的VC或創(chuàng)業(yè)者更聚焦底座大模型,即底層平臺,認為未來一切都由AI平臺驅(qū)動,所以不太糾結(jié)上層應用。這些大模型平臺公司目前普遍遇到下面幾個瓶頸:

1. 上層殺手級應用遲遲未出現(xiàn),很多時候需要底座公司親自下場去場景側(cè)做定制化交付和實施;應用少也造成數(shù)據(jù)閉環(huán)無法形成;

2. 上層應用門檻薄,上下兩層之間的邊界不清晰,底座的版本更新會“不小心”碾壓上層應用,如GPT-3.5更新至GPT-4后對Jasper的碾壓;

3. 訓練數(shù)據(jù)開始"枯竭", Scaling law面臨停滯;

4. 大模型平臺公司對算力越來越依賴,成為"金錢的游戲"。

前兩條其實也恰是應用場景派遇到的根本問題,當下在上層應用遲未爆發(fā)、甚至業(yè)界無法預測爆發(fā)時間點及爆發(fā)所需經(jīng)歷milestones的背景下,上述兩類投資方法論暫時未能奏效。

事實上這兩種"流派"的區(qū)分,恰恰是受互聯(lián)網(wǎng)時代的公司可以清晰切分為"互聯(lián)網(wǎng)應用"和"互聯(lián)網(wǎng)平臺"上下兩層的思維慣性所影響,但大模型在當前并沒有到達互聯(lián)網(wǎng)時代這個"分層解耦"的階段,所以這兩個流派的劃分本身就值得商榷。

二、技術(shù)和商業(yè)化路線困局人工智能產(chǎn)業(yè)化的本質(zhì)

要破解上文提到的諸多疑問,我們必須先從理解大模型乃至整個人工智能浪潮的本質(zhì)開始。廣義的人工智能在1956年的達特茅斯會議即宣告誕生,但AI真正的產(chǎn)業(yè)化直到2012年左右AlexNet的出現(xiàn)才實現(xiàn)。AI產(chǎn)業(yè)化主要經(jīng)歷了下面兩個階段:

1. AI 1.0 深度學習 (2012年AlexNet引發(fā)):深度學習算法將海量數(shù)據(jù)進行訓練后輸出模型,來替代計算機科學幾十年來積累的算法和規(guī)則,從而第一次實現(xiàn)產(chǎn)業(yè)化。深度學習的大規(guī)模應用是“產(chǎn)業(yè)化AI”的本質(zhì),也是“數(shù)據(jù)定義生產(chǎn)力”的開始。

2. AI 2.0 大語言模型 (2022年GPT3.5引發(fā)):深度學習網(wǎng)絡結(jié)合多頭自注意力(Transformer),并運用decoder only和自回歸機制,更大數(shù)據(jù)集帶來更大參數(shù)量模型的通用能力涌現(xiàn),實現(xiàn)了Scaling Law。

這兩個AI產(chǎn)業(yè)化階段的最根本點是:第一次制造了對于數(shù)據(jù)和算力的充分應用和依賴。針對這一點,我們快速對比一下互聯(lián)網(wǎng)和AI這兩次大的浪潮:

以上這些是LLM之所以能推動應用場景爆發(fā)的底層driver,但同時也制造了極大的門檻和困局。

數(shù)據(jù)困局

我們先聚焦在數(shù)據(jù)這個維度,一個可以達成的共識是:自稱“AI驅(qū)動”的企業(yè)都必須擁有足夠的私有數(shù)據(jù),才有足夠的護城河。只依靠調(diào)用底座模型而不掌握也不積累私有數(shù)據(jù)的“AI公司”,即便直接調(diào)用API的短期效果很好,也并不具備長期價值。GPTs和類Jasper公司的快速衰敗已證實了這點。

那些聲稱擁有數(shù)據(jù)的AI公司,也經(jīng)常被數(shù)據(jù)的雙刃劍困擾,即數(shù)據(jù)作為優(yōu)勢的同時也會制造瓶頸。針對這些公司我們須先問下面的問題:

1. 當前掌握的私有數(shù)據(jù)從何而來,數(shù)據(jù)量多大,是否有足夠的“私有門檻”;

2. 私有數(shù)據(jù)清洗、抽取的成本是多大;

3. 清洗后的數(shù)據(jù)如何訓練進入到垂直模型,從而推動底座模型在垂直領(lǐng)域進一步提高能力,推進Scaling law。

不能完整回答以上問題的“AI公司”,都面臨長期價值主張是否成立的風險。但即便能滿足這些條件的垂直領(lǐng)域公司,又會面對以下挑戰(zhàn):

1. 用戶的私有數(shù)據(jù)和底座模型的預訓練數(shù)據(jù)在最終效果呈現(xiàn)的歸因上無法輕易解耦,應用層和平臺層雙方核心價值的邊界不清晰。這個“緊耦合”同時也體現(xiàn)到了出現(xiàn)差錯之后責任的切分上;

2. 用戶的私有數(shù)據(jù)在推動底座模型在垂直領(lǐng)域繼續(xù)出現(xiàn)能力涌現(xiàn)的持續(xù)成本過于高昂。最直接的成本來自于數(shù)據(jù)清洗成本和算力搭建、運營成本。

大模型的應用場景客戶類型

我們先來看LLM的四類典型應用場景的用戶,以及他們?nèi)绾卫盟接袛?shù)據(jù):

1. C端終端用戶:直接和GPT聊天,或者運用簡單提示詞工程,這里可以看作也在通過提示詞使用自身一些簡單的用戶私有數(shù)據(jù)。

2. B端終端客戶:直接調(diào)用LLM的API接口來運用提示詞工程;或?qū)⑺接袛?shù)據(jù)向量化后存入向量DB,再做RAG;或通過微調(diào)生成一些特定下游任務模型。 很多這類客戶反饋有不錯的效果。

3. B端服務實施公司:幫助上述B端客戶當中不具備這些能力的公司來交付和部署這些流程,尤其是RAG和微調(diào)。

4. 純商業(yè)化產(chǎn)品公司:利用自身前期積累的垂直領(lǐng)域私有數(shù)據(jù)、在底座模型上生成垂直模型后,以標準化產(chǎn)品的形式服務自己的C端或者B端客戶,獲得商業(yè)化回報。

前面三類LLM的應用場景事實上都實現(xiàn)了不錯的效果和商業(yè)化,也是OpenAI及類似底座模型企業(yè)商業(yè)化的主體。但這些并不能支撐LLM需要完成的平臺性的商業(yè)化生態(tài)。只有當?shù)?類公司大規(guī)模出現(xiàn)之后,LLM的平臺性質(zhì)的商業(yè)化才能真正爆發(fā)。嚴格來說,第4類公司里面有一部分是現(xiàn)有的成熟階段公司, 如Adobe、Salesforce、Netflix等,他們借助LLM的能力提升了原來的產(chǎn)品,從而更好的服務了自己的客戶。對比互聯(lián)網(wǎng)時代,它們更類似之前的線下零售公司如蘇寧、借助互聯(lián)網(wǎng)建立了蘇寧網(wǎng)購。但我們更傾向把他們歸到第2類公司。

我們真正期待的是:與當年互聯(lián)網(wǎng)時代的Amazon和淘寶這類新型純互聯(lián)網(wǎng)零售企業(yè)對應的AI時代的“原生應用”企業(yè)開始涌現(xiàn)。這樣才能推動AI應用的大潮。可惜的是,目前從這類AI原生應用公司的終端客戶的使用度上判斷,并沒有看到規(guī)模化的跡象,因而業(yè)界不斷有“大模型是否到了瓶頸或者泡沫化”的討論。

垂直行業(yè)企業(yè)私有數(shù)據(jù)暫未被充分利用

聚焦上面列舉的所有B端公司,尤其是眾多垂直行業(yè)的企業(yè),如金融、醫(yī)療、法律、教育、媒體、旅游,制造業(yè)等。無疑這些垂直領(lǐng)域的眾多企業(yè)已經(jīng)擁有大量歷史積累的私有數(shù)據(jù),即企業(yè)自有數(shù)據(jù)或?qū)I(yè)的行業(yè)數(shù)據(jù)。而這些私有數(shù)據(jù)是否有效獲得充分利用,將極為關(guān)鍵。

鑒于上文闡述的AI產(chǎn)業(yè)化的實質(zhì),數(shù)據(jù)運用已經(jīng)成為大模型時代scaling law延續(xù)的基石,這點與AI之前的時代形成了鮮明分界。因此我們對于私有數(shù)據(jù)是否得到充分利用的定義是數(shù)據(jù)能否幫助推動scaling law,即能否持續(xù)促進最終大模型的能力涌現(xiàn)。這里依次探討一下當前幾種私有數(shù)據(jù)主流運用方法的實質(zhì)和現(xiàn)況:

提示詞工程、上下文學習

這些數(shù)據(jù)運用方法在C端以及小B應用里面占很大比例,實質(zhì)上都可以歸結(jié)為簡單或高級的API調(diào)用。推動底座參數(shù)能力scaling law的力度有限。

RAG (檢索增強生成)

是目前利用大部分企業(yè)私有數(shù)據(jù)事實上的最普遍實踐。其實質(zhì)是檢索加上極其復雜的上下文學習。有時會結(jié)合Langchain等編排以及Agent智能體的方法,如微軟的GraphRAG等。RAG要真正運用好的技術(shù)門檻其實比大部分純應用公司能承受的水平要高,很多會涉及底座模型的細節(jié),所以現(xiàn)在經(jīng)常依靠第三方服務公司去完成。

同時業(yè)界關(guān)于RAG是否能最終推動scaling law也有很多爭論,筆者傾向于借用很多之前文獻里關(guān)于“學生參加開卷考試”的比喻:一位本科學生參加法學考試, 但他從未學習過法學院的課本,考試時在他面前放了一堆可隨時查閱的法律書籍,同時教會他一套極其復雜的查閱(檢索)的方法,學生不需要都記住這些書里信息,只需遇到法律問題時隨時查閱就能給出不錯的答案。但這整個過程是否真正讓他擁有了法學院學生的能力并持續(xù)提升、即推進了scaling law,值得探討。

微調(diào)

企業(yè)客戶基于底座模型做微調(diào)的效果在業(yè)界并沒有共識,很多從業(yè)者反饋效果不錯,也有不少反饋風險大且效果未必好,目前觀察到的事實是微調(diào)在企業(yè)場景應用實踐少于RAG,并且技術(shù)門檻相比RAG更高,尤其在RM (獎勵模型) 和 PPO (近端策略優(yōu)化) 方面,甚至幾乎需要有很強底座模型經(jīng)驗的團隊參與。

回顧歷史, Google早期的BERT架構(gòu)就定義了“通用任務預訓練+下游任務微調(diào)”的流程,效果很好;進入GPT時代后,該架構(gòu)得到延續(xù),但因底座模型加大,微調(diào)成本升高,破壞底座能力(遺忘)的風險增加,所以O(shè)penAI主要用它結(jié)合垂直領(lǐng)域的人類監(jiān)督數(shù)據(jù)來做對齊微調(diào):SFT, RLHF (包括RM、PPO)等,來消除有害、誤導或偏見性表述,對齊本領(lǐng)域的價值觀和偏好。延用上文關(guān)于學生的比喻,這類對齊式的微調(diào)有點類似于想讓本科畢業(yè)生盡快進入律所工作,但并非用法學院深造來增加他們的法律專業(yè)知識,而只是通過密集的上崗培訓來讓他們具備法務的話術(shù)和基本素質(zhì)。

至于其他更多各類的微調(diào)方法,實際運用案例似乎并不多,技術(shù)實現(xiàn)也常陷入矛盾:一方面想改動一些底座的網(wǎng)絡參數(shù),一方面又不敢動太多參數(shù)而損失底座的通用能力,這個尺度如果不是底座模型團隊自己,其他人可能都很難掌握。全量參數(shù)“微調(diào)”已經(jīng)接近下文提及的重新訓練,風險和成本都增加;而無論是凍結(jié)還是低秩適應(LoRA)的方法,目前也都無法完全避免風險。事實上即便只做對齊微調(diào),能做到最安全且最優(yōu)效果的可能也還是對底座模型實現(xiàn)非常熟悉的團隊。

Agent

大范疇上可歸類于后訓練的高級手段,其中包含Langchain等編排同時結(jié)合反思、規(guī)劃、記憶、工具使用、協(xié)同等產(chǎn)生LLM多次調(diào)用的方法,以及包括進階RAG里面運用的諸多手段。Agent無疑是未來趨勢,但運用尚在早期,有待進一步深化探索。目前無論理論還是實踐上,都還暫難證明是否分解多步驟后對LLM的系統(tǒng)性反復調(diào)用 (multi shot) 就能讓底座LLM延續(xù)scaling law,尤其是如何讓私有數(shù)據(jù)更好地貢獻于這個延續(xù),尚不清晰。

重新預訓練、繼續(xù)訓練

企業(yè)直接用自己的私有數(shù)據(jù)結(jié)合底座模型來重新訓練自己的垂直模型,這在目前看顯然最不實際,因此在普通企業(yè)用戶里面運用的案例無疑最少,除了算力和成本因素外,還有以下原因:

重新訓練的私有數(shù)據(jù)和通用數(shù)據(jù)集的量與質(zhì)量的配比很難掌握,這是底座大模型廠商的最核心秘密和護城河。配比不正確,訓練后模型的通用能力會大幅下降 (災難性遺忘)。對于繼續(xù)訓練,也需要去猜測底座模型用的通用數(shù)據(jù)集以及他們預訓練到達的checkpoint等。Bloomberg運用自身大規(guī)模私有金融數(shù)據(jù)重新預訓練出來了垂直金融大模型Bloomberg GPT,但效果不佳,使用度很低,大概率是這個原因;

沒有企業(yè)客戶愿意直接把自己的私有數(shù)據(jù)直接拱手獻給底座大模型公司去合作預訓練。甚至很多本身擁有底座模型的巨頭的內(nèi)部應用產(chǎn)品部門也不愿意內(nèi)部貢獻這些數(shù)據(jù)。

盡管業(yè)界有觀點認為企業(yè)用私有數(shù)據(jù)重新訓練相對RAG和微調(diào)優(yōu)勢并不大,但應該無人完全否定這個優(yōu)勢。尤其當企業(yè)和底座模型側(cè)能充分合作、即數(shù)據(jù)、訓練算法乃至團隊充分互通的時候,優(yōu)勢還是具備的。然而如何能規(guī)模性地達成這種理想化合作而消除上述的割裂,正是GPT類底座公司真正商業(yè)化的難題:

垂直行業(yè)企業(yè):擁有大量垂類數(shù)據(jù),但對底座模型的訓練算法、數(shù)據(jù)集乃至預訓練到達的checkpoint都不了解;底座模型公司:難以觸達和獲取所有企業(yè)客戶的垂類數(shù)據(jù)。

因此擁有數(shù)據(jù)的場景方和擁有訓練算法的底座方在實踐中產(chǎn)生了割裂,大模型技術(shù)棧的上下兩層不僅沒有相互促進而產(chǎn)生飛輪效應,反而互為制約。

企業(yè)私有數(shù)據(jù)無法完全參與底座大模型的繼續(xù)訓練,是造成“數(shù)據(jù)不足”困境的重要原因。一方面抱怨預訓練數(shù)據(jù)“枯竭”,一方面又不能充分利用垂直行業(yè)的私有數(shù)據(jù),是當下類GPT架構(gòu)的一大遺憾。盡管業(yè)界也有大量對合成數(shù)據(jù)或仿真數(shù)據(jù)的探索,但其成本控制和輸出質(zhì)量都仍處于早期。過度注重成本高且質(zhì)量參差的合成數(shù)據(jù)而放棄已有的大規(guī)模垂直行業(yè)數(shù)據(jù)的做法也值得深思。

綜上所述,GPT定義的主流“底座預訓練 + 私有數(shù)據(jù)RAG或微調(diào)”的架構(gòu)暫時無法推動更大涌現(xiàn)。垂直應用場景企業(yè)的私有數(shù)據(jù)尚未能充分貢獻于scaling law進程,這是大模型目前未觸發(fā)大規(guī)模落地應用的核心根源之一。

算力困局

為打破英偉達顯卡帶來的高額算力成本投入的僵局,很多下游行業(yè)玩家推出“垂直行業(yè)小模型”或者“端側(cè)小模型”,但可惜在技術(shù)路線上很難真正有捷徑可走。這些小模型,除了通過RAG或者微調(diào)生成的模型、也包括大模型蒸餾后的小模型,即用大模型生產(chǎn)數(shù)據(jù)去訓練出的模型, 以及對大模型裁剪、壓縮、剪枝后的模型。他們都有一個共同點:起點和核心價值仍在大模型上。

除了上述這些之外,產(chǎn)業(yè)實踐中也還存在以下類型的小模型:

基于非GPT、或非Transformer架構(gòu)的模型網(wǎng)絡,如BERT、CNN、RNN、Diffusion以及RL等;

其他更傳統(tǒng)的非深度學習、甚至基于規(guī)則的“模型”。

這些小模型可看作是針對大量細節(jié)長尾下游場景的特殊處理,更多仍需要對位于中心的大模型去輔助展開,超額價值目前有限,其真正價值仍聚集于大模型。這里借用張宏江博士在騰訊深網(wǎng)的訪談里對于“小模型”的論述:

應該先“把大模型的性能做好,才能真正出現(xiàn)涌現(xiàn)”,再“通過蒸餾的方法和持續(xù)學習的方法把它做小,而不是一開始就做個小模型”。

三、潛在破局方案借鑒互聯(lián)網(wǎng)時代的思考

為進一步思考上文提及的技術(shù)棧無法解耦和分工的根本現(xiàn)象,我們再回顧一下互聯(lián)網(wǎng)的歷史。我們比較習慣提的互聯(lián)網(wǎng),事實上是從1994年瀏覽器的出現(xiàn)開始的“Web互聯(lián)網(wǎng)”,而廣義的互聯(lián)網(wǎng)早在1970到80年代就已經(jīng)出現(xiàn),最早的形態(tài)是FTP、Rlogin、Telnet以及Email電郵等“垂直整合應用”的產(chǎn)品形態(tài)。直到Web和瀏覽器作為平臺 (下圖中的綠色框) 出現(xiàn)之后,大量類似Yahoo等基于網(wǎng)頁形式的純應用才真正與底層解耦,從而相繼在各個垂直行業(yè)爆發(fā),如零售行業(yè)的Amazon、旅游行業(yè)的Expedia、媒體行業(yè)的Netflix等等。

到了大模型時代,我們最先看到的也是ChatGPT、Claude、Character。AI、Sora等“垂直整合應用”的產(chǎn)品形態(tài),但由于前文提到的私有數(shù)據(jù)運用的困局,底層平臺和上層應用充分解耦的階段其實尚未降臨。LLM大模型時代的平臺(下圖中的淺綠色框)尚未出現(xiàn)。

我們這里所說的平臺更準確地應稱為“操作系統(tǒng)(OS)”。OS的核心功能就是隔離上層應用和下層技術(shù)細節(jié),讓應用公司可以聚焦產(chǎn)品和運營、從而規(guī)模化實現(xiàn)落地和商業(yè)化。OS的具體例子就是互聯(lián)網(wǎng)時代的瀏覽器、PC時代的Windows、以及移動時代的IOS和安卓。OS與思科這樣的基礎(chǔ)設(shè)施(Infra)的核心區(qū)別是:Infra的實質(zhì)是工具,它無法將應用層與底層有效切分出來;Infra的調(diào)用者往往還是需要對下層技術(shù)有深刻的理解,才能將工具運用的好;所以Infra自身無法催生大規(guī)模應用生態(tài)。OpenAI與它的同行們誤認為自己創(chuàng)造了類似蘋果這樣的的平臺即OS,但事實上只是創(chuàng)造了類似思科的Infra。相比互聯(lián)網(wǎng)和移動互聯(lián)網(wǎng)的進程,可以說大模型還處在“前瀏覽器或前IOS時代”。

我們認為大模型時代和互聯(lián)網(wǎng)時代類似,也會經(jīng)歷以下三個發(fā)展階段(盡管每個階段的歷時可能與互聯(lián)網(wǎng)不盡相同):

階段一:B/C端用戶直接使用大模型;

階段二:出現(xiàn)各種垂直整合的大模型商業(yè)化應用;

階段三:上層商業(yè)化應用和底層平臺充分解耦,落地應用爆發(fā),底座模型規(guī)模性變現(xiàn)。

當前我們處在的是“階段一”已經(jīng)完成、“階段二”剛剛開始的過渡時期。

短期投資策略“垂直整合應用派”

綜合以上結(jié)論:大模型當下的技術(shù)生態(tài)架構(gòu)尚未到達互聯(lián)網(wǎng)成熟時期的清晰分層階段,互聯(lián)網(wǎng)當年的“應用場景驅(qū)動”的投資邏輯暫時難以套用。在此背景下,我們將建議“第三種流派”的投資邏輯,即聚焦既非純應用場景、也非純底座模型的公司,而是“垂直整合應用”公司。這類第三種公司的完整定義是:

具備底座大模型算法能力、但放棄做通用底層平臺的端到端的垂直整合應用。

所有這三種類型的公司有可能會分別出現(xiàn)如下的發(fā)展:

應用場景公司

這類應用公司在大模型時代的創(chuàng)業(yè)壁壘會遠高于互聯(lián)網(wǎng)時代,可能很難保持在純應用的形態(tài):

1. 須將擁有私有數(shù)據(jù)作為先決條件,并有能力后期持續(xù)積累數(shù)據(jù)。互聯(lián)網(wǎng)時代應用公司強調(diào)的“飛輪”效應,在大模型時代必須包含私有數(shù)據(jù)的參與,這成為飛輪形成前“冷啟動”的最大門檻;

2. 須技術(shù)棧下沉,不斷拓展底座模型算法能力,持續(xù)將私有數(shù)據(jù)訓練進應用側(cè)模型,在垂直領(lǐng)域推動scaling law。

正因為此,對于“應用場景驅(qū)動”的投資機構(gòu)而言,判斷應用公司投資價值的門檻也大大提高,即不僅要判斷創(chuàng)始人的垂直領(lǐng)域經(jīng)驗和產(chǎn)品能力,還要深入考察他們獲取、清洗數(shù)據(jù)的能力,以及將這些數(shù)據(jù)訓練到垂直行業(yè)模型的底座技術(shù)的水平。

底座模型公司

對于類OpenAI的底座模型公司、包括開源和閉源的公司,如Anthropic、Llama、Mistral、智譜、Kimi等,我們預測它們還會繼續(xù)迭代模型從而延續(xù)scallinglaw,比如OpenAI最新的o1模型等。但這些迭代仍只會延續(xù)超級App的產(chǎn)品形態(tài)而無法短期成為底層平臺。

對于這類公司,盡管短期探索平臺型商業(yè)化面臨難度,但若放棄作為通用平臺的訴求,鎖定一個垂直領(lǐng)域?qū)P乃鸭诡悢?shù)據(jù)、從而訓練出真正的垂直整合大模型的空間會更大。這對于OpenAI也許無法支撐目前估值,但對于其他估值略低的底座大模型玩家應該是可行出路。我們看到已經(jīng)有不少這類公司在做類似的聚焦轉(zhuǎn)型,但如果不能真正放棄想成為底層平臺去賦能應用的述求,仍將陷入上述的數(shù)據(jù)困局。

垂直整合應用公司

這個第三種路徑對于完全初創(chuàng)的企業(yè)顯然是非常高成本高風險的,很難一蹴而就,因而可以考慮采用下面的三個循序漸進的步驟:

步驟一:利用私有數(shù)據(jù)基于底座模型API加RAG搭建初始原型(同時全力融資和囤GPU);

步驟二:基于底座模型結(jié)合微調(diào)和Agent等方法提高模型能力(同時全力融資和囤GPU);

步驟三:利用更多私有數(shù)據(jù)開始做繼續(xù)訓練或者重新預訓練(繼續(xù)全力融資和囤GPU)。

在硅谷,“垂直整合應用”公司占到了VC投資的很大比例,如Cohere(企業(yè)大模型)、Harvey(AI法律大模型)、Perplexity(AI搜索)、EurekaLabs(AI教育)、Augment(AI編程)、HolisticAI(AI企業(yè)管治SaaS),等都近期獲得不錯融資。這些公司的創(chuàng)始人都是來自如Transformer作者、OpenAI、Deepmind、meta等頭部底座模型背景、并深耕各自不同垂直場景。

紅杉在2023年9月題為“Generative AI's Act Two”的博客里面也提到“Vertical separation hasn't happened yet”的說法,時間過去一年,我們認為這個“separation”依然沒有發(fā)生,并因為上面提到的數(shù)據(jù)強耦合等原因,紅杉博客原文說的“vertically integrated”還會是個常態(tài)。

在中國國內(nèi),這個類型的公司還比較少,核心原因在于具備底層模型能力的團隊極其稀缺,但具備這些能力的團隊又都執(zhí)著于做底層平臺的述求。隨著幾家頭部模型公司(包括互聯(lián)網(wǎng)大廠的底座模型團隊)相繼遇到上述瓶頸,它們中的一些核心技術(shù)人員會開始獨立創(chuàng)辦“垂直整合應用”公司;同時有幾家頭部底座模型公司自己也在轉(zhuǎn)型到垂直整合場景,比如百川的醫(yī)療大模型、及零一的BeaGo等。

總結(jié)上文提到的大模型商業(yè)化的三個時期及當前可能的三個發(fā)展步驟如下圖,上述所有這些中美的“垂直整合應用”公司也都各自處于三個步驟的不同時間點。

多模態(tài)和具身智能

在投資上述“垂直整合應用”之外,多模態(tài)和具身智能(多模態(tài)的一種形式)也是值得關(guān)注的投資方向。盡管它們更多是感知而非基礎(chǔ)能力的提升,自身要超越純語言大模型(LLM)而更快實現(xiàn)scaling law可能較難,但在純語言大模型的生態(tài)建立遇到瓶頸之時,或許可以探索平行于語言模型的算法架構(gòu)及數(shù)據(jù)棧型式來搭建第三方生態(tài)。篇幅關(guān)系,這里不做展開。

完整技術(shù)棧、Infra、芯片

今天的深度學習和LLM的高速演進,仍然只是整個計算機科學技術(shù)棧的一個板塊,而完整技術(shù)棧的所有模塊都在被LLM牽動著產(chǎn)生顛覆式的迭代。所以大量的機會將來自看似不是AI自身的技術(shù)棧的其他角落,包括:

· Infra:包括底座模型自身,以及其他各層的Ops、各類toolchain,等等。華映資本兩家被投公司星塵和天云數(shù)據(jù),就是Data Infra的典型代表,目前與硅谷很多DataOps公司一樣也都在積極做更適合AI 2.0的新興數(shù)據(jù)棧的前沿探索。

· 芯片:是解決算力困局的終極手段。當前主流GPT架構(gòu)之下日益攀高的算力成本壓力和單一供應商依賴造成的焦慮,將幫助新型GPU公司突破英偉達的CUDA設(shè)定的禁區(qū),從而在某些領(lǐng)域顛覆英偉達的壟斷。

但上述兩種機會都伴隨一個巨大的前提:不論是Infra還是AI芯片創(chuàng)業(yè)的創(chuàng)業(yè)者,都需要對底座大語言模型自身有相當深入的理解和經(jīng)驗。這點與之前對于應用層創(chuàng)業(yè)的要求事實上是一致的。

長期可能演變

OpenAI要突破當前的“泡沫”焦慮,需要重點攻關(guān)的不僅是如何不斷提高自己底座語言模型的能力,更是如何通過改進后的技術(shù)架構(gòu)和商業(yè)生態(tài),讓其他擁有數(shù)據(jù)的第三方應用場景方盡可能參與到scaling law的進程中來。大模型技術(shù)棧發(fā)展依舊在一日千里,上文提及的很多擔憂和“泡沫”有可能因為某些突破而得到一定化解。以下簡單列出筆者有限思考后的可能性以及各自的挑戰(zhàn):

新的后訓練(Post-training)方法出現(xiàn)與持續(xù)優(yōu)化

RL(強化學習):OpenAI剛發(fā)布不久的o1的Self-Play RL在繼續(xù)推進scalinglaw,但它自己也提到了關(guān)于RL作為推理階段的scaling law和與預訓練階段的scaling law具有不同特性,甚至是否能將之稱為RL的scaling law也有爭議。但總之OpenAI的o1單方面推動底座推理能力的嘗試只是剛起步,暫時無法讓擁有大量私有數(shù)據(jù)的場景端客戶參與進來、并長期受益。后訓練潛在是可以offload給下游客戶結(jié)合自己的私有數(shù)據(jù)來進行的,但目前o1也還未能讓第三方復現(xiàn)。但即便能以某種形式開放出來、交給下游客戶去持續(xù)進行RL算法更新,這樣做之后,只會讓客戶參與門檻相比之前用RAG和微調(diào)等主流的后訓練方法還要更高。

RAG:如端到端的RAG、基于RAG的預訓練模型等都是非常有益的嘗試。但這類方法論也更驗證了筆者前文闡述的“即便做RAG也要從理解底座預訓練模型開始”的觀點。

Agent:如上文所述,智能體的探索具備巨大空間和機會,但如何最大化融入用戶側(cè)的私有數(shù)據(jù)仍然是課題之一。

預訓練及推理成本和門檻大大降低

一方面算力層面即GPU芯片的突破,一方面是訓練和推理的優(yōu)化加速及工程化的進步。除此之外還有第三種可能,盡管前文重點提及的都是“AI三要素”當中的數(shù)據(jù)和算力的困局,但其實訓練算法的突破和優(yōu)化仍可能是最終降低成本的最大推力,包括對自回歸機制甚至Transformer即注意力機制本身的優(yōu)化甚至重寫等等。

徹底改變預訓練+后訓練的模式

前兩種方法都在試圖拓展OpenAI既定路線的上升空間,但想徹底改變這個路線的難度顯然要大很多。但當初投OpenAI的VC也未必料想到GPT路線可以從彼時占主流統(tǒng)治地位的BERT路線分叉出來、而用decoder only等機制打開了scaling law的全新空間。在未來幾年之內(nèi),某個從GPT路線的再次根本性架構(gòu)分叉,將會重復當年OpenAI的成功,但這次顛覆對象是OpenAI自己,由此帶來的將是scaling law的又一次無比巨大的邁進。

四、總結(jié)

本文內(nèi)容較多,我們最后歸納為以下核心兩點:

1. 目前大模型的應用層和底座層尚未解耦,所以投資策略不建議只看純應用或者純底座模型,而可以暫時圍繞上下層垂直整合的應用展開,同時需密切觀察、等待真正的平臺/操作系統(tǒng)的出現(xiàn);

2. 應用和底座模型層未解耦的根本原因之一是在于數(shù)據(jù)在技術(shù)棧內(nèi)的強耦合,包括預訓練與后訓練數(shù)據(jù)集、即底座模型數(shù)據(jù)與下游垂直數(shù)據(jù)的耦合,這個現(xiàn)況也是由人工智能即深度學習算法對數(shù)據(jù)依賴的本質(zhì)所派生的。這些強耦合目前制約了scaling law的發(fā)展和大模型的規(guī)模化商業(yè)落地。

* P.S:我們也正在接洽更多具備上述跨越這波大模型泡沫潛力的新型AI公司,這些公司大多較早期,很多處于Stealth mode。如果有對這些公司感興趣的讀者可以私信聯(lián)系我們。

免責聲明:本網(wǎng)信息來自于互聯(lián)網(wǎng),目的在于傳遞更多信息,并不代表本網(wǎng)贊同其觀點。其內(nèi)容真實性、完整性不作任何保證或承諾。如若本網(wǎng)有任何內(nèi)容侵犯您的權(quán)益,請及時聯(lián)系我們,本站將會在24小時內(nèi)處理完畢。

全站最新
色哟哟网站入口亚洲精品| 波多野结衣在线观看视频| 国产女教师bbwbbwbbw| 国产精品视频网| 亚洲欧美日韩精品久久奇米色影视| 亚洲猫色日本管| 亚洲欧美激情国产综合久久久| 国产亚洲精品久久久久久豆腐| 中文字幕在线一区| 久久久久在线视频| 美女三级黄色片| 国产又黄又嫩又滑又白| 久久精品视频16| 日本在线视频不卡| 国产精品视频男人的天堂| 欧美成人精品一区二区三区| 日韩午夜av电影| 亚洲一级二级三级在线免费观看| 成人免费精品视频| 日本免费一区视频| 亚洲熟妇无码久久精品| 日本熟妇毛茸茸丰满| 成人性生交大免费看| 一区二区在线免费看| 国产日韩换脸av一区在线观看| 亚洲91精品在线观看| 久久亚洲综合国产精品99麻豆精品福利 | 欧美肥妇bbwbbw| 91麻豆精品国产91久久综合| 国产精久久久久| 丰满饥渴老女人hd| 蜜桃视频无码区在线观看| 五月天视频在线观看| 黑森林福利视频导航| 国产深夜男女无套内射| 播放灌醉水嫩大学生国内精品| 国产资源在线免费观看| 97超碰在线视| 日本十八禁视频无遮挡| 男女视频网站在线观看| 欧美一区二区三区爽大粗免费| 国产xxxx振车| 日日摸日日碰夜夜爽av| 欧美视频第一区| 日韩欧美理论片| 亚洲色图久久久| 手机av在线网| 黄色国产在线观看| 亚洲视频重口味| www.国产高清| 国产精品视频一二区| 日本美女一级视频| 国产一区二区三区在线观看免费| 成人免费高清在线| 亚洲精品第一国产综合野| 欧美日韩一区二区在线播放| 555www色欧美视频| 亚洲大胆人体在线| 欧美xxxx做受欧美| 国产日本欧美一区二区三区| 久中文字幕一区| 国产va亚洲va在线va| 日本女人性视频| 欧美在线视频第一页| 国产 欧美 日韩 在线| 性猛交xxxx乱大交孕妇印度| 国产一区二区三区综合| 国产精品久久久久久久久动漫| 一区二区三区四区蜜桃| 欧美精品日日鲁夜夜添| 最新国产成人av网站网址麻豆| 日本在线观看天堂男亚洲| 国产一区国产精品| 日本三区在线观看| 激情五月深爱五月| 欧美一级黄视频| 极品美女销魂一区二区三区| 久久蜜桃av一区二区天堂| 色94色欧美sute亚洲13| 日韩中文字幕国产| 国产欧美中文字幕| 日本在线视频不卡| 91高清国产视频| 青花影视在线观看免费高清| 黄色小视频免费观看| 久久先锋影音av鲁色资源网| 欧美综合色免费| 欧美日韩福利电影| 日本一区视频在线观看| 午夜激情视频网| 精品成人av一区二区在线播放| 欧美熟妇乱码在线一区| 2020国产精品自拍| 欧美三级中文字幕| 国产一区二区精品久久| 91香蕉视频黄| 欧美区在线观看| 国产91成人video| 午夜精品一区二区三区四区| 亚洲一区二区中文字幕在线观看| 欧美性受xxx黑人xyx性爽| 91在线播放网址| 日韩一本二本av| 亚洲精品欧美极品| 日韩在线第三页| 日韩精品一区二区亚洲av| 暴力调教一区二区三区| 亚洲精品一区二区三区蜜桃下载| 亚洲精品国产精品国自产在线| 99久久精品久久久久久ai换脸| 日本精品久久久久中文字幕| 日韩毛片在线播放| 另类调教123区| 一本大道久久精品懂色aⅴ| 欧美富婆性猛交| www.激情网| 欧美美女性生活视频| 丝袜美腿高跟呻吟高潮一区| 一区二区三区四区高清精品免费观看 | 精品嫩草影院久久| 国产欧美在线看| 成人羞羞国产免费网站| 日韩欧美黄色网址| 神马一区二区三区| 黄色一区二区在线| 国产最新精品视频| 久久久国内精品| 久久久久久久久久久久国产| 国产精品亚洲专一区二区三区| 精品视频在线视频| 亚洲xxxxx电影| 日本性生活一级片| 亚洲奶汁xxxx哺乳期| 久久久av一区| 欧美日韩国产成人在线观看| 中文字幕一区日韩电影| 不卡一区二区三区视频| 日韩丰满少妇无码内射| www.亚洲色图| 色综合视频一区中文字幕| 牛夜精品久久久久久久| 免费在线观看亚洲视频 | 99久久夜色精品国产亚洲| 色综合av在线| 久久99欧美| 91在线看视频| 五月天视频一区| 精品在线一区| 日本最新中文字幕| 欧美视频国产精品| 久久久久久久久久久久久久一区| 青青草手机在线观看| 一区二区三区国产精品| 精品福利视频一区二区三区| 91麻豆天美传媒在线| 国产精品久久久久毛片| 91麻豆精品国产91久久久久久久久| 一区二区三区四区欧美| 国产内射老熟女aaaa∵| 91麻豆精品国产自产在线观看一区| 日韩激情视频| 欧美一级小视频| 国产免费xxx| 亚洲图片有声小说| 美国av一区二区三区| 日本少妇xxxx| 欧美成人片在线观看| 国产精品美女一区二区三区| 国产精品稀缺呦系列在线| 国产污在线观看| 久久99精品视频| 国产丶欧美丶日本不卡视频| 欧美极品在线视频| 国产老熟女伦老熟妇露脸| 国产精品一区二区久久不卡| 久久影院资源网| 亚洲精品成人在线播放| 成人美女视频在线观看| 91av视频导航| 手机免费看av| 中文字幕一区免费在线观看| 国产精品久久网| 国产三级短视频| 亚洲精品第1页| 好吊色欧美一区二区三区| 来吧亚洲综合网| 欧美日韩午夜影院| 国产成人av片| 欧美日韩国产123区| ass极品水嫩小美女ass| 3d动漫精品啪啪1区2区免费| 久久久久久蜜桃一区二区| 精品一区二区三区不卡| 久久久久久午夜| 手机免费av片| 中文字幕精品一区二区精| 狠狠躁天天躁日日躁欧美| 欧美三级网色| av老司机久久| www.欧美免费| 久久午夜福利电影| 天天综合天天综合色| 亚洲国产精品一区二区第四页av| 国产精品久久久久久无人区| 中文字幕视频一区二区在线有码| 女尊高h男高潮呻吟| 亚洲毛片av在线| 亚洲国产欧美日韩| 久久久久国产精品一区三寸| 久久国产精品亚洲| 成人三级视频在线观看| 欧美另类一区二区三区| 手机视频在线观看| 一区二区在线观看不卡| 国产1区2区3区中文字幕| 国产成人精品亚洲日本在线桃色 | 成人精品在线看| 精品国产户外野外| 91传媒视频免费| 日本高清www免费视频| 精品福利在线导航| 26uuu成人网| 91久久久一线二线三线品牌| 国产制服丝袜一区| 亚洲一级片免费观看| 久久久久久美女| 99re视频这里只有精品| 黄色网在线视频| 成人丝袜视频网| 91日本视频在线| 国产精品久久欧美久久一区| 欧美日韩国产成人在线观看| 久久久综合久久| 精品无人国产偷自产在线| 精品人伦一区二区三电影| 欧美高清dvd| 天天干天天草天天| 婷婷成人综合网| 红桃视频一区二区三区免费| 亚洲国产人成综合网站| 亚洲一区二区三区四区五区xx| 尤物av一区二区| 波多野结衣家庭教师视频| 中文字幕在线视频一区| av在线免费观看国产| 国产亚洲一区二区三区四区| av网站大全免费| 国产精品理伦片| 手机av在线网站| 91精品办公室少妇高潮对白| 性欧美videos| 一区二区三区无码高清视频| 国产无码精品在线观看| 7777精品伊人久久久大香线蕉超级流畅 | 国产精品无码在线播放| 欧美成人精品h版在线观看| 久久网免费视频| 久久久久北条麻妃免费看| 丰满大乳国产精品| 三上悠亚在线一区二区| 国产在线久久久| 日韩一级黄色大片| 成人国产精品免费观看动漫| 四虎影视一区二区| 精品视频一区二区三区四区| 在线欧美日韩精品| 成人午夜视频精品一区| 性欧美大战久久久久久久免费观看| 欧美在线free| 成人久久久精品国产乱码一区二区 | 在线观看一区二区三区视频| 免费成人看片网址| 日韩欧美在线观看一区二区三区| 波多野结衣啪啪| 91手机视频在线| 欧美激情精品久久久久久黑人| 国产精品1区二区.| 丰满女人性猛交| 五月天一区二区| 国产成人在线一区| 九色|91porny| 国产男女免费视频| 欧美日韩国产综合视频在线观看| 深夜福利影院在线观看| 欧美中文字幕在线视频| 久久97超碰国产精品超碰| 真实国产乱子伦对白视频| 亚洲国产精品视频| 在线观看免费小视频| 久久久久免费精品国产| 岛国av在线一区| 老太脱裤子让老头玩xxxxx| 日韩限制级电影在线观看| 中文字幕一区二区三区四区欧美| 欧美国产日韩一区二区在线观看| 亚洲视频在线免费播放| 日日碰狠狠躁久久躁婷婷| 国产欧美日韩高清| 亚洲人成免费电影| 日韩女优av电影| 欧美日韩一级二级三级| 亚洲欧美在线aaa| 中文字幕av资源一区| 日韩高清不卡一区| 国产91视频在线| 午夜免费精品视频| 国产视频一区在线| 日韩精品亚洲一区二区三区免费| 少妇黄色一级片| 国产伦精品一区二区三区高清版| 69久久夜色精品国产69| 欧美大片欧美激情性色a∨久久| 亚洲午夜国产成人av电影男同| 免费一区二区视频| 免费在线不卡视频| 涩涩涩999| 欧美大肚乱孕交hd孕妇| 美日韩精品视频| 中文字幕 欧美 日韩| 午夜欧美大片免费观看| 91片黄在线观看| 亚洲天堂视频一区| 国产日韩在线亚洲字幕中文| 亚洲欧美日韩国产综合在线| 天天综合天天做| 欧美综合激情| 亚洲精品国精品久久99热| 麻豆精品视频在线观看免费| 中文字幕剧情在线观看| 国产成人短视频| 亚洲高清久久久| 91精品国产色综合久久不8| 91专区在线观看| 久久99久久99精品免观看粉嫩| 久久亚洲综合色| 国产黄色片视频| 18视频在线观看娇喘| 亚洲欧洲在线观看| 中文字幕 久热精品 视频在线| 久久午夜夜伦鲁鲁片| 国产一区二区高清不卡| 在线观看日韩电影| 亚洲va在线观看| 久久综合久久久| 日韩丝袜美女视频| 处破女av一区二区| 亚洲男人天堂网址| 最新av电影网站| 国产精品成人在线视频| 激情五月激情综合| 久久久久久天堂| 日本熟女毛茸茸| 亚洲欧美另类一区| 麻豆91精品视频| 久久er99精品| 欧美丰满美乳xxⅹ高潮www| 农村寡妇一区二区三区| 日韩福利视频在线观看| 国产日韩精品久久久| 一起草av在线| 一级黄色片毛片| 久久久国产精华液999999| 久久中文字幕国产| 亚洲高清视频中文字幕| 天堂一区二区在线| 国产一区第一页| 波多野结衣50连登视频| 成人福利在线视频| 亚洲欧美在线磁力| 国产精品久久三区| 亚洲精品国产av| 三级黄色录像视频| 国产精品又粗又长| 国产99久久精品一区二区永久免费| 欧美日韩综合在线| 久久久亚洲欧洲日产国码αv| 中文字幕一级片| 波多野结衣办公室33分钟| 99热这里只有精品免费| 欧洲美女7788成人免费视频| 尤物九九久久国产精品的特点| 中文字幕欧美一区| 狠狠色2019综合网| 免费av中文字幕| 国产成人精品综合久久久久99| 91精品国产91| 欧美一区二区三区免费观看视频| 久久久一区二区三区| 亚洲a视频在线观看| 精品国产乱子伦| 国产成人久久精品77777综合| 老司机一区二区| 不卡在线视频中文字幕| 国产午夜精品在线观看| 亚洲一区欧美一区| 91精品国产综合久久福利软件| 亚洲女人初尝黑人巨大| 久久99久久99精品中文字幕| 日韩hd视频在线观看| 五月婷婷久久丁香| 久久色.com| 久久精品国产精品亚洲综合| 亚洲图片视频小说| 久久机热这里只有精品| 精产国品一二三区| 国内外成人激情免费视频| 国产精品三区在线| 日本久久久久亚洲中字幕| 中文字幕日韩综合av| 日韩久久久久久|