生成式AI的投資熱還在蔓延,而這一旺盛需求也正在推動大公司對這一領(lǐng)域初創(chuàng)企業(yè)的收購。
國內(nèi),美團斥資20.65億收購光年之外。海外,數(shù)據(jù)存儲管理公Databricks最近以13億美元的高價收購了OpenAI競爭對手MosaicML 。
其中,Samsung Next是三星旗下的投資公司,專注于區(qū)塊鏈和AI等領(lǐng)域的投資,AME Cloud Ventures是由雅虎聯(lián)合創(chuàng)始人楊致遠(yuǎn)領(lǐng)導(dǎo)的風(fēng)投基金,F(xiàn)rontline Ventures是一家愛爾蘭風(fēng)投機構(gòu)。
值得注意的是,MosaicML的上一輪融資在2023年1月,當(dāng)時估值為2.22億美元,13億美元的收購價意味著不到一年時間其估值躍升了6倍。
收購方Databricks是一家數(shù)據(jù)存儲和分析領(lǐng)域的獨角獸,幫助AT&T、殼牌、Walgreens等大型公司處理數(shù)據(jù)。2021 年,MosaicML拿到摩根士丹利旗下Counterpoint Global領(lǐng)投16億美元H輪融資,估值高達(dá)380 億美元。收購MosaicML的交易可能是這家獨角獸公司向IPO之路邁出的又一步。通過它們的聯(lián)合產(chǎn)品,Databricks和MosaicML將能夠使用自己的數(shù)據(jù)來訓(xùn)練和運行私人定制模型,從而保留對數(shù)據(jù)的控制權(quán)。
這并不是生成式AI領(lǐng)域今年的唯一一起收購。3月,Stable Diffusion背后的Stability AI收購了AI照片編輯應(yīng)用ClipDrop背后的開發(fā)商Init ML,希望可以將自身的模型與應(yīng)用場景更緊密的結(jié)合起來。5月,Databricks競爭對手Snowflake宣布收購生成式AI搜索初創(chuàng)公司Neeva,意在將生成式AI的專業(yè)知識構(gòu)建到數(shù)據(jù)基礎(chǔ)設(shè)施產(chǎn)品中。
生成式AI算是今年為數(shù)不多的投資熱點。1月,微軟向 OpenAI 投資了100 億美元。3月,總部位于舊金山的AdeptAI在B輪融資中籌集了3.5億美元,投后估值至少為10億美元。5月,Anthropic(人工智能助手Claude)籌集了4.5 億美元的 C輪融資,估值達(dá)到50億美元。
市場分析公司PitchBook Data的數(shù)據(jù)顯示,到今年年底,全球生成式 AI市場的支出預(yù)計將達(dá)到426億美元,并以32%的復(fù)合年增長率增長,到2026年將達(dá)到981億美元。投向生成式AI初創(chuàng)公司的風(fēng)險投資也從2022年全年的48億美元增至2023年前5個月的127億美元。
生成式AI市場急劇擴張,為MosaicML這樣的初創(chuàng)公司創(chuàng)造了機會。使用大語言系統(tǒng)等工具來開發(fā)和訓(xùn)練公司自己的AI系統(tǒng)正在成為一些大公司的流行策略選擇,MosaicML這樣的公司可以提供和OpenAI類似的人工智能模型,但成本更低,并可以根據(jù)公司的數(shù)據(jù)進(jìn)行定制。
上個月,法國生成式AI初創(chuàng)公司Mistral AI 獲得了創(chuàng)紀(jì)錄的1.13 億美元種子輪資金投資。這筆融資和Databricks對MosaicML的收購都屬于企業(yè)級生成式AI領(lǐng)域的推動事件。
Naveen Rao曾在杜克大學(xué)就讀計算機專業(yè),后又拿下布朗大學(xué)神經(jīng)科學(xué)的博士學(xué)位,研究人工智能神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)和開發(fā)。2014年創(chuàng)立了深度學(xué)習(xí)平臺Nervana Systems。成立兩年后,Nervana即被英特爾以約4.08 億美元的價格收購,他自己也加入英特爾擔(dān)任AI產(chǎn)品組的副總裁兼總經(jīng)理。但Nervana后被英特爾拋棄,Naveen Rao遂在2021年離職再創(chuàng)業(yè)。
另一位創(chuàng)始人兼CTO Hanlin Tang是哈佛大學(xué)博士,研究人類視覺循環(huán)神經(jīng)網(wǎng)絡(luò)。他領(lǐng)導(dǎo)過英特爾實驗室的人工智能實驗室,重點研究領(lǐng)域為應(yīng)用深度強化學(xué)習(xí)、自然語言處理和擴展大型模型。他是在英特爾收購Nervana Systems后加入的。更早之前,他曾在國防部、蘭德公司工作,有著數(shù)據(jù)安全領(lǐng)域的經(jīng)驗。
MosaicML的首席科學(xué)家Jonathan Frankle是MIT計算機科學(xué)與人工智能實驗室的博士后研究員,也是哈佛Kempner研究所的附屬教員。他的研究方向是神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)動力學(xué)和訓(xùn)練算法,旨在提高大型語言模型(LLM)的效率同時降低訓(xùn)練成本。他的研究方向也正是MosaicML的競爭力所在。
MosaicML提供了一個生成式AI平臺和一套完整的解決方案,包括MPT基礎(chǔ)模型系列、MosaicML推理和 MosaicML訓(xùn)練,讓用戶能夠在自己的數(shù)據(jù)和安全環(huán)境中訓(xùn)練和部署生成式AI模型。
其中,MPT基礎(chǔ)模型系列是MosaicML 提供的一系列開源、商業(yè)可用的大型語言模型,它們可以作為用戶構(gòu)建自己的生成式AI應(yīng)用的基礎(chǔ)。MPT基礎(chǔ)模型系列包括MPT-7B 和MPT-30B 兩個模型,分別有70億和300億個參數(shù)。
和OpenAI的大語言模型相比,MosaicML的訓(xùn)練成本更低。MosaicML 首席執(zhí)行官兼聯(lián)合創(chuàng)始人 Naveen Rao曾在采訪中表示,MPT-30B 的訓(xùn)練成本為70萬美元,遠(yuǎn)低于訓(xùn)練 GPT-3 所需的數(shù)千萬美元。
今年5月,MosaicML推出面向企業(yè)的MosaicML推理。MosaicML首席執(zhí)行官Naveen Rao曾表示,MosaicML對企業(yè)客戶的價值主張是雙重的:保持客戶數(shù)據(jù)的私密性和降低成本。
當(dāng)前許多企業(yè)傾向于定制人工智能模型,這些模型依賴于編碼、法律工作、醫(yī)療保健等領(lǐng)域的特定訓(xùn)練集,其中許多行業(yè)都對本領(lǐng)域數(shù)據(jù)有著嚴(yán)格的合規(guī)和控制。企業(yè)客戶需要能夠高效執(zhí)行特定任務(wù)的模型,這正是MosaicML相對于OpenAI這類通用模型所具備的優(yōu)勢。
一些初創(chuàng)公司已經(jīng)在使用MosaicML的模型和工具來構(gòu)建自然語言前端和搜索系統(tǒng)。MosaicML允許企業(yè)使用公司的模型架構(gòu)根據(jù)自己的數(shù)據(jù)訓(xùn)練模型,然后通過其推理API部署模型?!叭绻蛻粲?xùn)練了一個模型,他們可以放心,他們擁有該模型的所有迭代,該模型就是他們的。我們對此不擁有所有權(quán)。”Naveen Rao表示。
使用 MosaicML 的新推理產(chǎn)品,企業(yè)客戶可以部署用于文本完成和文本嵌入的 AI 模型,其成本比使用OpenAI的LLM低4倍,而圖像生成的成本比使用OpenAI的DALL-E 2便宜 15倍。
除了讓人工智能技術(shù)變得更容易使用之外,MosaicML 還專注于提高數(shù)據(jù)質(zhì)量,以實現(xiàn)更好的模型性能。它正開發(fā)工具來幫助用戶在預(yù)訓(xùn)練過程中分層輸入特定領(lǐng)域的數(shù)據(jù),這確保了多樣化和高質(zhì)量的數(shù)據(jù)組合,對于構(gòu)建有效的人工智能模型至關(guān)重要。
作為開源模型的可用性以及完整的模型調(diào)整和部署服務(wù),或使這家初創(chuàng)公司能夠挑戰(zhàn)OpenAI在大語言模型技術(shù)市場的主導(dǎo)地位。
“我們希望讓盡可能多的人了解和使用這項技術(shù),這就是我們的目標(biāo)。這并不是排他性的。這不是精英主義?!盢aveen Rao表示。