進入2023年,ChatGPT引發(fā)了一個新的AI時代——大模型時代。陸奇說:“我已經(jīng)跟不上大模型時代的狂飆速度了!”大模型引發(fā)了AI產(chǎn)業(yè)整體升級換代,各種大模型層出不窮,科技公司紛紛入局,AI創(chuàng)業(yè)公司再次雨后春筍般涌出。因為大模型,經(jīng)濟的下一個拐點也會加速出現(xiàn)——產(chǎn)業(yè)、科學、開發(fā)的發(fā)展速度同時加速進入拐點,引發(fā)了經(jīng)濟的結(jié)構(gòu)化變革。
2022年,中國數(shù)字經(jīng)濟規(guī)模超過50萬億元,占GDP比重超過40%,而2032年這一數(shù)字將超過100萬億元!要知道,2022年的中國GDP也就121萬億元!大模型將不僅大力推動數(shù)字經(jīng)濟加速進入全面擴張期,高盛集團的經(jīng)濟學家們預測,ChatGPT等生成式AI可能在10年的時間里使得全球年GDP增長7%(近7萬億美元)、全球生產(chǎn)力提升1.5%。
今天,我們正處于智能經(jīng)濟的“奇點”時刻。從中小企業(yè)到大規(guī)模企業(yè)再到一個國家,都處于一個前所未有的機遇期。中國企業(yè)要如何快速構(gòu)建新型基礎(chǔ)設(shè)施,從而抓住經(jīng)濟的結(jié)構(gòu)化變革機遇?HPE給出了一份智能經(jīng)濟“奇點”攻略——全生命周期的GPT解決方案,這能為中國企業(yè)騰飛GPT時代,鋪就大模型“加速起飛跑道”。
為什么說大模型引發(fā)了AI產(chǎn)業(yè)的升級換代呢?之前的AI產(chǎn)業(yè),相當于PC的DOS時代,不僅要自行搭建計算機,還要自行開發(fā)各種軟件,整個軟件行業(yè)的生產(chǎn)力非常低;而大模型之后的AI產(chǎn)業(yè),相當于PC的Windows時代,微軟的操作系統(tǒng)和英特爾的硬件體系,極大推動了軟件和硬件的工業(yè)化,出現(xiàn)Oracle、SAP、Adobe等大批應用軟件公司。
那么,大模型就是AI的“Windows操作系統(tǒng)”。之前的AI開發(fā),都是各企業(yè)自行組建AI和數(shù)據(jù)團隊,自行開發(fā)AI模型。由于缺乏AI人才,特別是缺乏既懂行業(yè)又懂AI的技術(shù)人才,導致很多AI項目的失敗。盡管各大科技廠商推出了自動化的機器學習開發(fā)平臺,但卻仍然需要企業(yè)自行搭建復雜的AI基礎(chǔ)設(shè)施,這讓AI的規(guī)?;l(fā)展成為挑戰(zhàn)。
HPE與NVIDIA聯(lián)合發(fā)布的《人工智能產(chǎn)業(yè)——從實驗升級到大規(guī)模實施》白皮書指出:每個AI 項目都作為復雜的系統(tǒng)運行,因此很難對其進行預測或控制。任何希望將少數(shù)AI項目的經(jīng)驗進一步規(guī)?;瘮U展的嘗試,只會進一步加劇這一困難局面。20世紀90年代的軟件開發(fā)也處于類似的境況,當時的軟件產(chǎn)品能否取得成功,在很大程度上取決于是否能夠了解,并掌控復雜且通常不可預測的底層硬件和軟件系統(tǒng)環(huán)境。
今天的大模型,將整個AI產(chǎn)業(yè)進行了工業(yè)化分工:上游的大模型提供通用能力,下游AI開發(fā)者基于大模型生成各種AI應用。這種分工非常類似于Windows操作系統(tǒng)和Windows應用軟件體系,因此也將像軟件工業(yè)化那樣出現(xiàn)AI工業(yè)化,那么接下來就需要大模型時代的工業(yè)標準化硬件基礎(chǔ)設(shè)施,從而夯實AI工業(yè)化,加速智能經(jīng)濟的奇點進化。
2023年4月,HPE推出GPT解決方案,為大模型時代的AI開發(fā)和部署提供全套的AI工業(yè)標準化基礎(chǔ)設(shè)施。要讓模型架構(gòu)如GPT般智能適配不同算法和數(shù)據(jù)集,就需要底層硬件具備從由低配入門級配置,平滑過渡到頂配需求的整體解決方案,進而滿足不同行業(yè)不同體量企業(yè)的需求,而方案的核心就是算力和數(shù)據(jù)讀寫能力。
基于大模型的AI工業(yè)主要分為四大群體:處于上游的大模型生產(chǎn)方、處于中游的大模型運營方、處于下游的基于大模型API開發(fā)GCI和AIGC應用的開發(fā)方,以及企業(yè)用戶。HPE推出了一系列計算服務和存儲解決方案,滿足各方的需求。
針對上游的大模型生產(chǎn)方和中游的大模型運營方,HPE擁有行業(yè)領(lǐng)先的高性能計算和AI超算,HPE Apollo 6500系統(tǒng),是人工智能領(lǐng)域最高端的引擎,能夠滿足各類深度學習應用場景需求,充分降低了構(gòu)建高性能人工智能系統(tǒng)的門檻。HPE Apollo 6500具有最高8顆GPU的計算架構(gòu),支持NVLink2.0,單個NVIDIA Tesla V100 GPU 可支持多達六條NVLink鏈路,總帶寬為300Gb/秒,是PCIe 3.0帶寬的10倍。HPE Apollo 6500采用NVLink2.0的高效混合立方網(wǎng)格是目前最高性能的解決方案,用戶也可以使用基于PCIe的4:1或8:1的GPU:CPU連接,獲得高性能與易用性的均衡。
而針對下游的GCI和AIGC開發(fā)方、創(chuàng)業(yè)公司、企業(yè)用戶以及非大模型AI應用的開發(fā)方和用戶,HPE ProLiant Gen11 系列服務器能提供便捷、可靠和性能優(yōu)化的計算資源,適用于一系列現(xiàn)代工作負載,包括AI、分析、云原生應用、圖形密集型應用、機器學習、虛擬桌面基礎(chǔ)設(shè)施(VDI)和虛擬化等。HPE ProLiant服務器為用戶提供了一個基于云原生技術(shù)的管理中樞,帶來了便捷、統(tǒng)一和自動化的運維體驗,用戶可輕松地搭載數(shù)千臺分布式設(shè)備,滿足AI、機器學習和渲染項目等工作負載的要求。
在數(shù)據(jù)存儲方面,HPE Alletra是一款支持端到端NVMe的閃存系統(tǒng),除了介質(zhì)層NVMe SSD之外,還支持前端的NVMe-oF以及數(shù)據(jù)處理層NVMe SCM,從而在整個數(shù)據(jù)鏈路上擺脫了傳統(tǒng)存儲陣列的瓶頸。HPE Alletra獨有的多活互聯(lián)架構(gòu)與NVMe+SCM的結(jié)合,配合軟硬件上全面優(yōu)化,可以跨越式地降低讀寫IO的時延。特別是針對實時交易類要求極致IOPS和時延的應用,提供了更加優(yōu)異的性能表現(xiàn)。
整體來看,HPE GPT系列解決方案可動態(tài)調(diào)整、適配業(yè)務,即能滿足高端百億或千億參數(shù)大模型訓練的需求,支持上萬顆CPU/GPU集群的構(gòu)建,也可滿足中端和邊緣側(cè)GCI、AIGC和其它AI應用的開發(fā)、運行和部署的需求,具有簡單易用、部署方面的特點,同時滿足企業(yè)級高達“6個9”的數(shù)據(jù)可用性和All-NVMe高性能低延遲AI計算以及數(shù)據(jù)安全的要求,而本地化的合作伙伴更可確保支持服務高效可靠。
成功的AI/ML模型是行業(yè)最佳計算、存儲、網(wǎng)絡(luò)、軟件工具以及交付模式的高效組合,為了向企業(yè)客戶高效交付工業(yè)標準化AI解決方案,HPE與NVIDIA之間展開緊密合作,為企業(yè)提供高度集成且模塊化的整體解決方案。
作為全球工業(yè)標準服務器的領(lǐng)軍企業(yè),最新的HPE ProLiant服務器重新設(shè)計了一個前端GPU安裝框架,可以安裝最多4塊GPU,將傳統(tǒng)2U服務器可安裝的GPU數(shù)量翻倍,不僅可以滿足快速增長的圖形密集型工作負載處理需求,由于采用NVLink而帶來的高效GPU到GPU通信還增加了吞吐能力和共享GPU緩存,可顯著改善AI應用性能。
NVIDIA最新推出的下一代GPU也與HPE AI解決方案完美結(jié)合。NVIDIA L4 Tensor Core GPU采用NVIDIA Ada Lovelace架構(gòu),是一個通用的高效能加速器,滿足游戲、仿真、數(shù)據(jù)科技等對于視頻、視覺、圖形、圖像和虛擬化等工作負載的需求。NVIDIA L4 Tensor Core GPU確保每一臺從邊緣到數(shù)據(jù)中心的HPE服務器,都能為高吞吐、低延時的工作負載,提供高效和高性能的解決方案。
HPE充分理解AI工業(yè)化的要求,投資了AI/ML前沿的模型數(shù)據(jù)管理、訓練和推理能力,同時確保AI/ML應用滿足相應法規(guī)和道德要求。HPE機器學習開發(fā)環(huán)境是一個能夠幫助開發(fā)者和企業(yè)快速開發(fā)、迭代和規(guī)?;瘮U展高質(zhì)量AI模型的軟件平臺,從單臺筆記本電腦到上千顆GPU集群系統(tǒng),可跨多個系統(tǒng)無縫擴展AI模型而無需重寫底層基礎(chǔ)設(shè)施代碼。
例如,HPE面向邊緣和分布式計算環(huán)境推出的Swarm Learning解決方案,是一個滿足區(qū)域數(shù)據(jù)隱私要求的分布式機器學習解決方案,用戶數(shù)據(jù)無需離開所屬地就能完成AI模型的訓練。HPE Swarm Learning為AI模型提供了HPE swarm API,可用容器對外分享AI模型而無需共享實際的訓練數(shù)據(jù),這樣就可以分享基于邊緣端數(shù)據(jù)訓練出來的AI模型而無需共享邊緣端數(shù)據(jù)??蒲?、醫(yī)院、銀行、金融服務、制造工廠等,都可受益于Swarm Learning。
在HPE和NVIDIA的身后是AI基礎(chǔ)設(shè)施聯(lián)盟(AIIA),該聯(lián)盟的主要目的是建立AI/ML開發(fā)的工業(yè)標準和技術(shù)堆棧,超過4萬名數(shù)據(jù)科學家、工程師和CXO們都加入到該聯(lián)盟,為全球各類型企業(yè)提供AI基礎(chǔ)設(shè)施工業(yè)標準。目前,AIIA聯(lián)盟社區(qū)成員來自頂級咨詢公司和風險投資,主要的互聯(lián)網(wǎng)、科技、軟件、硬件、金融服務、生物科技、醫(yī)藥、零售、汽車、娛樂公司、航空等公司。
總結(jié)而言:大模型為我們的時代創(chuàng)造了一個“奇點”,這就是AI全面升級所帶來的全球生產(chǎn)力普遍提升和數(shù)字經(jīng)濟加速全面擴展,而AI自身也進入了工業(yè)標準化階段——從Dos進入到Windows時代,已經(jīng)能夠形成一個經(jīng)典的AI基礎(chǔ)設(shè)施架構(gòu)藍圖,HPE也相應推出了“奇點”攻略——全生命周期的解決方案。相信在AI工業(yè)標準基礎(chǔ)設(shè)施的推動下,我們將加速進入大模型時代——中國也將成為大模型的大國,強國之一!
特別提醒:本網(wǎng)信息來自于互聯(lián)網(wǎng),目的在于傳遞更多信息,并不代表本網(wǎng)贊同其觀點。其原創(chuàng)性以及文中陳述文字和內(nèi)容未經(jīng)本站證實,對本文以及其中全部或者部分內(nèi)容、文字的真實性、完整性、及時性本站不作任何保證或承諾,并請自行核實相關(guān)內(nèi)容。本站不承擔此類作品侵權(quán)行為的直接責任及連帶責任。如若本網(wǎng)有任何內(nèi)容侵犯您的權(quán)益,請及時聯(lián)系我們,本站將會在24小時內(nèi)處理完畢。