▓成人丝瓜视频▓无码免费,99精品国产一区二区三区不卡 ,大长腿白丝被c到爽哭视频 ,高清无码内谢

澎湃Logo
下載客戶端

登錄

  • +1

人工智能又一“結盟”:亞馬遜云與初創(chuàng)公司“擁抱臉”合作

澎湃新聞記者 邵文
2023-02-23 22:36
來源:澎湃新聞
? 未來2% >
字號

·“生成式AI蘊藏著改變整個行業(yè)的巨大潛力,但其成本和所需的專業(yè)知識使該技術無法為除少數(shù)公司之外的所有公司所用。”

·亞馬遜云科技將為其云客戶提供Hugging Face的產(chǎn)品,其中包括一個可以與ChatGPT技術相競爭的語言生成工具,云客戶可以使用這些工具作為自己的應用程序構建模塊。

亞馬遜云科技(AWS)宣布與Hugging Face(“擁抱臉”)合作,成為又一家在生成式AI市場上尋求結盟的大型科技公司。

當?shù)貢r間2月22日,亞馬遜云科技宣布了與Hugging Face的進一步合作,以加速對大語言模型和視覺模型的訓練、精調(diào)和部署,促進生成式AI應用的創(chuàng)建。Hugging Face正在開發(fā)一款ChatGPT的競爭對手。

亞馬遜云科技將為其云客戶提供Hugging Face的產(chǎn)品,其中包括一個可以與OpenAI的ChatGPT技術相競爭的語言生成工具,云客戶可以使用這些工具作為自己的應用程序構建模塊。

據(jù)亞馬遜云科技負責數(shù)據(jù)庫、分析和機器學習的副總裁斯瓦米·西瓦蘇布拉曼尼亞(Swami Sivasubramanian)透露,Hugging Face將在AWS上構建該語言模型的下一個版本,名為“BLOOM”。

云計算公司紛紛在生成式AI市場上結盟

“生成式AI蘊藏著改變整個行業(yè)的巨大潛力,但其成本和所需的專業(yè)知識使該技術無法為除少數(shù)公司之外的所有公司所用。”亞馬遜云科技首席執(zhí)行官Adam Selipsky表示,“Hugging Face和亞馬遜云科技讓用戶更易訪問流行的機器學習模型,以最高的性能和最低的成本創(chuàng)建自己的生成式AI應用。”

“AI的未來已經(jīng)到來,但并非每個人都能平等享用AI。”Hugging Face首席執(zhí)行官Clement Delangue表示,“可訪問性和透明性,是以明智和負責任的方式使用這些新功能從而共享成果和創(chuàng)造新工具的關鍵。Amazon SageMaker(為機器學習提供工具和工作流)和亞馬遜云科技定制芯片會幫助我們的團隊和更大的機器學習社區(qū),將最新研究成果轉化為人人都可構建的、公開的可復制模型。”

目前,兩家公司沒有透露合作的財務細節(jié),但亞馬遜云科技表示沒有投資這家初創(chuàng)公司。

Hugging face起初是一家總部位于紐約的聊天機器人初創(chuàng)服務商,在github上開源了一個Transformers庫后,在機器學習社區(qū)“走紅”。目前已共享了超100000個預訓練模型,10000個數(shù)據(jù)集。Hugging Face去年從Lux Capital、紅杉資本和Coatue Management以及籃球明星凱文·杜蘭特(Kevin Durant)等投資者那里籌集了1億美元。

全球最大的云服務提供商已紛紛與生成式AI公司達成了一系列協(xié)議和投資。1月就有消息傳出,微軟正在洽談向ChatGPT的開發(fā)機構OpenAI投資100億美元,并將該公司的技術用于必應(Bing)搜索。據(jù)一位知情人士透露,本月早些時候,Alphabet旗下的谷歌向OpenAI的競爭對手Anthropic投資了近4億美元。

實際上,除了Hugging Face,亞馬遜云科技也已經(jīng)與Stability AI以及以色列AI公司AI21 Labs建立了合作關系,Stability AI是圖像生成工具Stable Diffusion的制造商(OpenAI的Dall-E的競爭對手),AI21 Labs是OpenAI的GPT語言模型Jurassic的另一個競爭對手。

降低大模型的云成本至關重要

作為全球最領先的云服務企業(yè)之一,亞馬遜云科技在技術上能夠為AI提供什么支持?

“機器學習的模型近幾年發(fā)展得越來越快,不光只是大模型,現(xiàn)在看到越來越多的超大模型。之前模型的參數(shù)量級可能是千級或百萬級,但今天擁有十億百億級參數(shù)的模型比比皆是,下一代模型有可能會朝著萬億級參數(shù)級別去發(fā)展。因此,降低大模型的云成本至關重要。”亞馬遜云科技大中華區(qū)機器學習產(chǎn)品總監(jiān)張洋對澎湃科技(www.kxwhcb.com)表示。

大語言模型和視覺模型的構建、訓練和部署都是一個昂貴且耗時的過程,云計算成本在訓練成本中占比極高。那么,如何降低大模型的訓練成本?

張洋解答道,“雖然,機器學習的芯片差不多每兩年或每幾年就會有一倍或數(shù)倍的提升,但仍然不足以跟上訓練模型復雜度的提升。替代的解決辦法就是通過分布式多處理器,把一個模型通過多個節(jié)點,通過一個網(wǎng)絡協(xié)同計算、協(xié)同訓練的方式來解決。這需要分布式訓練技術,意味著它不光對單個芯片的處理能力有很大的要求,同時對網(wǎng)絡的性能也提出了很高要求。”

據(jù)記者了解,亞馬遜云科技在2022年10月推出了專門為云中高性能模型訓練而搭建的Trn1實例(擁有高性能網(wǎng)絡和存儲,支持資料和模型平行化分布式訓練政策),最多可以搭載16顆專門用于機器學習訓練的Trainium芯片,512GB加速器內(nèi)存和800Gbps的網(wǎng)絡帶寬。目前來看效果如何?

“Trn1是目前擁有最高性價比的深度學習實例,與基于GPU(圖形處理器)的類似實例相比,訓練成本降低了50%。以一個具備萬億級參數(shù)的大模型進行兩周訓練為例,GPU服務器P3dn需要600個實例,最新一代GPU實例P4d需要128個實例,但Trn1只需要用96個實例。”張洋說。

張洋補充道,在2022年的亞馬遜云科技re:Invent全球大會上,該公司還推出了一款基于Trn1的網(wǎng)絡優(yōu)化型實例Trn1n,進一步把網(wǎng)絡帶寬增加一倍,從800Gbps躍升到1600Gbps,其強大的網(wǎng)絡吞吐能力能夠將超過1萬個Trainiumn芯片構建在一個超大規(guī)模集群里,并在集群中進行模型的并行訓練。

除訓練外,大模型也需要超高的推理能力。據(jù)張洋介紹,下一代自研推理芯片Inferentia2以及基于此的Amazon EC2 Inf2實例與基于GPU的實例相比,每瓦性能提升高達45%,同時也支持諸如GPT類型的大型復雜模型,并且可以單實例實現(xiàn)1750億參數(shù)模型的推理。

 

    責任編輯:鄭潔
    校對:張艷
    澎湃新聞報料:021-962866
    澎湃新聞,未經(jīng)授權不得轉載
    +1
    收藏
    我要舉報
            查看更多

            掃碼下載澎湃新聞客戶端

            滬ICP備14003370號

            滬公網(wǎng)安備31010602000299號

            互聯(lián)網(wǎng)新聞信息服務許可證:31120170006

            增值電信業(yè)務經(jīng)營許可證:滬B2-2017116

            ? 2014-2025 上海東方報業(yè)有限公司

            反饋
            主站蜘蛛池模板: 昆明市| 涞水县| 通化市| 滨海县| 巴林右旗| 莲花县| 西华县| 岫岩| 隆回县| 金沙县| 新疆| 德惠市| 溧水县| 绍兴县| 三明市| 滨海县| 临城县| 汽车| 大港区| 和林格尔县| 定西市| 金沙县| 古田县| 霍林郭勒市| 河南省| 鸡西市| 维西| 吴堡县| 广灵县| 冕宁县| 旌德县| 南漳县| 海安县| 阿坝| 噶尔县| 开平市| 宜春市| 和顺县| 华阴市| 大余县| 平塘县|