- +1
DeepSeek“朋友圈”不斷擴圍:10家國內(nèi)外云廠商宣布接入,供用戶按需部署

DeepSeek 視覺中國 資料圖
DeepSeek成為了海內(nèi)外各大云廠商的寵兒。
1月20日,中國AI初創(chuàng)公司深度求索(DeepSeek)推出大模型DeepSeek-R1。作為一款開源模型,R1在數(shù)學、代碼、自然語言推理等任務上的性能能夠比肩OpenAI o1模型正式版,并采用MIT許可協(xié)議,支持免費商用、任意修改和衍生開發(fā)等。截至2月5日,國內(nèi)外已有眾多云平臺宣布上線DeepSeek- R1大模型。
近日,華為云、騰訊云、阿里云、百度智能云等國內(nèi)主流云平臺紛紛宣布上線R1大模型。2月5日,移動云宣布全面上線DeepSeek,實現(xiàn)全版本覆蓋、全尺寸適配、全功能暢用。中國移動覆蓋全國的13個智算中心全面上線上述能力,用戶可選擇任一智算資源池進行部署、蒸餾、智能體編排等操作。
同一天,中國聯(lián)通也宣布,聯(lián)通云已基于星羅平臺實現(xiàn)國產(chǎn)及主流算力適配多規(guī)格DeepSeek-R1模型,兼顧私有化和公有化場景,提供全方位運行服務保障。聯(lián)通云基于A800、H800、L40S等多款主流算力卡,預置DeepSeek-R1多尺寸模型,用戶可按需靈活選擇、快速擴展,快速搭建DeepSeek-R1推理和微調(diào)環(huán)境。
此前,2月4日,京東云宣布,言犀AI開發(fā)計算平臺已支持DeepSeek-V3、DeepSeek-R1以及所有蒸餾小參數(shù)模型(DeepSeek-R1-Distill)的一鍵部署,支持公有云在線部署、?;焖接谢瘜嵗渴饍煞N模式,供用戶按需部署,快速調(diào)用。
2月4日,字節(jié)跳動旗下的火山引擎宣布,將支持 V3/R1 等不同尺寸的 DeepSeek 開源模型,可以通過兩種方式進行模型使用:一是在火山引擎機器學習平臺 veMLP 中部署,目前 veMLP 已經(jīng)支持全尺寸 DeepSeek 模型, 并仔細對 SGLang 和 vLLM 做過性能調(diào)優(yōu)和效果評測,火山引擎自研 PD 分離+EP 并行的推理引擎也即將推出,全面開放。適用于自己進行模型定制、部署、推理的企業(yè)。二是在火山方舟中調(diào)用模型,適用于期望通過 API 快速集成預訓練模型的企業(yè),目前已經(jīng)支持4個模型版本,并提供了全網(wǎng)最高的限流。
2月3日,百度智能云宣布,百度智能云千帆平臺已正式上架DeepSeek-R1和 DeepSeek-V3模型,推出了超低價格方案,R1模型輸入價格為2元每百萬token,輸出價格為8元每百萬token。用戶還可登錄百度智能云千帆ModelBuilder享受限時免費服務。
據(jù)介紹,百度智能云此次接入的模型已全面融合百度千帆推理鏈路,集成百度獨家內(nèi)容安全算子,實現(xiàn)模型安全增強與企業(yè)級高可用保障,同時支持完善的BLS日志分析(支持查詢和分析的API調(diào)用日志)和BCM告警(分鐘級監(jiān)控指標告警),助力用戶安全、穩(wěn)定地構建智能應用。
同樣是在2月3日,阿里云宣布,阿里云PAI Model Gallery支持云上一鍵部署DeepSeek-V3、DeepSeek-R1。目前DeepSeek-R1支持采用vLLM加速部署;DeepSeek-V3 支持vLLM加速部署以及Web應用部署;DeepSeek-R1蒸餾小模型支持采用BladeLLM(阿里云PAI自研高性能推理框架)和vLLM加速部署。
2月2日,騰訊云宣布,R1大模型一鍵部署至騰訊云高性能應用服務HAI上,開發(fā)者僅需3分鐘就能接入調(diào)用。簡單來說,通過HAI,開發(fā)者可以省去繁瑣步驟,只需兩步即可調(diào)用R1模型,默認加載1.5B參數(shù)模型。如果1.5B模型無法滿足需求,可在命令行后輸入7B/8B/14B等參數(shù)指令,自由切換至對應規(guī)格的模型。
兩天后,騰訊云又宣布推出“開發(fā)者大禮包”,DeepSeek全系模型一鍵部署,從“滿血版”671B參數(shù)到輕量版1.5B參數(shù)都包括在內(nèi)。騰訊云提供了靈活的付費模式,部署完成后,開發(fā)者可在線體驗模型效果,還可以獲取API調(diào)用地址,秒速接入各類AI應用。
2月1日,據(jù)華為云官方微信號,硅基流動和華為云團隊聯(lián)合首發(fā)并上線基于華為云昇騰云服務的DeepSeek R1/V3推理服務。
公開資料顯示,北京硅基流動科技有限公司專注于打造生成式AI計算基礎設施平臺。據(jù)介紹,得益于自研推理加速引擎加持,硅基流動和華為云昇騰云服務支持部署的DeepSeek模型可獲得持平全球高端GPU部署模型的效果,同時能夠提供穩(wěn)定的、生產(chǎn)級服務能力,讓模型能夠在大規(guī)模生產(chǎn)環(huán)境中穩(wěn)定運行,并滿足業(yè)務商用部署需求。
隨后,華為還宣布,DeepSeek系列新模型正式上線昇騰社區(qū),支持一鍵獲取DeepSeek系列模型和昇騰硬件平臺上開箱即用,且基于原生鴻蒙操作系統(tǒng)的小藝助手App已經(jīng)接入DeepSeek。
此外,無問芯穹、青云科技、PPIO派歐云、云軸科技等獨立云廠商均已宣布適配及上架DeepSeek模型服務。
另一邊,海外各大云廠商和芯片廠商在更早之前就已紛紛宣布上線DeepSeek-R1模型。北京時間1月31日,英偉達宣布DeepSeek-R1模型登陸NVIDIA NIM。據(jù)介紹,在單個英偉達HGX H200系統(tǒng)上,完整版DeepSeek-R1 671B的處理速度可達每秒3872 Token。英偉達競爭對手AMD也宣布,已將新的DeepSeek-V3模型集成到Instinct MI300X GPU上,針對Al推理進行了優(yōu)化。
兩大云巨頭亞馬遜AWS和微軟Azure也接入了DeepSeek-R1模型。從1月30日起,AWS的用戶可以在Amazon Bedrock和Amazon SageMaker AI中部署DeepSeek-R1模型。AWS方面表示:“通過密切關注客戶需求和技術進步,AWS定期擴大我們精心挑選的模型選擇,以包括有前途的新模型以及既定的行業(yè)最愛。高性能和差異化模型產(chǎn)品的持續(xù)擴展有助于客戶保持在AI創(chuàng)新的最前沿。”
當?shù)貢r間1月29日,微軟宣布DeepSeek-R1已在Azure AI Foundry和GitHub上提供,開發(fā)者可以用新模型進行測試和構建基于云的應用程序和服務。微軟客戶能夠使用R1模型的精簡版本在微軟AI電腦Copilot+PC上本地運行。微軟方面表示:“作為Azure AI Foundry的一部分,DeepSeek-R1可以在一個值得信賴的、可擴展的和為企業(yè)做好準備的平臺上訪問,使企業(yè)能夠無縫集成先進的AI,同時滿足SLA(服務水平協(xié)議)、安全性和負責任的AI承諾。”





- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯(lián)網(wǎng)新聞信息服務許可證:31120170006
增值電信業(yè)務經(jīng)營許可證:滬B2-2017116
? 2014-2025 上海東方報業(yè)有限公司