- +1
DeepSeek“朋友圈”不斷擴圍:10家國內外云廠商宣布接入,供用戶按需部署

DeepSeek 視覺中國 資料圖
DeepSeek成為了海內外各大云廠商的寵兒。
1月20日,中國AI初創公司深度求索(DeepSeek)推出大模型DeepSeek-R1。作為一款開源模型,R1在數學、代碼、自然語言推理等任務上的性能能夠比肩OpenAI o1模型正式版,并采用MIT許可協議,支持免費商用、任意修改和衍生開發等。截至2月5日,國內外已有眾多云平臺宣布上線DeepSeek- R1大模型。
近日,華為云、騰訊云、阿里云、百度智能云等國內主流云平臺紛紛宣布上線R1大模型。2月5日,移動云宣布全面上線DeepSeek,實現全版本覆蓋、全尺寸適配、全功能暢用。中國移動覆蓋全國的13個智算中心全面上線上述能力,用戶可選擇任一智算資源池進行部署、蒸餾、智能體編排等操作。
同一天,中國聯通也宣布,聯通云已基于星羅平臺實現國產及主流算力適配多規格DeepSeek-R1模型,兼顧私有化和公有化場景,提供全方位運行服務保障。聯通云基于A800、H800、L40S等多款主流算力卡,預置DeepSeek-R1多尺寸模型,用戶可按需靈活選擇、快速擴展,快速搭建DeepSeek-R1推理和微調環境。
此前,2月4日,京東云宣布,言犀AI開發計算平臺已支持DeepSeek-V3、DeepSeek-R1以及所有蒸餾小參數模型(DeepSeek-R1-Distill)的一鍵部署,支持公有云在線部署、專混私有化實例部署兩種模式,供用戶按需部署,快速調用。
2月4日,字節跳動旗下的火山引擎宣布,將支持 V3/R1 等不同尺寸的 DeepSeek 開源模型,可以通過兩種方式進行模型使用:一是在火山引擎機器學習平臺 veMLP 中部署,目前 veMLP 已經支持全尺寸 DeepSeek 模型, 并仔細對 SGLang 和 vLLM 做過性能調優和效果評測,火山引擎自研 PD 分離+EP 并行的推理引擎也即將推出,全面開放。適用于自己進行模型定制、部署、推理的企業。二是在火山方舟中調用模型,適用于期望通過 API 快速集成預訓練模型的企業,目前已經支持4個模型版本,并提供了全網最高的限流。
2月3日,百度智能云宣布,百度智能云千帆平臺已正式上架DeepSeek-R1和 DeepSeek-V3模型,推出了超低價格方案,R1模型輸入價格為2元每百萬token,輸出價格為8元每百萬token。用戶還可登錄百度智能云千帆ModelBuilder享受限時免費服務。
據介紹,百度智能云此次接入的模型已全面融合百度千帆推理鏈路,集成百度獨家內容安全算子,實現模型安全增強與企業級高可用保障,同時支持完善的BLS日志分析(支持查詢和分析的API調用日志)和BCM告警(分鐘級監控指標告警),助力用戶安全、穩定地構建智能應用。
同樣是在2月3日,阿里云宣布,阿里云PAI Model Gallery支持云上一鍵部署DeepSeek-V3、DeepSeek-R1。目前DeepSeek-R1支持采用vLLM加速部署;DeepSeek-V3 支持vLLM加速部署以及Web應用部署;DeepSeek-R1蒸餾小模型支持采用BladeLLM(阿里云PAI自研高性能推理框架)和vLLM加速部署。
2月2日,騰訊云宣布,R1大模型一鍵部署至騰訊云高性能應用服務HAI上,開發者僅需3分鐘就能接入調用。簡單來說,通過HAI,開發者可以省去繁瑣步驟,只需兩步即可調用R1模型,默認加載1.5B參數模型。如果1.5B模型無法滿足需求,可在命令行后輸入7B/8B/14B等參數指令,自由切換至對應規格的模型。
兩天后,騰訊云又宣布推出“開發者大禮包”,DeepSeek全系模型一鍵部署,從“滿血版”671B參數到輕量版1.5B參數都包括在內。騰訊云提供了靈活的付費模式,部署完成后,開發者可在線體驗模型效果,還可以獲取API調用地址,秒速接入各類AI應用。
2月1日,據華為云官方微信號,硅基流動和華為云團隊聯合首發并上線基于華為云昇騰云服務的DeepSeek R1/V3推理服務。
公開資料顯示,北京硅基流動科技有限公司專注于打造生成式AI計算基礎設施平臺。據介紹,得益于自研推理加速引擎加持,硅基流動和華為云昇騰云服務支持部署的DeepSeek模型可獲得持平全球高端GPU部署模型的效果,同時能夠提供穩定的、生產級服務能力,讓模型能夠在大規模生產環境中穩定運行,并滿足業務商用部署需求。
隨后,華為還宣布,DeepSeek系列新模型正式上線昇騰社區,支持一鍵獲取DeepSeek系列模型和昇騰硬件平臺上開箱即用,且基于原生鴻蒙操作系統的小藝助手App已經接入DeepSeek。
此外,無問芯穹、青云科技、PPIO派歐云、云軸科技等獨立云廠商均已宣布適配及上架DeepSeek模型服務。
另一邊,海外各大云廠商和芯片廠商在更早之前就已紛紛宣布上線DeepSeek-R1模型。北京時間1月31日,英偉達宣布DeepSeek-R1模型登陸NVIDIA NIM。據介紹,在單個英偉達HGX H200系統上,完整版DeepSeek-R1 671B的處理速度可達每秒3872 Token。英偉達競爭對手AMD也宣布,已將新的DeepSeek-V3模型集成到Instinct MI300X GPU上,針對Al推理進行了優化。
兩大云巨頭亞馬遜AWS和微軟Azure也接入了DeepSeek-R1模型。從1月30日起,AWS的用戶可以在Amazon Bedrock和Amazon SageMaker AI中部署DeepSeek-R1模型。AWS方面表示:“通過密切關注客戶需求和技術進步,AWS定期擴大我們精心挑選的模型選擇,以包括有前途的新模型以及既定的行業最愛。高性能和差異化模型產品的持續擴展有助于客戶保持在AI創新的最前沿。”
當地時間1月29日,微軟宣布DeepSeek-R1已在Azure AI Foundry和GitHub上提供,開發者可以用新模型進行測試和構建基于云的應用程序和服務。微軟客戶能夠使用R1模型的精簡版本在微軟AI電腦Copilot+PC上本地運行。微軟方面表示:“作為Azure AI Foundry的一部分,DeepSeek-R1可以在一個值得信賴的、可擴展的和為企業做好準備的平臺上訪問,使企業能夠無縫集成先進的AI,同時滿足SLA(服務水平協議)、安全性和負責任的AI承諾。”





- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯網新聞信息服務許可證:31120170006
增值電信業務經營許可證:滬B2-2017116
? 2014-2025 上海東方報業有限公司