春節(jié)假期期間,DeepSeek的爆火如“平地一聲雷”。這家于2023年成立的人工智能基礎(chǔ)技術(shù)研究企業(yè),在今年1月20日正式開源其R1推理模型,該模型在數(shù)學(xué)、代碼、自然語言推理等任務(wù)上,性能比肩OpenAI-o1正式版,且開發(fā)成本僅為600萬美元,僅相當(dāng)于OpenAI-o1 模型開發(fā)成本的1.2% 。DeepSeek于2024年12月26日宣布上線并同步開源的DeepSeek-V3模型,以1/11的算力、僅2000個GPU芯片訓(xùn)練出性能超越GPT-4o的大模型,且訓(xùn)練成本僅相當(dāng)于GPT-4o的5.6%。
業(yè)內(nèi)人士表示,DeepSeek此舉開拓出高性能模型訓(xùn)練的新思路,其以低成本實(shí)現(xiàn)大模型訓(xùn)練,也引發(fā)了業(yè)界對海外AI企業(yè)耗費(fèi)巨量算力資源訓(xùn)練模型必要性的懷疑。近日,多家中外算力芯片企業(yè)紛紛發(fā)布適配DeepSeek模型的消息。
龍芯中科:宣布實(shí)現(xiàn)DeepSeek大模型本地化部署
2月7日,龍芯中科宣布,搭載龍芯3號CPU的設(shè)備成功啟動運(yùn)行DeepSeek R1 7B模型,實(shí)現(xiàn)本地化部署,可為廣大用戶提供更快、更強(qiáng)、更省的訓(xùn)推體驗(yàn)。日前,龍芯聯(lián)合太初元碁等產(chǎn)業(yè)伙伴,僅用2小時即在太初T100加速卡上完成DeepSeek-R1系列模型的適配工作,快速上線包含DeepSeek-R1-Distill-Qwen-7B在內(nèi)的多款大模型服務(wù)。此外,采用龍芯3A6000處理器的誠邁信創(chuàng)電腦和望龍電腦已實(shí)現(xiàn)本地部署DeepSeek,部署后無需依賴云端服務(wù)器,避免了因網(wǎng)絡(luò)波動或服務(wù)器過載導(dǎo)致的服務(wù)中斷,可高效完成文檔處理、數(shù)據(jù)分析、內(nèi)容創(chuàng)作等工作。目前,龍芯正積極攜手太初元碁、寒武紀(jì)、天數(shù)智芯、算能科技、openEuler等合作伙伴,全力打造DeepSeek系列模型的多形態(tài)推理平臺,助力企業(yè)用戶實(shí)現(xiàn)智能化轉(zhuǎn)型。
燧原科技:實(shí)現(xiàn)全國各地智算中心DeepSeek的全量推理服務(wù)部署
2月6日,燧原科技宣布,完成了對DeepSeek全量模型的高效適配,包括DeepSeek-R1/V3 671B原生模型、DeepSeek-R1-Distill-Qwen-1.5B/7B/14B/32B、DeepSeek R1-Distill-Llama-8B/70B等蒸餾模型。截至目前,DeepSeek的全量模型已在慶陽、無錫、成都等智算中心完成了數(shù)萬卡的快速部署。
華為:支持DeepSeek系列模型“一鍵獲取”、“開箱即用”
2月5日,華為技術(shù)有限公司宣布,DeepSeek-R1、DeepSeek-V3、DeepSeek-V2、Janus-Pro正式上線昇騰社區(qū),支持一鍵獲取DeepSeek系列模型,支持昇騰硬件平臺上開箱即用。
海光信息:DCU適配三大模型,相關(guān)模型已正式上線
2月4日,海光信息宣布,其技術(shù)團(tuán)隊(duì)成功完成DeepSeek V3和R1模型與海光DCU(深度計算單元)的適配,并正式上線。2月5日,海光信息宣布其技術(shù)團(tuán)隊(duì)成功完成DeepSeek-Janus-Pro多模態(tài)大模型與海光DCU的適配優(yōu)化,并正式上線。因DCU采用了GPGPU通用加速計算架構(gòu),DeepSeek模型可直接在DCU上運(yùn)行,并不需要大量適配工作,技術(shù)團(tuán)隊(duì)的主要工作是進(jìn)行精度驗(yàn)證和持續(xù)的性能優(yōu)化。本次適配優(yōu)化的DeepSeek-Janus-Pro模型具備跨模態(tài)理解與生成能力,專注于結(jié)合視覺與語言理解能力,旨在處理更復(fù)雜的跨模態(tài)任務(wù)。
天數(shù)智芯:一天完成DeepSeekR1適配
2月4日,天數(shù)智芯與 Gitee AI 聯(lián)合發(fā)布消息,成功完成了與 DeepSeek R1 的適配工作,并且已正式上線多款大模型服務(wù),其中包括 DeepSeek R1-Distill-Qwen-1.5B、DeepSeek R1-Distill-Qwen-7B、DeepSeek R1-Distill-Qwen-14B等,其過程僅耗時1天。
摩爾線程:已部署DeepSeek蒸餾模型推理服務(wù)
2月4日,摩爾線程宣布實(shí)現(xiàn)了對DeepSeek蒸餾模型推理服務(wù)的部署。基于Ollama開源框架,完成了對DeepSeek-R1-Distill-Qwen-7B蒸餾模型的部署,并在多種中文任務(wù)中展現(xiàn)了優(yōu)異的性能。用戶也可以基于MTT S80和MTT S4000進(jìn)行DeepSeek-R1蒸餾模型的推理部署。
英特爾:支持AI PC本地部署
1月31日,英特爾宣布,DeepSeek目前能夠在英特爾產(chǎn)品上運(yùn)行,更可以在AI PC上實(shí)現(xiàn)離線使用,強(qiáng)調(diào)DeepSeek的本地部署能力。DeepSeek的蒸餾模型在至強(qiáng)和Gaudi平臺上得到了支持,能夠幫助客戶實(shí)現(xiàn)更低的成本和單價性能優(yōu)勢。例如,在最新發(fā)布的酷睿Ultra 200H(Arrow Lake H)平臺上,DeepSeek-R1-1.5B模型能夠順利運(yùn)行,且能夠解決數(shù)學(xué)難題。DeepSeek最新的Janus-Pro圖像生成和理解模型能夠在英特爾酷睿Ultra 200V系列處理器(Lunar Lake)上運(yùn)行。
英偉達(dá):推理微服務(wù)支持DeepSeek-R1
1月30日,英偉達(dá)宣布,其開發(fā)者網(wǎng)站現(xiàn)已提供6710 億參數(shù)的 DeepSeek-R1 模型微服務(wù)預(yù)覽版。單個 NVIDIA HGX H200 系統(tǒng)上每秒可為DeepSeek-R1 提供多達(dá) 3872 個tokens。開發(fā)人員可以測試和試驗(yàn)可下載的NIM微服務(wù)應(yīng)用程序編程接口(API)。通過將 NVIDIA AI Foundry 與 NVIDIA NeMo 軟件結(jié)合使用,企業(yè)還將能夠?yàn)閷S?AI 代理創(chuàng)建自定義的 DeepSeek-R1 NIM 微服務(wù)。
作者丨姬曉婷編輯丨張心怡美編丨馬利亞監(jiān)制丨連曉東