• 正文
    • 1、移植過程
    • 2、在FCU3001平臺上部署其他大模型
    • 3、交互方式
    • 4、總結(jié)
  • 相關(guān)推薦
申請入駐 產(chǎn)業(yè)圖譜

從DeepSeek到Qwen,AI大模型的移植與交互實戰(zhàn)指南

03/30 10:55
869
加入交流群
掃碼加入
獲取工程師必備禮包
參與熱點資訊討論

在不久前發(fā)布的《技術(shù)實戰(zhàn) | OK3588-C開發(fā)板上部署DeepSeek-R1大模型的完整指南一文中,小編為大家介紹了DeepSeek-R1在飛凌嵌入式OK3588-C開發(fā)板上的移植部署、效果展示以及性能評測,本篇文章不僅將繼續(xù)為大家?guī)黻P(guān)于DeepSeek-R1的干貨知識,還會深入探討多種平臺的移植方式,并介紹更為豐富的交互方式,幫助大家更好地應用大語言模型。

1、移植過程

1.1 使用RKLLM-Toolkit部署至NPU

RKLLM-Toolkit是瑞芯微為大語言模型(LLM)專門開發(fā)的轉(zhuǎn)換與量化工具,可以將訓練好的模型轉(zhuǎn)化為適應瑞芯微平臺的RKLLM格式。該工具針對大語言模型進行了優(yōu)化,使其能高效地在瑞芯微的NPU(神經(jīng)網(wǎng)絡處理單元)上運行。上一篇文章中提到的部署方式即為通過RKLLM-Toolkit進行的NPU部署。具體步驟如下:

(1) 下載RKLLM

SDK

首先從GitHub下載RKLLM SDK包,并上傳至虛擬機。SDK下載鏈接:[GitHub - airockchip/rknn-llm](https://github.com/airrockchip/rknn-llm)。

(2) Python版本檢查:

確保安裝的SDK版本與目標環(huán)境兼容(目前只支持python3.8或python3.10)。

(3) 準備虛擬機環(huán)境:

在虛擬機中安裝rkllm-toolkit輪子,輪子包路徑(rknn-llm-mainrkllm-toolkit)。

pip
install rkllm_toolkit-1.1.4-cp38-cp38-linux_x86_64.whl

(4) 下載模型:

選擇需要部署的DeepSeek-R1模型。

git
clone https://huggingface.co/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B

(5) 使用示例代碼進行模型轉(zhuǎn)換:

在rknn-llm-mainexamplesDeepSeek-R1-Distill-Qwen-1.5B_Demo路徑下,使用RKLLM-Toolkit提供的示例代碼進行模型格式轉(zhuǎn)換。

python
generate_data_quant.py -m /path/to/DeepSeek-R1-Distill-Qwen-1.5B

python
export_rkllm.py

(6) 編譯可執(zhí)行程序:

通過運行deploy下build-linux.sh腳本(將交叉編譯器路徑替換為實際路徑)直接編譯示例代碼。這將在目錄中生成一個文件夾,其中包含可執(zhí)行文件和文件夾。

進行交叉編譯生成可執(zhí)行文件。

./build-linux.sh

(7) 部署模型:

將已編譯好的?_W8A8_RK3588.rkllm?文件和librkllmrt.so動態(tài)庫文件(路徑為:rknn-llm-mainrkllm-runtimeLinuxlibrkllm_apiaarch64 ),一同拷貝到編譯后生成的?build_linux_aarch64_Release?文件夾內(nèi),然后將此文件夾上傳到目標板端。

接著,為目標板端build_linux_aarch64_Release文件夾中的 llm_demo 文件添加執(zhí)行權(quán)限并執(zhí)行它。

chmod
+x llm_demo

./llm_demo
_W8A8_RK3588.rkllm 10000 10000

演示視頻1

優(yōu)勢與不足:

- 優(yōu)勢:部署至NPU后,大語言模型能高效運行,性能表現(xiàn)優(yōu)異,且對CPU資源的占用較少。

- 不足:相較于其他方法,部署過程稍顯復雜,需要較強的技術(shù)背景和經(jīng)驗。

1.2 使用Ollama一鍵部署至CPU

Ollama是一個開源的本地化大型語言模型(LLM)運行框架,支持在本地環(huán)境下運行各種開源LLM模型(如LLaMA、Falcon等),并提供跨平臺支持(macOS、Windows、Linux)。

通過Ollama,用戶可以無需依賴云服務,輕松部署和運行各種大語言模型。盡管Ollama支持快速部署,但由于DeepSeek-R1尚未在RK3588芯片上進行優(yōu)化,因此只能在CPU上運行,可能會占用較高的CPU資源。具體步驟如下:

(1) 下載Ollama:

根據(jù)需要下載并安裝Ollama,

curl
-fsSL https://ollama.com/install.sh | sh

若下載速度較慢,可參考以下鏡像方式進行加速。

curl
-fsSL https://ollama.com/install.sh -o ollama_install.sh

 

chmod
+x ollama_install.sh

 

sed
-i 's|https://ollama.com/download/|https://github.com/ollama/

ollama/releases/download/v0.5.7/|'
ollama_install.sh

 

sh
ollama_install.sh

(2) 查看Ollama結(jié)果:

確認Ollama正確安裝,并運行相關(guān)命令查看部署結(jié)果。

Ollama
--help

(3) 下載DeepSeek-R1:從Ollama官網(wǎng)渠道獲取下載DeepSeek-R1模型的指令。

(4) 運行DeepSeek-R1:通過Ollama命令行接口啟動DeepSeek-R1模型。

ollama
run deepseek-r1:1.5b

演示視頻2

優(yōu)勢與不足:

- 優(yōu)勢:部署過程簡便快捷,適合快速測試和應用。

- 不足:因模型未針對RK3588優(yōu)化,在CPU上運行時可能導致較高的CPU占用,影響性能。

2、在FCU3001平臺上部署其他大模型

除了DeepSeek-R1,Ollama還支持部署其他大語言模型,如通義千問(Qwen)等,這展示了Ollama的廣泛適用性。接下來,我們以通義千問為例,在飛凌嵌入式推出的一款搭載英偉達處理器AI邊緣計算終端 FCU3001(基于NVIDIA Jetson Xavier NX處理器)上部署大語言模型:

FCU3001通過其強大的計算能力和優(yōu)化的軟件支持,能夠高效地運行Ollama所支持的大語言模型,如通義千問。在部署過程中,我們可以充分利用Ollama提供的靈活性和易用性,確保大語言模型在FCU3001上穩(wěn)定、流暢地運行。步驟如下:

(1) 安裝CUDA環(huán)境:可以使用NVIDIA Jetson Xavier NX的GPU來運行模型。Ollama的安裝方法可以參考上述。

sudo
apt? update

sudo
apt upgrade

sudo
apt install?nvidia-jetpack -y

(2) 進入Ollama官網(wǎng):瀏覽Ollama支持的其他模型。

(3) 選擇版本:從Ollama支持的模型列表中選擇千問Qwen 1.8B版本。

(4) 運行模型:在Ollama環(huán)境下,使用命令ollama run qwen:1.8b啟動通義千問模型。

ollama run
qwen:1.8b

演示視頻3

3、交互方式

在前述的部署方式中,交互方式主要基于串口調(diào)試,缺少圖形界面,無法展示圖片、表單等元素,也不能呈現(xiàn)歷史對話。為了提升用戶體驗,我們可以通過集成Chatbox
UI或Web UI等方式,提供更為豐富的交互體驗。

3.1 Chatbox UI

Chatbox是一款集成多種語言模型的AI助手工具,支持如ChatGPT、Claude等多種模型。它不僅具備本地數(shù)據(jù)存儲和多語言切換功能,還支持圖像生成、Markdown和LaTeX等格式,提供人性化的界面和團隊協(xié)作功能。Chatbox支持Windows、macOS、Linux系統(tǒng),用戶可在本地快速實現(xiàn)對大語言模型的交互。步驟如下:

(1) 下載Chatbox:從Chatbox官網(wǎng)(https://chatboxai.app/zh)下載適合的安裝包。

(2) 安裝并配置:

下載完成后是一個Chatbox-1.10.4-arm64.AppImage的文件,其實就是一個可執(zhí)行文件,添加權(quán)限即可運行,就可以配置本地ollama API下的LLM模型了。

chmod
+x Chatbox-1.10.4-arm64.AppImage

./Chatbox-1.10.4-arm64.AppImage

(3) 問答對話:用戶可以通過直觀的圖形界面與模型進行交流,體驗更為便捷、流暢的交互。

演示視頻4

3.2 Web UI

Web UI通過網(wǎng)頁或網(wǎng)絡應用提供圖形化用戶界面,使得用戶能夠輕松通過瀏覽器與大語言模型進行交互。用戶只需在瀏覽器中訪問相應的IP地址和端口號,即可進行實時提問。步驟如下:

(1) Web UI環(huán)境搭建:

配置Web UI所需的環(huán)境。Web UI建議使用python3.11版本。所以使用的Miniconda創(chuàng)建python==3.11虛擬環(huán)境。

安裝Miniconda

wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-aarch64.sh

chmod
+x Miniconda3-latest-Linux-aarch64.sh

./Miniconda3-lates

搭建Web UI環(huán)境。

conda
create --name Web-Ui python=3.11

conda
activate Web-Ui

pip
install open-webui -i https://pypi.tuna.tsinghua.edu.cn/simple

(2) 啟動Web UI:

使用open-webui serve啟動Web UI應用,服務器的IP地址和端口號為0.0.0.0:8080。

open-webui
serve

出現(xiàn)以下紅框信息證明啟動成功。

(3) 訪問Web UI:

在瀏覽器中輸入IP地址和端口號,打開Web UI界面,開始與大語言模型互動。

注冊賬號

演示視頻5

4、總結(jié)

本文全面展示了OK3588-C開發(fā)板及FCU3001邊緣AI網(wǎng)關(guān)上大語言模型的多種移植方式,并介紹了如何通過Chatbox UI和Web UI等多種交互方式提升用戶體驗。

飛凌嵌入式推出了多款嵌入式AI產(chǎn)品,如OK3588-C、OK3576-C、OK-MX9352-C、OK536-C等開發(fā)板,還有AI邊緣計算終端FCU3001,算力范圍從0.5TOPS到21TOPS不等,可以滿足不同客戶的AI開發(fā)需求。如果您對這些產(chǎn)品感興趣,歡迎隨時與我們聯(lián)系,飛凌嵌入式將為您提供詳細的技術(shù)支持與指導。

飛凌嵌入式

飛凌嵌入式

保定飛凌嵌入式技術(shù)有限公司,創(chuàng)建于2006年,是一家專注嵌入式核心控制系統(tǒng)研發(fā)、設計和生產(chǎn)的高新技術(shù)企業(yè),是國內(nèi)較早專業(yè)從事嵌入式技術(shù)的企業(yè)之一。 經(jīng)過十幾年的發(fā)展與積累,公司擁有業(yè)內(nèi)優(yōu)秀的軟硬件研發(fā)團隊,在北京及保定建立兩大研發(fā)基地,在蘇州、深圳設有華東、華南技術(shù)服務中心,并在北美、歐洲以及亞太等其他國家和地區(qū)擁有國際業(yè)務網(wǎng)絡。公司研發(fā)的智能設備核心平臺廣泛應用于物聯(lián)網(wǎng)、工控、軌道交通、醫(yī)療、電力、商業(yè)電子、智能家居、安防、機器人、環(huán)境監(jiān)測等諸多領(lǐng)域。

保定飛凌嵌入式技術(shù)有限公司,創(chuàng)建于2006年,是一家專注嵌入式核心控制系統(tǒng)研發(fā)、設計和生產(chǎn)的高新技術(shù)企業(yè),是國內(nèi)較早專業(yè)從事嵌入式技術(shù)的企業(yè)之一。 經(jīng)過十幾年的發(fā)展與積累,公司擁有業(yè)內(nèi)優(yōu)秀的軟硬件研發(fā)團隊,在北京及保定建立兩大研發(fā)基地,在蘇州、深圳設有華東、華南技術(shù)服務中心,并在北美、歐洲以及亞太等其他國家和地區(qū)擁有國際業(yè)務網(wǎng)絡。公司研發(fā)的智能設備核心平臺廣泛應用于物聯(lián)網(wǎng)、工控、軌道交通、醫(yī)療、電力、商業(yè)電子、智能家居、安防、機器人、環(huán)境監(jiān)測等諸多領(lǐng)域。收起

查看更多

相關(guān)推薦

登錄即可解鎖
  • 海量技術(shù)文章
  • 設計資源下載
  • 產(chǎn)業(yè)鏈客戶資源
  • 寫文章/發(fā)需求
立即登錄

秉承專業(yè)態(tài)度,專注智能設備核心平臺研發(fā)與制造,以技術(shù)研發(fā)創(chuàng)新為主導,以客戶實用化,產(chǎn)品化為目標,把握嵌入式行業(yè)的前沿發(fā)展需求,利用核心技術(shù)為客戶提供穩(wěn)定、可靠、功能優(yōu)異的高品質(zhì)產(chǎn)品。合作聯(lián)系:17713286011