瑞芯微 RK182X 重磅更新|RKNN3 SDK V1.0.0上線,多模態模型全覆蓋!
2026-03-09
瑞芯微 RK1820/RK1828 AI 協處理器 RKNN3 SDK V1.0.0 正式版發布, 完美適配 RK3588/RK3576+RK1820/RK1828 硬件組合,為端側 AI 模型部署提供全棧式軟件支撐,在性能、模型適配、功能、精度上全方位升級,兼具高性能、高適配、高能耗比優勢。
本次 SDK 覆蓋 PC 端開發套件、板端運行 API、模型轉換部署示例,支持 Android/Linux 系統,PCIe/USB 高速接口實現低延遲數據交互;核心功能優化亮點突出:
1. 推理效率升級:支持數據傳輸與推理并行,優化核心算子,多核多模型同時推理適配高并發;
2. 大模型適配更強:支持 mRoPE、Function Call,兼容主流大模型特性;
3. 開發部署更便捷:支持連板精度分析,提供 Python API 輕量化工具包,協處理器可自定義模型后處理,rkllm3 server 新增 embedding 模型支持。
核心性能躍升!LLM 解碼效率提升超 15%,3B 破百且最高支持 8B
本次 SDK 正式版的核心突破之一,便是LLM Decode 性能整體提升超過 15%,針對 0.5B-8B 不同參數量級 LLM 模型完成深度適配優化,RK1820/RK1828 根據算力特性做差異化適配,可滿足不同端側場景的 LLM 推理需求。
測試數據顯示,RK182X 在輕量型 LLM 模型上的性能表現尤為亮眼,3B 量級模型實現了 Decode TPS 破百的關鍵突破,Qwen2.5-3B 模型 Decode TPS 達 102.01,為端側實時大模型交互提供了高效支撐;極致輕量的 Qwen2.5-0.5B 模型同樣表現出色,TTFT 僅 21.89ms、TPOT 4.63ms、Decode TPS 215.86;中大型 LLM 模型方面,Qwen3-8B 在 RK1828 上實現穩定推理,Decode TPS 達 61.11,可充分滿足端側中大型 LLM 的部署需求。
*不同參數量 LLM 模型在 RK182X 上的核心性能數據如下:

VLM 模型性能:多模態推理高效穩定
在相同標準測試環境下,RK182X 對多款主流 VLM 及全模態模型完成深度推理優化,RK1820/RK1828 根據算力特性實現差異化適配,不同視覺分辨率下均保持穩定的視覺推理耗時,且 LLM 解碼端性能高效,其中完美支持 Qwen3-VL 系列模型,Qwen3-VL-4B 的 LLM Decode TPS 接近 90TPS,RK1828 更實現中大型 VLM 模型全協處理器端推理,多模態交互性能表現優異。
*不同 VLM 模型在 RK182X 上的核心性能數據如下:

RK1828 完美適配 Qwen2.5-Omni-3B 全模態模型,實現音視覺 + 語言全鏈路高效推理,解碼 TPS 達 102.63 成功破百;全協處理器端獨立完成推理,392*392 視覺分辨率下推理耗時穩定,音頻推理僅 98.91ms,多模態處理效率優異。

RK182X 針對經典分類、檢測類 CNN 模型完成單核及多 batch 多核推理深度優化,依托多核多模型同時推理的特性充分釋放算力,DINOv3 的 ViT 性能表現尤為突出;在保持單核算力穩定的基礎上,多batch 多核模式下幀率實現數倍提升,高吞吐特性可高效適配智能監控、工業檢測等高并發計算機視覺應用場景,性能與能耗比兼具。
* 不同 CNN 模型在RK182X 上的核心性能數據如下:

精度近乎無損!量化優化做到 “性能升級,精度不丟”
RKNN3 SDK V1.0.0 針對不同類型模型采用差異化量化策略,其中 LLM/VLM 模型采用 W4A16 G32 量化策略,CNN 模型采用 W8A8 量化策略。在大幅提升推理性能的同時,量化后模型精度與原始 float32 版本基本持平,部分模型精度實現反超,有效控制精度損失,真正做到性能升級、效果不減。

全鏈路模型生態布局 夯實 AIoT2.0感知 - 決策 - 執行能力
RKNN3 SDK V1.0.0 緊扣 AIoT2.0感知 - 決策 - 執行的核心架構,完成超 30 款主流 AI 模型全維度適配,深度聯動上下游核心合作伙伴,打通硬件算力、軟件棧與算法模型的生態壁壘,模型支持完整、適配效果好,充分釋放 RK182X 協處理器的算力價值。
在感知層:多模態數據采集能力拉滿,頭部伙伴模型深度適配。打造端側多模態智能數據入口,視覺端全面適配 Mobilenet、YOLO 系列等經典 CNN 視覺模型及深度估計模型;音頻端深度聯動科大訊飛、思必馳、大象聲科等感知層頭部伙伴,完成 ASR、TTS 等核心語音模型適配,多模態感知能力高效落地。
在決策層:全規格模型生態閉環,頭部廠商核心模型逐一適配。適配 Qwen3-VL、GLM Edge 等主流開源大模型,全兼容 0.5B-8B全規格 LLM 模型,同時深度適配千問 Qwen2.5-Omni-3B、智譜 MiniCPM、階躍星辰 Step-GUI-Edge 等頭部廠商核心模型,全模態智能決策能力端側高效運行。
在執行層:軟硬協同賦能場景落地,適配全鏈路模型能力轉化。依托 RK3588/RK3576+RK182X 軟硬件組合,支持協處理器自定義模型后處理,可靈活適配各類模型決策結果執行邏輯;兼容 Android/Linux 系統,讓全品類 AI 能力無縫落地到智能硬件、工業檢測等多元場景,實現從算法到應用的完整轉化。

此外,SDK 全面兼容 Hugging Face、ModelScope、GitHub 等開源平臺,用戶可直接從Github獲取預先轉好的 RKNN 模型:
• Model Zoo地址:https://github.com/airockchip/rknn3-model-zoo;
• 工具提取地址:https://github.com/airockchip/rknn3-toolkit;
RK1820/RK1828 RKNN3 SDK V1.0.0 正式版的發布,是瑞芯微在端側 AI 協處理器領域的重要突破,從性能躍升、模型擴展到精度優化,每一項更新均緊扣開發者實際部署需求,讓 RK182X 的高算力、高能耗比優勢充分釋放。未來,瑞芯微將持續迭代優化 RKNN3 SDK,不斷擴展模型支持范圍、提升算力表現,打造更高效的端側 AI 開發工具鏈,助力更多 AI 創新應用在端側落地。
瑞芯微市場部郵箱:rkmarketing@rock-chips.com,歡迎各來自五湖四海的AI 伙伴對接交流,攜手探索端側 AI 多場景落地新可能。
上一篇: 德國嵌入式展 | 瑞芯微亮相embedded world 2026,端側AI引領工業智能化 下一篇:瑞芯微首屆AI軟件生態大會:AI重塑千行百業,務實探索合作路徑,共筑端側智能新生態

閩公網安備 35010202001061號