• <blockquote id="fficu"><optgroup id="fficu"></optgroup></blockquote>

    <table id="fficu"></table>

    <sup id="fficu"></sup>
    <output id="fficu"></output>
    1. ABB
      關(guān)注中國自動(dòng)化產(chǎn)業(yè)發(fā)展的先行者!
      CAIAC 2025
      2025工業(yè)安全大會(huì )
      OICT公益講堂
      當前位置:首頁(yè) >> 資訊 >> 企業(yè)資訊

      資訊頻道

      在InHand AI邊緣計算機上體驗 DeepSeek R1 蒸餾模型
      • 點(diǎn)擊數:315     發(fā)布時(shí)間:2025-03-16 11:10:20
      • 分享到:
      春節期間,國產(chǎn)大模型 DeepSeek R1 憑借開(kāi)源特性和高效推理能力成為 AI 領(lǐng)域的焦點(diǎn)。其知識蒸餾技術(shù)能將復雜模型的推理能力遷移至輕量化版本,使其在多項基準測試中表現優(yōu)異,甚至超越部分國際頂尖模型。開(kāi)源策略+輕量設計,不僅降低了 AI 部署門(mén)檻,更為邊緣計算場(chǎng)景帶來(lái)了全新的可能。

      春節期間,國產(chǎn)大模型 DeepSeek R1 憑借開(kāi)源特性和高效推理能力成為 AI 領(lǐng)域的焦點(diǎn)。其知識蒸餾技術(shù)能將復雜模型的推理能力遷移至輕量化版本,使其在多項基準測試中表現優(yōu)異,甚至超越部分國際頂尖模型。開(kāi)源策略+輕量設計,不僅降低了 AI 部署門(mén)檻,更為邊緣計算場(chǎng)景帶來(lái)了全新的可能。

      17420959441.png

      春節后首個(gè)工作日,InHand AI 技術(shù)團隊成功在 EC5000系列邊緣計算機上完成 DeepSeek R1 蒸餾模型的本地部署。這一成果驗證了輕量級邊緣設備(如 EC5000)在 AI 推理任務(wù)中的強大潛力。相較于傳統云端部署,邊緣端計算無(wú)需依賴(lài)高算力服務(wù)器,可在低功耗環(huán)境下實(shí)現實(shí)時(shí)推理,為工業(yè)質(zhì)檢、智慧交通、遠程醫療等領(lǐng)域提供更靈活、安全、高效的AI 解決方案。


      通過(guò)幾個(gè)簡(jiǎn)單的步驟,就可以實(shí)現在EC5000系列邊緣計算機上運行DeepSeek R1 蒸餾模型。

      步驟1:安裝Nvidia的jetson containers工具包

      通過(guò)以下兩條命令完成jetson containers工具包的下載和安裝:

      git clone https://github.com/dusty-nv/jetson-containers

      bash jetson-containers/install.sh

      步驟2:安裝Nvidia Jetpack工具包

      通過(guò)以下兩條命令完成Nvidia Jetpack工具包的下載和安裝:

      sudo apt update

      sudo apt install nvidia-jetpack

      步驟3:修改Docker鏡像倉庫源為中國大陸國內源(非必須)

      在目錄 /etc/docker/ 下創(chuàng )建文件daemon.json。

      在文件daemon.json中輸入以下內容并保存(以vim編輯器為例):

      sudo vim /etc/docker/daemon.json

      {

          "registry-mirrors": [

              "https://docker.1ms.run",

              "https://docker.xuanyuan.me"

          ]

      }

      保存文件后,通過(guò)以下命令重啟Docker服務(wù),使配置文件生效

      sudo systemctl daemon-reload

      sudo systemctl restart docker

      注意:

      1.https://docker.1ms.run 和https://docker.xuanyuan.me兩個(gè)docker鏡像源地址僅保證在2025年2月5日可用,如果服務(wù)器失效,需要將地址修改為當前可用的服務(wù)器地址。

      2. 此步驟非必須,僅當默認docker倉庫地址不可用時(shí),自定義鏡像倉庫地址用于加速。中國大陸以外的用戶(hù),一般不需要執行此步驟。

      步驟4:下載并運行ollama容器

      docker run -itd --runtime nvidia --name ollama ollama/ollama

      步驟5:通過(guò)ollama 下載并運行deepseek r1的蒸餾模型

      參考連接:https://ollama.com/library/deepseek-r1:1.5b

      選擇要運行的Deepseek R1 蒸餾模型版本,然后通過(guò)ollama 命令行自動(dòng)安裝。以DeepSeek-R1-Distill-Qwen-1.5B模型為例,執行下面的命令:

      docker exec -it ollama ollama run deepseek-r1:1.5b

      其中,參數deepseek-r1:1.5b為模型名,可替換為其它想要運行的模型名稱(chēng)(參考https://ollama.com/search)。命令執行后,系統將自動(dòng)下載并安裝參數指定的模型。

      17420959741.png

      下表列出了EC5000系列邊緣計算機支持的DeepSeek R1 蒸餾模型情況:

      17420959931.png


      驗證模型

      執行命令docker exec -it ollama ollama run deepseek-r1:1.5b(deepseek-r1:1.5b 需要替換為用戶(hù)自己使用的模型名稱(chēng))后,便可以和模型交互。

      17420960091.png


      其它

      查看EC5000系列邊緣計算機的CPU/GPU/內存利用率

      設備支持通過(guò)jtop命令實(shí)時(shí)查看本設備硬件狀態(tài),執行sudo jtop 后,將會(huì )看到下圖所示的輸出:

      17420960311.png

      注意:jtop命令必須通過(guò)root權限執行。


      說(shuō)明

      1. 除了示例中的deepseek R1 蒸餾模型外,EC5000系列邊緣計算機也支持其它開(kāi)源的LLM,如llama3等。

      2. 通過(guò)ollama在EC5000系列邊緣計算機中運行LLM方法并不是唯一的。

      此次在EC5000系列邊緣計算機上成功部署DeepSeek R1蒸餾模型,不僅驗證了邊緣硬件與前沿AI技術(shù)的深度融合能力,更開(kāi)啟了“輕量化+高性能”的邊緣AI新范式。

      未來(lái),隨著(zhù)蒸餾技術(shù)的持續優(yōu)化,企業(yè)可基于此類(lèi)方案快速構建私有化AI服務(wù),降低算力成本的同時(shí)保障數據安全。InHand 將持續推動(dòng)邊緣智能生態(tài)建設,助力千行百業(yè)邁向“端側智慧化”的新階段。


      熱點(diǎn)新聞

      推薦產(chǎn)品

      x
      • 在線(xiàn)反饋
      1.我有以下需求:



      2.詳細的需求:
      姓名:
      單位:
      電話(huà):
      郵件:
      欧美精品欧美人与动人物牲交_日韩乱码人妻无码中文_国产私拍大尺度在线视频_亚洲男人综合久久综合天

    2. <blockquote id="fficu"><optgroup id="fficu"></optgroup></blockquote>

      <table id="fficu"></table>

      <sup id="fficu"></sup>
      <output id="fficu"></output>