Biu懂AI:建構邊緣雲端運算

關鍵字 :SynapticsollamaEdge AI大型語言模型(LLM)

        Bui~ 書接上回,我們在本地電腦上成功部署了 AI 大模型。這一篇將以 Synaptics Astra 平台的 SL1680 為例,帶大家了解如何讓邊緣設備接入大模型,實現更廣泛的 AI 應用。首先,我們需要理解邊緣雲計算的架構。簡單來說,就是在靠近設備的地方部署一個大模型推理伺服器,透過有線或無線網路將設備端的數據傳輸到伺服器進行推理處理,然後將結果返回給設備端。這種方式可以充分利用算力資源,避免每個設備都需要額外添加推理晶片,從而節省成本;同時還能擴展邊緣設備的 AI 推理能力,增加業務場景;此外,數據無需上傳到遠程伺服器,能夠更好地保護數據隱私。

        接下來,我們將透過Ollama的網路API,在區域網路內實現其他設備調用並運行大模型的功能。以下是具體步驟:

第一步:設定環境變數 首先需要設定Ollama的主機位址。預設情況下,Ollama僅允許在本地執行。為了讓區域網路內的其他設備能夠存取伺服器,需要設定環境變數。IP位址為伺服器的IP,埠號可以自訂,這裡使用預設的11434埠號。

export OLLAMA_HOST=10.86.130.13:11434

第二步:啟動服務 在伺服器上執行以下指令啟動Ollama服務

ollama 服務

第三步:測試連通性 在其他設備上,透過訪問伺服器地址加上API路徑,可以測試連通性。例如,獲取伺服器的Ollama版本號。

電腦:

設備端(Astra Linux):

 curl http://10.86.130.13:11434/api/version

第四步:撰寫設備端的程式,透過 API 去調用伺服器進行推理,API 有很多種調用方式和格式,可以參考官方說明文件https://github.com/ollama/ollama/blob/main/docs/api.md 。小編也上傳了基於 Synaptics Astra 平台的應用程式代碼,供大家參考。

使用的 API 是以 JSON 格式,處理網路庫時還需要使用 JSON 的解析庫。

設定輸入參數可以指定模型類型、API路徑、問題輸入以及圖片輸入(圖片輸入需要模型支援多模態功能)。

 

示例1:提問 透過API向大模型提問,獲取答案

        

示例2:辨識本地圖片內容 讓大模型辨識本地圖片的內容,並返回結果。

 

        以上是基於Astra平台使用邊緣伺服器的一個簡單示例。當然,功能遠不止於此。Astra平台自帶一定的運算能力,可以在本地過濾掉大部分無關資訊,僅將關鍵資訊傳輸到伺服器進行處理。這種方式不僅降低了回應時間,還提高了識別的準確性。更多功能等待大家去探索和開發!

      

        以上是本期部落格文章的全部內容,若有疑問請在文章下方留言,我會盡快回覆 (o´ω`o)و。感謝大家的瀏覽,我們下期再見!

 

簡單是長期努力的結果,而不是起點

                                                    —— 不是我說的

 

 

常見問題 1:Ollama 支援哪些模型?

A1:Ollama 支援多種 AI 大模型,具體可以參考其官方文件,或上一篇介紹的部落格文章。

 

FAQ 2:Astra 平台的運算能力如何?

A2:Astra 平台目前使用 SL1680 約 8TOPS 算力,SL1640 約 1.6TOPS 算力

 

常見問題 3:API 呼叫是否複雜?

A3:Ollama 的 API 設計相對簡單,支援多種調用方式,適合不同的開發需求。

 

常見問題 4:如何獲取更多範例程式碼?

A4: 可以造訪Ollama的官方文件或部落格文章下方提供的程式碼資源,獲取更多範例和指導。

 

FAQ 5:邊緣雲端運算的伺服器一定要是電腦嗎?

A5: 這裡的伺服器不一定是PC,可以是大型伺服器機櫃,也可以是高算力的邊緣盒子。

技術文檔

類型標題檔案
軟件参考代码

★博文內容均由個人提供,與平台無關,如有違法或侵權,請與網站管理員聯繫。

★文明上網,請理性發言。內容一周內被舉報5次,發文人進小黑屋喔~

評論