在本指南中,您將學習如何在本機電腦上執行大型語言模型 (LLM) 並建立您自己的 LLM。我們還將介紹如何使用 Node.js 中的 ollama-js 函式庫為您的自訂模型建立 API。
Ollama 是本地運行 LLM 的理想選擇,因為它簡單且與非 GPU 密集型機器相容。首先從官網安裝Ollama:
Ollama 官方網站
安裝Ollama後,您可以從多種可用的LLM模型中進行選擇。您可以在其 GitHub 儲存庫上找到可用模型的清單:
Ollama GitHub 儲存庫
要在本地運行模型,請在終端機中使用以下命令。請注意,第一次運行可能需要更長的時間,因為 Ollama 在本地下載並儲存模型。由於模型是在本地存取的,後續運行會更快。
ollama run {model_name}
要建立自訂 LLM,您需要建立一個模型檔案。以下是如何定義模型的範例:
FROM# Define your parameters here PARAMETER temperature 0.5 SYSTEM """ You are an English teaching assistant named Mr. Kamal Kishor. You help with note-making, solving English grammar assignments, and reading comprehensions. """
將其儲存為模型檔案。若要從此檔案建立模型,請在終端機中執行以下命令:
ollama create mrkamalkishor -f ./modelfile
建立模型後,您可以使用以下命令在本地與其互動:
ollama run mrkamalkishor
在這一步驟中,我們將使用 ollama-js 函式庫在 Node.js 中建立 API。
npm install ollama
import express from 'express'; import ollama from 'ollama'; const app = express(); const router = express.Router(); app.use(express.json()); router.post('/ask-query', async (req, res) => { const { query } = req.body; try { const response = await ollama.chat({ model: 'mrkamalkishor', messages: [{ role: 'user', content: query }], }); res.json({ reply: response.message.content }); } catch (error) { res.status(500).send({ error: 'Error interacting with the model' }); } }); app.use('/api', router); const PORT = process.env.PORT || 3000; app.listen(PORT, () => { console.log(`Server is running on port ${PORT}`); });
此程式碼設定了一個帶有端點的 Express.js 伺服器,以與您的自訂模型進行互動。當使用包含使用者查詢的 JSON 正文向 /ask-query 發出 POST 請求時,伺服器會使用模型的輸出進行回應。
透過執行以下步驟,您可以安裝 Ollama、在本機選擇並執行 LLM、建立自訂 LLM,並設定 Node.js API 與之互動。此設定可讓您在本機上利用強大的語言模型,而無需 GPU 密集型硬體。
免責聲明: 提供的所有資源部分來自互聯網,如果有侵犯您的版權或其他權益,請說明詳細緣由並提供版權或權益證明然後發到郵箱:[email protected] 我們會在第一時間內為您處理。
Copyright© 2022 湘ICP备2022001581号-3