Dans ce guide, vous apprendrez à exécuter des modèles linguistiques étendus (LLM) sur votre ordinateur local et à créer votre propre LLM. Nous verrons également comment créer une API pour votre modèle personnalisé à l'aide de la bibliothèque ollama-js dans Node.js.
Ollama est un choix idéal pour exécuter des LLM localement en raison de sa simplicité et de sa compatibilité avec les machines non gourmandes en GPU. Commencez par installer Ollama depuis le site officiel :
Site officiel d'Ollama
Après avoir installé Ollama, vous pouvez choisir parmi une variété de modèles LLM disponibles. Vous pouvez retrouver la liste des modèles disponibles sur leur dépôt GitHub :
Référentiel Ollama GitHub
Pour exécuter le modèle localement, utilisez la commande suivante dans votre terminal. Notez que la première exécution peut prendre plus de temps car Ollama télécharge et stocke le modèle localement. Les exécutions suivantes seront plus rapides puisque le modèle est accessible localement.
ollama run {model_name}
Pour créer votre LLM personnalisé, vous devez créer un fichier modèle. Vous trouverez ci-dessous un exemple de définition de votre modèle :
FROM# Define your parameters here PARAMETER temperature 0.5 SYSTEM """ You are an English teaching assistant named Mr. Kamal Kishor. You help with note-making, solving English grammar assignments, and reading comprehensions. """
Enregistrez-le en tant que fichier modèle. Pour créer le modèle à partir de ce fichier, exécutez la commande suivante dans votre terminal :
ollama create mrkamalkishor -f ./modelfile
Après avoir créé le modèle, vous pouvez interagir avec lui localement en utilisant :
ollama run mrkamalkishor
Pour cette étape, nous utiliserons la bibliothèque ollama-js pour créer une API dans Node.js.
npm install ollama
import express from 'express'; import ollama from 'ollama'; const app = express(); const router = express.Router(); app.use(express.json()); router.post('/ask-query', async (req, res) => { const { query } = req.body; try { const response = await ollama.chat({ model: 'mrkamalkishor', messages: [{ role: 'user', content: query }], }); res.json({ reply: response.message.content }); } catch (error) { res.status(500).send({ error: 'Error interacting with the model' }); } }); app.use('/api', router); const PORT = process.env.PORT || 3000; app.listen(PORT, () => { console.log(`Server is running on port ${PORT}`); });
Ce code configure un serveur Express.js avec un point de terminaison pour interagir avec votre modèle personnalisé. Lorsqu'une requête POST est adressée à /ask-query avec un corps JSON contenant la requête de l'utilisateur, le serveur répond avec la sortie du modèle.
En suivant ces étapes, vous pouvez installer Ollama, choisir et exécuter des LLM localement, créer votre LLM personnalisé et configurer une API Node.js pour interagir avec lui. Cette configuration vous permet d'exploiter des modèles de langage puissants sur votre ordinateur local sans nécessiter de matériel gourmand en GPU.
Clause de non-responsabilité: Toutes les ressources fournies proviennent en partie d'Internet. En cas de violation de vos droits d'auteur ou d'autres droits et intérêts, veuillez expliquer les raisons détaillées et fournir une preuve du droit d'auteur ou des droits et intérêts, puis l'envoyer à l'adresse e-mail : [email protected]. Nous nous en occuperons pour vous dans les plus brefs délais.
Copyright© 2022 湘ICP备2022001581号-3