「労働者が自分の仕事をうまくやりたいなら、まず自分の道具を研ぎ澄まさなければなりません。」 - 孔子、「論語。陸霊公」
表紙 > プログラミング > Ollama を使用した Node.js API を使用してローカルで独自の LLM を実行および作成する

Ollama を使用した Node.js API を使用してローカルで独自の LLM を実行および作成する

2024 年 8 月 14 日に公開
ブラウズ:994

Running and Creating Your Own LLMs Locally with Node.js API using Ollama

このガイドでは、ローカル マシンで大規模言語モデル (LLM) を実行し、独自の LLM を作成する方法を学習します。 Node.js の ollama-js ライブラリを使用してカスタム モデルの API を作成する方法についても説明します。

ステップ 1: Ollama のインストール

Ollama は、そのシンプルさと GPU を多用しないマシンとの互換性により、LLM をローカルで実行するのに理想的な選択肢です。まずは公式 Web サイトから Ollama をインストールします:

オラマ公式サイト

ステップ 2: 希望する LLM モデルの選択

Ollama をインストールすると、利用可能なさまざまな LLM モデルから選択できます。利用可能なモデルのリストは、GitHub リポジトリで見つけることができます:

Ollama GitHub リポジトリ

ステップ 3: モデルをローカルで実行する

モデルをローカルで実行するには、ターミナルで次のコマンドを使用します。 Ollama がモデルをローカルにダウンロードして保存するため、最初の実行には時間がかかる場合があることに注意してください。モデルはローカルにアクセスされるため、後続の実行は高速になります。

ollama run {model_name}

ステップ 4: 独自の LLM を作成する

カスタム LLM を作成するには、モデル ファイルを作成する必要があります。以下はモデルを定義する方法の例です:

FROM 

# Define your parameters here
PARAMETER temperature 0.5

SYSTEM """
You are an English teaching assistant named Mr. Kamal Kishor. You help with note-making, solving English grammar assignments, and reading comprehensions.
"""

これをモデルファイルとして保存します。このファイルからモデルを作成するには、ターミナルで次のコマンドを実行します:

ollama create mrkamalkishor -f ./modelfile

モデルを作成した後、次を使用してローカルでモデルを操作できます:

ollama run mrkamalkishor

ステップ 5: カスタム モデル用の Node.js API を作成する

このステップでは、ollama-js ライブラリを使用して Node.js で API を作成します。

  1. Ollama ライブラリを Node.js プロジェクトにインストールします。
npm install ollama
  1. API エンドポイントを作成します:
import express from 'express';
import ollama from 'ollama';

const app = express();
const router = express.Router();

app.use(express.json());

router.post('/ask-query', async (req, res) => {
  const { query } = req.body;

  try {
    const response = await ollama.chat({
      model: 'mrkamalkishor',
      messages: [{ role: 'user', content: query }],
    });

    res.json({ reply: response.message.content });
  } catch (error) {
    res.status(500).send({ error: 'Error interacting with the model' });
  }
});

app.use('/api', router);

const PORT = process.env.PORT || 3000;
app.listen(PORT, () => {
  console.log(`Server is running on port ${PORT}`);
});

このコードは、カスタム モデルと対話するためのエンドポイントを備えた Express.js サーバーをセットアップします。ユーザーのクエリを含む JSON 本文を使用して /ask-query に対して POST リクエストが行われると、サーバーはモデルの出力で応答します。

まとめ

これらの手順に従うことで、Ollama をインストールし、LLM をローカルで選択して実行し、カスタム LLM を作成し、それと対話するための Node.js API をセットアップできます。このセットアップにより、GPU を大量に使用するハードウェアを必要とせずに、ローカル マシン上で強力な言語モデルを活用できるようになります。

リリースステートメント この記事は次の場所に転載されています: https://dev.to/koolkamalkishor/running-and-creating-your-own-llms-locally-with-nodejs-api-using-ollama-97f?1 侵害がある場合は、 Study_golang@163 .comdelete に連絡してください
最新のチュートリアル もっと>

免責事項: 提供されるすべてのリソースの一部はインターネットからのものです。お客様の著作権またはその他の権利および利益の侵害がある場合は、詳細な理由を説明し、著作権または権利および利益の証拠を提出して、電子メール [email protected] に送信してください。 できるだけ早く対応させていただきます。

Copyright© 2022 湘ICP备2022001581号-3