"일꾼이 일을 잘하려면 먼저 도구를 갈고 닦아야 한다." - 공자, 『논어』.
첫 장 > 프로그램 작성 > Ollama를 사용하여 Node.js API를 사용하여 로컬에서 자체 LLM 실행 및 생성

Ollama를 사용하여 Node.js API를 사용하여 로컬에서 자체 LLM 실행 및 생성

2024-08-14에 게시됨
검색:225

Running and Creating Your Own LLMs Locally with Node.js API using Ollama

이 가이드에서는 로컬 컴퓨터에서 LLM(대형 언어 모델)을 실행하고 고유한 LLM을 만드는 방법을 알아봅니다. 또한 Node.js의 ollama-js 라이브러리를 사용하여 사용자 정의 모델용 API를 생성하는 방법도 다룰 것입니다.

1단계: Ollama 설치

Ollama는 단순성과 GPU 집약적이지 않은 머신과의 호환성으로 인해 로컬에서 LLM을 실행하는 데 이상적인 선택입니다. 공식 웹사이트에서 Ollama를 설치하여 시작하세요:

올라마 공식 사이트

2단계: 선호하는 LLM 모델 선택

Ollama를 설치한 후 사용 가능한 다양한 LLM 모델 중에서 선택할 수 있습니다. GitHub 저장소에서 사용 가능한 모델 목록을 찾을 수 있습니다:

Ollama GitHub 저장소

3단계: 로컬에서 모델 실행

모델을 로컬에서 실행하려면 터미널에서 다음 명령을 사용하세요. Ollama가 모델을 로컬로 다운로드하고 저장하므로 첫 번째 실행은 더 오래 걸릴 수 있습니다. 모델이 로컬에서 액세스되므로 후속 실행이 더 빨라집니다.

ollama run {model_name}

4단계: 나만의 LLM 만들기

맞춤형 LLM을 만들려면 모델 파일을 만들어야 합니다. 다음은 모델을 정의하는 방법의 예입니다.

FROM 

# Define your parameters here
PARAMETER temperature 0.5

SYSTEM """
You are an English teaching assistant named Mr. Kamal Kishor. You help with note-making, solving English grammar assignments, and reading comprehensions.
"""

모델 파일로 저장하세요. 이 파일에서 모델을 생성하려면 터미널에서 다음 명령을 실행하세요.

ollama create mrkamalkishor -f ./modelfile

모델을 생성한 후 다음을 사용하여 로컬에서 상호 작용할 수 있습니다.

ollama run mrkamalkishor

5단계: 사용자 정의 모델을 위한 Node.js API 생성

이 단계에서는 ollama-js 라이브러리를 사용하여 Node.js에서 API를 생성합니다.

  1. Node.js 프로젝트에 Ollama 라이브러리를 설치합니다.
npm install ollama
  1. API 엔드포인트를 생성합니다.
import express from 'express';
import ollama from 'ollama';

const app = express();
const router = express.Router();

app.use(express.json());

router.post('/ask-query', async (req, res) => {
  const { query } = req.body;

  try {
    const response = await ollama.chat({
      model: 'mrkamalkishor',
      messages: [{ role: 'user', content: query }],
    });

    res.json({ reply: response.message.content });
  } catch (error) {
    res.status(500).send({ error: 'Error interacting with the model' });
  }
});

app.use('/api', router);

const PORT = process.env.PORT || 3000;
app.listen(PORT, () => {
  console.log(`Server is running on port ${PORT}`);
});

이 코드는 사용자 정의 모델과 상호 작용할 엔드포인트가 있는 Express.js 서버를 설정합니다. 사용자 쿼리가 포함된 JSON 본문을 사용하여 /ask-query에 대한 POST 요청이 이루어지면 서버는 모델의 출력으로 응답합니다.

요약

이 단계에 따라 Ollama를 설치하고, 로컬에서 LLM을 선택 및 실행하고, 사용자 정의 LLM을 생성하고, 상호 작용할 Node.js API를 설정할 수 있습니다. 이 설정을 사용하면 GPU 집약적인 하드웨어 없이도 로컬 컴퓨터에서 강력한 언어 모델을 활용할 수 있습니다.

릴리스 선언문 이 기사는 https://dev.to/koolkamalkishor/running-and-creating-your-own-llms-locally-with-nodejs-api-using-ollama-97f?1에서 복제됩니다. 침해가 있는 경우, 문의 Study_golang@163 .comdelete
최신 튜토리얼 더>

부인 성명: 제공된 모든 리소스는 부분적으로 인터넷에서 가져온 것입니다. 귀하의 저작권이나 기타 권리 및 이익이 침해된 경우 자세한 이유를 설명하고 저작권 또는 권리 및 이익에 대한 증거를 제공한 후 이메일([email protected])로 보내주십시오. 최대한 빨리 처리해 드리겠습니다.

Copyright© 2022 湘ICP备2022001581号-3