Этот HTML-файл включает в себя контейнер для сообщений чата, поле ввода для пользовательских сообщений и кнопку отправки.

CSS

Затем создайте файл CSS с именемstyles.css, чтобы задать стиль приложения чата.

body {    font-family: Arial, sans-serif;    display: flex;    justify-content: center;    align-items: center;    height: 100vh;    background-color: #f0f0f0;    margin: 0;}#chat-container {    width: 400px;    border: 1px solid #ccc;    background-color: #fff;    border-radius: 8px;    box-shadow: 0 4px 8px rgba(0, 0, 0, 0.1);    overflow: hidden;}#chat-window {    height: 300px;    padding: 10px;    overflow-y: auto;    border-bottom: 1px solid #ccc;}#messages {    display: flex;    flex-direction: column;}.message {    padding: 8px;    margin: 4px 0;    border-radius: 4px;}.user-message {    align-self: flex-end;    background-color: #007bff;    color: #fff;}.ai-message {    align-self: flex-start;    background-color: #e0e0e0;    color: #000;}#user-input {    width: calc(100% - 60px);    padding: 10px;    border: none;    border-radius: 0;    outline: none;}#send-button {    width: 60px;    padding: 10px;    border: none;    background-color: #007bff;    color: #fff;    cursor: pointer;}

Этот CSS-файл гарантирует, что приложение чата будет выглядеть аккуратно и современно.

JavaScript

Создайте файл JavaScript с именем script.js для управления функциями внешнего интерфейса.

document.getElementById(\\'send-button\\').addEventListener(\\'click\\', sendMessage);document.getElementById(\\'user-input\\').addEventListener(\\'keypress\\', function (e) {    if (e.key === \\'Enter\\') {        sendMessage();    }});function sendMessage() {    const userInput = document.getElementById(\\'user-input\\');    const messageText = userInput.value.trim();    if (messageText === \\'\\') return;    displayMessage(messageText, \\'user-message\\');    userInput.value = \\'\\';    // Send the message to the local AI and get the response    getAIResponse(messageText).then(aiResponse => {        displayMessage(aiResponse, \\'ai-message\\');    }).catch(error => {        console.error(\\'Error:\\', error);        displayMessage(\\'Sorry, something went wrong.\\', \\'ai-message\\');    });}function displayMessage(text, className) {    const messageElement = document.createElement(\\'div\\');    messageElement.textContent = text;    messageElement.className = `message ${className}`;    document.getElementById(\\'messages\\').appendChild(messageElement);    document.getElementById(\\'messages\\').scrollTop = document.getElementById(\\'messages\\').scrollHeight;}async function getAIResponse(userMessage) {    // Example AJAX call to a local server interacting with Ollama Llama 3    const response = await fetch(\\'http://localhost:5000/ollama\\', {        method: \\'POST\\',        headers: {            \\'Content-Type\\': \\'application/json\\',        },        body: JSON.stringify({ message: userMessage }),    });    if (!response.ok) {        throw new Error(\\'Network response was not ok\\');    }    const data = await response.json();    return data.response; // Adjust this based on your server\\'s response structure}

Этот файл JavaScript добавляет прослушиватели событий к кнопке отправки и полю ввода, отправляет пользовательские сообщения на серверную часть и отображает ответы как пользователя, так и AI.

Шаг 2. Настройка серверной части

Node.js и Express

Убедитесь, что у вас установлен Node.js. Затем создайте файл server.js для серверной части.

  1. Экспресс-установка:

    npm install express body-parser
  2. Создайте файл server.js:

    const express = require(\\'express\\');const bodyParser = require(\\'body-parser\\');const app = express();const port = 5000;app.use(bodyParser.json());app.post(\\'/ollama\\', async (req, res) => {    const userMessage = req.body.message;    // Replace this with actual interaction with Ollama\\'s Llama 3    // This is a placeholder for demonstration purposes    const aiResponse = await getLlama3Response(userMessage);    res.json({ response: aiResponse });});// Placeholder function to simulate AI responseasync function getLlama3Response(userMessage) {    // Replace this with actual API call to Ollama\\'s Llama 3    return `Llama 3 says: ${userMessage}`;}app.listen(port, () => {    console.log(`Server running at http://localhost:${port}`);});
  3. Запустите сервер:

    node server.js

При такой настройке ваш сервер Node.js будет обрабатывать входящие запросы, взаимодействовать с моделью Ollama Llama 3 и возвращать ответы.

Заключение

Выполнив эти шаги, вы создали приложение чата, которое отправляет пользовательские сообщения в модель Ollama Llama 3 и отображает ответы. Эту настройку можно расширить и настроить в соответствии с вашими конкретными требованиями и функциями модели Llama 3.

Не стесняйтесь исследовать и расширять функциональность вашего чат-приложения. Приятного кодирования!

","image":"http://www.luping.net/uploads/20240730/172234584966a8e979668b5.jpg","datePublished":"2024-07-30T21:24:08+08:00","dateModified":"2024-07-30T21:24:08+08:00","author":{"@type":"Person","name":"luping.net","url":"https://www.luping.net/articlelist/0_1.html"}}
«Если рабочий хочет хорошо выполнять свою работу, он должен сначала заточить свои инструменты» — Конфуций, «Аналитики Конфуция. Лу Лингун»
титульная страница > программирование > Создание приложения чата с использованием модели ламы Олламы с использованием JavaScript, HTML и CSS

Создание приложения чата с использованием модели ламы Олламы с использованием JavaScript, HTML и CSS

Опубликовано 30 июля 2024 г.
Просматривать:932

Building a Chat Application with Ollama

Введение

В этой записи блога мы рассмотрим процесс создания простого приложения для чата, которое взаимодействует с моделью Llama 3 от Ollama. Мы будем использовать JavaScript, HTML и CSS для внешнего интерфейса и Node.js с Express для внутреннего интерфейса. В итоге у вас будет работающее приложение для чата, которое отправляет пользовательские сообщения в модель искусственного интеллекта и отображает ответы в режиме реального времени.

Предварительные условия

Прежде чем начать, убедитесь, что на вашем компьютере установлено следующее:

  • Node.js
  • npm (менеджер пакетов узлов)

Шаг 1: Настройка внешнего интерфейса

HTML

Сначала создайте HTML-файл с именем index.html, который определяет структуру нашего чат-приложения.



    Chat with Ollama's Llama 3

Этот HTML-файл включает в себя контейнер для сообщений чата, поле ввода для пользовательских сообщений и кнопку отправки.

CSS

Затем создайте файл CSS с именемstyles.css, чтобы задать стиль приложения чата.

body {
    font-family: Arial, sans-serif;
    display: flex;
    justify-content: center;
    align-items: center;
    height: 100vh;
    background-color: #f0f0f0;
    margin: 0;
}

#chat-container {
    width: 400px;
    border: 1px solid #ccc;
    background-color: #fff;
    border-radius: 8px;
    box-shadow: 0 4px 8px rgba(0, 0, 0, 0.1);
    overflow: hidden;
}

#chat-window {
    height: 300px;
    padding: 10px;
    overflow-y: auto;
    border-bottom: 1px solid #ccc;
}

#messages {
    display: flex;
    flex-direction: column;
}

.message {
    padding: 8px;
    margin: 4px 0;
    border-radius: 4px;
}

.user-message {
    align-self: flex-end;
    background-color: #007bff;
    color: #fff;
}

.ai-message {
    align-self: flex-start;
    background-color: #e0e0e0;
    color: #000;
}

#user-input {
    width: calc(100% - 60px);
    padding: 10px;
    border: none;
    border-radius: 0;
    outline: none;
}

#send-button {
    width: 60px;
    padding: 10px;
    border: none;
    background-color: #007bff;
    color: #fff;
    cursor: pointer;
}

Этот CSS-файл гарантирует, что приложение чата будет выглядеть аккуратно и современно.

JavaScript

Создайте файл JavaScript с именем script.js для управления функциями внешнего интерфейса.

document.getElementById('send-button').addEventListener('click', sendMessage);
document.getElementById('user-input').addEventListener('keypress', function (e) {
    if (e.key === 'Enter') {
        sendMessage();
    }
});

function sendMessage() {
    const userInput = document.getElementById('user-input');
    const messageText = userInput.value.trim();

    if (messageText === '') return;

    displayMessage(messageText, 'user-message');
    userInput.value = '';

    // Send the message to the local AI and get the response
    getAIResponse(messageText).then(aiResponse => {
        displayMessage(aiResponse, 'ai-message');
    }).catch(error => {
        console.error('Error:', error);
        displayMessage('Sorry, something went wrong.', 'ai-message');
    });
}

function displayMessage(text, className) {
    const messageElement = document.createElement('div');
    messageElement.textContent = text;
    messageElement.className = `message ${className}`;
    document.getElementById('messages').appendChild(messageElement);
    document.getElementById('messages').scrollTop = document.getElementById('messages').scrollHeight;
}

async function getAIResponse(userMessage) {
    // Example AJAX call to a local server interacting with Ollama Llama 3
    const response = await fetch('http://localhost:5000/ollama', {
        method: 'POST',
        headers: {
            'Content-Type': 'application/json',
        },
        body: JSON.stringify({ message: userMessage }),
    });

    if (!response.ok) {
        throw new Error('Network response was not ok');
    }

    const data = await response.json();
    return data.response; // Adjust this based on your server's response structure
}

Этот файл JavaScript добавляет прослушиватели событий к кнопке отправки и полю ввода, отправляет пользовательские сообщения на серверную часть и отображает ответы как пользователя, так и AI.

Шаг 2. Настройка серверной части

Node.js и Express

Убедитесь, что у вас установлен Node.js. Затем создайте файл server.js для серверной части.

  1. Экспресс-установка:

    npm install express body-parser
    
  2. Создайте файл server.js:

    const express = require('express');
    const bodyParser = require('body-parser');
    const app = express();
    const port = 5000;
    
    app.use(bodyParser.json());
    
    app.post('/ollama', async (req, res) => {
        const userMessage = req.body.message;
    
        // Replace this with actual interaction with Ollama's Llama 3
        // This is a placeholder for demonstration purposes
        const aiResponse = await getLlama3Response(userMessage);
    
        res.json({ response: aiResponse });
    });
    
    // Placeholder function to simulate AI response
    async function getLlama3Response(userMessage) {
        // Replace this with actual API call to Ollama's Llama 3
        return `Llama 3 says: ${userMessage}`;
    }
    
    app.listen(port, () => {
        console.log(`Server running at http://localhost:${port}`);
    });
    
  3. Запустите сервер:

    node server.js
    

При такой настройке ваш сервер Node.js будет обрабатывать входящие запросы, взаимодействовать с моделью Ollama Llama 3 и возвращать ответы.

Заключение

Выполнив эти шаги, вы создали приложение чата, которое отправляет пользовательские сообщения в модель Ollama Llama 3 и отображает ответы. Эту настройку можно расширить и настроить в соответствии с вашими конкретными требованиями и функциями модели Llama 3.

Не стесняйтесь исследовать и расширять функциональность вашего чат-приложения. Приятного кодирования!

Заявление о выпуске Эта статья воспроизведена по адресу: https://dev.to/koolkamalkishor/building-a-chat-application-with-ollamas-llama-3-model-using-javascript-html-and-css-40ec?1Если есть какие-либо нарушение, пожалуйста, свяжитесь с [email protected], чтобы удалить
Последний учебник Более>

Изучайте китайский

Отказ от ответственности: Все предоставленные ресурсы частично взяты из Интернета. В случае нарушения ваших авторских прав или других прав и интересов, пожалуйста, объясните подробные причины и предоставьте доказательства авторских прав или прав и интересов, а затем отправьте их по электронной почте: [email protected]. Мы сделаем это за вас как можно скорее.

Copyright© 2022 湘ICP备2022001581号-3