「労働者が自分の仕事をうまくやりたいなら、まず自分の道具を研ぎ澄まさなければなりません。」 - 孔子、「論語。陸霊公」
表紙 > プログラミング > Android で Llama を実行する: Ollama を使用するステップバイステップ ガイド

Android で Llama を実行する: Ollama を使用するステップバイステップ ガイド

2024 年 11 月 9 日に公開
ブラウズ:631

Running Llama  on Android: A Step-by-Step Guide Using Ollama

Llama 3.2 は最近 Meta の開発者カンファレンスで発表され、優れたマルチモーダル機能と、Qualcomm および MediaTek ハードウェアを使用したモバイル デバイス向けに最適化されたバージョンを紹介しました。この画期的な進歩により、開発者は Llama 3.2 などの強力な AI モデルをモバイル デバイス上で実行できるようになり、より効率的でプライベートで応答性の高い AI アプリケーションへの道が開かれます。

Meta は Llama 3.2 の 4 つの亜種をリリースしました:

  • 110 億 (11B) および 900 億 (90B) のパラメータを持つマルチモーダル モデル
  • 10 億 (1B) および 30 億 (3B) のパラメータを持つテキストのみのモデル
  • 大型モデル、特に 11B および 90B バリアントは、画像の理解やチャート推論などのタスクに優れており、多くの場合、Claude 3 Haiku などの他のモデルを上回り、場合によっては GPT-4o-mini と競合することもあります。一方、軽量の 1B および 3B モデルは、テキスト生成と多言語機能向けに設計されており、プライバシーと効率が重要なオンデバイス アプリケーションに最適です。

このガイドでは、Termux と Ollama を使用して Android デバイスで Llama 3.2 を実行する方法を説明します。 Termux は Android 上で Linux 環境を提供し、Ollama は大規模なモデルをローカルで管理および実行するのに役立ちます。

Llama 3.2 をローカルで実行する理由

AI モデルをローカルで実行すると、2 つの大きな利点があります:

    すべてがデバイス上で処理されるため、即時処理
  1. 処理のためにデータをクラウドに送信する必要がないため、プライバシーが強化されます
  2. モバイル デバイスで Llama 3.2 のようなモデルをスムーズに実行できる製品はまだ多くありませんが、Android 上の Linux 環境を使用して探索することは可能です。
Android で Llama 3.2 を実行する手順

1. Android に Termux をインストールする

Termux は、root アクセスを必要とせずに Android デバイスで Linux 環境を実行できるようにするターミナル エミュレーターです。これは無料で利用でき、Termux GitHub ページからダウンロードできます。

このガイドについては、

termux-app_v0.119.0-beta.1 apt-android-7-github-debug_arm64-v8a.apk

をダウンロードし、Android デバイスにインストールしてください。

2. Termux のセットアップ Termux を起動した後、次の手順に従って環境をセットアップします。

ストレージアクセスの許可:

  1. termux-setup-storage
  2. このコマンドを使用すると、Termux が Android デバイスのストレージにアクセスできるようになり、ファイル管理が容易になります。
   termux-setup-storage

アップデートパッケージ:

  1. パッケージのアップグレード
  2. Termux とインストールされているすべてのパッケージを更新するように求められたら、
Y
   pkg upgrade

必須ツールのインストール:

  1. pkg install git cmake golang
  2. これらのパッケージには、バージョン管理用の Git、ソフトウェア構築用の CMake、Ollama が記述されているプログラミング言語 Go が含まれています。
   pkg install git cmake golang

Ollama は、大規模なモデルをローカルで実行するためのプラットフォームです。インストールして設定する方法は次のとおりです:

Ollama の GitHub リポジトリのクローンを作成します:

  1. git clone -- Depth 1 https://github.com/ollama/ollama.git
   git clone --depth 1 https://github.com/ollama/ollama.git
  1. CD オラマ
   cd ollama
  1. 生成する ./...
   go generate ./...
  1. ビルドに進みます。
   go build .
  1. ./オラマサーブ &
  2. これで、Ollama サーバーがバックグラウンドで実行され、モデルと対話できるようになります。
   ./ollama serve &

Android デバイスで Llama 3.2 モデルを実行するには、次の手順に従います:

モデルを選択してください:
  1. llama3.2:3b

    (30 億パラメータ) のようなモデルはテストに利用できます。これらのモデルは効率化のために量子化されています。利用可能なモデルのリストは Ollama の Web サイトでご覧いただけます。
    Llama 3.2 モデルをダウンロードして実行します:

  2. ./ollam run llama3.2:3b --verbose

--verbose
   ./ollama run llama3.2:3b --verbose

5. パフォーマンスの管理 Samsung S21 Ultra などのデバイスで Llama 3.2 をテストしている間、パフォーマンスは 1B モデルではスムーズで、3B モデルでは管理可能でしたが、古いハードウェアでは遅延に気づく可能性があります。パフォーマンスが遅すぎる場合は、より小さい 1B モデルに切り替えると、応答性が大幅に向上します。

オプションのクリーンアップ

Ollama を使用した後、システムをクリーンアップすることをお勧めします:

不要なファイルを削除:

  1. chmod -R 700 ~/go rm -r ~/go
   chmod -R 700 ~/go
   rm -r ~/go
  1. cp ollama/ollama /data/data/com.termux/files/usr/bin/
  2. これで、
ollama
   cp ollama/ollama /data/data/com.termux/files/usr/bin/

結論

Llama 3.2 は AI テクノロジーの大きな進歩を表し、強力なマルチモーダル モデルをモバイル デバイスにもたらします。 Termux と Ollama を使用してこれらのモデルをローカルで実行することで、開発者はクラウド インフラストラクチャに依存しない、プライバシー優先のオンデバイス AI アプリケーションの可能性を探ることができます。 Llama 3.2 のようなモデルにより、モバイル AI の未来は明るくなり、さまざまな業界でより高速で安全な AI ソリューションが可能になります。

リリースステートメント この記事は次の場所に転載されています: https://dev.to/koolkamalkishor/running-llama-32-on-android-a-step-by-step-guide-using-ollama-54ig?1 侵害がある場合は、 Study_golang@163 .comdelete に連絡してください
最新のチュートリアル もっと>

免責事項: 提供されるすべてのリソースの一部はインターネットからのものです。お客様の著作権またはその他の権利および利益の侵害がある場合は、詳細な理由を説明し、著作権または権利および利益の証拠を提出して、電子メール [email protected] に送信してください。 できるだけ早く対応させていただきます。

Copyright© 2022 湘ICP备2022001581号-3