Llama 3.2 は最近 Meta の開発者カンファレンスで発表され、優れたマルチモーダル機能と、Qualcomm および MediaTek ハードウェアを使用したモバイル デバイス向けに最適化されたバージョンを紹介しました。この画期的な進歩により、開発者は Llama 3.2 などの強力な AI モデルをモバイル デバイス上で実行できるようになり、より効率的でプライベートで応答性の高い AI アプリケーションへの道が開かれます。
Meta は Llama 3.2 の 4 つの亜種をリリースしました:
このガイドでは、Termux と Ollama を使用して Android デバイスで Llama 3.2 を実行する方法を説明します。 Termux は Android 上で Linux 環境を提供し、Ollama は大規模なモデルをローカルで管理および実行するのに役立ちます。
Llama 3.2 をローカルで実行する理由
1. Android に Termux をインストールする
をダウンロードし、Android デバイスにインストールしてください。
2. Termux のセットアップ Termux を起動した後、次の手順に従って環境をセットアップします。
ストレージアクセスの許可:
termux-setup-storage
アップデートパッケージ:
pkg upgrade
必須ツールのインストール:
pkg install git cmake golang
Ollama は、大規模なモデルをローカルで実行するためのプラットフォームです。インストールして設定する方法は次のとおりです:
Ollama の GitHub リポジトリのクローンを作成します:
git clone --depth 1 https://github.com/ollama/ollama.git
cd ollama
go generate ./...
go build .
./ollama serve &
Android デバイスで Llama 3.2 モデルを実行するには、次の手順に従います:
llama3.2:3b
(30 億パラメータ) のようなモデルはテストに利用できます。これらのモデルは効率化のために量子化されています。利用可能なモデルのリストは Ollama の Web サイトでご覧いただけます。
./ollam run llama3.2:3b --verbose
./ollama run llama3.2:3b --verbose
5. パフォーマンスの管理 Samsung S21 Ultra などのデバイスで Llama 3.2 をテストしている間、パフォーマンスは 1B モデルではスムーズで、3B モデルでは管理可能でしたが、古いハードウェアでは遅延に気づく可能性があります。パフォーマンスが遅すぎる場合は、より小さい 1B モデルに切り替えると、応答性が大幅に向上します。
Ollama を使用した後、システムをクリーンアップすることをお勧めします:
不要なファイルを削除:
chmod -R 700 ~/go rm -r ~/go
cp ollama/ollama /data/data/com.termux/files/usr/bin/
結論
Llama 3.2 は AI テクノロジーの大きな進歩を表し、強力なマルチモーダル モデルをモバイル デバイスにもたらします。 Termux と Ollama を使用してこれらのモデルをローカルで実行することで、開発者はクラウド インフラストラクチャに依存しない、プライバシー優先のオンデバイス AI アプリケーションの可能性を探ることができます。 Llama 3.2 のようなモデルにより、モバイル AI の未来は明るくなり、さまざまな業界でより高速で安全な AI ソリューションが可能になります。免責事項: 提供されるすべてのリソースの一部はインターネットからのものです。お客様の著作権またはその他の権利および利益の侵害がある場合は、詳細な理由を説明し、著作権または権利および利益の証拠を提出して、電子メール [email protected] に送信してください。 できるだけ早く対応させていただきます。
Copyright© 2022 湘ICP备2022001581号-3