Llama 3.2 最近在 Meta 开发者大会上推出,展示了令人印象深刻的多模式功能以及针对使用高通和联发科技硬件的移动设备进行优化的版本。这一突破使开发人员能够在移动设备上运行 Llama 3.2 等强大的 AI 模型,为更高效、私密和响应迅速的 AI 应用程序铺平道路。
Meta 发布了 Llama 3.2 的四个变体:
较大的模型,尤其是 11B 和 90B 变体,在图像理解和图表推理等任务中表现出色,通常优于 Claude 3 Haiku 等其他模型,甚至在某些情况下与 GPT-4o-mini 竞争。另一方面,轻量级 1B 和 3B 模型专为文本生成和多语言功能而设计,使其成为注重隐私和效率的设备上应用程序的理想选择。
在本指南中,我们将向您展示如何使用 Termux 和 Ollama 在 Android 设备上运行 Llama 3.2。 Termux 在 Android 上提供 Linux 环境,Ollama 帮助在本地管理和运行大型模型。
在本地运行人工智能模型有两大好处:
尽管目前支持移动设备流畅运行Llama 3.2这样的模型的产品还不多,但我们仍然可以在Android上使用Linux环境来探索它。
Termux 是一个终端模拟器,允许 Android 设备无需 root 访问即可运行 Linux 环境。它是免费的,可以从 Termux GitHub 页面下载。
对于本指南,请下载 termux-app_v0.119.0-beta.1 apt-android-7-github-debug_arm64-v8a.apk 并将其安装在您的 Android 设备上。
启动 Termux 后,按照以下步骤设置环境:
termux-setup-storage
此命令可让 Termux 访问 Android 设备的存储空间,从而更轻松地管理文件。
pkg upgrade
当提示更新 Termux 和所有已安装的软件包时,输入 Y。
pkg install git cmake golang
这些软件包包括用于版本控制的 Git、用于构建软件的 CMake 以及编写 Ollama 的编程语言 Go。
Ollama 是一个在本地运行大型模型的平台。安装和设置方法如下:
git clone --depth 1 https://github.com/ollama/ollama.git
cd ollama
go generate ./...
go build .
./ollama serve &
现在 Ollama 服务器将在后台运行,允许您与模型交互。
要在 Android 设备上运行 Llama 3.2 模型,请按照以下步骤操作:
选择型号:
下载并运行 Llama 3.2 模型:
./ollama run llama3.2:3b --verbose
--verbose 标志是可选的,并提供详细的日志。下载完成后,您可以开始与模型交互。
在 Samsung S21 Ultra 等设备上测试 Llama 3.2 时,1B 型号的性能很流畅,3B 型号的性能易于管理,尽管您可能会注意到旧硬件上的延迟。如果性能太慢,切换到较小的 1B 模型可以显着提高响应能力。
使用Ollama后,您可能需要清理系统:
chmod -R 700 ~/go rm -r ~/go
cp ollama/ollama /data/data/com.termux/files/usr/bin/
现在,您可以直接从终端运行ollama。
Llama 3.2 代表了人工智能技术的重大飞跃,为移动设备带来了强大的多模式模型。通过使用 Termux 和 Ollama 在本地运行这些模型,开发人员可以探索不依赖云基础设施的隐私优先、设备上 AI 应用程序的潜力。有了 Llama 3.2 这样的模型,移动 AI 的未来看起来很光明,可以为各个行业提供更快、更安全的 AI 解决方案。
免责声明: 提供的所有资源部分来自互联网,如果有侵犯您的版权或其他权益,请说明详细缘由并提供版权或权益证明然后发到邮箱:[email protected] 我们会第一时间内为您处理。
Copyright© 2022 湘ICP备2022001581号-3