Llama 3.2 a été récemment présenté lors de la conférence des développeurs de Meta, présentant des capacités multimodales impressionnantes et une version optimisée pour les appareils mobiles utilisant le matériel Qualcomm et MediaTek. Cette avancée permet aux développeurs d'exécuter de puissants modèles d'IA comme Llama 3.2 sur des appareils mobiles, ouvrant la voie à des applications d'IA plus efficaces, privées et réactives.
Meta a publié quatre variantes de Llama 3.2 :
Les modèles plus grands, en particulier les variantes 11B et 90B, excellent dans des tâches telles que la compréhension d'images et le raisonnement graphique, surpassant souvent d'autres modèles comme Claude 3 Haiku et rivalisant même avec GPT-4o-mini dans certains cas. D'autre part, les modèles légers 1B et 3B sont conçus pour la génération de texte et les capacités multilingues, ce qui les rend idéaux pour les applications sur appareil où la confidentialité et l'efficacité sont essentielles.
Dans ce guide, nous allons vous montrer comment exécuter Llama 3.2 sur un appareil Android à l'aide de Termux et Ollama. Termux fournit un environnement Linux sur Android et Ollama aide à gérer et à exécuter de grands modèles localement.
L'exécution de modèles d'IA localement offre deux avantages majeurs :
Même s'il n'existe pas encore beaucoup de produits permettant aux appareils mobiles d'exécuter des modèles comme Llama 3.2 en douceur, nous pouvons toujours l'explorer en utilisant un environnement Linux sur Android.
Termux est un émulateur de terminal qui permet aux appareils Android d'exécuter un environnement Linux sans avoir besoin d'un accès root. Il est disponible gratuitement et peut être téléchargé à partir de la page Termux GitHub.
Pour ce guide, téléchargez le termux-app_v0.119.0-beta.1 apt-android-7-github-debug_arm64-v8a.apk et installez-le sur votre appareil Android.
Après avoir lancé Termux, suivez ces étapes pour configurer l'environnement :
termux-setup-storage
Cette commande permet à Termux d'accéder au stockage de votre appareil Android, permettant ainsi une gestion plus facile des fichiers.
pkg upgrade
Entrez Y lorsque vous êtes invité à mettre à jour Termux et tous les packages installés.
pkg install git cmake golang
Ces packages incluent Git pour le contrôle de version, CMake pour la création de logiciels et Go, le langage de programmation dans lequel Ollama est écrit.
Ollama est une plateforme permettant d'exécuter de grands modèles localement. Voici comment l'installer et le configurer :
git clone --depth 1 https://github.com/ollama/ollama.git
cd ollama
go generate ./...
go build .
./ollama serve &
Désormais, le serveur Ollama fonctionnera en arrière-plan, vous permettant d'interagir avec les modèles.
Pour exécuter le modèle Llama 3.2 sur votre appareil Android, suivez ces étapes :
Choisissez un modèle :
Téléchargez et exécutez le modèle Llama 3.2 :
./ollama run llama3.2:3b --verbose
L'indicateur --verbose est facultatif et fournit des journaux détaillés. Une fois le téléchargement terminé, vous pouvez commencer à interagir avec le modèle.
Lors du test de Llama 3.2 sur des appareils comme le Samsung S21 Ultra, les performances étaient fluides pour le modèle 1B et gérables pour le modèle 3B, même si vous remarquerez peut-être un décalage sur le matériel plus ancien. Si les performances sont trop lentes, le passage au modèle 1B plus petit peut améliorer considérablement la réactivité.
Après avoir utilisé Ollama, vous souhaiterez peut-être nettoyer le système :
chmod -R 700 ~/go rm -r ~/go
cp ollama/ollama /data/data/com.termux/files/usr/bin/
Maintenant, vous pouvez exécuter ollama directement depuis le terminal.
Llama 3.2 représente une avancée majeure dans la technologie de l'IA, en apportant des modèles multimodaux puissants aux appareils mobiles. En exécutant ces modèles localement à l’aide de Termux et Ollama, les développeurs peuvent explorer le potentiel des applications d’IA sur appareil axées sur la confidentialité et qui ne dépendent pas de l’infrastructure cloud. Avec des modèles comme Llama 3.2, l'avenir de l'IA mobile s'annonce prometteur, permettant des solutions d'IA plus rapides et plus sécurisées dans divers secteurs.
Clause de non-responsabilité: Toutes les ressources fournies proviennent en partie d'Internet. En cas de violation de vos droits d'auteur ou d'autres droits et intérêts, veuillez expliquer les raisons détaillées et fournir une preuve du droit d'auteur ou des droits et intérêts, puis l'envoyer à l'adresse e-mail : [email protected]. Nous nous en occuperons pour vous dans les plus brefs délais.
Copyright© 2022 湘ICP备2022001581号-3