Llama 3.2 wurde kürzlich auf der Entwicklerkonferenz von Meta vorgestellt und präsentiert beeindruckende multimodale Fähigkeiten und eine für mobile Geräte mit Qualcomm- und MediaTek-Hardware optimierte Version. Dieser Durchbruch ermöglicht es Entwicklern, leistungsstarke KI-Modelle wie Llama 3.2 auf Mobilgeräten auszuführen und ebnet so den Weg für effizientere, privatere und reaktionsfähigere KI-Anwendungen.
Meta hat vier Varianten von Llama 3.2 veröffentlicht:
Die größeren Modelle, insbesondere die 11B- und 90B-Varianten, zeichnen sich durch Aufgaben wie Bildverständnis und Diagrammbegründung aus, übertreffen oft andere Modelle wie Claude 3 Haiku und konkurrieren in bestimmten Fällen sogar mit GPT-4o-mini. Andererseits sind die leichten 1B- und 3B-Modelle für die Textgenerierung und Mehrsprachigkeit konzipiert und eignen sich daher ideal für Anwendungen auf dem Gerät, bei denen Datenschutz und Effizienz im Vordergrund stehen.
In dieser Anleitung zeigen wir Ihnen, wie Sie Llama 3.2 auf einem Android-Gerät mit Termux und Ollama ausführen. Termux bietet eine Linux-Umgebung auf Android und Ollama hilft bei der lokalen Verwaltung und Ausführung großer Modelle.
Das lokale Ausführen von KI-Modellen bietet zwei große Vorteile:
Auch wenn es noch nicht viele Produkte gibt, mit denen mobile Geräte Modelle wie Llama 3.2 reibungslos ausführen können, können wir es dennoch mit einer Linux-Umgebung auf Android erkunden.
Termux ist ein Terminalemulator, der es Android-Geräten ermöglicht, eine Linux-Umgebung auszuführen, ohne Root-Zugriff zu benötigen. Es ist kostenlos verfügbar und kann von der Termux-GitHub-Seite heruntergeladen werden.
Laden Sie für dieses Handbuch die Datei termux-app_v0.119.0-beta.1 apt-android-7-github-debug_arm64-v8a.apk herunter und installieren Sie sie auf Ihrem Android-Gerät.
Nach dem Start von Termux befolgen Sie diese Schritte, um die Umgebung einzurichten:
termux-setup-storage
Mit diesem Befehl kann Termux auf den Speicher Ihres Android-Geräts zugreifen und so die Dateiverwaltung vereinfachen.
pkg upgrade
Geben Sie Y ein, wenn Sie aufgefordert werden, Termux und alle installierten Pakete zu aktualisieren.
pkg install git cmake golang
Diese Pakete umfassen Git zur Versionskontrolle, CMake zum Erstellen von Software und Go, die Programmiersprache, in der Ollama geschrieben ist.
Ollama ist eine Plattform zum lokalen Ausführen großer Modelle. So installieren und richten Sie es ein:
git clone --depth 1 https://github.com/ollama/ollama.git
cd ollama
go generate ./...
go build .
./ollama serve &
Jetzt läuft der Ollama-Server im Hintergrund, sodass Sie mit den Modellen interagieren können.
Um das Llama 3.2-Modell auf Ihrem Android-Gerät auszuführen, befolgen Sie diese Schritte:
Wählen Sie ein Modell:
Laden Sie das Llama 3.2-Modell herunter und führen Sie es aus:
./ollama run llama3.2:3b --verbose
Das Flag --verbose ist optional und stellt detaillierte Protokolle bereit. Nachdem der Download abgeschlossen ist, können Sie mit der Interaktion mit dem Modell beginnen.
Beim Testen von Llama 3.2 auf Geräten wie dem Samsung S21 Ultra war die Leistung beim 1B-Modell reibungslos und beim 3B-Modell beherrschbar, obwohl Sie bei älterer Hardware möglicherweise eine Verzögerung bemerken. Wenn die Leistung zu langsam ist, kann der Wechsel zum kleineren 1B-Modell die Reaktionsfähigkeit deutlich verbessern.
Nach der Verwendung von Ollama möchten Sie möglicherweise das System bereinigen:
chmod -R 700 ~/go rm -r ~/go
cp ollama/ollama /data/data/com.termux/files/usr/bin/
Jetzt können Sie ollama direkt vom Terminal aus ausführen.
Llama 3.2 stellt einen großen Fortschritt in der KI-Technologie dar und bringt leistungsstarke, multimodale Modelle auf mobile Geräte. Durch die lokale Ausführung dieser Modelle mit Termux und Ollama können Entwickler das Potenzial datenschutzorientierter KI-Anwendungen auf dem Gerät erkunden, die nicht auf eine Cloud-Infrastruktur angewiesen sind. Mit Modellen wie Llama 3.2 sieht die Zukunft der mobilen KI rosig aus und ermöglicht schnellere und sicherere KI-Lösungen in verschiedenen Branchen.
Haftungsausschluss: Alle bereitgestellten Ressourcen stammen teilweise aus dem Internet. Wenn eine Verletzung Ihres Urheberrechts oder anderer Rechte und Interessen vorliegt, erläutern Sie bitte die detaillierten Gründe und legen Sie einen Nachweis des Urheberrechts oder Ihrer Rechte und Interessen vor und senden Sie ihn dann an die E-Mail-Adresse: [email protected] Wir werden die Angelegenheit so schnell wie möglich für Sie erledigen.
Copyright© 2022 湘ICP备2022001581号-3