تم تقديم Llama 3.2 مؤخرًا في مؤتمر مطوري Meta، حيث عرض إمكانات رائعة متعددة الوسائط وإصدارًا محسّنًا للأجهزة المحمولة التي تستخدم أجهزة Qualcomm وMediaTek. يسمح هذا الإنجاز للمطورين بتشغيل نماذج ذكاء اصطناعي قوية مثل Llama 3.2 على الأجهزة المحمولة، مما يمهد الطريق لتطبيقات ذكاء اصطناعي أكثر كفاءة وخصوصية واستجابة.
أصدرت Meta أربعة إصدارات مختلفة من Llama 3.2:
تتفوق النماذج الأكبر حجمًا، وخاصة المتغيرات 11B و90B، في مهام مثل فهم الصور واستدلال المخططات، وغالبًا ما تتفوق على النماذج الأخرى مثل Claude 3 Haiku وحتى تتنافس مع GPT-4o-mini في بعض الحالات. من ناحية أخرى، تم تصميم الطرازين 1B و3B خفيفي الوزن لإنشاء النصوص وإمكانيات متعددة اللغات، مما يجعلها مثالية للتطبيقات الموجودة على الجهاز حيث تعد الخصوصية والكفاءة أمرًا أساسيًا.
في هذا الدليل، سنوضح لك كيفية تشغيل Llama 3.2 على جهاز Android باستخدام Termux وOllama. يوفر Termux بيئة Linux على Android، ويساعد Ollama في إدارة وتشغيل النماذج الكبيرة محليًا.
يوفر تشغيل نماذج الذكاء الاصطناعي محليًا فائدتين رئيسيتين:
على الرغم من عدم وجود العديد من المنتجات التي تسمح للأجهزة المحمولة بتشغيل نماذج مثل Llama 3.2 بسلاسة حتى الآن، إلا أنه لا يزال بإمكاننا استكشافها باستخدام بيئة Linux على Android.
Termux هو محاكي طرفي يسمح لأجهزة Android بتشغيل بيئة Linux دون الحاجة إلى الوصول إلى الجذر. إنه متاح مجانًا ويمكن تنزيله من صفحة Termux GitHub.
بالنسبة لهذا الدليل، قم بتنزيل termux-app_v0.119.0-beta.1 apt-android-7-github-debug_arm64-v8a.apk وتثبيته على جهاز Android الخاص بك.
بعد تشغيل Termux، اتبع الخطوات التالية لإعداد البيئة:
termux-setup-storage
يتيح هذا الأمر لـ Termux الوصول إلى مساحة تخزين جهاز Android الخاص بك، مما يتيح إدارة أسهل للملفات.
pkg upgrade
أدخل Y عندما يُطلب منك تحديث Termux وجميع الحزم المثبتة.
pkg install git cmake golang
تتضمن هذه الحزم Git للتحكم في الإصدار، وCMake لبناء البرامج، وGo، لغة البرمجة التي تمت كتابة Ollama بها.
Ollama عبارة عن منصة لتشغيل النماذج الكبيرة محليًا. إليك كيفية تثبيته وإعداده:
git clone --depth 1 https://github.com/ollama/ollama.git
cd ollama
go generate ./...
go build .
./ollama serve &
الآن سيتم تشغيل خادم Ollama في الخلفية، مما يسمح لك بالتفاعل مع العارضات.
لتشغيل طراز Llama 3.2 على جهاز Android الخاص بك، اتبع الخطوات التالية:
اختر الموديل:
تنزيل وتشغيل نموذج Llama 3.2:
./ollama run llama3.2:3b --verbose
العلامة --verbose اختيارية وتوفر سجلات مفصلة. بعد اكتمال التنزيل، يمكنك البدء في التفاعل مع النموذج.
أثناء اختبار Llama 3.2 على أجهزة مثل Samsung S21 Ultra، كان الأداء سلسًا بالنسبة للطراز 1B ويمكن التحكم فيه بالنسبة للطراز 3B، على الرغم من أنك قد تلاحظ تأخرًا في الأجهزة القديمة. إذا كان الأداء بطيئًا جدًا، فإن التبديل إلى الطراز الأصغر 1B يمكن أن يؤدي إلى تحسين الاستجابة بشكل ملحوظ.
بعد استخدام Ollama، قد ترغب في تنظيف النظام:
chmod -R 700 ~/go rm -r ~/go
cp ollama/ollama /data/data/com.termux/files/usr/bin/
الآن، يمكنك تشغيل olma مباشرة من المحطة.
يمثل Llama 3.2 قفزة كبيرة إلى الأمام في تكنولوجيا الذكاء الاصطناعي، حيث يقدم نماذج قوية ومتعددة الوسائط للأجهزة المحمولة. ومن خلال تشغيل هذه النماذج محليًا باستخدام Termux وOllama، يمكن للمطورين استكشاف إمكانات تطبيقات الذكاء الاصطناعي التي تعطي الأولوية للخصوصية على الجهاز والتي لا تعتمد على البنية التحتية السحابية. مع نماذج مثل Llama 3.2، يبدو مستقبل الذكاء الاصطناعي على الأجهزة المحمولة مشرقًا، مما يتيح حلول ذكاء اصطناعي أسرع وأكثر أمانًا عبر مختلف الصناعات.
تنصل: جميع الموارد المقدمة هي جزئيًا من الإنترنت. إذا كان هناك أي انتهاك لحقوق الطبع والنشر الخاصة بك أو الحقوق والمصالح الأخرى، فيرجى توضيح الأسباب التفصيلية وتقديم دليل على حقوق الطبع والنشر أو الحقوق والمصالح ثم إرسالها إلى البريد الإلكتروني: [email protected]. سوف نتعامل مع الأمر لك في أقرب وقت ممكن.
Copyright© 2022 湘ICP备2022001581号-3