"إذا أراد العامل أن يؤدي عمله بشكل جيد، فعليه أولاً أن يشحذ أدواته." - كونفوشيوس، "مختارات كونفوشيوس. لو لينجونج"
الصفحة الأمامية > برمجة > تشغيل Llama على Android: دليل خطوة بخطوة باستخدام Ollama

تشغيل Llama على Android: دليل خطوة بخطوة باستخدام Ollama

تم النشر بتاريخ 2024-11-09
تصفح:232

Running Llama  on Android: A Step-by-Step Guide Using Ollama

تم تقديم Llama 3.2 مؤخرًا في مؤتمر مطوري Meta، حيث عرض إمكانات رائعة متعددة الوسائط وإصدارًا محسّنًا للأجهزة المحمولة التي تستخدم أجهزة Qualcomm وMediaTek. يسمح هذا الإنجاز للمطورين بتشغيل نماذج ذكاء اصطناعي قوية مثل Llama 3.2 على الأجهزة المحمولة، مما يمهد الطريق لتطبيقات ذكاء اصطناعي أكثر كفاءة وخصوصية واستجابة.

أصدرت Meta أربعة إصدارات مختلفة من Llama 3.2:

  • نماذج متعددة الوسائط مع 11 مليار (11B) و90 مليار (90B) معلمة.
  • نماذج نصية فقط مع 1 مليار (1B) و3 مليار (3B) معلمة.

تتفوق النماذج الأكبر حجمًا، وخاصة المتغيرات 11B و90B، في مهام مثل فهم الصور واستدلال المخططات، وغالبًا ما تتفوق على النماذج الأخرى مثل Claude 3 Haiku وحتى تتنافس مع GPT-4o-mini في بعض الحالات. من ناحية أخرى، تم تصميم الطرازين 1B و3B خفيفي الوزن لإنشاء النصوص وإمكانيات متعددة اللغات، مما يجعلها مثالية للتطبيقات الموجودة على الجهاز حيث تعد الخصوصية والكفاءة أمرًا أساسيًا.

في هذا الدليل، سنوضح لك كيفية تشغيل Llama 3.2 على جهاز Android باستخدام Termux وOllama. يوفر Termux بيئة Linux على Android، ويساعد Ollama في إدارة وتشغيل النماذج الكبيرة محليًا.

لماذا يتم تشغيل Llama 3.2 محليًا؟

يوفر تشغيل نماذج الذكاء الاصطناعي محليًا فائدتين رئيسيتين:

  1. معالجة فورية حيث يتم التعامل مع كل شيء على الجهاز.
  2. خصوصية محسنة حيث ليست هناك حاجة لإرسال البيانات إلى السحابة للمعالجة.

على الرغم من عدم وجود العديد من المنتجات التي تسمح للأجهزة المحمولة بتشغيل نماذج مثل Llama 3.2 بسلاسة حتى الآن، إلا أنه لا يزال بإمكاننا استكشافها باستخدام بيئة Linux على Android.


خطوات تشغيل Llama 3.2 على Android

1. قم بتثبيت Termux على نظام Android

Termux هو محاكي طرفي يسمح لأجهزة Android بتشغيل بيئة Linux دون الحاجة إلى الوصول إلى الجذر. إنه متاح مجانًا ويمكن تنزيله من صفحة Termux GitHub.

بالنسبة لهذا الدليل، قم بتنزيل termux-app_v0.119.0-beta.1 apt-android-7-github-debug_arm64-v8a.apk وتثبيته على جهاز Android الخاص بك.

2. قم بإعداد Termux

بعد تشغيل Termux، اتبع الخطوات التالية لإعداد البيئة:

  1. منح الوصول إلى مساحة التخزين:
   termux-setup-storage

يتيح هذا الأمر لـ Termux الوصول إلى مساحة تخزين جهاز Android الخاص بك، مما يتيح إدارة أسهل للملفات.

  1. حزم التحديث:
   pkg upgrade

أدخل Y عندما يُطلب منك تحديث Termux وجميع الحزم المثبتة.

  1. تثبيت الأدوات الأساسية:
   pkg install git cmake golang

تتضمن هذه الحزم Git للتحكم في الإصدار، وCMake لبناء البرامج، وGo، لغة البرمجة التي تمت كتابة Ollama بها.

3. تثبيت وتجميع Olma

Ollama عبارة عن منصة لتشغيل النماذج الكبيرة محليًا. إليك كيفية تثبيته وإعداده:

  1. مستودع GitHub الخاص باستنساخ Ollama:
   git clone --depth 1 https://github.com/ollama/ollama.git
  1. انتقل إلى دليل Ollama:
   cd ollama
  1. إنشاء رمز الانتقال:
   go generate ./...
  1. بناء أولاما:
   go build .
  1. بدء تشغيل خادم Olma:
   ./ollama serve &

الآن سيتم تشغيل خادم Ollama في الخلفية، مما يسمح لك بالتفاعل مع العارضات.

4. تشغيل نماذج لاما 3.2

لتشغيل طراز Llama 3.2 على جهاز Android الخاص بك، اتبع الخطوات التالية:

  1. اختر الموديل:

    • نماذج مثل llama3.2:3b (3 مليار معلمة) متاحة للاختبار. يتم قياس هذه النماذج من أجل الكفاءة. يمكنك العثور على قائمة بالنماذج المتاحة على موقع Ollama.
  2. تنزيل وتشغيل نموذج Llama 3.2:

   ./ollama run llama3.2:3b --verbose

العلامة --verbose اختيارية وتوفر سجلات مفصلة. بعد اكتمال التنزيل، يمكنك البدء في التفاعل مع النموذج.

5. إدارة الأداء

أثناء اختبار Llama 3.2 على أجهزة مثل Samsung S21 Ultra، كان الأداء سلسًا بالنسبة للطراز 1B ويمكن التحكم فيه بالنسبة للطراز 3B، على الرغم من أنك قد تلاحظ تأخرًا في الأجهزة القديمة. إذا كان الأداء بطيئًا جدًا، فإن التبديل إلى الطراز الأصغر 1B يمكن أن يؤدي إلى تحسين الاستجابة بشكل ملحوظ.


تنظيف اختياري

بعد استخدام Ollama، قد ترغب في تنظيف النظام:

  1. إزالة الملفات غير الضرورية:
   chmod -R 700 ~/go
   rm -r ~/go
  1. نقل ثنائي Ollama إلى المسار العالمي:
   cp ollama/ollama /data/data/com.termux/files/usr/bin/

الآن، يمكنك تشغيل olma مباشرة من المحطة.


خاتمة

يمثل Llama 3.2 قفزة كبيرة إلى الأمام في تكنولوجيا الذكاء الاصطناعي، حيث يقدم نماذج قوية ومتعددة الوسائط للأجهزة المحمولة. ومن خلال تشغيل هذه النماذج محليًا باستخدام Termux وOllama، يمكن للمطورين استكشاف إمكانات تطبيقات الذكاء الاصطناعي التي تعطي الأولوية للخصوصية على الجهاز والتي لا تعتمد على البنية التحتية السحابية. مع نماذج مثل Llama 3.2، يبدو مستقبل الذكاء الاصطناعي على الأجهزة المحمولة مشرقًا، مما يتيح حلول ذكاء اصطناعي أسرع وأكثر أمانًا عبر مختلف الصناعات.

بيان الافراج يتم استنساخ هذه المقالة على: https://dev.to/koolkamalkishor/running-llama-32-on-android-a-step-by-step-uside-using-olama-54ig؟1 إذا كان هناك أي انتهاك ، فيرجى الاتصال بـ [email protected] لحذفه.
أحدث البرنامج التعليمي أكثر>

تنصل: جميع الموارد المقدمة هي جزئيًا من الإنترنت. إذا كان هناك أي انتهاك لحقوق الطبع والنشر الخاصة بك أو الحقوق والمصالح الأخرى، فيرجى توضيح الأسباب التفصيلية وتقديم دليل على حقوق الطبع والنشر أو الحقوق والمصالح ثم إرسالها إلى البريد الإلكتروني: [email protected]. سوف نتعامل مع الأمر لك في أقرب وقت ممكن.

Copyright© 2022 湘ICP备2022001581号-3