أطلقت Nvidia برنامج Chat with RXT، وهو روبوت دردشة يعمل بالذكاء الاصطناعي يعمل على جهاز الكمبيوتر الخاص بك ويقدم ميزات مشابهة لـ ChatGPT والمزيد! كل ما تحتاجه هو وحدة معالجة الرسومات Nvidia RTX، وستكون جاهزًا لبدء استخدام برنامج الدردشة الآلي الجديد من Nvidia.
Nvidia Chat with RTX هو برنامج AI يتيح لك تشغيل نموذج لغة كبير (LLM) محليًا على جهاز الكمبيوتر الخاص بك. لذا، بدلاً من الاتصال بالإنترنت لاستخدام روبوت الدردشة المدعم بالذكاء الاصطناعي مثل ChatGPT، يمكنك استخدام الدردشة مع RTX دون الاتصال بالإنترنت وقتما تشاء.
تستخدم الدردشة مع RTX TensorRT-LLM، وتسريع RTX، وMistral 7-B LLM الكمي لتوفير أداء سريع واستجابات عالية الجودة على قدم المساواة مع روبوتات الدردشة الأخرى ذات الذكاء الاصطناعي عبر الإنترنت. كما يوفر أيضًا توليد الاسترجاع المعزز (RAG)، مما يسمح لبرنامج الدردشة الآلي بقراءة ملفاتك وتمكين الإجابات المخصصة بناءً على البيانات التي تقدمها. يتيح لك ذلك تخصيص برنامج الدردشة الآلي لتوفير تجربة شخصية أكثر.
إذا كنت تريد تجربة Nvidia Chat مع RTX، فإليك كيفية تنزيله وتثبيته وتكوينه على جهاز الكمبيوتر الخاص بك.
جعلت Nvidia تشغيل LLM محليًا على جهاز الكمبيوتر الخاص بك أسهل بكثير. لتشغيل Chat with RTX، ما عليك سوى تنزيل التطبيق وتثبيته، تمامًا كما تفعل مع أي برنامج آخر. ومع ذلك، فإن Chat with RTX لديها بعض متطلبات المواصفات الدنيا للتثبيت والاستخدام بشكل صحيح.
وحدة معالجة الرسومات RTX 30-Series أو 40-Series وذاكرة الوصول العشوائي (RAM) سعة 16 جيجابايت ومساحة ذاكرة خالية تبلغ 100 جيجابايت نظام التشغيل Windows 11إذا تجاوز جهاز الكمبيوتر الخاص بك الحد الأدنى من متطلبات النظام، فيمكنك المضي قدمًا وتثبيت التطبيق.
الخطوة 1: قم بتنزيل ملف Chat with RTX ZIP. التنزيل: الدردشة مع RTX (تنزيل مجاني - 35 جيجابايت)الخطوة 2: قم باستخراج ملف ZIP عن طريق النقر بزر الماوس الأيمن واختيار أداة أرشفة الملفات مثل 7Zip أو انقر نقرًا مزدوجًا فوق الملف وتحديد "استخراج الكل". الخطوة 3: افتح المجلد المستخرج وانقر نقرًا مزدوجًا فوق setup.exe. اتبع التعليمات التي تظهر على الشاشة وحدد كافة المربعات أثناء عملية التثبيت المخصصة. بعد الضغط على التالي، سيقوم المثبت بتنزيل وتثبيت LLM وجميع التبعيات.
سيستغرق تثبيت Chat with RTX بعض الوقت للانتهاء حيث يقوم بتنزيل وتثبيت كمية كبيرة من البيانات. بعد عملية التثبيت، اضغط على إغلاق، وبذلك تكون قد انتهيت. والآن حان الوقت لتجربة التطبيق.
على الرغم من أنه يمكنك استخدام Chat مع RTX مثل chatbot عادي يعمل بالذكاء الاصطناعي عبر الإنترنت، إلا أنني أقترح عليك بشدة التحقق من وظيفة RAG الخاصة به، والتي تمكنك من تخصيص مخرجاته بناءً على على الملفات التي تمنح حق الوصول إليها.
لبدء استخدام RAG في الدردشة مع RTX، قم بإنشاء مجلد جديد لتخزين الملفات التي تريد من الذكاء الاصطناعي تحليلها.
بعد الإنشاء، ضع ملفات البيانات الخاصة بك في المجلد. يمكن أن تغطي البيانات التي تخزنها العديد من المواضيع وأنواع الملفات، مثل المستندات وملفات PDF والنصوص ومقاطع الفيديو. ومع ذلك، قد ترغب في تحديد عدد الملفات التي تضعها في هذا المجلد حتى لا يؤثر على الأداء. المزيد من البيانات للبحث من خلالها يعني أن الدردشة مع RTX ستستغرق وقتًا أطول لإرجاع الردود لاستعلامات محددة (ولكن هذا يعتمد أيضًا على الأجهزة).
الآن أصبحت قاعدة البيانات الخاصة بك جاهزة، يمكنك إعداد الدردشة مع RTX والبدء في استخدامها للإجابة على أسئلتك واستفساراتك.
افتح الدردشة مع RTX. يجب أن تبدو مثل الصورة أدناه.
ضمن مجموعة البيانات، تأكد من تحديد خيار مسار المجلد. انقر الآن على أيقونة التحرير أدناه (أيقونة القلم) وحدد المجلد الذي يحتوي على جميع الملفات التي تريد أن تقرأها Chat with RTX. يمكنك أيضًا تغيير نموذج الذكاء الاصطناعي في حالة توفر خيارات أخرى (في وقت كتابة هذا التقرير، يتوفر فقط Mistral 7B).
أنت الآن جاهز لاستخدام الدردشة مع RTX.
هناك عدة طرق للاستعلام عن الدردشة مع RTX. الأول هو استخدامه مثل برنامج الدردشة الآلي العادي الذي يعمل بالذكاء الاصطناعي. لقد سألت Chat with RTX عن فوائد استخدام LLM محلي وكنت راضيًا عن إجابتها. لم تكن متعمقة للغاية، ولكنها دقيقة بما فيه الكفاية.
ولكن نظرًا لأن Chat with RTX قادر على RAG، فيمكنك أيضًا استخدامه كمساعد AI شخصي.
أعلاه، لقد استخدمت الدردشة مع RTX للاستفسار عن جدول أعمالي. جاءت البيانات من ملف PDF يحتوي على الجدول الزمني والتقويم والأحداث والعمل وما إلى ذلك. في هذه الحالة، قامت Chat with RTX بسحب بيانات التقويم الصحيحة من البيانات؛ سيتعين عليك الاحتفاظ بملفات البيانات وتواريخ التقويم الخاصة بك محدثة حتى تعمل ميزات مثل هذه بشكل صحيح حتى يتم التكامل مع التطبيقات الأخرى.
هناك العديد من الطرق التي يمكنك من خلالها استخدام الدردشة مع RTX's RAG لصالحك. على سبيل المثال، يمكنك استخدامه لقراءة الأوراق القانونية وتقديم ملخص، وإنشاء تعليمات برمجية ذات صلة بالبرنامج الذي تقوم بتطويره، والحصول على نقاط بارزة حول مقطع فيديو كنت مشغولاً جدًا بمشاهدته، وغير ذلك الكثير!
بالإضافة إلى مجلد البيانات المحلية، يمكنك استخدام الدردشة مع RTX لتحليل مقاطع فيديو YouTube. للقيام بذلك، ضمن مجموعة البيانات، قم بتغيير مسار المجلد إلى عنوان URL الخاص بموقع YouTube.
انسخ عنوان URL على YouTube الذي تريد تحليله والصقه أسفل القائمة المنسدلة. ثم اسأل بعيدا!
كانت الدردشة مع تحليل فيديو YouTube الخاص بـ RTX جيدة جدًا وقدمت معلومات دقيقة، لذلك يمكن أن تكون مفيدة للبحث والتحليل السريع والمزيد.
يوفر ChatGPT وظيفة RAG. تتمتع بعض روبوتات الدردشة المحلية المدعمة بالذكاء الاصطناعي بمتطلبات نظام أقل بكثير. إذًا، هل تستحق Nvidia Chat with RTX استخدامها؟
الجواب نعم! الدردشة مع RTX تستحق الاستخدام على الرغم من المنافسة.
إحدى أكبر نقاط البيع لاستخدام Nvidia Chat مع RTX هي قدرتها على استخدام RAG دون إرسال ملفاتك إلى خادم طرف ثالث. يمكن أن يؤدي تخصيص GPTs من خلال الخدمات عبر الإنترنت إلى كشف بياناتك. ولكن نظرًا لأن الدردشة مع RTX تعمل محليًا وبدون اتصال بالإنترنت، فإن استخدام RAG على Chat with RTX يضمن أن بياناتك الحساسة آمنة ولا يمكن الوصول إليها إلا على جهاز الكمبيوتر الخاص بك.
أما بالنسبة لروبوتات الدردشة الأخرى التي تعمل بالذكاء الاصطناعي والتي تعمل محليًا والتي تعمل بنظام Mistral 7B، فإن أداء الدردشة مع RTX أفضل وأسرع. على الرغم من أن جزءًا كبيرًا من تعزيز الأداء يأتي من استخدام وحدات معالجة الرسومات المتطورة، فإن استخدام Nvidia TensorRT-LLM وتسارع RTX جعل تشغيل Mistral 7B أسرع على Chat with RTX مقارنة بالطرق الأخرى لتشغيل LLM محسّنة للدردشة.
تجدر الإشارة إلى أن إصدار Chat with RTX الذي نستخدمه حاليًا هو إصدار تجريبي. من المرجح أن تصبح الإصدارات اللاحقة من Chat with RTX أكثر تحسينًا وستوفر تعزيزات في الأداء.
تعد الدردشة مع RTX طريقة سهلة وسريعة وآمنة لتشغيل LLM محليًا دون الحاجة إلى اتصال بالإنترنت. إذا كنت مهتمًا أيضًا بتشغيل LLM أو محليًا ولكن ليس لديك وحدة معالجة الرسومات RTX 30 أو 40 Series، فيمكنك تجربة طرق أخرى لتشغيل LLM محليًا. اثنان من أكثرها شيوعًا هما GPT4ALL وText Gen WebUI. جرب GPT4ALL إذا كنت تريد تجربة التوصيل والتشغيل محليًا باستخدام LLM. ولكن إذا كنت تميل إلى التقنية أكثر قليلاً، فإن تشغيل LLMs من خلال Text Gen WebUI سيوفر لك ضبطًا ومرونة أفضل.
تنصل: جميع الموارد المقدمة هي جزئيًا من الإنترنت. إذا كان هناك أي انتهاك لحقوق الطبع والنشر الخاصة بك أو الحقوق والمصالح الأخرى، فيرجى توضيح الأسباب التفصيلية وتقديم دليل على حقوق الطبع والنشر أو الحقوق والمصالح ثم إرسالها إلى البريد الإلكتروني: [email protected]. سوف نتعامل مع الأمر لك في أقرب وقت ممكن.
Copyright© 2022 湘ICP备2022001581号-3