"यदि कोई कर्मचारी अपना काम अच्छी तरह से करना चाहता है, तो उसे पहले अपने औजारों को तेज करना होगा।" - कन्फ्यूशियस, "द एनालेक्ट्स ऑफ कन्फ्यूशियस। लू लिंगगोंग"
मुखपृष्ठ > प्रोग्रामिंग > सीमित संसाधनों के साथ एलएलएएमए या पाठ वर्गीकरण को ठीक करना

सीमित संसाधनों के साथ एलएलएएमए या पाठ वर्गीकरण को ठीक करना

2024-09-01 को प्रकाशित
ब्राउज़ करें:415

Fine-tuning LLAMA or Text Classification with Limited Resources

मुझे हाल ही में काम पर एक विशेष उपयोग के मामले के लिए वाक्यों को वर्गीकृत करने की आवश्यकता थी। जेरेमी हॉवर्ड के पाठ 4 को याद करते हुए: पूर्ण रूप से शुरुआती लोगों के लिए एनएलपी के साथ शुरुआत करते हुए, मैंने सबसे पहले डेबर्टा को फाइन-ट्यून करने के लिए उसकी नोटबुक को अनुकूलित किया।

यह काम कर गया, लेकिन मेरी संतुष्टि के अनुरूप नहीं, इसलिए मैं उत्सुक था कि अगर मैं एलएलएएमए 3 जैसे एलएलएम का उपयोग करूं तो क्या होगा। समस्या? सीमित जीपीयू संसाधन। मेरे पास केवल टेस्ला/एनवीडिया टी4 इंस्टेंस तक पहुंच थी।

शोध ने मुझे QLORA तक पहुंचाया। QLoRA का उपयोग करके स्टॉक सेंटिमेंट के टेक्स्ट वर्गीकरण के लिए LLama 3 LLM को फाइन ट्यूनिंग पर यह ट्यूटोरियल विशेष रूप से उपयोगी था। ट्यूटोरियल को बेहतर ढंग से समझने के लिए, मैंने पाठ 4 को QLORA ट्यूटोरियल नोटबुक में रूपांतरित किया।

QLORA दो मुख्य तकनीकों का उपयोग करता है:

  1. क्वांटिज़ेशन: मॉडल की सटीकता को कम करता है, जिससे यह छोटा हो जाता है।
  2. लोरा (निम्न-रैंक अनुकूलन): पूरे मॉडल को ठीक करने के बजाय छोटी, प्रशिक्षित करने योग्य परतें जोड़ता है।

इससे मुझे लगभग 12 जीबी वीआरएएम का उपयोग करके 16 जीबी वीआरएएम टी4 पर एलएलएएमए 3 8बी को प्रशिक्षित करने की अनुमति मिली। 90% से अधिक भविष्यवाणी सटीकता के साथ परिणाम आश्चर्यजनक रूप से अच्छे थे।

Confusion Matrix:
[[83  4]
[ 4  9]]
Classification Report:
              precision    recall  f1-score   support
         0.0       0.95      0.95      0.95        87
         1.0       0.69      0.69      0.69        13
    accuracy                           0.92       100
   macro avg       0.82      0.82      0.82       100
weighted avg       0.92      0.92      0.92       100
Balanced Accuracy Score: 0.8231653404067196
Accuracy Score: 0.92

यहां प्रक्रिया का विवरण देने वाली iPython नोटबुक है।

यह दृष्टिकोण दिखाता है कि सीमित हार्डवेयर पर बड़े भाषा मॉडल के साथ काम करना संभव है। बाधाओं के साथ काम करने से अक्सर रचनात्मक समस्या-समाधान और सीखने के अवसर मिलते हैं। इस मामले में, सीमाओं ने मुझे अधिक कुशल फाइन-ट्यूनिंग तकनीकों का पता लगाने और लागू करने के लिए प्रेरित किया।

विज्ञप्ति वक्तव्य यह आलेख यहां पुन: प्रस्तुत किया गया है: https://dev.to/jkyamog/fine-tuning-llama-3-for-text-classification-with-limited-resources-4i06?1 यदि कोई उल्लंघन है, तो कृपया स्टडी_गोलंग@163 से संपर्क करें इसे हटाने के लिए .com
नवीनतम ट्यूटोरियल अधिक>

चीनी भाषा का अध्ययन करें

अस्वीकरण: उपलब्ध कराए गए सभी संसाधन आंशिक रूप से इंटरनेट से हैं। यदि आपके कॉपीराइट या अन्य अधिकारों और हितों का कोई उल्लंघन होता है, तो कृपया विस्तृत कारण बताएं और कॉपीराइट या अधिकारों और हितों का प्रमाण प्रदान करें और फिर इसे ईमेल पर भेजें: [email protected] हम इसे आपके लिए यथाशीघ्र संभालेंगे।

Copyright© 2022 湘ICP备2022001581号-3