「労働者が自分の仕事をうまくやりたいなら、まず自分の道具を研ぎ澄まさなければなりません。」 - 孔子、「論語。陸霊公」
表紙 > プログラミング > 限られたリソースでの LLAMA またはテキスト分類の微調整

限られたリソースでの LLAMA またはテキスト分類の微調整

2024 年 9 月 1 日に公開
ブラウズ:144

Fine-tuning LLAMA or Text Classification with Limited Resources

最近、仕事で特定の使用例に合わせて文章を分類する必要がありました。 Jeremy Howard のレッスン 4: まったくの初心者のための NLP の入門を思い出し、私はまず DEBERTA を微調整するために彼のノートブックを適応させました。

うまくいきましたが、満足できるものではなかったので、LLAMA 3 のような LLM を使用するとどうなるか興味がありました。問題は何ですか?限られた GPU リソース。 Tesla/Nvidia T4 インスタンスにしかアクセスできませんでした。

リサーチの結果、QLORA にたどり着きました。 QLoRA を使用した株式センチメントのテキスト分類のための LLama 3 LLM の微調整に関するこのチュートリアルは特に役に立ちました。チュートリアルをよりよく理解するために、レッスン 4 を QLORA チュートリアル ノートブックに取り入れました。

QLORA は 2 つの主要なテクニックを使用します:

  1. 量子化: モデルの精度を下げ、モデルを小さくします。
  2. LORA (低ランク適応): モデル全体を微調整する代わりに、小さなトレーニング可能なレイヤーを追加します。

これにより、約 12GB の VRAM を使用して、16GB VRAM T4 で LLAMA 3 8B をトレーニングできるようになりました。結果は驚くほど良好で、予測精度は 90% 以上でした。

Confusion Matrix:
[[83  4]
[ 4  9]]
Classification Report:
              precision    recall  f1-score   support
         0.0       0.95      0.95      0.95        87
         1.0       0.69      0.69      0.69        13
    accuracy                           0.92       100
   macro avg       0.82      0.82      0.82       100
weighted avg       0.92      0.92      0.92       100
Balanced Accuracy Score: 0.8231653404067196
Accuracy Score: 0.92

プロセスの詳細を説明した iPython ノートブックは次のとおりです。

このアプローチは、限られたハードウェア上で大規模な言語モデルを操作できることを示しています。制約に対処することで、多くの場合、創造的な問題解決や学習の機会が生まれます。この場合、制限があるため、より効率的な微調整テクニックを探索して実装する必要がありました。

リリースステートメント この記事は次の場所に転載されています: https://dev.to/jkyamog/fine-tuning-llama-3-for-text-classification-with-limited-resources-4i06?1 侵害がある場合は、study_golang@163 までご連絡ください。 .comを削除してください
最新のチュートリアル もっと>

免責事項: 提供されるすべてのリソースの一部はインターネットからのものです。お客様の著作権またはその他の権利および利益の侵害がある場合は、詳細な理由を説明し、著作権または権利および利益の証拠を提出して、電子メール [email protected] に送信してください。 できるだけ早く対応させていただきます。

Copyright© 2022 湘ICP备2022001581号-3