最近、仕事で特定の使用例に合わせて文章を分類する必要がありました。 Jeremy Howard のレッスン 4: まったくの初心者のための NLP の入門を思い出し、私はまず DEBERTA を微調整するために彼のノートブックを適応させました。
うまくいきましたが、満足できるものではなかったので、LLAMA 3 のような LLM を使用するとどうなるか興味がありました。問題は何ですか?限られた GPU リソース。 Tesla/Nvidia T4 インスタンスにしかアクセスできませんでした。
リサーチの結果、QLORA にたどり着きました。 QLoRA を使用した株式センチメントのテキスト分類のための LLama 3 LLM の微調整に関するこのチュートリアルは特に役に立ちました。チュートリアルをよりよく理解するために、レッスン 4 を QLORA チュートリアル ノートブックに取り入れました。
QLORA は 2 つの主要なテクニックを使用します:
これにより、約 12GB の VRAM を使用して、16GB VRAM T4 で LLAMA 3 8B をトレーニングできるようになりました。結果は驚くほど良好で、予測精度は 90% 以上でした。
Confusion Matrix: [[83 4] [ 4 9]] Classification Report: precision recall f1-score support 0.0 0.95 0.95 0.95 87 1.0 0.69 0.69 0.69 13 accuracy 0.92 100 macro avg 0.82 0.82 0.82 100 weighted avg 0.92 0.92 0.92 100 Balanced Accuracy Score: 0.8231653404067196 Accuracy Score: 0.92
プロセスの詳細を説明した iPython ノートブックは次のとおりです。
このアプローチは、限られたハードウェア上で大規模な言語モデルを操作できることを示しています。制約に対処することで、多くの場合、創造的な問題解決や学習の機会が生まれます。この場合、制限があるため、より効率的な微調整テクニックを探索して実装する必要がありました。
免責事項: 提供されるすべてのリソースの一部はインターネットからのものです。お客様の著作権またはその他の権利および利益の侵害がある場合は、詳細な理由を説明し、著作権または権利および利益の証拠を提出して、電子メール [email protected] に送信してください。 できるだけ早く対応させていただきます。
Copyright© 2022 湘ICP备2022001581号-3