我最近需要在工作中對特定用例的句子進行分類。記得 Jeremy Howard 的第 4 課:針對絕對初學者的 NLP 入門,我首先改編了他的筆記本來微調 DEBERTA。
它有效,但並不令我滿意,所以我很好奇如果我使用像 LLAMA 3 這樣的法學碩士會發生什麼。問題是什麼? GPU 資源有限。我只能存取 Tesla/Nvidia T4 實例。
研究讓我找到了 QLORA。這個關於使用 QLoRA 微調 LLama 3 LLM 進行股票情緒文字分類的教學特別有用。為了更好地理解本教程,我將第 4 課改編到 QLORA 教程筆記本中。
QLORA 使用兩種主要技術:
這使我能夠在 16GB VRAM T4 上訓練 LLAMA 3 8B,使用大約 12GB 的 VRAM。結果出奇的好,預測準確率超過90%。
Confusion Matrix: [[83 4] [ 4 9]] Classification Report: precision recall f1-score support 0.0 0.95 0.95 0.95 87 1.0 0.69 0.69 0.69 13 accuracy 0.92 100 macro avg 0.82 0.82 0.82 100 weighted avg 0.92 0.92 0.92 100 Balanced Accuracy Score: 0.8231653404067196 Accuracy Score: 0.92
這是詳細介紹該過程的 iPython 筆記本。
這種方法表明可以在有限的硬體上使用大型語言模型。在限制條件下工作通常會帶來創造性的問題解決和學習機會。在這種情況下,這些限制促使我探索和實施更有效的微調技術。
免責聲明: 提供的所有資源部分來自互聯網,如果有侵犯您的版權或其他權益,請說明詳細緣由並提供版權或權益證明然後發到郵箱:[email protected] 我們會在第一時間內為您處理。
Copyright© 2022 湘ICP备2022001581号-3