”工欲善其事,必先利其器。“—孔子《论语.录灵公》
首页 > 编程 > 用有限的资源微调 LLAMA 或文本分类

用有限的资源微调 LLAMA 或文本分类

发布于2024-09-01
浏览:327

Fine-tuning LLAMA or Text Classification with Limited Resources

我最近需要在工作中对特定用例的句子进行分类。记得 Jeremy Howard 的第 4 课:针对绝对初学者的 NLP 入门,我首先改编了他的笔记本来微调 DEBERTA。

它有效,但并不令我满意,所以我很好奇如果我使用像 LLAMA 3 这样的法学硕士会发生什么。问题是什么? GPU 资源有限。我只能访问 Tesla/Nvidia T4 实例。

研究让我找到了 QLORA。这个关于使用 QLoRA 微调 LLama 3 LLM 进行股票情绪文本分类的教程特别有用。为了更好地理解本教程,我将第 4 课改编到 QLORA 教程笔记本中。

QLORA 使用两种主要技术:

  1. 量化:降低模型精度,使其更小。
  2. LORA(低阶适应):添加小型可训练层,而不是微调整个模型。

这使我能够在 16GB VRAM T4 上训练 LLAMA 3 8B,使用大约 12GB 的 VRAM。结果出奇的好,预测准确率超过90%。

Confusion Matrix:
[[83  4]
[ 4  9]]
Classification Report:
              precision    recall  f1-score   support
         0.0       0.95      0.95      0.95        87
         1.0       0.69      0.69      0.69        13
    accuracy                           0.92       100
   macro avg       0.82      0.82      0.82       100
weighted avg       0.92      0.92      0.92       100
Balanced Accuracy Score: 0.8231653404067196
Accuracy Score: 0.92

这是详细介绍该过程的 iPython 笔记本。

这种方法表明可以在有限的硬件上使用大型语言模型。在限制条件下工作通常会带来创造性的问题解决和学习机会。在这种情况下,这些限制促使我探索和实施更有效的微调技术。

版本声明 本文转载于:https://dev.to/jkyamog/fine-tuning-llama-3-for-text-classification-with-limited-resources-4i06?1如有侵犯,请联系[email protected]删除
最新教程 更多>

免责声明: 提供的所有资源部分来自互联网,如果有侵犯您的版权或其他权益,请说明详细缘由并提供版权或权益证明然后发到邮箱:[email protected] 我们会第一时间内为您处理。

Copyright© 2022 湘ICP备2022001581号-3