"Se um trabalhador quiser fazer bem o seu trabalho, ele deve primeiro afiar suas ferramentas." - Confúcio, "Os Analectos de Confúcio. Lu Linggong"
Primeira página > Programação > Ajustando LLAMA ou classificação de texto com recursos limitados

Ajustando LLAMA ou classificação de texto com recursos limitados

Publicado em 01/09/2024
Navegar:511

Fine-tuning LLAMA or Text Classification with Limited Resources

Recentemente, precisei classificar frases para um caso de uso específico no trabalho. Lembrando a Lição 4 de Jeremy Howard: Introdução à PNL para iniciantes, primeiro adaptei seu caderno para ajustar o DEBERTA.

Funcionou, mas não me satisfez, então fiquei curioso para saber o que aconteceria se eu usasse um LLM como o LLAMA 3. O problema? Recursos limitados de GPU. Eu só tive acesso a uma instância Tesla/Nvidia T4.

A pesquisa me levou ao QLORA. Este tutorial sobre ajuste fino do LLama 3 LLM para classificação de texto de sentimento de ações usando QLoRA foi particularmente útil. Para entender melhor o tutorial, adaptei a Lição 4 para o caderno de tutoriais do QLORA.

QLORA usa duas técnicas principais:

  1. Quantização: Reduz a precisão do modelo, tornando-o menor.
  2. LORA (adaptação de baixa classificação): adiciona camadas pequenas e treináveis ​​em vez de ajustar todo o modelo.

Isso me permitiu treinar o LLAMA 3 8B em um VRAM T4 de 16 GB, usando cerca de 12 GB de VRAM. Os resultados foram surpreendentemente bons, com precisão de previsão superior a 90%.

Confusion Matrix:
[[83  4]
[ 4  9]]
Classification Report:
              precision    recall  f1-score   support
         0.0       0.95      0.95      0.95        87
         1.0       0.69      0.69      0.69        13
    accuracy                           0.92       100
   macro avg       0.82      0.82      0.82       100
weighted avg       0.92      0.92      0.92       100
Balanced Accuracy Score: 0.8231653404067196
Accuracy Score: 0.92

Aqui está o notebook iPython detalhando o processo.

Essa abordagem mostra que é possível trabalhar com grandes modelos de linguagem em hardware limitado. Trabalhar com restrições muitas vezes leva à resolução criativa de problemas e a oportunidades de aprendizagem. Neste caso, as limitações me levaram a explorar e implementar técnicas de ajuste fino mais eficientes.

Declaração de lançamento Este artigo foi reproduzido em: https://dev.to/jkyamog/fine-tuning-llama-3-for-text-classification-with-limited-resources-4i06?1 Se houver alguma violação, entre em contato com study_golang@163 .com para excluí-lo
Tutorial mais recente Mais>

Isenção de responsabilidade: Todos os recursos fornecidos são parcialmente provenientes da Internet. Se houver qualquer violação de seus direitos autorais ou outros direitos e interesses, explique os motivos detalhados e forneça prova de direitos autorais ou direitos e interesses e envie-a para o e-mail: [email protected]. Nós cuidaremos disso para você o mais rápido possível.

Copyright© 2022 湘ICP备2022001581号-3