Recentemente, precisei classificar frases para um caso de uso específico no trabalho. Lembrando a Lição 4 de Jeremy Howard: Introdução à PNL para iniciantes, primeiro adaptei seu caderno para ajustar o DEBERTA.
Funcionou, mas não me satisfez, então fiquei curioso para saber o que aconteceria se eu usasse um LLM como o LLAMA 3. O problema? Recursos limitados de GPU. Eu só tive acesso a uma instância Tesla/Nvidia T4.
A pesquisa me levou ao QLORA. Este tutorial sobre ajuste fino do LLama 3 LLM para classificação de texto de sentimento de ações usando QLoRA foi particularmente útil. Para entender melhor o tutorial, adaptei a Lição 4 para o caderno de tutoriais do QLORA.
QLORA usa duas técnicas principais:
Isso me permitiu treinar o LLAMA 3 8B em um VRAM T4 de 16 GB, usando cerca de 12 GB de VRAM. Os resultados foram surpreendentemente bons, com precisão de previsão superior a 90%.
Confusion Matrix: [[83 4] [ 4 9]] Classification Report: precision recall f1-score support 0.0 0.95 0.95 0.95 87 1.0 0.69 0.69 0.69 13 accuracy 0.92 100 macro avg 0.82 0.82 0.82 100 weighted avg 0.92 0.92 0.92 100 Balanced Accuracy Score: 0.8231653404067196 Accuracy Score: 0.92
Aqui está o notebook iPython detalhando o processo.
Essa abordagem mostra que é possível trabalhar com grandes modelos de linguagem em hardware limitado. Trabalhar com restrições muitas vezes leva à resolução criativa de problemas e a oportunidades de aprendizagem. Neste caso, as limitações me levaram a explorar e implementar técnicas de ajuste fino mais eficientes.
Isenção de responsabilidade: Todos os recursos fornecidos são parcialmente provenientes da Internet. Se houver qualquer violação de seus direitos autorais ou outros direitos e interesses, explique os motivos detalhados e forneça prova de direitos autorais ou direitos e interesses e envie-a para o e-mail: [email protected]. Nós cuidaremos disso para você o mais rápido possível.
Copyright© 2022 湘ICP备2022001581号-3