Recientemente necesitaba clasificar oraciones para un caso de uso particular en el trabajo. Recordando la Lección 4 de Jeremy Howard: Cómo empezar con la PNL para principiantes absolutos, primero adapté su cuaderno para perfeccionar DEBERTA.
Funcionó, pero no fue satisfactorio para mí, así que tenía curiosidad por saber qué pasaría si usara un LLM como LLAMA 3. ¿El problema? Recursos limitados de GPU. Solo tuve acceso a una instancia Tesla/Nvidia T4.
La investigación me llevó a QLORA. Este tutorial sobre cómo ajustar LLama 3 LLM para la clasificación de texto del sentimiento de acciones utilizando QLoRA fue particularmente útil. Para comprender mejor el tutorial, adapté la Lección 4 al cuaderno de tutoriales de QLORA.
QLORA utiliza dos técnicas principales:
Esto me permitió entrenar LLAMA 3 8B en una VRAM T4 de 16 GB, usando aproximadamente 12 GB de VRAM. Los resultados fueron sorprendentemente buenos, con una precisión de predicción superior al 90 %.
Confusion Matrix: [[83 4] [ 4 9]] Classification Report: precision recall f1-score support 0.0 0.95 0.95 0.95 87 1.0 0.69 0.69 0.69 13 accuracy 0.92 100 macro avg 0.82 0.82 0.82 100 weighted avg 0.92 0.92 0.92 100 Balanced Accuracy Score: 0.8231653404067196 Accuracy Score: 0.92
Aquí está el cuaderno de iPython que detalla el proceso.
Este enfoque muestra que es posible trabajar con modelos de lenguaje grandes en hardware limitado. Trabajar con limitaciones a menudo conduce a la resolución creativa de problemas y a oportunidades de aprendizaje. En este caso, las limitaciones me empujaron a explorar e implementar técnicas de ajuste más eficientes.
Descargo de responsabilidad: Todos los recursos proporcionados provienen en parte de Internet. Si existe alguna infracción de sus derechos de autor u otros derechos e intereses, explique los motivos detallados y proporcione pruebas de los derechos de autor o derechos e intereses y luego envíelos al correo electrónico: [email protected]. Lo manejaremos por usted lo antes posible.
Copyright© 2022 湘ICP备2022001581号-3