Недавно мне нужно было классифицировать предложения для конкретного варианта использования на работе. Вспомнив Урок 4 Джереми Ховарда «Начало работы с НЛП для абсолютных новичков», я сначала адаптировал его блокнот для точной настройки DEBERTA.
Это сработало, но не к моему удовлетворению, поэтому мне было любопытно, что произойдет, если я буду использовать LLM, такой как LLAMA 3. Проблема? Ограниченные ресурсы графического процессора. У меня был доступ только к экземпляру Tesla/Nvidia T4.
Исследования привели меня к QLORA. Это руководство по точной настройке LLama 3 LLM для текстовой классификации настроений по акциям с использованием QLoRA было особенно полезным. Чтобы лучше понять урок, я адаптировал Урок 4 в учебную тетрадь QLORA.
QLORA использует два основных метода:
Это позволило мне обучить LLAMA 3 8B на 16 ГБ видеопамяти T4, используя около 12 ГБ видеопамяти. Результаты оказались на удивление хорошими: точность прогнозирования превысила 90%.
Confusion Matrix: [[83 4] [ 4 9]] Classification Report: precision recall f1-score support 0.0 0.95 0.95 0.95 87 1.0 0.69 0.69 0.69 13 accuracy 0.92 100 macro avg 0.82 0.82 0.82 100 weighted avg 0.92 0.92 0.92 100 Balanced Accuracy Score: 0.8231653404067196 Accuracy Score: 0.92
Вот блокнот iPython с подробным описанием процесса.
Этот подход показывает, что можно работать с большими языковыми моделями на ограниченном оборудовании. Работа с ограничениями часто приводит к творческому решению проблем и возможностям обучения. В данном случае ограничения подтолкнули меня к изучению и внедрению более эффективных методов тонкой настройки.
Отказ от ответственности: Все предоставленные ресурсы частично взяты из Интернета. В случае нарушения ваших авторских прав или других прав и интересов, пожалуйста, объясните подробные причины и предоставьте доказательства авторских прав или прав и интересов, а затем отправьте их по электронной почте: [email protected]. Мы сделаем это за вас как можно скорее.
Copyright© 2022 湘ICP备2022001581号-3