«Если рабочий хочет хорошо выполнять свою работу, он должен сначала заточить свои инструменты» — Конфуций, «Аналитики Конфуция. Лу Лингун»
титульная страница > программирование > Точная настройка LLAMA или классификации текста с ограниченными ресурсами

Точная настройка LLAMA или классификации текста с ограниченными ресурсами

Опубликовано 1 сентября 2024 г.
Просматривать:932

Fine-tuning LLAMA or Text Classification with Limited Resources

Недавно мне нужно было классифицировать предложения для конкретного варианта использования на работе. Вспомнив Урок 4 Джереми Ховарда «Начало работы с НЛП для абсолютных новичков», я сначала адаптировал его блокнот для точной настройки DEBERTA.

Это сработало, но не к моему удовлетворению, поэтому мне было любопытно, что произойдет, если я буду использовать LLM, такой как LLAMA 3. Проблема? Ограниченные ресурсы графического процессора. У меня был доступ только к экземпляру Tesla/Nvidia T4.

Исследования привели меня к QLORA. Это руководство по точной настройке LLama 3 LLM для текстовой классификации настроений по акциям с использованием QLoRA было особенно полезным. Чтобы лучше понять урок, я адаптировал Урок 4 в учебную тетрадь QLORA.

QLORA использует два основных метода:

  1. Квантование: снижает точность модели, делая ее меньше.
  2. LORA (адаптация низкого ранга): добавляет небольшие обучаемые слои вместо тонкой настройки всей модели.

Это позволило мне обучить LLAMA 3 8B на 16 ГБ видеопамяти T4, используя около 12 ГБ видеопамяти. Результаты оказались на удивление хорошими: точность прогнозирования превысила 90%.

Confusion Matrix:
[[83  4]
[ 4  9]]
Classification Report:
              precision    recall  f1-score   support
         0.0       0.95      0.95      0.95        87
         1.0       0.69      0.69      0.69        13
    accuracy                           0.92       100
   macro avg       0.82      0.82      0.82       100
weighted avg       0.92      0.92      0.92       100
Balanced Accuracy Score: 0.8231653404067196
Accuracy Score: 0.92

Вот блокнот iPython с подробным описанием процесса.

Этот подход показывает, что можно работать с большими языковыми моделями на ограниченном оборудовании. Работа с ограничениями часто приводит к творческому решению проблем и возможностям обучения. В данном случае ограничения подтолкнули меня к изучению и внедрению более эффективных методов тонкой настройки.

Заявление о выпуске Эта статья воспроизведена по адресу: https://dev.to/jkyamog/fine-tuning-llama-3-for-text-classification-with-limited-resources-4i06?1 В случае каких-либо нарушений, пожалуйста, свяжитесь с Study_golang@163. .com, чтобы удалить его
Последний учебник Более>

Изучайте китайский

Отказ от ответственности: Все предоставленные ресурсы частично взяты из Интернета. В случае нарушения ваших авторских прав или других прав и интересов, пожалуйста, объясните подробные причины и предоставьте доказательства авторских прав или прав и интересов, а затем отправьте их по электронной почте: [email protected]. Мы сделаем это за вас как можно скорее.

Copyright© 2022 湘ICP备2022001581号-3