„Wenn ein Arbeiter seine Arbeit gut machen will, muss er zuerst seine Werkzeuge schärfen.“ – Konfuzius, „Die Gespräche des Konfuzius. Lu Linggong“
Titelseite > Programmierung > Feinabstimmung der LLAMA- oder Textklassifizierung mit begrenzten Ressourcen

Feinabstimmung der LLAMA- oder Textklassifizierung mit begrenzten Ressourcen

Veröffentlicht am 01.09.2024
Durchsuche:139

Fine-tuning LLAMA or Text Classification with Limited Resources

Ich musste kürzlich Sätze für einen bestimmten Anwendungsfall bei der Arbeit klassifizieren. Ich erinnerte mich an Jeremy Howards Lektion 4: Erste Schritte mit NLP für absolute Anfänger und passte zunächst sein Notizbuch an, um DEBERTA zu verfeinern.

Es hat funktioniert, aber nicht zu meiner Zufriedenheit, also war ich neugierig, was passieren würde, wenn ich ein LLM wie LLAMA 3 verwenden würde. Das Problem? Begrenzte GPU-Ressourcen. Ich hatte nur Zugriff auf eine Tesla/Nvidia T4-Instanz.

Recherchen führten mich zu QLORA. Dieses Tutorial zur Feinabstimmung von LLama 3 LLM für die Textklassifizierung der Aktienstimmung mithilfe von QLoRA war besonders nützlich. Um das Tutorial besser zu verstehen, habe ich Lektion 4 in das QLORA-Tutorial-Notizbuch übernommen.

QLORA verwendet zwei Haupttechniken:

  1. Quantisierung: Reduziert die Modellgenauigkeit und macht es kleiner.
  2. LORA (Low-Rank Adaptation): Fügt kleine, trainierbare Schichten hinzu, anstatt das gesamte Modell zu optimieren.

Dadurch konnte ich LLAMA 3 8B auf einem 16 GB VRAM T4 trainieren und dabei etwa 12 GB VRAM verwenden. Die Ergebnisse waren überraschend gut, mit einer Vorhersagegenauigkeit von über 90 %.

Confusion Matrix:
[[83  4]
[ 4  9]]
Classification Report:
              precision    recall  f1-score   support
         0.0       0.95      0.95      0.95        87
         1.0       0.69      0.69      0.69        13
    accuracy                           0.92       100
   macro avg       0.82      0.82      0.82       100
weighted avg       0.92      0.92      0.92       100
Balanced Accuracy Score: 0.8231653404067196
Accuracy Score: 0.92

Hier ist das iPython-Notizbuch, das den Prozess detailliert beschreibt.

Dieser Ansatz zeigt, dass es möglich ist, mit großen Sprachmodellen auf begrenzter Hardware zu arbeiten. Die Arbeit mit Einschränkungen führt oft zu kreativen Problemlösungs- und Lernmöglichkeiten. In diesem Fall drängten mich die Einschränkungen dazu, effizientere Feinabstimmungstechniken zu erforschen und zu implementieren.

Freigabeerklärung Dieser Artikel ist abgedruckt unter: https://dev.to/jkyamog/fine-tuning-llama-3-for-text-classification-with-limited-resources-4i06?1 Bei Verstößen wenden Sie sich bitte an Study_golang@163 .com, um es zu löschen
Neuestes Tutorial Mehr>

Haftungsausschluss: Alle bereitgestellten Ressourcen stammen teilweise aus dem Internet. Wenn eine Verletzung Ihres Urheberrechts oder anderer Rechte und Interessen vorliegt, erläutern Sie bitte die detaillierten Gründe und legen Sie einen Nachweis des Urheberrechts oder Ihrer Rechte und Interessen vor und senden Sie ihn dann an die E-Mail-Adresse: [email protected] Wir werden die Angelegenheit so schnell wie möglich für Sie erledigen.

Copyright© 2022 湘ICP备2022001581号-3