「労働者が自分の仕事をうまくやりたいなら、まず自分の道具を研ぎ澄まさなければなりません。」 - 孔子、「論語。陸霊公」
表紙 > プログラミング > Llama モデルの実行中に Google Colab セッションがクラッシュしたのはなぜですか?

Llama モデルの実行中に Google Colab セッションがクラッシュしたのはなぜですか?

2024 年 8 月 27 日に公開
ブラウズ:291

metal-llama/Llama-2-7b-hf モデルを使用して、社内でローカルに実行しようとしていますが、プロセス中にセッションがクラッシュしました。

metal-llama/Llama-2-7b-hf モデルを使用して、自分の敷地内でローカルに実行しようとしています。これを行うために、私は Google Colab を使用しており、Hugging Face からアクセス キーを取得しています。私は必要なタスクに同社の変圧器ライブラリを利用しています。最初は、12.7 GB のシステム RAM、15.0 GB の GPU RAM、78.2 GB のディスク容量を提供する Google Colab の T4 GPU ランタイム スタックを使用しました。これらのリソースにもかかわらず、セッションがクラッシュし、次のエラーが発生しました:
Why did my Google Colab session crash while running the Llama model?

その後、334.6 GB のシステム RAM と 225.3 GB のディスク容量を提供する TPU V2 ランタイム スタックに切り替えましたが、問題は解決しませんでした。

これが私のコードです:

!pip install transformers
!pip install --upgrade transformers

from huggingface_hub import login
login(token='Access Token From Hugging Face')

import pandas as pd
from transformers import AutoTokenizer, AutoModelForSequenceClassification, TrainingArguments, Trainer
from torch.utils.data import Dataset

# Load pre-trained Meta-Llama-3.1-8B model
model_name = "meta-llama/Llama-2-7b-hf"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSequenceClassification.from_pretrained(model_name)
リリースステートメント この記事は次の場所に転載されています: https://dev.to/riddhi_007f87a3b86e45bf61/why-did-my-google-colab-session-crash-while-running-the-llama-model-4bce?1 侵害がある場合は、 Study_golang@163 .comdelete に連絡してください
最新のチュートリアル もっと>

免責事項: 提供されるすべてのリソースの一部はインターネットからのものです。お客様の著作権またはその他の権利および利益の侵害がある場合は、詳細な理由を説明し、著作権または権利および利益の証拠を提出して、電子メール [email protected] に送信してください。 できるだけ早く対応させていただきます。

Copyright© 2022 湘ICP备2022001581号-3