"일꾼이 일을 잘하려면 먼저 도구를 갈고 닦아야 한다." - 공자, 『논어』.
첫 장 > 프로그램 작성 > Llama 모델을 실행하는 동안 Google Colab 세션이 충돌하는 이유는 무엇입니까?

Llama 모델을 실행하는 동안 Google Colab 세션이 충돌하는 이유는 무엇입니까?

2024-08-27에 게시됨
검색:675

meta-llama/Llama-2-7b-hf 모델을 사용하여 내 구내에서 로컬로 실행하려고 하는데 프로세스 중에 세션이 중단되었습니다.

meta-llama/Llama-2-7b-hf 모델을 사용하여 내 구내에서 로컬로 실행하려고 합니다. 이를 위해 Google Colab을 사용하고 있으며 Hugging Face에서 액세스 키를 받았습니다. 필요한 작업을 위해 변압기 라이브러리를 활용하고 있습니다. 처음에는 12.7GB의 시스템 RAM, 15.0GB의 GPU RAM 및 78.2GB의 디스크 공간을 제공하는 Google Colab에서 T4 GPU 런타임 스택을 사용했습니다. 이러한 리소스에도 불구하고 세션이 중단되었으며 다음 오류가 발생했습니다.
Why did my Google Colab session crash while running the Llama model?

그런 다음 334.6GB의 시스템 RAM과 225.3GB의 디스크 공간을 제공하는 TPU V2 런타임 스택으로 전환했지만 문제가 지속되었습니다.

내 코드는 다음과 같습니다.

!pip install transformers
!pip install --upgrade transformers

from huggingface_hub import login
login(token='Access Token From Hugging Face')

import pandas as pd
from transformers import AutoTokenizer, AutoModelForSequenceClassification, TrainingArguments, Trainer
from torch.utils.data import Dataset

# Load pre-trained Meta-Llama-3.1-8B model
model_name = "meta-llama/Llama-2-7b-hf"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSequenceClassification.from_pretrained(model_name)
릴리스 선언문 이 기사는 https://dev.to/riddhi_007f87a3b86e45bf61/why-did-my-google-colab-session-crash-while-running-the-llama-model-4bce?1에 재현되어 있습니다.1 침해가 있는 경우, 문의 Study_golang@163 .comdelete
최신 튜토리얼 더>

부인 성명: 제공된 모든 리소스는 부분적으로 인터넷에서 가져온 것입니다. 귀하의 저작권이나 기타 권리 및 이익이 침해된 경우 자세한 이유를 설명하고 저작권 또는 권리 및 이익에 대한 증거를 제공한 후 이메일([email protected])로 보내주십시오. 최대한 빨리 처리해 드리겠습니다.

Copyright© 2022 湘ICP备2022001581号-3