환경구축 및 에러2 [VScode] code에서 cuda 사용하기 우선 본 포스팅은 code와 python은 깔려있다고 가정한다. 보통 아래와 같은 식으로 활성화 여부를 확인할 수 있다.if not torch.cuda.is_available(): print("CUDA is not available. Exiting the program.") exit()device = torch.device("cuda") 만일, CUDA가 활성화 상태가 아니라면 아래와 같은 방법으로 해결할 수 있다. #1. 그래픽카드, CUDA 버전 확인명령어 nvidia-smi or nvcc --version를 통해 확인 가능하다. #2. cuda version과 호환되는 pytorch 설치 아래 링크에 들어가서 내 cuda 버전과 일치하는 pip 명령문을 가져오면 된다.https://p.. 2025. 1. 15. [Hugging face Error] ValueError: Cannot use chat template functions because tokenizer.chat_template is not set and no template argument was passed! 해당 에러가 뜨는 이유는 tokenizer.chat_template가 설정되지 않았거나 template 인자가 전달되지 않아서 발생한 문제이다. 이 문제를 해결하려면, chat_template를 명시적으로 설정하거나 템플릿을 직접 작성해서 넘겨줘야 한다. -- 해결 코드 --# 기존 코드import torchfrom transformers import pipelinemodel_id = "meta-llama/Llama-3.2-1B"pipe = pipeline( "text-generation", model=model_id, torch_dtype=torch.bfloat16, device_map="auto",)messages = [ {"role": "system", "content".. 2024. 9. 28. 이전 1 다음