Python(Colab) Meta-Llama2 사용해보기
#필요한 라이브러리 설치 하기 !pip install -q transformers accelerate sentencepiece !huggingface-cli login Token: 허깅페이스에 로그인하여 Access Token을 찾아서 입력 Add token as git credential? : git에 연결할 것이냐 유무 Login successful이 뜨면 성공 ! 🟡2. 모델 불러오기 및 파이프라인 생성 #모델 불러오기 #gpu랑 고용량 RAM을 사용하지 않으면 불러올 수 없음(메모리 초과) from transformers import AutoTokenizer import transformers import torch model = "meta-llama/Llama-2-7b-chat-hf" token..
2023.10.05