llama3
-
[Ollama] 모델 저장위치 변경하기Data & ML & AI/LLM 2024. 7. 26. 19:36
Ollama는 기본적으로 시스템 기본 위치에 설치되고 돌아갑니다.윈도우라면 C드라이브, 리눅스라면 usr 밑에 깔립니다. 그런데 이런 위치에 모델을 깔기엔, 모델의 용량이 너무 무겁습니다.(24년 7월 기준) llama3.1:8b = 4.7GB llama3.1:70b = 40GB llama3.1:405b = 231GB Ollama작동위치와 모델의 설치위치를 D드라이브나 기타 Block으로 변경해봅시다. 1. Ollama 설치 (기존과 동일)curl -fsSL https://ollama.com/install.sh | sh 2. 모델위치 환경설정 (기존엔 없었음)# Environment="OLLAMA_MODELS=/folder/ollama/models"Environment="OLLAMA_MODELS=/h..
-
[Llama3] Ollama와 Llama-Index로 Llama3 쉽게 시작하기(ubuntu)Data & ML & AI/LLM 2024. 6. 29. 15:59
1. 사전 세팅1) Ollama 준비# ollama 설치curl -fsSL https://ollama.com/install.sh | sh# ollama app 실행ollama serve# 정상 작동여부 확인 (새 터미널에서)ollama run llama3모델을 처음 돌릴 때는 해당 모델 설치를 진행합니다.8B외, 타 모델을 돌리고 싶다면 ollama run llama3:70b와 같이 입력하면 됩니다. 2) llama-index 설치pip install llama-index 2. Llama3 사용하기Ollama app 실행상태(Ollama serve) 상태여야 합니다.1) 단순 1회성 대화from llama_index.llms.ollama import Ollamallm = Ollama(model="l..