목록으로
설명
로컬 환경에서 LLM을 실행하는 CLI로 Llama, Mistral, Gemma 등 오픈소스 모델을 쉽게 다운로드·실행합니다. ollama run으로 모델과 대화하고 ollama serve로 API 서버를 실행하며 GPU 가속을 자동 활용합니다.
인증 방식
인증 불필요
CORS 지원
미지원 (프록시 필요)
가격
무료
태그
CLIOllamaLLM로컬AI오픈소스
사용 예시
curl -s "brew install ollama/ticker?markets=KRW-BTC"
코드 예시
curl -s "brew install ollama"
API Playground
실제 API를 브라우저에서 바로 테스트해보세요