ClawOps Docs

LLM (Large Language Model)

Pipeline 모드에서 사용할 수 있는 빌트인 LLM Provider 목록입니다.

LLM (Large Language Model)

Pipeline 모드에서 텍스트 응답을 생성하는 빌트인 Provider입니다.

아래 제공자들은 모두 검증 전 상태입니다. 검증 상태는 제공자 호환성 문서에서 확인하세요.

OpenAILLM

OpenAI Chat Completions API 기반 스트리밍 텍스트 생성입니다. Tool 호출을 지원합니다.

from clawops.agent.pipeline import OpenAILLM

llm = OpenAILLM(
    model="gpt-4o-mini",
    temperature=0.8,
    max_tokens=4096,
)

파라미터

파라미터타입기본값설명
api_keystr | NoneNoneOpenAI API 키. 미지정 시 OPENAI_API_KEY 환경변수 사용
modelstr"gpt-4o-mini"OpenAI 모델
temperaturefloat0.8응답 다양성 (0.0~2.0)
max_tokensint4096최대 응답 토큰 수

AnthropicLLM

Anthropic Claude API 기반 스트리밍 텍스트 생성입니다. Tool 호출을 지원합니다.

from clawops.agent.pipeline import AnthropicLLM

llm = AnthropicLLM(
    model="claude-sonnet-4-6",
    temperature=0.8,
    max_tokens=4096,
)

파라미터

파라미터타입기본값설명
api_keystr | NoneNoneAnthropic API 키. 미지정 시 ANTHROPIC_API_KEY 환경변수 사용
modelstr"claude-sonnet-4-6"Anthropic 모델
temperaturefloat0.8응답 다양성 (0.0~1.0)
max_tokensint4096최대 응답 토큰 수

GeminiLLM

Google Gemini API 기반 스트리밍 텍스트 생성입니다. Tool 호출을 지원합니다.

from clawops.agent.pipeline import GeminiLLM

llm = GeminiLLM(
    model="gemini-2.5-flash",
    temperature=0.8,
    max_tokens=4096,
)

파라미터

파라미터타입기본값설명
api_keystr | NoneNoneGoogle API 키. 미지정 시 GOOGLE_API_KEY 환경변수 사용
modelstr"gemini-2.5-flash"Gemini 모델
temperaturefloat0.8응답 다양성 (0.0~2.0)
max_tokensint4096최대 응답 토큰 수

Vertex AI 사용

GOOGLE_API_KEY 없이 Google Cloud Vertex AI 백엔드를 사용할 수 있습니다. GeminiRealtimeGeminiLLM 모두 동일하게 적용됩니다.

export GOOGLE_GENAI_USE_VERTEXAI=true
export GOOGLE_CLOUD_PROJECT="your-project-id"
export GOOGLE_CLOUD_LOCATION="us-central1"

Vertex AI는 ADC(Application Default Credentials)로 인증합니다.

로컬 개발:

gcloud auth application-default login

서버/CI 환경: 서비스 계정 키 경로를 지정합니다.

export GOOGLE_APPLICATION_CREDENTIALS="/path/to/service-account-key.json"

Google Cloud 환경 (GCE, Cloud Run, GKE): 별도 설정 없이 자동 인증됩니다.

OllamaLLM

Ollama 로컬 LLM 기반 스트리밍 텍스트 생성입니다. OpenAI 호환 API를 사용하며 Tool 호출을 지원합니다.

from clawops.agent.pipeline import OllamaLLM

llm = OllamaLLM(
    model="llama3.2",
    temperature=0.8,
    max_tokens=4096,
)

파라미터

파라미터타입기본값설명
modelstr"llama3.2"Ollama 모델
base_urlstr | NoneNoneOllama 서버 URL. 미지정 시 OLLAMA_BASE_URL 환경변수 또는 http://localhost:11434/v1
temperaturefloat0.8응답 다양성 (0.0~2.0)
max_tokensint4096최대 응답 토큰 수

MistralLLM

Mistral AI 기반 스트리밍 텍스트 생성입니다. OpenAI 호환 API를 사용하며 Tool 호출을 지원합니다.

from clawops.agent.pipeline import MistralLLM

llm = MistralLLM(
    model="mistral-small-latest",
    temperature=0.8,
    max_tokens=4096,
)

파라미터

파라미터타입기본값설명
api_keystr | NoneNoneMistral API 키. 미지정 시 MISTRAL_API_KEY 환경변수 사용
modelstr"mistral-small-latest"Mistral 모델
temperaturefloat0.8응답 다양성 (0.0~2.0)
max_tokensint4096최대 응답 토큰 수

GroqLLM

Groq 기반 초저지연 스트리밍 텍스트 생성입니다. OpenAI 호환 API를 사용하며 Tool 호출을 지원합니다.

from clawops.agent.pipeline import GroqLLM

llm = GroqLLM(
    model="meta-llama/llama-4-scout-17b-16e-instruct",
    temperature=0.8,
    max_tokens=4096,
)

파라미터

파라미터타입기본값설명
api_keystr | NoneNoneGroq API 키. 미지정 시 GROQ_API_KEY 환경변수 사용
modelstr"meta-llama/llama-4-scout-17b-16e-instruct"Groq 모델
temperaturefloat0.8응답 다양성 (0.0~2.0)
max_tokensint4096최대 응답 토큰 수

PerplexityLLM

Perplexity 기반 스트리밍 텍스트 생성입니다. OpenAI 호환 API를 사용하며 웹 검색 기반 응답을 제공합니다.

from clawops.agent.pipeline import PerplexityLLM

llm = PerplexityLLM(
    model="sonar",
    temperature=0.8,
    max_tokens=4096,
)

파라미터

파라미터타입기본값설명
api_keystr | NoneNonePerplexity API 키. 미지정 시 PERPLEXITY_API_KEY 환경변수 사용
modelstr"sonar"Perplexity 모델
temperaturefloat0.8응답 다양성 (0.0~2.0)
max_tokensint4096최대 응답 토큰 수

TogetherLLM

Together AI 기반 스트리밍 텍스트 생성입니다. OpenAI 호환 API를 사용하며 Tool 호출을 지원합니다.

from clawops.agent.pipeline import TogetherLLM

llm = TogetherLLM(
    model="meta-llama/Llama-4-Scout-17B-16E-Instruct",
    temperature=0.8,
    max_tokens=4096,
)

파라미터

파라미터타입기본값설명
api_keystr | NoneNoneTogether API 키. 미지정 시 TOGETHER_API_KEY 환경변수 사용
modelstr"meta-llama/Llama-4-Scout-17B-16E-Instruct"Together AI 모델
temperaturefloat0.8응답 다양성 (0.0~2.0)
max_tokensint4096최대 응답 토큰 수

FireworksLLM

Fireworks AI 기반 스트리밍 텍스트 생성입니다. OpenAI 호환 API를 사용하며 Tool 호출을 지원합니다.

from clawops.agent.pipeline import FireworksLLM

llm = FireworksLLM(
    model="accounts/fireworks/models/llama4-scout-instruct-basic",
    temperature=0.8,
    max_tokens=4096,
)

파라미터

파라미터타입기본값설명
api_keystr | NoneNoneFireworks API 키. 미지정 시 FIREWORKS_API_KEY 환경변수 사용
modelstr"accounts/fireworks/models/llama4-scout-instruct-basic"Fireworks 모델
temperaturefloat0.8응답 다양성 (0.0~2.0)
max_tokensint4096최대 응답 토큰 수

DeepSeekLLM

DeepSeek 기반 스트리밍 텍스트 생성입니다. OpenAI 호환 API를 사용하며 Tool 호출을 지원합니다.

from clawops.agent.pipeline import DeepSeekLLM

llm = DeepSeekLLM(
    model="deepseek-chat",
    temperature=0.8,
    max_tokens=4096,
)

파라미터

파라미터타입기본값설명
api_keystr | NoneNoneDeepSeek API 키. 미지정 시 DEEPSEEK_API_KEY 환경변수 사용
modelstr"deepseek-chat"DeepSeek 모델
temperaturefloat0.8응답 다양성 (0.0~2.0)
max_tokensint4096최대 응답 토큰 수

XaiLLM

xAI Grok 기반 스트리밍 텍스트 생성입니다. OpenAI 호환 API를 사용하며 Tool 호출을 지원합니다.

from clawops.agent.pipeline import XaiLLM

llm = XaiLLM(
    model="grok-4-1-fast",
    temperature=0.8,
    max_tokens=4096,
)

파라미터

파라미터타입기본값설명
api_keystr | NoneNonexAI API 키. 미지정 시 XAI_API_KEY 환경변수 사용
modelstr"grok-4-1-fast"xAI 모델
temperaturefloat0.8응답 다양성 (0.0~2.0)
max_tokensint4096최대 응답 토큰 수