메인 콘텐츠로 건너뛰기
W&B Inference를 사용하면 W&B Weave와 OpenAI 호환 API를 통해 대표적인 오픈 소스 파운데이션 모델을 이용할 수 있습니다. 할 수 있는 작업은 다음과 같습니다. Weave를 사용하면 W&B Inference 기반 애플리케이션을 트레이스하고, 평가하고, 모니터링하고, 개선할 수 있습니다.

퀵스타트

다음은 Python을 사용하는 간단한 예시입니다:
import openai

client = openai.OpenAI(
    # 맞춤형 base URL은 W&B Inference를 가리킵니다
    base_url='https://api.inference.wandb.ai/v1',

    # https://wandb.ai/settings 에서 API 키를 생성하세요
    api_key="<your-api-key>",

    # 선택 사항: 사용량 추적을 위한 팀 및 프로젝트
    project="<your-team>/<your-project>",
)

response = client.chat.completions.create(
    model="meta-llama/Llama-3.1-8B-Instruct",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Tell me a joke."}
    ],
)

print(response.choices[0].message.content)

다음 단계

  1. 사용 가능한 모델사용 정보 및 한도을 검토합니다.
  2. 사전 요구 사항에 따라 계정을 설정합니다.
  3. API 또는 UI를 통해 서비스를 사용합니다.
  4. 사용 예시를 사용해 봅니다.

사용 상세 정보

가격, 사용 한도, 크레딧에 관한 정보는 사용 정보 및 한도를 참조하세요.