메인 콘텐츠로 건너뛰기
W&B Weave는 널리 사용되는 LLM 제공업체와 오케스트레이션 프레임워크를 위한 로깅 인테그레이션을 제공합니다. 이러한 인테그레이션을 사용하면 다양한 라이브러리를 통해 이루어지는 호출을 원활하게 트레이스할 수 있어, AI 애플리케이션을 모니터링하고 분석하는 능력을 높일 수 있습니다. 애플리케이션에서 LLM 제공업체 라이브러리(OpenAI, Anthropic, Cohere, Mistral 등)를 사용하는 경우, 해당 API 호출이 W&B Weave에 트레이스된 Calls로 표시되기를 원할 것입니다. 여기에는 inputs, outputs, 지연 시간, token 사용량, 비용이 포함됩니다. 이를 지원하는 기능이 없으면 모든 client.chat.completions.create()(또는 이에 해당하는 호출)를 @weave.op 또는 수동 계측으로 감싸야 하며, 이는 번거롭고 빠뜨리기 쉽습니다. Weave는 지원되는 LLM 클라이언트 라이브러리를 자동으로 가로채(패치)합니다. 애플리케이션 코드는 변경되지 않습니다. 평소처럼 제공업체 SDK를 사용하면 각 요청이 Weave Call로 기록됩니다. 최소한의 설정으로 전체 트레이싱을 이용할 수 있습니다.

LLM 제공업체

LLM 제공업체는 예측을 생성할 수 있도록 대규모 언어 모델에 대한 액세스를 제공하는 벤더입니다. Weave는 이러한 제공업체와 통합되어 해당 API와의 상호작용을 로깅하고 트레이스합니다: 로컬 모델: 자체 인프라에서 모델을 실행하는 경우에 사용합니다.

프레임워크

프레임워크는 AI 애플리케이션에서 실제 실행 파이프라인을 오케스트레이션하는 데 도움을 줍니다. 복잡한 워크플로를 구축할 수 있도록 도구와 추상화 계층을 제공합니다. Weave는 이러한 프레임워크와 통합되어 전체 파이프라인을 트레이스합니다:

RL 프레임워크

프로토콜

Weave는 AI 애플리케이션과 이를 지원하는 서비스 간의 통신을 가능하게 하는 표준화된 프로토콜과 통합됩니다. 위 목록에서 인테그레이션을 선택해 선호하는 LLM 제공업체, 프레임워크 또는 프로토콜과 함께 Weave를 사용하는 방법을 자세히 알아보세요. LLM API에 직접 접근하든, 복잡한 파이프라인을 구축하든, 표준화된 프로토콜을 사용하든, Weave는 AI 애플리케이션을 효과적으로 트레이스하고 분석할 수 있는 도구를 제공합니다.