メインコンテンツへスキップ
W&B OpenAI API インテグレーションを使用すると、ファインチューニングしたモデルを含むすべての OpenAI モデルについて、リクエスト、レスポンス、token 数、モデルのメタデータをログできます。
W&B を使ってファインチューニング実験、モデル、データセットをトラッキングし、結果を同僚と共有する方法については、OpenAI ファインチューニング インテグレーションを参照してください。
API の入力と出力をログすることで、異なるプロンプトのパフォーマンスをすばやく評価し、temperature などの異なるモデル設定を比較したり、token usage などの使用状況メトリクスをトラッキングしたりできます。
OpenAI API の自動ログ

OpenAI Python API ライブラリをインストールする

W&B の autolog インテグレーションは、OpenAI バージョン 0.28.1 以前で動作します。 OpenAI Python API バージョン 0.28.1 をインストールするには、次を実行します。
pip install openai==0.28.1

OpenAI Python API を使用する

1. autolog をインポートして初期化する

まず、wandb.integration.openai から autolog をインポートし、初期化します。
import os
import openai
from wandb.integration.openai import autolog

autolog({"project": "gpt5"})
wandb.init() が受け取る引数の辞書を、必要に応じて autolog に渡せます。これには、プロジェクト名、チーム名、entity などが含まれます。詳細は wandb.init() の APIリファレンスガイドを参照してください。

2. OpenAI API を呼び出す

OpenAI API に対する各 call は、W&B に自動的にログされます。
os.environ["OPENAI_API_KEY"] = "XXX"

chat_request_kwargs = dict(
    model="gpt-3.5-turbo",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Who won the world series in 2020?"},
        {"role": "assistant", "content": "The Los Angeles Dodgers"},
        {"role": "user", "content": "Where was it played?"},
    ],
)
response = openai.ChatCompletion.create(**chat_request_kwargs)

3. OpenAI API の入力とレスポンスを表示する

step 1autolog によって生成された W&B run リンクをクリックします。クリックすると、W&B App のプロジェクトワークスペースに移動します。 作成した run を選択して、トレース表、トレースタイムライン、使用された OpenAI LLM のモデルアーキテクチャを表示します。

autologを無効にする

W&B では、OpenAI API の使用を終えたら、すべての W&B プロセスを終了するために disable() を呼び出すことを推奨しています。
autolog.disable()
これで、入力 と completions が W&B にログされ、分析や同僚との共有に利用できるようになります。