コンテンツにスキップ

REST API

このガイドでは、最初のWorkers AIプロジェクトのセットアップとデプロイ方法を説明します。Workers AI REST APIを使用して、大規模言語モデル(LLM)を試すことができます。

前提条件

まだアカウントを作成していない場合は、Cloudflareアカウントにサインアップしてください。

1. APIトークンとアカウントIDを取得する

REST APIを使用するには、APIトークンとアカウントIDが必要です。

これらの値を取得するには:

  1. Cloudflareダッシュボードにログインし、アカウントを選択します。
  2. AI > Workers AIに移動します。
  3. REST APIを使用を選択します。
  4. APIトークンを取得します:
    1. Workers AI APIトークンを作成を選択します。
    2. 事前入力された情報を確認します。
    3. APIトークンを作成を選択します。
    4. APIトークンをコピーを選択します。
    5. 将来の使用のためにその値を保存します。
  5. アカウントIDを取得のために、アカウントIDの値をコピーします。将来の使用のためにその値を保存します。

2. API経由でモデルを実行する

APIトークンを作成した後、リクエストにAPIトークンを使用してAPIに認証し、リクエストを行います。

@cf/meta/llama-3.1-8b-instructモデルを実行するために、AIモデルを実行エンドポイントを使用します:

Terminal window
curl https://api.cloudflare.com/client/v4/accounts/{ACCOUNT_ID}/ai/run/@cf/meta/llama-3.1-8b-instruct \
-H 'Authorization: Bearer {API_TOKEN}' \
-d '{ "prompt": "Hello Worldというフレーズはどこから来たのか" }'

{ACCOUNT_ID}{API_token}の値を置き換えます。

APIの応答は次のようになります:

{
"result": {
"response": "Hello, Worldは1974年にBell LabsでBrian KernighanがCプログラミング言語の例に含めたときに初めて登場しました。シンプルさと明確さから、基本的なテストプログラムとして広く使用されるようになりました。これは、プログラムから世界への招待の挨拶を表しています。"
},
"success": true,
"errors": [],
"messages": []
}

この実行例では@cf/meta/llama-3.1-8b-instructモデルを使用していますが、Workers AIモデルカタログの任意のモデルを使用できます。別のモデルを使用する場合は、{model}を希望のモデル名に置き換える必要があります。

このガイドを完了することで、Cloudflareアカウント(まだ持っていなかった場合)と、あなたのアカウントに対してWorkers AIの読み取り権限を付与するAPIトークンを作成しました。ターミナルからcURLコマンドを使用して@cf/meta/llama-3.1-8b-instructモデルを実行し、JSON応答でプロンプトに対する回答を受け取りました。

関連リソース

  • モデル - Workers AIモデルカタログを閲覧します。