OCI Generative AIにおけるエンタープライズAIエージェント

OCI Generative AIのエンタープライズAIエージェントは、本番グレードのエージェント・アプリケーションを構築、実行、デプロイするのに役立つマネージドAPIとホスト・アプリケーションを提供します。

管理対象APIのみ

次の使用可能なコンポーネントを含むAPIコールを介してのみ、インフラストラクチャをデプロイせずにエージェントを構築および実行します。

  • エージェントAPI– プロバイダ全体のモデルおよびエージェント機能と対話するためのOpenAI互換のOpen Responses準拠API。
  • エージェントツール– ファイル検索、コードインタプリタ、関数呼び出し(ローカルに定義された関数)、MCP呼び出し(リモートMCPサーバー)などのツール機能。
  • エージェント・メモリー– 会話API、長期メモリーおよびメモリー・コンテキストの最適化のためのメモリー機能。
  • 下位レベルのエージェントのビルディング・ブロック–OpenAI互換のベクトル・ストアAPI、ファイルAPIおよびコンテナAPI。

ホストされているアプリケーション

次のコンポーネントを含むオープンソース・フレームワークを使用して構築されたエージェントをデプロイおよび実行します。

  • エージェント・アプリケーション・ホスティング–OpenAI Agents SDK、LangChain、LangGraph、AutoGenなどを使用して構築されたエージェントのデプロイメントおよび自動スケーリング。
  • MCPサーバーホスティング–MCPサーバーの配備と自動スケーリング。

ハイブリッド・アプローチ

両方のモデルを、Managed APIを介して実行されるワークロードの一部と、ホストされたアプリケーションとしてデプロイされたrestと組み合せます。

ダイアグラム

次の図は、OCI Responses APIを使用してエージェントを構築するために使用されるビルディング・ブロックと、OCI Generative AIでエージェント・ワークロードを実行するために使用されるデプロイメント・コンポーネントの両方を示しています。

図の左側には、モデルSDK、エージェント・フレームワーク、プロンプト、モデル構成、およびローカルに定義されたツールとフックを含むエージェント・アプリケーションが示されています。中央には、OCIレスポンスAPI (エージェントAPIとして表示)と関連リソース(エージェント・ツール、メモリー、ファイルAPI、ベクトル・ストアAPI、コンテナAPI、コンテナ・ファイルAPIなど)が表示されます。右側には、スケーラブルなプラットフォーム・インフラストラクチャ、モデル・サーバー、ツール・サーバー、セキュアなサンドボックス、サードパーティ・サービスなど、管理対象ランタイムおよびデプロイメント側のコンポーネントが表示されます。

管理対象API (エージェントAPI (レスポンスAPI)、会話、ベクトル・ストア、ファイルおよびコンテナ)をコールするホスト・アプリケーション、およびモデルとツールを起動し、状態を格納し、OCIおよびサードパーティのモデルおよびツール・サーバーと統合するオーケストレーション・ランタイムを示すOCI生成AIプラットフォームの図。