リージョン別の生成AI専用クラスタ・シェイプ
このページには、OCI生成AIモデルが使用可能なリージョンのリストが表示されます。また、各リージョンでそれらのモデルをホストするための専用のAIクラスタ・ユニット・シェイプも表示されます。各モデルの詳細を選択します。
表の各領域には、次のいずれかの記号があります。
| 記号 | 摘要 |
|---|---|
| ✓ | 利用可能(オンデマンドおよび専用AIクラスタ) |
| ✓o | オンデマンドのみ |
| ✓d | 専用AIクラスターのみ |
| ✓G | Oracle Interconnect for Google Cloudでのみ使用可能 |
| - | 使用不可 |
|
<クラスタ・シェイプ> |
モデルをホストする専用AIクラスタ・シェイプ |
北アメリカ(NA)
| モデル名 | 米国東部(アッシュバーン) (OC1) |
米国中西部(シカゴ) (OC1) |
米国西部(フェニックス) (OC1) |
ノート |
|---|---|---|---|---|
| Cohere Command A Reasoning | ✓d LARGE_COHERE_V2_2 |
✓d LARGE_COHERE_V2_2 |
✓d LARGE_COHERE_V2_2 |
- |
| Cohere Command A Vision | ✓d LARGE_COHERE_V3 |
✓
LARGE_COHERE_V3 |
✓d LARGE_COHERE_V3 |
- |
| Cohere Command A | ✓d LARGE_COHERE_V3 |
✓
LARGE_COHERE_V3 |
- | - |
| Cohere Command R(08-2024) | ✓d 小Cohere V2 |
✓
小Cohere V2 |
- | - |
| Cohere Command R+(08-2024) | ✓d Large Cohere V2_2 |
✓
Large Cohere V2_2 |
- | - |
| Cohere Command R 16K | - |
✓
小Cohere V2 |
- | - |
| Cohere Command R+ | - |
✓
Large Cohere V2_2 |
- | - |
| Cohere Embed 4 |
✓
埋込みCohere |
✓
埋込みCohere |
- | - |
| Cohere Embed English Image 3 | ✓d 埋込みCohere |
✓d 埋込みCohere |
- | - |
| Cohere Embed English Light Image 3 | ✓d 埋込みCohere |
✓d 埋込みCohere |
- | - |
| Cohere Embed Multilingual Image 3 | ✓d 埋込みCohere |
✓
埋込みCohere |
- | - |
| Cohere Embed Multilingual Light Image 3 | ✓d 埋込みCohere |
✓d 埋込みCohere |
- | - |
| Cohere Embed English 3 | - |
✓
埋込みCohere |
- | - |
| Cohere Embed English Light 3 | - |
✓
埋込みCohere |
- | - |
| Cohere Embed Multilingual 3 | ✓d 埋込みCohere |
✓ | ✓ | - |
| Cohere Embed Multilingual Light 3 | - |
✓
埋込みCohere |
- | - |
| Cohere Rerank 3.5 | ✓d RERANK_COHERE |
✓d RERANK_COHERE |
- | - |
| Google Gemini 2.5 Pro | ✓o + G | ✓o | ✓o | 外部コールを参照してください。 |
| Google Gemini 2.5 Flash | ✓o + G | ✓o | ✓o | 外部コールを参照してください。 |
| Google Gemini 2.5 Flash-Lite | ✓o + G | ✓o | ✓o | 外部コールを参照してください。 |
| Meta Llama 4 Maverick | - |
✓
大規模汎用 2 |
- | - |
| Meta Llama 4 Scout | - |
✓
大規模汎用V2 |
- | - |
| Meta Llama 3.3 70B (標準) | - |
✓
大規模汎用 |
- | - |
| Meta Llama 3.3 70B (動的FP8) | - |
✓
大規模汎用 |
✓
大規模汎用 |
- |
| Meta Llama 3.2 90B | - |
✓
大規模汎用V2 |
- | - |
| Meta Llama 3.2 11B Vision | - | ✓d 小規模汎用V2 |
- | - |
| Meta Llama 3.1 405B | - |
✓
大規模汎用 2 |
- | - |
| Meta Llama 3.1 70B | - |
✓
大規模汎用 |
- | - |
| Meta Llama 3 70B | - |
✓
大規模汎用 |
- | - |
| OpenAI gpt-oss-120b | ✓d OAI_H100_X2 |
✓
OAI_A100_80G_X2 OAI_H100_X2 |
✓d OAI_A100_80G_X2 |
- |
| OpenAI gpt-oss-20b | ✓d OAI_A10_X2 OAI_H100_X1 |
✓
OAI_A10_X2 OAI_H100_X1 |
✓d OAI_A100_80G_X1 |
- |
| xAI Grok 4.20マルチエージェント | ✓o | ✓o | ✓o | 外部コールを参照してください。 |
| xAI Grok 4.20 | ✓o | ✓o | ✓o | 外部コールを参照してください。 |
| xAI Grok Code Fast 1 | ✓o | ✓o | ✓o | 外部コールを参照してください。 |
| xAI Grok 4.1 Fast | ✓o | ✓o | ✓o | 外部コールを参照してください。 |
| xAI Grok 4 Fast | ✓o | ✓o | ✓o | 外部コールを参照してください。 |
| xAI Grok 4 | ✓o | ✓o | ✓o | 外部コールを参照してください。 |
| xAI Grok 3 | ✓o | ✓o | ✓o | 外部コールを参照してください。 |
| xAI Grok 3 Mini | ✓o | ✓o | ✓o | 外部コールを参照してください。 |
| xAI Grok 3 Fast | ✓o | ✓o | ✓o | 外部コールを参照してください。 |
| xAI Grok 3 Mini Fast | ✓o | ✓o | ✓o | 外部コールを参照してください。 |
南アメリカ(SA)
ヨーロッパ(EU)
| モデル名 | ドイツ中央部(フランクフルト) (OC1) |
EUソブリン中央部(フランクフルト) (OC19) |
英国南部(ロンドン) (OC1) |
英国Gov南部(ロンドン) (OC4) |
ノート |
|---|---|---|---|---|---|
| Cohere Command A Reasoning | ✓d LARGE_COHERE_V2_2 |
- | ✓d LARGE_COHERE_V2_2 |
- | - |
| Cohere Command A Vision |
✓
LARGE_COHERE_V3 |
- | ✓d LARGE_COHERE_V3 |
- | - |
| Cohere Command A |
✓
LARGE_COHERE_V3 |
✓d LARGE_COHERE_V3 |
✓
LARGE_COHERE_V3 |
- | - |
| Cohere Command R(08-2024) |
✓
小Cohere V2 |
- |
✓
小Cohere V2 |
- | - |
| Cohere Command R+(08-2024) |
✓
Large Cohere V2_2 |
- |
✓
Large Cohere V2_2 |
- | - |
| Cohere Command R 16K |
✓
小Cohere V2 |
- |
✓
小Cohere V2 |
- | - |
| Cohere Command R+ |
✓
Large Cohere V2_2 |
- |
✓
Large Cohere V2_2 |
- | - |
| Cohere Embed 4 | ✓d 埋込みCohere |
- | ✓d 埋込みCohere |
- | - |
| Cohere Embed English Image 3 | ✓d 埋込みCohere |
- | ✓d 埋込みCohere |
- | - |
| Cohere Embed English Light Image 3 | ✓d 埋込みCohere |
- | ✓d 埋込みCohere |
- | - |
| Cohere Embed Multilingual Image 3 | ✓d 埋込みCohere |
- | ✓d 埋込みCohere |
- | - |
| Cohere Embed Multilingual Light Image 3 | ✓d 埋込みCohere |
- | ✓d 埋込みCohere |
- | - |
| Cohere Embed English 3 |
✓
埋込みCohere |
- |
✓
埋込みCohere |
- | - |
| Cohere Embed English Light 3 | - | - | - | - | - |
| Cohere Embed Multilingual 3 |
✓
埋込みCohere |
✓d 埋込みCohere |
✓
埋込みCohere |
✓d 埋込みCohere |
- |
| Cohere Embed Multilingual Light 3 | - | - | - | - | - |
| Cohere Rerank 3.5 | ✓d RERANK_COHERE |
✓d RERANK_COHERE |
✓d RERANK_COHERE |
✓d RERANK_COHERE |
- |
| Google Gemini 2.5 Pro | ✓o + G | - | - | - | 外部コールを参照してください。 |
| Google Gemini 2.5 Flash | ✓o + G | - | - | - | 外部コールを参照してください。 |
| Google Gemini 2.5 Flash-Lite | ✓o + G | - | - | - | 外部コールを参照してください。 |
| Meta Llama 4 Maverick | - | - | ✓d 大規模汎用 2 |
- | - |
| Meta Llama 4 Scout | - | - | ✓d 大規模汎用V2 |
- | - |
| Meta Llama 3.3 70B (標準) |
✓
大規模汎用 |
✓d 大規模汎用 |
✓
大規模汎用 |
✓d 大規模汎用 |
- |
| Meta Llama 3.3 70B (動的FP8) |
✓
大規模汎用 |
✓
大規模汎用 |
✓
大規模汎用 |
✓
大規模汎用 |
- |
| Meta Llama 3.2 90B | - | - |
✓
大規模汎用V2 |
- | - |
| Meta Llama 3.2 11B Vision | - | - | ✓d 小規模汎用V2 |
✓d 小規模汎用V2 |
- |
| Meta Llama 3.1 405B | ✓d 大規模汎用 2 |
- | ✓d 大規模汎用 2 |
- | - |
| Meta Llama 3.1 70B | - | - |
✓
大規模汎用 |
- | - |
| Meta Llama 3 70B |
✓
大規模汎用 |
- |
✓
大規模汎用 |
- | - |
| OpenAI gpt-oss-120b |
✓
OAI_H100_X2 |
✓d OAI_H100_X2 |
✓d OAI_H100_X2 |
✓d OAI_H100_X2 |
- |
| OpenAI gpt-oss-20b |
✓
OAI_A10_X2 OAI_H100_X1 |
✓d OAI_A10_X2 OAI_H100_X1 |
✓d OAI_H100_X1 |
✓d OAI_H100_X1 |
- |
| xAI Grok 4.20マルチエージェント | - | - | - | - | - |
| xAI Grok 4.20 | - | - | - | - | - |
| xAI Grok Code Fast 1 | - | - | - | - | - |
| xAI Grok 4.1 Fast | - | - | - | - | - |
| xAI Grok 4 Fast | - | - | - | - | - |
| xAI Grok 4 | - | - | - | - | - |
| xAI Grok 3 | - | - | - | - | - |
| xAI Grok 3 Mini | - | - | - | - | - |
| xAI Grok 3 Fast | - | - | - | - | - |
| xAI Grok 3 Mini Fast | - | - | - | - | - |
中東(ME)
アジア太平洋(AP)
外部コールに関するノート
Googleモデル
米国リージョンのGoogle Gemini 2.5 Proへの外部コール
米国リージョンのOCI生成AIサービスを介してアクセスできるGoogle Gemini 2.5 Proモデルは、外部でGoogleによってホストされます。したがって、(OCI生成AIサービスを介して)Google Gemini 2.5 Proモデルをコールすると、Googleロケーションがコールされます。Google Gemini 2.5 Proでは、Google Americaasのリージョナル・ロケーションが使用され、リクエストはGoogle Americaasのロケーションにのみルーティングされます。機械学習処理は、Google Americasのロケーション内で行われます。
EUリージョンのGoogle Gemini 2.5 Proへの外部コール
フランクフルト・リージョンのOCI生成AIサービスを介してアクセスできるGoogle Gemini 2.5 Proモデルは、外部でGoogleによってホストされます。したがって、(OCI生成AIサービスを介して)Google Gemini 2.5 Proモデルをコールすると、Googleロケーションがコールされます。Gemini 2.5 Proには、Google欧州連合(EU)の地域ロケーションが使用され、リクエストはGoogle EUのロケーションにのみルーティングされます。機械学習処理は、Google EUの所在地内で行われます。
APリージョンのGoogle Gemini 2.5 Proへの外部コール
大阪リージョンのOCI生成AIサービスを介してアクセスできるGoogle Gemini 2.5 Proモデルは、外部でGoogleによってホストされます。したがって、(OCI生成AIサービスを介して)Google Gemini 2.5 Proモデルをコールすると、Googleロケーションがコールされます。Gemini 2.5 Proには、Googleアジア太平洋地域の場所が使用され、リクエストはGoogleアジア太平洋地域の場所にのみルーティングされます。機械学習処理は、世界中のあらゆるGoogleの場所で行われます。
米国リージョンのGemini 2.5 Flashへの外部コール
米国リージョンのOCI生成AIサービスを介してアクセスできるGemini 2.5 Flashモデルは、外部でGoogleによってホストされます。したがって、(OCI生成AIサービスを介して)Gemini 2.5 Flashモデルをコールすると、Googleロケーションがコールされます。Gemini 2.5 Flashでは、Google Americaasのリージョナル・ロケーションが使用され、リクエストはGoogle Americaasのロケーションにのみルーティングされます。機械学習処理は、Google Americasのロケーション内で行われます。
EUリージョンのGemini 2.5 Flashへの外部コール
フランクフルト・リージョンのOCI生成AIサービスを介してアクセスできるGemini 2.5 Flashモデルは、外部でGoogleによってホストされます。したがって、(OCI生成AIサービスを介して)Gemini 2.5 Flashモデルをコールすると、Googleロケーションがコールされます。Gemini 2.5 Flashには、Google欧州連合(EU)の地域ロケーションが使用され、リクエストはGoogle EUのロケーションにのみルーティングされます。機械学習処理は、Google EUの所在地内で行われます。
APリージョンのGemini 2.5 Flashへの外部コール
大阪リージョンおよびハイデラバード・リージョンのOCI生成AIサービスを介してアクセスできるGemini 2.5 Flashモデルは、Googleによって外部でホストされます。したがって、(OCI生成AIサービスを介して)Gemini 2.5 Flashモデルをコールすると、Googleロケーションがコールされます。Gemini 2.5 Flashには、Googleアジア太平洋地域の場所が使用され、リクエストはGoogleアジア太平洋地域の場所にのみルーティングされます。機械学習処理は、世界中のあらゆるGoogleの場所で行われます。
米国リージョンのGemini 2.5 Flash-Liteへの外部コール
米国リージョンのOCI生成AIサービスを介してアクセスできるGemini 2.5 Flash-Liteモデルは、外部でGoogleによってホストされます。したがって、(OCI生成AIサービスを介して)Gemini 2.5 Flash-Liteモデルをコールすると、Googleロケーションがコールされます。Gemini 2.5 Flash-Liteでは、Google Americaasのリージョナル・ロケーションが使用され、リクエストはGoogle Americaasのロケーションにのみルーティングされます。機械学習処理は、Google Americasのロケーション内で行われます。
EUリージョンのGemini 2.5 Flash-Liteへの外部コール
フランクフルト・リージョンのOCI生成AIサービスを介してアクセスできるGemini 2.5 Flash-Liteモデルは、外部でGoogleによってホストされます。したがって、(OCI生成AIサービスを介して)Gemini 2.5 Flash-Liteモデルをコールすると、Googleロケーションがコールされます。Gemini 2.5 Proには、Google欧州連合(EU)の地域ロケーションが使用され、リクエストはGoogle EUのロケーションにのみルーティングされます。機械学習処理は、Google EUの所在地内で行われます。
xAIモデル
xAI Grokモデルへの外部コール
xAI Grokモデルは、xAI用にプロビジョニングされたテナンシ内のOCIデータ・センターでホストされます。OCI Generative AIサービスを介してアクセスできるxAI Grokモデルは、xAIによって管理されます。