オラクルとNVIDIAが、場所を問わないAIの提供を加速

OracleとNVIDIAのパートナーシップにより、最先端のAIインフラストラクチャを活用して、AIエージェントを含む高度なAIの開発・カスタマイズ・導入をあらゆる場所で加速できます。Oracle Cloud Infrastructure(OCI)とNVIDIAの連携により、他にはない幅広い導入オプションで、パフォーマンス、スケーラビリティ、コスト効率を最大化します。

オラクルとNVIDIAが、AIをあらゆる場所で提供 (2:11)

OCI上で利用可能なNVIDIA AI Enterprise

AIインフラストラクチャ・ソリューション

オラクルのAIや機械学習のエキスパートとつながる

OCI上のNVIDIA AI Enterprise

  • データ準備

    Oracle Cloud Infrastructure(OCI)データフロー上でNVIDIA RAPIDS Acceleratorを使用して、データサイエンス・ワークフローを高速化します。

    データ準備の詳細

  • モデルのトレーニングとカスタマイズ

    OCI上にNVIDIA DGX™ Cloudを使用して生成AIモデルを構築およびカスタマイズします。

    モデルのトレーニングとカスタマイズで可能なことを見る

  • 推論(RAG)

    NVIDIA NeMo Retriever、Oracle Database 23ai、Oracle Cloud Infrastructure Kubernetes Engine(OKE)を使用して検索拡張生成(RAG)パイプラインを構築することにより、LLM出力の精度と関連性を向上させます。

    推論(RAG)のブログを読む

  • 推論

    NVIDIA NIMマイクロサービスとOKEでモデルの導入を加速およびスケールします。

    推論の詳細

現在一般提供中: クラウドで最大かつ最速のAIスーパーコンピュータ

NVIDIA H200 Tensor Core GPUを搭載したOracle Cloud Infrastructure Superclusterの一般提供を開始したことをお知らせします。

お客様のAIイノベーションを効率化

  • シンプルな運用でAIエージェントを活用

    自律的に認識・推論・行動するインテリジェントなシステム「AIエージェント」を支える、フルスタックのAIプラットフォームを提供します。OCIコンソールからネイティブに利用できるNVIDIA AI Enterpriseを通じて、企業は160種類以上のAIツールをトレーニングおよび推論目的で簡単に利用できます。また、直接請求やサポートが簡単に受けられるといったメリットもあります。

    高速なAI推論が必要な場合は、OCI Marketplace で提供されているNVIDIA NIMの推論エンドポイントを利用することで、AIアシスタントやコパイロット、リアルタイムアプリケーションを簡単かつ柔軟に展開できます。

  • 業界をリードするAIインフラストラクチャ

    Hopper GPUによって最大260エクサFLOPS、そしてBlackwell GPUによって2.4ゼタFLOPSの性能を実現することで、業界をリードする生成AIイノベーションを提供します。OCIスーパークラスターを活用すれば、数兆パラメータ規模のモデルも高速に学習し、大規模に展開することが可能です。

    仮想化のオーバーヘッドがないベアメタルインスタンス、高速なRDMAクラスタネットワーク、ペタバイト規模のファイルストレージ、OCI Kubernetes Engine などのオーケストレーションツールを活用し、あらゆる規模のAIワークロードを加速できます。

  • AIをあらゆる場所で活用

    OCIの分散クラウド上でNVIDIAテクノロジーを使用して推論を最適化し、あらゆる場所でAIを実行できます。エッジアプライアンスにNVIDIA L4 GPUを展開し、パブリック・クラウド最大級のスーパーコンピューティング基盤にスケールアップすることも可能です。また、既存のデータセンターにAIインフラストラクチャを拡張することもできます。

    政府機関や厳しい規制業種においても、柔軟な導入モデルによりデータ主権やコンプライアンス要件に対応できます。OCI上のNVIDIA AI Enterpriseは、本番環境で即利用可能なAIの開発・展開を加速し、OCIの分散クラウド全体で利用できます。

AIパートナーとお客様のご紹介