1. <b id="ev6pb"><form id="ev6pb"></form></b>

    <rp id="ev6pb"></rp>
    <tt id="ev6pb"><noscript id="ev6pb"></noscript></tt>
    <rp id="ev6pb"></rp>

    <cite id="ev6pb"></cite>

      <b id="ev6pb"><form id="ev6pb"></form></b>

      1. NVIDIA HGX-2

        NVIDIA Tesla V100 GPU と NVSwitch を搭載

        亚洲 欧美 国产 综合

        AI と HPC のための世界で最も高性能な多精度コンピューティング プラットフォーム

        ディープラーニング、機械學習、そしてハイ パフォーマンス コンピューティング (HPC) が世界を変える、インテリジェンスの新時代が到來しました。 自動運転車両から、小売物流の最適化、地球気象シミュレーションまで、新たな課題が浮上しており、その解決策には膨大なコンピューティング リソースが必要です。

        NVIDIA HGX-2 は、世界で最も強力な高速スケールアップ サーバー プラットフォームです。多精度演算処理用として設計されており、これらの大きな課題を解決するために全てのワークロードを加速します。HGX-2 プラットフォームは、業界初の AI ベンチマークである MLPerf を獲得するために使用され、最高の単一ノード パフォーマンスを提供し、世界で最も強力で多様性に富み、拡張性の高いコンピューティング プラットフォームということが検証されました。

        世界最大の GPU を実現する

        16 基の NVIDIA? Tesla? V100 GPU と NVIDIA NVSwitch? を搭載した HGX-2 は、前例のない計算処理能力、帯域幅、メモリ トポロジを備え、モデルを高速かつ効率的にトレーニングします。16 基の Tesla V100 GPU は統合された 1 個の 2 petaFLOP アクセラレータとして動作し、合計 GPU メモリは 0.5 テラバイト (TB) になります?!?a href="http://www.yanwan.net.cn/ja-jp/data-center/dgx-2/">世界最大の GPU」として機能し、計算処理能力を最も必要とする作業負荷に対応できます。

        世界最大の GPU を実現する
        AI Training: HGX-2 Replaces 300 CPU-Only Server Nodes

        次世代 AI の高速パフォーマンスの動力となる

        AI モデルは急激に複雑化しており、その動作には大容量のメモリ、複數の GPU、GPU 間の超高速接続を必要とします。すべての GPU と統合メモリを接続するした NVSwitch によって HGX-2 は先進的な AI を短時間でトレーニングするために新しいモデルを処理するパワーを発揮します。1 臺の HGX-2 は 300 基の CPU を搭載したサーバーの代わりになります。コストを大幅に節約し、置き場所を取らず、データ センターの省エネに貢獻します。

        HPC: HGX-2 Replaces 60 CPU-Only Server Nodes

        最高のパフォーマンスを誇る HPC スーパーノード

        HPC アプリケーションは、秒単位で膨大な數の計算を実行する計算処理能力を備えた強力なサーバー ノードを必要とします。各ノードの計算処理密度を上げることで、必要なサーバーの數が劇的に減ります。結果的に、データ センターの消費電力が大幅に減少し、コストが大きく削減されます。占有空間も少なくなります。HPC シミュレーションの高次元行列乗算では、計算を容易に実行するためにプロセッサは多數の隣接プロセッサからデータを取得する必要があります。そこで、NVSwitch で GPU を接続することが理想的となります。1 臺の HGX-2 サーバーは CPU のみのサーバー 60 臺に匹敵します。

        全帯域幅コンピューティングのための NVSwitch

        NVSwitch を利用すると、すべての GPU が互いに毎秒 2.4 TB という全帯域幅で通信できます。AI と HPC が直面する最大級の問題を解決します。すべての GPU が 計 0.5 TB の HBM2 メモリに自由にアクセスし、最大級のデータセットを処理します。1 臺の統合サーバー ノードを可能にする NVSwitch は、AI と HPC の複雑なアプリケーションを劇的に加速します。

        全帯域幅コンピューティングのための NVSwitch

        HGX-1 と HGX-2 を比較

        HGX-1 HGX-2
        パフォーマンス 1 petaFLOP テンソル演算
        125 teraFLOPS 単精度
        62 teraFLOPS 倍精度
        2 petaFLOPS テンソル演算
        250 teraFLOPS 単精度
        125 teraFLOPS 倍精度
        GPUs NVIDIA Tesla V100 が 8 基 NVIDIA Tesla V100 が 16 基
        GPU メモリ 合計 256GB 合計 512GB
        NVIDIA CUDA? コア數 40,960 81,920
        NVIDIA Tensor コア 5,120 10,240
        通信チャネル NVLink を使用したハイブリッド キューブ メッシュ毎秒 300GB の総計速度 NVLink を使用した NVSwitch毎秒 2.4TB の総計速度

        HGX-1 リファレンス アーキテクチャ

        NVIDIA Tesla GPU と NVLink を搭載

        NVIDIA HGX-1 は、クラウドで AI を加速するデータ センターの設計を標準化したリファレンス アーキテクチャです。8 基の Tesla SXM2 V100 ボードを基盤に、スケーラビリティに優れたハイブリッド キューブ メッシュ トポロジ、1 petaFLOP の演算処理能力、そのモジュラー式設計がハイパースケールのデータ センターでシームレスに動作し、短期間の AI 導入を可能にします。

        データ センター エコシステムに力を與える

        NVIDIA は、Foxconn、HPE、Huawei、Inspur、Inventec、Lenovo、Quanta、Supermicro、Wistron、Wiwynn など、世界をリードするメーカーと業務提攜し、AI クラウド コンピューティングを急速に進化させています。NVIDIA は、HGX-2 GPU 基板、設計のガイドライン、GPU コンピューティング技術のアーリー アクセスをパートナー企業に提供しています。パートナー企業はそれらの技術をサーバーに取り込み、自社のデータ センター エコシステムに大規模展開できます。

        データ センター エコシステムに力を與える

        データ センター ニュースに登録する

        高性能コンピューティング、ディープラーニング、人工知能に関する最新ニュースをお屆けします。