最近の話題 2019年11月23日


1.A64FXプロセサを使う富岳のプロトタイプがGreen500で1位を獲得

  2019年11月18日に発表されたGreen500,A64FXプロセサを使う富岳スパコンのプロトタイプ機が1位になりました。このマシンは48コアのA64FX CPUを768個使い,全体で36864コア,Linpack性能は1.9995PFlops,消費電力118.48kWで,電力効率が16.876MFlops/Wとなっています。

  そして2位はPEZYのNA-1というシステムで,電力効率は16.256MFlops/Wです。ただし,このシステムはPEZY-SC2を使うシステムで,2019年6月に17.604MFlops/wで1位となったShoubu System Bと基本的には同じシステムと見られます。そして,Green500の説明を読むと,日本のNA Simulationに納入するためのシステムと書かれています。NA Simulationという名前で検索してもそれらしい会社は出てこないのですが,何かの大規模なシミュレーションを行う団体のようです。

  なお,Shoubu System Bがリストから消えたのは,Linpack性能がTop500の500位までに入れず,足切りにあったためです。NA-1の方がShoubu System Bより規模が大きく,若干,電力効率が落ちているのではないかと思われます。また,Shoubu System Bではレベル3という精度が一番高い測定を行っているのですが,NA-1ではレベル1という精度の低い測定になっており,電力の測定には手間をかけていなかったようです。

2.NuviaがIntelを超えるデータセンタCPUを開発すると発表

  2019年11月16日のEE Timesが,NuviaというスタートアップがIntelを超えるサーバ用CPUコアを継続的に開発すると述べたと報じています。同社は,それがどのようなものかはもちろん,どの程度の性能を狙っているかも明らかにしていません。

  ただし,創立メンバーの顔触れは,ApppleでCPUアーキテクトを10年務めたGerard Williams IIIがNuviaのCEOで,NVIDIAのシリコン開発のSVPであったManu Gulati氏がシリコン開発のSVP,GoogleのシステムアーキテクトであったJohn Bruno氏がシステム設計のSVPといった陣容になっています。

  そして,アルファラウンドですでに$53Mのベンチャーマネーを集ています。そして,既に60人を雇用しており,年末までに100人を集めるとのことです。

  公表された情報があまりに少ないので,これからNuviaが成功して行くかどうかは見通せません。しかし,データセンタCPUの売り上げの大部分がHyperscalerの購入で,最近,AMDのEpycの採用が増えているように,経済的な方に流れる市場ですから,Nuviaが高性能,省電力でIntelを上回るCPUを出せれば攻略の可能性が無い訳ではありません。

3.NVIDIAがarmプロセサの本格サポートを開始

  2019年11月18日のEE Timesが,NVIDIAがarm CPUの本格サポートを発表したと報じています。そして,NVIDIAはarm用のCUDAのベータ版を即時提供開始すると発表しました。

  armベースのHPCサーバもHPEのApollo 70,CrayのXC50,CS 400が既に出荷されており,先週紹介した富士通のA64FXプロセサを使うCS500も発表されました。そして,富士通自身もFX700/FX1000というA64FX CPUを使うスパコンを発表しました。FX700/FX1000は基本的にはアクセラレータを接続しませんが,その他のarmスパコンにNVIDIA GPUを接続するというケースも増えてくるので,本格的なサポートが必要になってきたと思われます。

  更に,NVIDIAは,arm CPUを使い,8個のV100 GPUをNVLinkで接続し,4本の100GbpsのInfiniBandポートを持つというリファレンスプラットフォームも発表しました。

3.NVIDIAがarmプロセサの本格サポートを発表3.NVIDIAがarmプロセサの本格サポートを発表4.NVIDIAがMagnum IOテクノロジとAzureでのGPU付きノードの提供を発表

  2019年11月18日のEE Timesが,Magnum IOと呼ぶストレージとの間のIO性能を改善するテクノロジとMicrosoftのAzureクラウドにGPUアクセラレータを付けたスパコンをを使用するテクノロジを発表したと報じています。

  NVIDIAのGPUDirectは,GPU同士の間で100GB/sの速度でInfiniBand経由でデータを伝送するテクノロジですが,Magnum IOはストレージとGPUの間で100GB/sでデータを伝送することができるというものです。ビッグデータを処理する場合は,現在は,CPUでストレージからデータを読み込み,そのデータをGPUに転送するという処理になりますが,Magnum IOを使えば,CPUのメモリへの読み込みを省き,性能を改善することができます。

  NVIDIAはTPC-Hベンチマークの性能を最大では20倍改善できると述べています。

  また,NVIDIAはMicrosoftのAzureクラウドで,GPU付きのスパコンの提供を可能にするテクノロジを発表しました。Azureでは最大800個のV100 GPUをInfiniBandで接続したNDv2インスタンスを提供することができます。

  NVIDIAとMicrosoftは64 NDv2インスタンスでプレリリースのソフトを使い,翻訳などに使われるBERTの学習を約3時間で行うことができたとのことです。AzureでGPUを使えるようになれば,性能が上がってそれだけ利用範囲が広がり,Azureの売り上げも増えると思われます。

  なお,この記事に載っているDGX SuperPODの写真は,本物のように見えます。勿論,RTX GPUを使ってレイトレーシングで作れば,この品質の絵は作れますが,これまでの偽のスパコンの絵ではNVIDIAはそこまでの手間は掛けていないので,この写真は本物と思います。


inserted by FC2 system