最近の話題 2020年5月9日

1.Intelが次世代3D Xpointメモリを記者発表

  2020年5月7日のBlocks and Filesが,Intelの不揮発性メモリの記者発表を報じています。それによると,Intelは144層のQLC NANDとAlder Streamというコードネームで開発してきた4層の3D Xpointメモリを6月に発表するとのことです。

  144層のQLC NANDは,発表時点では他社より層数が多いのですが,全体的に見るとトップグループの会社の力はかなり拮抗している感じです。Intelは2021年には全てのSSDを144層QLC NANDにする計画です。

  一方,3D Xpointメモリを使うOptane製品は,共同開発したMicronを別とすれば他社にない製品です。現在の第1世代のものは記憶素子が2層に積み重なっているのですが,今度の第二世代の記憶素子は4層になっているのだそうです。寸法などが同じとすれば,単純に記憶容量は2倍になります。とすると1TBの不揮発性DIMMが登場することになります。

2.AutoDL 2019-2020は深圳のDeepWisdomチームがトップに

  2020年5月8日のHPC Wireが,AI関係のトップの学会NeurIPSが組織するコンペティションであるAutoDL 2019-2020のファイナルで,Insupurが3位になったという記事を載せています。AutoDLは完全自動で学習するディープラーニングシステムの認識性能を競うコンペティションです。

  6つのコンペがありますが,AutoDLはイメージ,ビデオ,テキスト,スピーチ,表データと全てのタイプの入力の認識があり,ファイナルでは完全目隠しテストになることなどから,6つの中で一番難しいチャレンジとなっています。

  今回のコンペにはカーネギーメロン大,ソウル国立大,フライブルグ大ライプニッツ大などの大学チームやGoogle,Microsoft,Alibaba,Inspurなどの企業も参加したとのことです。

  この記事の不思議なところは,Inspurが3位になったとだけ書かれており,1位と2位については触れられていないという点です。ということで,Webで情報を探してみました。その結果,AutoDLチャレンジのページが見つかりました。

  それによると,1位は深圳のDeepWisdom,2位は上海のDeepblue AI,そして3位がInspurとなっています。やはり,中国のマシンラーニングの実力は大したものです。

3.ANLのAuroraとそのプログラム開発

  2020年5月8日のHPC Wireが,Argonne国立研究所のコンパイラテクノロジとプログラム言語チームのリードを務めるHal Finkel氏のIWOCL/SYCLcon 2020での基調講演についての記事を載せています。

  Auroraは米国初のエクサスパコンとなる予定のマシンで,Cray(HPEの一部)がシステム提供元となっています。CPUはIntelのSapphire Rapids,GPUもIntelのPonte Vecchio)が使われます。メモリの総量は10PBとなっています。

  ボード1枚に2個のCPUと6個のGPUが搭載され,これがノードで,ノード間はCrayのSlingshotインタコネクトで接続されるShastaスパコンです。

  ファイルシステムはDAOS(Distributed Asynchronous Object Storage)とLustreで,DAOS部分は230PB以上の容量を持ち,バンド幅は25TB/s以上と書かれています。Lustre部分は容量150PBで,バンド幅は~1TB/sとなっています。

  これで1EFlopsのSusteined Performanceを実現する計画です。

  用途ですが,伝統的なシミュレーションだけでなく,大量のデータを解析するデータサイエンスと人工知能のマシンラーニングも加えて三本柱という位置づけです。データ解析とマシンラーニング関係のライブラリの整備も必要になるので,仕事が増えて大変そうです。

  プログラムの構造はMPIでノード間の処理分散を行い,ノード内の並列化はOpenMPを使います。CUDAで書かれたプログラムはツールでOpenMPに変換します。Fortranのプログラムも多いので,これらはOpenMPで並列化します。

  GPUのプログラムなどではデータ配置で処理性能が大きく変わります。この部分はRajaやKokkosで乗り切ることを考えているとのことです。パフォーマンスポータビィリティーは,ホットなトピックです。




inserted by FC2 system