最近の話題 2010年8月14日

1.DARPAがExtremeScale UHPCシステムの開発を開始

  2010年8月10日のHPC WireがDARPAの次期UHPC契約について報じています。それによると,プロトタイプシステムの完成目標は2018年で,Exa級の大規模システムではなく,50GFlops/W以上という現状の100倍以上の電力効率を持ち,1筐体でペタフロップスというような高密度システムで,かつ,プログラムが容易という目標だそうです。開発容易性に関しては,低レベルのハードウェアを意識することなくプログラムが書け,MPIなどの通信を使わなくても並列プログラムが書けるようなシステムを目指すそうです。

  2010年8月9日のThe Registerは筐体のWHDは24インチ,78インチ,40インチで冷却も含めて57kWの消費電力と書いています。

  今後,4年間のPhase-1,Phase-2の開発はNVIDIA,Intel,MITとSandia国立研究所の4チームに発注されると発表されました。NVIDIAが入ったのは,やはり,Fermiの高性能とそれに関連するCUDA系の一連の開発環境の実績が評価されたものと思われます。これらのチームは4年間でPreliminary Designを行うことになっています。

  そして,また,後半の4年の開発提案を募り,4年後に後半の契約者を決めるということになります。

  NVIDIAは4年間に$25Mの開発費を受け取り,Cray,Oakridge国立研究所,そして6つの大学とチームを組んで開発にあたるとのことで,チームの主任研究員はCTOのBill Dally先生です。

  また,高密度のペタスケールシステムの開発を標榜していたSGIは,Intelのチームに入るようです。ということで,チップはIntel対NVIDIA,システムはCray対SGIという競争になるようです。

2.NVIDAIの決算の発表と今後の方向性

  2010年8月13日のThe RegisterなどがNVIDIAの2Qの決算を報じています。売上は前年同期に比べて19%ダウンの$811.2Mで,$141Mのロス(前年同期は$137.6Mの黒字)です。但し,今回の決算では前世代のGPUのチップとパッケージの接続不良問題の対応費用が計上されており,これが無ければ,若干の黒字とのことです。

  しかし,Fermi開発の6か月の遅れなどでNVIDIAは劣勢に立たされており,ディスクリートグラフィックスの市場シェアで51%対49%とAMDに逆転されています。また,DMIの使用に関するIntelとの係争でチップセットビジネスからは撤退したのですが, 今期の決算にはFSBを使う旧製品の売り上げが$200M程度含まれているが,早晩,これは無くなるので,HPC向けのTeslaやスマートフォン,タブレット向けのTegraが伸びて,この分を補わないといけないが,思うように進んでいないと指摘されています。

  2010年8月12日のSemiAccurateは,Tegra 3.0がテープアウトしたが,初代Tegra,Tegra2.0と同じ(失敗の)道をたどるだろうと書いています。但し,これまでNVIDIAが仕様を満足する製品を出せていないということが その理由で,蓋然性はあるものの,断定するほどの根拠はありません。

  また,NVIDIAはCPUに関してはARMを使うというHuang CEOを談話を報じる記事や,Transmetaがやったような方法でx86命令を実行するCPUを開発しているという噂を報じる記事もあり,NVIDAは中心ビジネスであるGPUが(一部のハイエンドを除いて)CPUに集積され需要が減るという傾向に対して,これに変わるビジネスの立ち上げを模索しているようです。

  まだ,無借金で銀行に$1.78Bの預金があるとのことで,今季の赤字自体はそれほど大きな問題ではないのですが,この預金が無くなる前に新たなビジネスモデルを作れるかどうかが勝負ということになります。

3.OracleがSPARC Roadmapを発表

  2010年8月10日のThe Registerが,Oracleのハードウェアシステムの開発責任者のFowler EVPのSPARCロードマップ発表を報じています。

  The RegisterにはWebcastの発表スライドが載っているのですがボケボケで殆ど読めません。記事の記述と併せて読むと,2010年にはRainbow Fallsを使うTシリーズのエンハンスとSPARC64 Z+のクロックを3GHzに引き上げたJupiter-Eプロセサを使うMシリーズマシンが予定されており,2011年のTシリーズはYosemite Fallsと呼ばれるチップを使うのではないかと推測しています。

  そして,2013年のTシリーズはYosemite Fallsの次のCascade Fallsで,28nmプロセスを使い,16コア×8スレッドと予想しています。また,Mシリーズは2012年と2013年から2014年にかけて2回の新製品が予定されていますが,中身は不明です。

  2015年のシステムはT,Mという記述がないので,新シリーズとなると思われます。 ビジネスの契約では5年というのはキリの良い数字で,富士通との契約は2010年から2015年までで,その後は(開発が予定通りに行けば),Oracleの独自開発でやるという計画と思われます。

  2015年のシステムは128コアで16,384スレッドとなっており,コアあたり128スレッドです。常識では考えられない スレッド数で,どういう仕掛けなのか興味深いところです。そして,性能ですが,OLTPでは,現状のTシリーズが3M tpmCであるのに対して,2015年のシステムでは120Mと40倍の性能向上と書かれています。また,Java Operation/sは現状5,000に対して50,000と10倍の性能向上となっています。

  この2つのシステムを比べると,コア数は4倍ですが,スレッド数は512から16Kと32倍になっています。OLTPが40倍の性能になることを信じると,ハード性能がスレッド数比例程度に向上しているか,Oracle DBと併せた最適化で大幅な性能向上を実現しているかということになります。全くの推測ですが,OLTPではDBのアクセス待ちなどが出ると思われるので,その間,別スレッドに切り替えて実行することにより性能を上げられるのではないかと思います。とすると,コアあたり128スレッドという超多数のマルチスレッドは意味がある気がします。

  そして,Fowler氏は,Oracleの強みはOSからアプリケーションまで垂直統合している点で,OracleはCPU単体を販売するわけではないので,それらを纏めて最適化して性能を上げると述べています。

inserted by FC2 system