最近の話題 2015年6月27日

1.D-Waveが1000 Qubit超えのシステムを発表

  2015年6月22日のHPCWireが,D-Waveが1000 Qubit超えのシステムを発表したと報じています。これまでの500 Qubitのシステムは2の500乗個の状態の最適化問題が扱えたのに対して,今回のシステムでは2の1000乗個の状態が扱えるようになり,圧倒的に規模の大きい問題が解けるようになります。

  プロセサチップは0.25umプロセスで製造され,128,000個のJosephson Junction素子を集積と発表されています。つまり,1Qubitを作るのに128個のJJ素子が使われています。これはJJ素子の製造ばらつきを補正して特性の揃ったQubitを作ったり,Qubitに入力値を書き込んだり,プログラムに相当する他のQubitとの結合係数を指定するなどのためにもJJ素子が必要になるからです。

  また,製造ばらつきが大きいため,チップには2048 Qubitが作り込まれていて,その中から,良品率の高い1152Qubitの領域を選択して使い,そこから1000Qubitかそれ以上の完全良品のQubitを選ぶというやり方をしているとのことです。

  このように大量のJJ素子を集積するだけでなく,Qubit数が増えると,熱によるノイズ,地磁気や電波による電磁ノイズを減らす必要があります。また,ばらつき補正や入力値の設定,他のQubitとの結合係数の設定精度を改善する必要があります。

  温度は40% Colderと発表されており,これまでのマシンは20mKであったので,12mKまで温度を下げたようです。また,電磁ノイズなどを50%低減したとのことです。そして,設定などの精度は最大40%改善されたとのことです。

  今回は1000Qubit以上のシステムを作ったという発表で,D-Wave 3の製品発表ではありません。そのため,製品の諸元は発表されていません。

  これまでの一辺3m程度の立方体の筐体の大部分は電磁ノイズと冷却のためのサイズで,1000Qubit超えのチップを使う次世代マシンがD-Wave 2と同程度のサイズで実現されているのか,それとも大きくなっているのか興味が持たれます。

  しかし,JJ素子の歩留まり向上を含めて,これらの改善は通常のエンジニアリングで,その意味で,D-Waveのマシンはリサーチの段階から,実用化の段階に入ってきたという風に感じました。

2.理研にPEZY/ExaScalerがピーク2PFlops級スパコンを設置

  2015年6月25日に理研とExaScaler,PEZYが共同のプレスリリースで,2PFlops級のShoubu(菖蒲)スパコンを設置すると発表しました。

  理研とExaScaler/PEZYは,「ExaScalerを用いたアプリ性能とデータセンター設備の評価」についての共同研究契約を結び,和光市の理研情報基盤センターに2PFlops級のExaScaler1.xスパコンを設置すると発表しました。

  メニーコアと液浸冷却という今後のスーパーコンピューティングの2大技術を用いるスパコンを,理研の実アプリとセンター運用の環境で運用し,今後のスーパーコンピューティングに関する知見を深めることを目的としています。とのことです。

  発表された写真では5台の液浸槽が並んでおり,最大320ノードが収容できます。先に発表されたKEKのSuiren Blueと同じとすると,ピーク演算性能は1液浸槽あたり428.3TFlopsなので,Shoubuは2141.5TFlopsとなります。しかし,2015年6月末に一部試験稼働と書かれていますので,まだ,フルシステムの稼働ではないのかも知れません。

  なお,写真に写っている液浸槽の奥の方に見えるタワーは,角柱状のブリックを釣り上げて取り出すクレーンと見られます。それから,Shoubuの右奥に写っている無限大マークの付いた黒いキャビネットは富士通のFX100を使うHOKUSAI(北斎) Great Waveスパコンです。

3.ARMとSynopsysがUMCの14nm FinFETプロセスの立ち上げに協力

  2015年6月24日のEE Timesが,ARMのCortex-AコアとSynopsysのDesignWare IPが,2015年の遅い時期のテープアウトに対しては,UMCの14nm FinFETプロセスで使用可能になると報じています。

  世界第2位の規模のファブであるUMCは,先端テクノロジでは後れを取っている印象がありますが,20nmプロセスの開発をスキップして,14nm FinFETの開発を進めて,追いつくという作戦です。そのためには,半導体プロセスの開発だけでなく,設計環境を整備することが重要です。

  この点でARMと提携してCortex-A(番号は不明)の物理コアを設計して,テープアウトに漕ぎ着け,ARMコアを顧客に提供できるようになることは重要です。また,SynopsysのDesignWareは業界標準のIPであり,これが使えるようになることも重要です。世の中には,多種のIPがありますが,主要な2つのIP群が使えるようになれば,ある程度の顧客のニーズに応えられる体制ができることになります。

4.東工大のTSUBAE3.0

  2015年6月18日のHPC Wireが,NCSA Blue Water Symposiumにおける東工大の松岡先生の”Towards Inevitable Convergence of HPC and Big Data"と題する講演を報道しています。司会者の紹介によると,松岡先生は世界で一番速い人間で,この1年間の平均移動速度は75マイル/時だそうです。つまり,1年間の1/7位の時間は飛行機に乗って移動しているという訳です。

  松岡先生の講演はこのページから見られます。ただし,1時間13分ありますので,まじめに見るのはかなり覚悟が要ります。

  この講演の中で,東工大の次世代のTSUBAME3.0についての説明があります。完成時期は2016年の2Qから3Qとのことで,約1年後です。

  ピーク演算性能は,倍精度の場合20〜25PFlops,メモリは5PB/sのバンド幅です。これは0.2〜0.25B/Flopのバランスです。ラックあたり0.6PFlopsとのことで,40ラック程度となる計算です。

  そして,エネルギー効率は10GFlops/Wとのことで,TSUBAME2.0の10倍で,TSUBAME-KFCと比べても2倍あまりの効率です。このため,電力に注目したリソース管理を行うとのことです。

  Big Dataを扱うため,メモリとネットワークは大きく強化されています。メモリはNVRAMを使ってPB級の容量を確保し,NVRAMのアクセスの遅さをカバーするため,深いメモリ階層を取ります。ネットワークは1Pbit/s以上のバイセクションバンド幅を持ち,新規のトポロジの採用も考えているとのことです。

  講演の中心はビッグデータの処理が重要になり,これはクラウドデータセンターではできず,巨大なメモリとスパコンのインタコネクトが必要という話で,深いメモリ階層に対応するブロッキングの話と光ネットワークの話が中心でした。

  また,これまでスパコンはムーアの法則に載って性能を向上してきたが,これが止まってしまう。今後の進歩の原動力は3D実装による密度の向上と,光インタコネクトで,光インタコネクトになると伝送に掛かるエネルギーはデータ伝送距離に無関係になる。現在は演算器のエネルギーよりもデータ伝送のエネルギーが大きいが,2025〜2030年になると,伝送エネルギーは問題にならなくなるというフェーズチェンジが起こるという話は興味深いものでした。

5.自動運転車同士がニアミス

  2015年6月25日のReutersが,Googleの自動運転のLexus RX400hと,Delphi Automotiveの自動運転のAudi Q5が,Palo AltoのSan Antonio Roadでニアミスを起こしたと報じています。ニアミスだけで,実際にはぶつかってはいません。

  DelphiのAudiに乗っていた,同社のJohn Absmeier氏によると,Audiが車線変更をしようとしたときに,GoogleのLexusが,車間距離が小さいにもかかわらず,その車線に入ってきて,ぶつかりそうになったとのことです。Audiは,車線変更を中止して衝突を回避したとのことです。Delphi側はGoogleが直前に割り込んできたという意見ですが,Googleは見解を発表していないとのことです。

  3車線の道路では,両側から真ん中の車線に車線変更をする場合があり,相手に気づいていないと危険な場合があります。この場合,両者の車線変更のウインカーを出すタイミングなどで,どちらが悪いのか難しいケースがあります。自動操縦ソフトが,このようにケースにどこまで対応できていたのか気になるところです。

 また,Delphi側は車線変更を中止して事故を防いだとのことですが,それが自動で行われたのか,Absmeier氏が運転を替わって事故を防いだのかを知りたいところですが,Reutersの記事には書かれていません。





inserted by FC2 system