最近の話題 2016年11月26日

1.MacomがApplied Microを買収もX-Geneは売却予定

  2016年11月21日のEE Timesが,MacomがApplied Micorに$770Mで買収提案と報じています。しかし,お目当ては100Gや400GのEthernetの伝送を行うPAM4の技術で,金は掛かるが儲からないARMサーバ用のX-Geneは売却という方針とのことです。

  高速通信技術は,CISCOを始め大手のネットワーク機器会社が顧客としてついており,2019年には$500Mの売り上げになると見ています。

  ARMサーバ向けのX-Geneは,良い顧客がついており,将来性はあるものの,Appliedの費用の51%をつぎ込んでいるのに,売り上げの1%にしかなっておらず,現在は年間$55Mの赤字とのことです。ということで,MacomのCEOは,買収後100日以内に,X-Geneは売却すると述べています。

  まだまだ,ARMサーバビジネスは大変なようです。

2.NervanaのAIエンジンLake Crest

  2016年11月17日のEE Timesが,Intelが買収するNervanaのLake Crestと呼ぶAI用のエンジンについて報じています。Lake Crestは,12個のProcessing Clusterを持つAIエンジンチップと4個の8GB HBM2がインタポーザに載っているという絵が載っています。そして,トーラスや他のトポロジで複数のチップを接続して,より大きなシステムを構成できるとのことです。

  ブロック図には,12個のICLと書かれたブロックがあり,これらが12本の100Gbit/sのチップ間接続のリンクのポートのようです。28G SERDESと書かれているので,これを4個使って100Gbit/sを実現していると考えられます。

  そして,4個のHBM2で8Tbit/sのメモリバンド幅が得られますが,キャッシュは持っていないとのことです。

  Lake CrestはTSMCの28nmプロセスで作られるのですが,まだ,1st Siliconはできていないとのことです。

  これ以上の詳細は明らかになっていませんが,16nmプロセスを使うNVIDIAのP100 GPUよりは集積度は低いのでしょうが,64bitの倍精度演算などはサポートせず,ニューラルネットに特化したデータフロー的な処理を行う等で,AI処理については,P100より高い性能を実現することは充分あり得ると思いますが,10倍とかいう性能にはならないのではないかと思います。

  GPUの方は,ゲーム用,自動車用などのGPUと共通になる部分があり,設計コストやサポートソフトのコストが薄められるのですが,Nervanaの場合は,そのようなシナジーは無さそうです。ディープラーニングの学習は素人がやるには難しい仕事で,学習用のNervanaのシステムがどれだけ売れるのか,開発費が回収できるのかが問題になるような気がします。

3.SC16のSCCでHPL性能が急増したわけは

  2016年11月24日のThe Registerが,SC16でのStudent Cluster CompetitionでのHPL性能の急増について報じています。

  今年6月のISCでは,HPLの最高性能は12.57TFlopsでしたが,今回のSC16での最高性能は31.15TFlopsと約2.5倍に上がり,出場14チームの半分以上が,ISC16の記録を上回るという急激な性能向上となっています。過去には,これほど大きな性能向上はありません。

  これらのHPLの高性能を実現したチームは,6台から10台のNVIDIAのP100 GPUを使っていました。一方,K80 GPUを使ったチームはわずかな性能向上に留まっています。つまり,今回のHPL性能の大きなジャンプは,NVIDIAのP100 GPUの採用がもたらしたと言えます。

.Bletchley Parkで対ハッカーを養成

  2016年11月25日のThe Registerが,2次大戦中にチューリング等がドイツ軍の暗号解読に活躍したBletchley Parkに16歳から19歳の才能に恵まれた生徒をあつめ,サイバーセキュリティーの教育を施すというプロジェクトについて報じています。

  ようするに,ハッカーに対抗する正義の戦士を養成しようというプロジェクトです。実施するのはQUFAROという非営利団体で,2018年から開始の予定だそうです。

  Block Gというビルを使う計画ですが,現在は荒れ果てていて,£5Mを掛けて改装が行われた後の発足の予定です。


inserted by FC2 system