最近の話題 2018年5月26日

1.富士通がポスト京試作機を展示

  2018年5月17日,18日に富士通は,東京国際フォーラムで富士通フォーラム2018を開催しました。そこで,ポスト「京」コンピュータの試作機や計算モジュール,CPUチップなどを展示しました。富士通のWebページに写真が掲載されています。

  展示の説明パネルには,最大で「京」の100倍のアプリケーション性能で,消費電力は30-40MWと書かれています。まt,Deep Learning等のAIへの応用に適した設計と書かれていますが,SVE以外の加速機構があるのかどうかは不明です。

  写真には計算モジュールも写っており,水冷の銅色のパイプがあるのが分かりますが,写真が小さく,詳細は分かりません。

  ポスト京とは関係ありませんが,富士通は,最適化問題の近似解を高速で求められるディジタルアニーラにも注力しており,大々的に展示していました。量子的な結合の無いシミュレーテッドアニーリングでも最適化問題が高速に解けるというのは面白いですね。Deep Learningの学習も最適化問題ですから,学習性能の向上に使えるのではないでしょうか。

2.Uberの自動運転車の歩行者死亡事故では,非常ブレーキが切られていた

  2018年5月24日のThe Registerが,アリゾナ州で発生したUberの自動運転車が歩行者をはねて死亡させた事故に関するNTSBの報告書を報じています。

  当初は,LiDARの死角に入って見えなかったと疑われましたが,LiDARは,前方の障害物を6秒前に検出していたとのことです。しかし,それが何であるかの判別には時間が掛かり,衝突を避けるためには非常ブレーキが必要と判断したのは1.3秒前であったとのことです。

  しかし,自動運転車の非常ブレーキのスイッチが切られており,非常ブレーキは掛けられず,歩行者をはねたとのことです。非常ブレーキを作動させると,急減速などのぎくしゃくした運転になるので,非常ブレーキを使わず,人間のドライバが替わって,よりスムーズな運転をするという思想なのですが,システムはドライバに警告などは行わず,ドライバは前方を注視しておらず,交代が間に合わず,直前に歩行者に気づいてハンドルを操作して避けようとしたのですが,衝突してしまったとのことです。

  非常ブレーキを切っていたのは大きな問題です。また,ドライバが乗っているからすぐに後退して適切な運転ができるというのも現実的でない前提で,設計上,大きな問題です。

  なお,死亡した歩行者の血液からは,メタアンフェタミンとマリファナが検出されたとのことで,注意力が正常ではなかったことも考えられます。

3.Intelが,2019年にニューラルネットワークチップSpring Crestを出荷と発表

  2018年5月23日のTom's Hardwareが,IntelのSpring Crestと呼ぶAIチップの発表を報じています。

  IntelはNervanaを買収して手に入れたAIチップをLake Crestを2017年から一部顧客に提供していますが,そのチップの第二世代となるSpring Crestと呼ぶAIチップを2019年内に出荷すると発表しました。正式な商品名はNNP-L1000とのことです。

  Spring Crestは,Deep Learningの学習において,Lake Crestの3~4倍の性能を持つとのことですが,実は,IntelはLake Crestの性能を発表していません。これでは性能が分からずインパクトが無いと考えたのか,今回のSpring Crestの発表と同時に,Lake Crestの一部の性能についても発表を行いました。

  それによると,1536×2048の行列と2048×1536の行列積の計算は,理論ピークの96.4%の性能である約38TOpsの演算性能を持っています。また,Lake Crestは6144×2048と2048×1536の行列をマルチチップ構成で掛けた場合も96.2%とほぼリニアな性能向上が得られる。チップ間の通信バンド幅は24Tbit/sで遅延は790nsと速いと書かれています。これで消費電力は210W以下となっています。

  演算精度については書かれていないのですが,bfloat16をサポートしていると発表されており,上記の演算はbfloat16で行われているのではないかと思われます。

  また,8個のチップを3Dトーラス状に接続した図が出されており,このような接続で更に大規模なシステムが作れるようになっていると思われます。

  演算性能が38TFOpsのLake Crestの3~4倍とすると,NVIDIAのV100のTensorコアより若干高い性能となりますが,登場時期が2019年の終わりごろとなると,V100から2年遅れですから,時期を考えると,パンチ力が十分とは言えないと見られています。

  また,AIに関してXeon SP,Xeon+FPGA,MovidiusのVPUなども説明されましたが,Xeon Phi系列のKnights Millや,元々Lake Crestの後継と言われていたKnight Crestについては言及されませんでした。

4.ARMがAIコアを発表

  2018年5月22日のEE Timesが,ARMのAIコアの発表を報じています。このコアはRTLの設計が終わったという段階で,スマホに搭載されて出回るのは2019年かそれ以降になると見られます。

   既にSamsungのGalaxyやHuaweiのKirinなどのスマホにはAIが搭載され始めており,まだ,テストチップなどは出来ていないのですが,ARMとしては早く発表して潜在顧客を繋ぎ止めて置く必要を感じていると見られます。

  このAIコアは,共通のCPUとのインタフェースのACE-LiteとDMAエンジン,コントロールユニット,同期ユニットを持ち,そこに最大16個のコンピュートエンジンが繋がツという構造になっています。各コンピュートエンジンは128個の8bit整数のMAC演算器と約1MBのSRAMメモリを持っています。また,コアは,枝刈りや重みのクラスタ化などの機能を持ち,必要なSRAの容量を減らし,外付けのDRAMのアクセス回数を減らしているそうです。

  最初のコアの設計目標は,4.6TOps/sの性能で3Tops/Wの電力効率とのことです。128MACは256Ops/sの演算性能なので,16コンピュートエンジンの構成でクロックは1.12GHzという計算になります。



inserted by FC2 system