最近の話題 2020年4月18日

1. IntelとQuTechが高温で動作するシリコンスピン量子ビットを発表

  2020年4月15日にIntelは,QuTechと協力して高温(1Kelvin強)で動作するQubitの製作に成功したと発表しました。これまでのQubitは数十ミリ Kelvinに冷やさなければ使えなかったのと比べると,これらの数十倍の高い温度で動作することになります。

  そうなると,Qubitを制御する電子回路を同一チップに集積する温度的な余裕ができる可能性も出てきます。

  また,2Qubitゲートの状態を99.3%の忠実度で制御することに成功したと発表しました。2Qubitの系の制御は,これまでの記録は40mKでの動作したが,このチップでは1.1Kelvinで動作しとのことです。


2. GroqがLinley Spring Computer ConferenceでAI エンジンを発表

  2020年4月16日のEE Timesが,これまでステルスモードで開発を行ってきたGroqのAIエンジンの発表を報じています。Linley Spring Computer Conferenceは,今年はサンタクララ郡とカリフォルニア州の外出禁止令が出ており,バーチャルコンファレンスとなったのですが,1100人以上がZoomでのコンファレンスに参加したとのことです。

  色々な発表が行なわれた中で注目されたのはGroqです。Groqは,Googleの初代TPUを設計したチームメンバが作った会社だそうです。

  Groqのチップは14nmプロセスで作られ723mm2という巨大チップで,ResNet50で,21,700イメージ/秒の性能だそうです。GoogleのTPUv3が32個で100万イメージ/秒ですから,1個なら3万とすると,TPU v3の2/3くらいの性能と言う感じです。現在のクロックは900MHzで,演算性能は750TOPSとのことです。クロックを1GHzまで伸ばすのが目標とのことです。

  Groqのチップは縦方向に同じユニットが並び,ニューラルネットの信号は横方向に走るという構造になっており,SIMD的に144データを並列に処理しているようです。無駄を省いて必要な処理だけを実行パイプラインに流すようにし,どこの演算器をどの処理に使うかなどはコンパイラが決めているようです。

3. 英国のPlumeraiとXMOSが2値ニューラルネットの推進で協力

  2020年4月15日のEE Timesが,英国のPlumeraiとXMOSが2値のニューラルネットの開発で協力すると報じています。Plumeraiは2017年に創立され,現在の従業員は20名とのことです。Plumeraiは2値の演算を使うニューラルネットのソフトウェアを開発してきたのですが,2値のニューラルネットの計算を行う適当なハードがありませんでした。

  それが今回XMOSとの提携で1bitの入力,1bitの重みで処理を行うBNN(Binarized Neural Network)の処理を行うXcore.aiというカスタムLSIを作ることができるようになったとのことです。

  現在,推論は8bit整数で処理するのが一般的ですが,1bitでできれば,ハードも簡単で処理速度も速くなります。ただし,8bitのネットワークを1bitに下げると計算精度が低下してうまく行きません。従って,ところによっては同じ計算に複数のニューロンを使っているとのことです。これで,8bitの計算と同じ精度を実現しているとのことです。

  平均的にBNNで2ニューロンを必要としても,8bit演算と比べると1/4のハードウェアで済んでいる計算で,コンパクトで演算速度は速く精度的にも8bitと遜色がないものが作れるとのことです。

  演算精度が1bitの場合は乗算はXNORででき,合計はPopulation Countで求められます。このような演算回路を搭載したカスタムLSIをXMOSが作るのだそうです。

4. Cool Chips 23でLEAPMINDが低精度演算を使うDNNアクセラレータEfficieraを発表

  2020年4月15日から17日に掛けてWebexを使ってバーチャル開催されたCool Chipsで,LEAPMINDという日本の会社が低精度演算を使うDNNアクセラレータを発表しました。同じバーチャル開催でもアメリカでの開催の場合は,時差の関係で出席するのは楽ではないのですが,国内の場合は,自宅でゆっくり朝食をとってからパソコンの前に座れば良いので,楽々です。友人,知人に会えるというリアルの会議も捨てがたいものがありますが,バーチャル会議の楽なことは病みつきになりそうです。

  このCool Chips 23で注目の発表はLEAPMINDで,2012年の創立だそうです。Intel Capitalやトヨタなどが出資しており,これまでに50億円を集めたとのことです。

  LEAPMINDのEfficieraアクセラレータの特徴は,アクチベーションが2bit精度,重みは1bit精度という非常に低精度のニューロンを使っている点です。低精度にすると必要なトランジスタ数は減りますし,回路動作も速くなりますが,同時に消費電力を減らせます。EfficieraはTSMCの12FFCプロセスで作られ,27.7TOPS/Wという高い効率を持っているとのことです。これは標準のVtのトランジスタを使った場合の値で特に回路的な低電力化は行っていないとのことです。

  このチップは800MHzクロックでの動作で6.55TOPSで,チップサイズは0.722mm2と小さく,消費電力は236.5mWとなっています。この程度の性能があれば,60FPSで2Dのポーズ推定ができるとのことです。

  高精度の計算でのビット数を減らすだけでは精度の低下が大きくなり,うまく行かない。初めから低精度用の学習をやる必要がある。また,どうしても精度低下が大きい場合は,層の入出力の精度は変えず,フィルタのチャネル数を増やすと良いという。ImageNetのイメージをResNet-18で認識した場合,正解率が66.6%から,低精度では55.8%まで低下してしまった。しかし,64チャネルであったフィルタを128チャネルに増やすと64.7%まで回復した。物量は増えているが,アクチベーションや重みのビット数を増やすよりも,フィルタのチャネル数を増やす方が効率が良いようです。

  低精度の推論を可能にするためには色々なノウハウが必要なようですが,うまくやれば,非常に効率の良いDNN推論アクセレレータを作れそうです。

  アルファ版のEfficieraチップは出来ているのですが,5月にベータ版のリリースを予定しており,チップの販売開始は今年の秋の予定とのことです。


5. AMDが3種のサーバ用の第2世代Epycを発表

  2020年4月14日のThe RegisterがAMDのサーバ用第2世代Epycの発表を報じています。

  8コアの7F32は3.7-3.9GHzクロック,L3$は128MB,8コアで消費電力は180W。7F52は3.5-3.9GHzクロックでL3$は256MB,16コアで消費電力は240W,7F72は3.2-3.7GHzクロック,L3$は192MB,24コアで消費電力は240Wとなっています。

  1000個ロットでの購入の場合,お値段は7F32が$2100,7F52が$3100,7F72が$2450となっています。


6. Centaurがサーバ用x86に巨大SIMDのMLアクセラレータを付けたチップを発表

  2020年4月16日のEE TimesがLinley Spring Computer Conferenceにおいて,Centaur Technologyがハイエンドx86プロセサに巨大SIMDのAIアクセラレータを付けたチップを発表したと報じています。

  Centaur Technologyはx86互換のプロセサを開発しているオースチンの会社だったのですが,1999年に台湾のVIA Technologiesに買収されてVIAのプロセサ開発部門となりました。Glenn Henryという元IBMフェローが社長となって会社を率いていたのですが,発明家の血が騒ぎ,社長を辞めて今回のAIアクセラレータの設計を行ったとのことです。

  EE Timesの記事によるとCHAと呼ばれるこのチップはTSMCの16nm FFCプロセスで作られ,194mm2とのことです。ここに8個のサーバ向けのx86コアと32768ビット幅のSIMDのAIアクセラレータを搭載しています。写真によるとCPUには16MBのL3$が付き,DDRコントローラが4個ついています。


inserted by FC2 system