最近の話題 2018年10月6日

1.AmazonやAppleのサーバにスパイチップが仕掛けられていた?

  2018年10月4日のBloomberg Businessweekが,2015年に中国によって,米国の企業のサーバにバックドアを作る小さなスパイチップが仕掛けられていたと報じています。

  BMC(Baseboard Management Controller)とSPI Flashの間にFlashから読まれるプログラムを改変するコードを仕込む機能を持つチップが挿入され,ブートプログラムにスパイコードが埋め込まれて実行されるようになっていたというものです。このようなチップを作ってブートプログラムを改変するのは容易ではありませんが,不可能とも言えません。

  この記事を書いたBroombergの2人の記者は信頼のおける記者で,キワ物を書く人ではありません。また,AmazonやAppleの内部の人や政府機関の人など多くの人の証言も集めています。

  スパイチップを埋め込まれたサーバはSuperMicro製で,中国の工場での組み立て作業中に現場監督を脅すか買収するかして作業を行わせたと書かれています。

  一方,スパイチップが発見されたとされるAmazon,AppleやSuperMicroは,スパイチップが発見されたことはないし,FBIなど司法機関の調査を受けたことはないと事件の存在自体を否定するコメントを出しています。

  本当のところはわからないのですが,2018年10月4日のThe Registerが分析記事を掲載しています。

  このようなケースでは,AmazonやAppleは否定するとしても,このようなセキュリティーに関する問題についてはコメントできないというような否定の回答が普通なのですが,今回は,明確に強い言葉で否定している。このようなステートメントがはっきり嘘であることがばれると,株主から訴えられるので,AmazonやAppleがこのような嘘をつくのは考えにくい。また,大勢の証人がいるとのことであるが,明確にチップを見たというような証言がないなど,どうもBroombergの方が不利な感じです。

  また,The Registerは,2015年にCIAのヘッドクオーターの近くで行われた非公式の会議での議論が元ネタではないか?その場で出た中国のスパイに関する議論が,事実であると誤解された可能性もあるのではないかと指摘しています。

2.TSMCの7nm/5nmプロセスアップデート

  2018年10月4日のEE Timesが,TSMCの7nm/5nmプロセスのアップデートを報じています。それによると,既に,TSMCはEUVを部分的に使った最初のチップのテープアウトを行い,来年4月には完全EUVの5nm世代のチップのリスク製造を開始するとのことです。

  微細化はチップ面積や消費電力の点ではメリットが大きいものの,スピードの改善は減少してきている。このため,TSMCはチップ間の接続のスピードを改善する,いろいろな改善を行っているとのことです。

  TSMCはN7+という最大4層までEUVを使うノードの,顧客のチップのテープアウトを行った。そして,14層までEUVを使うN5のリスク量産を4月から開始するとのことですが,ライバルのSamsungもEUVを使う7nmノードの立ち上げを行っていて,競争は激しくなっています。一方,IntelのEUVは2019年後半とも言われ,出遅れの印象です。

  TSMCのN5は,ARMのA72コアでは,14.7%-17.7%の速度向上と1.8-1.86倍の面積縮小が得られたとのことです。そして,N7+は消費電力は6%-12%減少し,チップ密度は20%改善とのことですが,速度の改善については触れられていません。

  N5のチップの設計は現在,開始することができる環境になっていますが,大部分のEDAツールは11月にならないと0.9版の機能のサポートはできないようです。TSMCのN5のIPブロックは使えるようですが,PCIe Gen4やUSB3.1は来年6月まで使えないようです。

  EE Timesは,一つのソースから聞いた話として,N5の開発費は$200M-$250Mと述べたと書いています。これは設計者の給料やIPのライセンス料などを含んだ値段だそうですが,この金額になると手が出せる会社は限られてくると思われます。

  パッケージの改善では,2umのピッチのI/Oを40umのSoCのI/Oピッチに変換するInFO-on-Substrateをレティクルの1.5倍の面積まで使えるようにする,HBM2を接続するInFO-Memoru-on-Substrateはフルレティクルサイズまで適用範囲を拡大。CoWoSはC4バンプのピッチを130umまで縮小し,適用をレティクルの2倍サイズまで拡大。チップを重ねてTSVで接続するSystem-on-Integrated-Chipsはピッチを10um以下に縮小するとのことです。

3.Xilinxの新アーキテクチャSoC Versal

  2018年10月4日のEE Timesが,XilinxのVersalアーキテクチャのチップの発表を報じています。Versalは8月のHot ChipsでEverestという名前で発表されたものです。

  Versalは従来のFPGAに比べると,FPGAブロックの面積を減らし,その分,推論エンジンやARM Coreなどの面積を増やした構造になっています。構成部品の粒度をゲートレベルからコアやアクセラレータレベルに引き上げ,より高度な機能を,RTLレベルではなく,ソフトウェアで提供するという方向に舵を切ったようです。

  Versalは内部的にはAXIを強化したNetwork on Chipの構造になっており,いろいろな機能ブロックを接続できるようになっています。そして,FPGAのLUTは従来のものに比べて8倍のスピードで構成ができるとのことですが,ゲートとしてのスピードは7nmプロセスを使うことによる10-20%の高速化とのことです。

  XilinxはAI向けのSIMDCoreを新規開発しています。クロックは1GHzを超えで数1,000コアを集積するとのことですが,最初の製品では400コアとのことです。このコアは32KBのメモリを持ち,4個の隣接Coreのメモリにも直接アクセスできるようになっているとのことです。

  最初の7nmのVersalは,デュアルCoreのCortex-A72,デュアルCoreのCortex-R5,マルチテラビットのNoC,ブートを行うマネジメントコントローラ,DSPやベクタプロセサを搭載し,DDR4-4300やLPDDR4-4266,112Gbit Serdes,HBMなどのインタフェースを持つとのことですが,112GのSerdesは2020年,HBMは2021年となっています。

  各種のサイズがあり,消費電力は5-150Wで,電源電圧はが0.7,0.78と0.88Vがサポートされています。

4.ARMがXilinxFPGAでのCortex-M1とM3のライセンスを無料化

  2018年10月5日のEE Timesが,XilinxのFPGAでCortex-M1とM3を使う場合の全てのライセンス料を無料にすると発表したと報じています。IoTデバイスでは,アプリケーションプロセサとしてはCortex-Aプロセサを使いますが,コントローラとしてはCortex-Mを使うというケースが一般的です。

  今回の発表は,XilinxのDesignSmartというプログラムでCortex-M1あるいはM3ソフトコアを使う場合は,ライセンス料を無料にするというものです。Cortex-AとCortex-Mの組み合わせは使いやすいのですが,Cortex-Mのライセンス料を節約してRISC-Vを使おうという動きもあり,Cortex-M1とM3の無料化は,RISC-Vなどの攻撃から,Cortex-Aの市場を守ろうという動きであると思われます。

5.D-Waveが量子コンピュータのクラウド提供を開始

  2018年10月4日のHPC Wireが,D-WAveが同社のD-Wave 2000Q量子コンピュータをクラウドで使わせると発表したと報じています。IBMは5qubitと16qubitの量子コンピュータをIBM Qという名前でクラウド提供を行っており,Rigettiも128qubitの量子コンピュータをクラウド提供する計画を発表しており,今回のD-Waveの発表はそれに続くものです。

  D-Waveのマシンは量子アニールという原理で動くもので,IBMやRigettiのゲート型の量子コンピュータに比べて適用範囲が制限されるのですが,最適化問題には向いており,AIの学習にも向くということで,実用的には十分意味があります。それで2000qubitですから,実用的な規模の問題に使えます。

  Leapと呼ぶプログラムに参加すると,2000Qマシンを1分間,無料で使えます。そして,D-Waveのマシンは,広く使われているPythonでプログラムでき,使いやすいとのことです。

  しかし,最初の1分を超えると有料になり,1時間$2000だそうです。AWSなどに比べると大幅に高価ですが,数10億円のマシンですから,妥当な値段ではないかと思います。


6.DDNがA3Iと呼ぶストレージ一体型のAIシステムを発売

  2018年10月4日のHPC Wireが,DDNのA3Iと呼ぶシステムの発売を報じています。AIシステムというとAIの学習や推論を行う計算エンジンに注目が集まりますが,AIシステムに大量のデータの供給を行うこともそれに劣らず重要です。このようなAIエンジンとストレージを結合した製品はあるのですが,多くはNFSでサーバとストレージを結合したもので,十分なバンド幅が得られていません。

  これに対してDDNのA3I(Accelerated, Any-scale AI)システムは,NVIDIAのDGX-1 AIサーバとDDNのAI200あるいはAI7990ストレージをEDRのInfiniBandあるいは100GbEで結び,プロトコルも並列ファイルシステムを使い20GB/sのファイルシステムのスループットを達成しています。

  製品としては,これらのストレージと同じラックに1台,あるいは4台のNVIDIAのGDX-1を接続したものと,9台のDGX-1を収容するDGX-1 PODを搭載するものがあります。

inserted by FC2 system