最近の話題 2019年5月18日

1.HPEがCrayの買収を発表

  2019年5月17日にCrayは,Hewlett Packard Enterprise(HPE)がCrayを買収すると発表しました。一株$35.00とのことで,総額は約$1.3Bとなります。

  Top500のシステム数のシェアでは,Crayは9.8%,HPEは9.2%で,これが合体すると19%となります。首位のLenovoは28%ですから,これには及びません。しかし,現在,2位のInsupurの16.8%,3位のSugonの11.4%を抜いて,2位のシステム数シェアとなります。

  Top500の性能シェアは首位のLenovoが16.6%ですが,合体したHPEは21%となり,トップシェアになります。

  スパコンは難しいビジネスで,Crayの2019年3月末の4半期の売り上げは$72Mで,$29Mの赤字です。

  HPEとCrayの合体は米国内では圧倒的なシェアとなり,米国だけでみれば独禁法に引っかかりそうですが,上位に中国勢がいるし,トランプさんの感じでは,米国を強くするこの買収はむしろ歓迎ではないでしょうか。

2.Samsungが3nm Gate All-Aroundプロセスを発表

  2019年5月15日のEE Timesが,Samsungが同社のFoundry Technology Forumで3nmのGate All-Aroundプロセスを発表したと報じています。

  MOSトランジスタは,プレナーからFinFETでゲートがカバーする部分が増え,ゲートのコントロール性が向上し,短チャネル化が進んだのですが,3nmともなるとFinFETでは間に合わず,シリコンのナノプレートの全周をゲートで囲むGate All-Around構造を使います。多分,ナノプレートは1枚ではなく,数枚を積み重ねると思いますが,この記事ではナノプレートの枚数については記載がありません。

  Samsungは先月,このプロセスのProcess Design Kitのv0.1をリリースしています。そして,
2020年の後半に3nm GAAプロセスのチップのリスク製造を開始し,2021年に量産に入るという予定です。また,2022年には改良版の3nm GAAプロセスの量産の予定です。

  7nm FinFETプロセスの高性能トランジスタでは電源電圧は0.75Vですが,3nm GAAプロセスでは電源電圧は0.7Vまで下がるとのことです。これだけで消費電力は15%程度改善します。

  そして,3nm GAAプロセスでは現在の7nmプロセスと比べて,チップ面積は45%減り,消費電力は半分,性能は35%向上するとのことです。

  アナリストのHandel Jones氏は,Samsungは新材料の研究開発にお金をつぎ込んでおり,GAAプロセスの開発ではTSMCに比べて1年程度先行していると述べています。

3.NVIDIAがSTAC-A3ベンチマークでこれまでの6250倍の性能を達成

  2019年5月13日のHPC Wireが,株式投資のアルゴリズムを評価するSTA-A3ベンチマークで,これまでの記録の6250倍の性能を達成したと報じています。ベンチマークの記録が上がっていくのに不思議はありませんが,一気に6250倍というのは快挙です。

  STAC-A3はBacktestingというベンチマークで,自動的に売買注文を出すアルゴリズムを過去の値動きのデータを使ってシミュレーションして儲けを求め,儲けの額でアルゴリズムの良し悪しを評価するというベンチマークです。

  NVIDIAはDGX-2サーバを使って,従来,60分で3200回のシミュレーションだったのを,2000万シミュレーションに引き上げたとのことです。

4.Sandiskが1TBのMicroSDカードの発売を開始

  2019年5月16日のThe Inquirerが,Sandiskが容量1TBのMicroSDカードの発売を開始したと報じています。Micronも1TBのカードを発表していますが,実際の発売を開始したのは,このSandiskのものが初めてです。なお,実際の出荷は1~2カ月先になるそうです。

  技術的には,もうすぐ出てくるのは当たり前とも言えますが,現実に1TBのMicroSDカードが出てくるというのは感慨があります。

  読み出しは160MB/s,書き込みは90MB/sだそうです。

  英国のAmazonでは,£453.99とのことで日本円では6万7000円あまりですから安くはありませんが,ノートPCのSSDが256GBとか512GBなのに,MicroSD 1枚で1TBというのは痛快です。

5.好むと好まざるに拘わらずキラーロボットはやって来る

  2019年5月15日のThe Registerが,arXivに発表された3人の研究者の論文を紹介しています。AIはブラックボックスで,発砲するかどうかの最終判断は人間が関与するという原則には賛成が多いが,これも,AIの判断の精度が上がり,ほとんど正しいという状態なると,人間の承認はラバースタンプになってしまう。Lathal Autonomous Weapon System(LAWS)の出現を止める方法は無い。

  キラーロボットを止めらる方法は,厳密な条約による縛り以外にないと書かれています。

  生物兵器や化学兵器は,条約での禁止である程度拡散を止めることに成功しています。しかし,米中ロはAI兵器の禁止には賛成していませんし,有効な厳密な禁止条約がつくれるのかどうかは心もとない気がします。


inserted by FC2 system