最近の話題 2021年8月7日

1.AmpereがInferenceツール開発するOn Specta社を買収

  2021年8月3日のNextplatformが,armアーキテクチャのデータセンターCPUを開発するAmpere Computingが,Inferenceツールを開発するOnSpecta社を買収すると報じています。

  OnSpectaのツールの使用により,x86あるいはarm CPUのInference性能を2倍に引き上げることができ,AmpereのAltraやAltraMAX C PUを使った場合は性能を4倍に引き上げられられるとのことです。AltらCPUにOnSpectaのツールを使うとNVIDIAのT4 GPUを付けてInferenceを行う場合と比べて4倍の性能になるとのことです。

   データセンターCPUのメーカーは毎年,性能を向上したCPUを出し続ける必要があり,スタートアップには荷が重いビジネスですが,Ampereの場合はThe Carlyle Groupが,金額は公表されていませんが,かなりの投資を行っており,既に500人規模の会社になっているとのことです。

  そして,OnSpectaの買収額は不明ですが,CPUを使った推論の性能向上などの開発は,AmpereがCPUメーカーとして成長して行けるという可能性を強く感じさせます。


2.Frontierスパコンに使われるAMDのMI100 GPU

  AMDのMI100 GPUは昨年11月に発表されたのですが,その仕様などを書いてこなかったので,遅ればせながら,書いておきます。MJ100はCDNAアーキテクチャのGPUで,グラフィックス向けのGPUというより,より汎用の計算エンジンとなっています。大きな特徴は,コアをエンハンスしてMatrix Core Engineと呼ぶ行列演算器を設けた点です。NVIDIAのTensorコアのように,メモリと転送を行うデータ量あたりの演算量が多くなるので,メモリネックにならず,より多くに計算ができます。このため,演算性能が高くできます。

  以前のGPUでは,Infinity Fabricは23GT/sの伝送速度で16bit幅でしたが,MI100では,各GPUは3本のInfinity Fabricを備えており,4個のGPUをフルコネクトで接続できます。そして,メモリは容量32GBのHBM2となり,バンド幅は1.23TB/sと20%高速になっています。

  演算器はMatrix FP16演算では1024Flops/Clock/CUで,184.4TFlopsのピーク演算性能を持っています。AI演算用のbf16を使ったMatrix演算では92.3TTflops,Matrix FP32は45.1Tflops,Vector FP32は23.1Tflops,Vector FP64は11.5Tflopsとなっています。

  MI100は科学技術計算の標準であるFP64演算で11.5Tflopsで,これはNVIDIAのA100が9.7Tflopsであるのに比べて18.5%高い性能です。しかし,MI100のMatrix bf16演算は92.3Tflopsですが,A100のPeak bf16 Tensor Coreは312TFlopsと3倍強の性能となっており,ML計算ではNVIDIAの方が速そうです。

3.AppleがiPhoneに保存されている児童ポルノを自動的にスキャンか?

  2021年8月5日のThe Registerが,近々,個人のiPhoneに保存されている全部の写真をスキャンして児童ポルノの写真を見つけ出す機能を追加する予定であると報じています。このような機能は現在も存在するのですが,現在のものはハッシュ関数を使ったもので,児童ポルノとして登録された写真のコピーを見つけ出すもののようですが,Appleの新しい機能はニューラルネットを使って児童ポルノかどうかを判別するもので,新たな写真が追加されても見つけられるようです。

  児童ポルノの写真の保存は違法ですから,法律の厳正な施行という点では良いのですが,スマホの中の全部の写真をチェックするというのは強力な機能で,使い方によっては,プライバシーの保護に関しても危険を生じさせかねません。


inserted by FC2 system