最近の話題 2020年9月19日

1.NVIDIAがarmを買う

  2020年9月14日のNext Platformが,NVIDIAが$40Bでarmをソフトバンクから買収すると報じています。

  ただし,$40Bの内,$12Bはキャッシュですが,$21.5BはNVIDIAの株で支払われます。更にソフトバンクは$5B(キャッシュか株かは未定)を支払い,これに加えて従業員を引き留めるためのボーナスの資金として$1.5Bを株で支払います。

  NVIDIA株で貰っても,市場価値はあるのですが,支払うNVIDIAからすれば株を発行するだけで,直接的には自分の懐は痛みません。ある意味では,NVIDIAはarmを$12Bで買ったとも言えます。

  ソフトバンクは最大$28BのNVIDIA株を受け取ることになります。買収後は6~7%の6~7%NVIDIA株を保有するとのことですから,受け取った大部分のNVIDIA株は株のままで保有する感じで,財務を改善する現金は$12Bくらいではないかと思われます。

  NVIDIAがいくら払ったことになるかは別として,NVIDIAとしてはarm CPUを手に入れたことによって,データセンターや次期スパコンの商戦で有利になることは間違いありません。なお,これは当局が買収を承認したらという話です。

2.PS-5の発売日は11月12日

  2020年9月17日のPC watchがPS5の発売が11月12日になったと報じています。発売されるのはPS-5の通常モデルとBDドライブなしモデルの2つで,通常モデルは税抜きで49,980円,BD無しは39,980円です。BDドライブのあり,なしのモデルを設けるのはMicrosoftのXboxと同じやり方です。まあ,ゲームはダウンロードで買うからBDドライブ不要という人も増えているので,当然と言えます。

  PS-5のCPUはRyzen Zen 2(8コア/16スレッド),クロック最大3.5GHz,GPUはRadeon RDNA2のGPUでクロックが最大2.23GHzで10.3TFlopsという代物です。メモリはGDDR6で容量16GB,バンド幅は448GB/s,ストレージはSSDで容量は825GB,バンド幅は5.5GB/sとなっています。

  DBドライブ付きのモデルは390×104×260mmで重さが約4.5kg,消費電力は350Wとなっています。BDドライブなしは390×92×260と奥行きが12mm短くなっています。重量は3.9kgと600g軽く,電力は340Wと10W減です。

  感じで言うと,Xbox series XとSeries Sに非常に良く似ています。

3.IBMが量子コンピュータのロードマップを発表

  2020年9月15日のHPC Wireが,IBMの100万Qubitに向けたロードマップの発表を報じています。今回,IBMは2023年に1000Qubitを達成する詳しいロードマップを発表し,2030年には100万Qubitを目指すとしています。

  量子ビットを安定に保つためには,素子を極低温に保って雑音を小さく抑える必要がありますが,現在使われている希釈ポンプでは冷却能力が限られており,Qubit数が大きくなると冷やしきれません。このため,IBMは高さ10フィート,横幅6フィートのスーパー希釈冷凍機の開発を始めているとのことです。この冷凍機は100万Qubitを冷やすことを目標としています。

  そして,IBMは2020年に65qubitのHummingbirdを作る予定です。Hummingbirdは8qubitを一纏めにして読み出しを8:1マルチプレックスを使い配線や部品を減らすというアプローチを採ります。

  2021年には127QubitのEagleを作る計画です。EagleではTSVと多層配線を実現して,制御用の配線の密度を抑えて高いコヒーレンス時間を保ちます。更に2022年には433QubitのQspreyを作る計画です。Ospreyでは小規模なプロセサの設計法の確立を目指します。

  2023年にはCondorで1121Qubitを作り,エラー訂正を実装し,量子優越を示せる複雑度を持った素子を実現します。その後はさらにQubit数を増やします。

  また,IBMは実用的にはゲートの誤り率,コヒーレンスを維持できる時間,Qubitの接続性,ソフトウェアの効率など重要な要素があり,単にQubit数だけではないQuantum Volumeというメトリックを提唱しています。

      IBMは今年の夏に27QubitのFalconプロセサでQuantum Volumeで64を達成しており,これを伸ばしていく計画です。

4.QualcommのクラウドAI 100

  2020年9月16日のEE Timesが,QualcommのAI推論アクセラレータについての記事を載せています。Qualcommが最初にCloud AI 100アクセラレータを発表したのは2018年4月のことで,もう約18ヵ月も前のことですが,Qualcommはその後も詳細を発表してきませんでした。

  Cloud AI 100はDualM.2 edge,Dual M.2とPCIeカードの3種類のフォームファクタで提供されるということが明らかにされました。Dual M.2eは消費電力15Wで,50TOPS,Dual M.2は25Wで200TOPS,PCIeは75Wで400TOPSのピーク性能とのことです。

  EE Timesの記事に電力と推論/秒の散布図が入っていますが,A100 PCIeはNVIDIAのA100の性能を上回りますが,消費電力は1/4以下です。NVIDIAのT4と比較するとAI 100 PCIeは電力は同程度ですが,スループットは4倍です。

  ということで,Cloud AI 100は。グラフに描かれているIntel,NVIDIA,Groqのチップと比べても高性能,低電力です。なお,ここでの推論計算はINT8での実行と思われますが,圧縮の利用の有無などは不明で,公平な性能比較になっているのかどうかは良く分かりません。

  ボードに搭載されたDRAMは32GBで,4×64のLPDDR4xを使っています。メモリクロックは2.1GHzです。

  Cloud AI 100は,既に何社もの顧客にサンプル提供を行っており,2021年の前半に量産出荷の予定です。


inserted by FC2 system