最近の話題 2020年5月16日

1.NVIDIAが仮想GTCの基調講演でAmpere GPUを発表

  2020年5月14日のEE Timesが,NVIDIAの基調講演でのAmpere GPUの発表を報じています。講演自体はJensen Huang CEOの自宅のキッチンで行われ,オーブンの中からAmpere 8チップを搭載するDGX A100のボードを取り出して見せました。重量は50ポンドとのことで,かなり重そうでした。

  といってもDGX 2は350ポンドもあったので,Jensen一人では絶対に持ち上がらなかったと思います。

  A100 GPUはTSMCの7nmプロセスで作られ,チップサイズは826mm2,54B Trと巨大です。SXMの最大電力は400Wとなっています。Voltaと比べると,FP64演算性能は2.5倍程度ですが,AI演算にはTF32と呼ぶ精度はFP16並みの10bit,指数部はFP32並みの8bitという数値を使っています。さらに,疎行列の場合,ゼロを掛けるというような無駄な演算器の入力を繋ぎ変えて実効性能を最大2倍に引きあげるということをやり,Voltaと比べて10倍,20倍という性能向上を実現しています。もっとも演算の中身は同じではないので厳密にはちがうことをやっているのですが,学習や推論を行う場合の性能向上という意味です。

  マシンラーニングやビッグデータ解析は,データセンターの仕事の中での大きな割合を占めてきているので,そららの処理のコストが下がればみんなハッピーということでしょうか?

    それから,NVLinkが3.0になり,バンド幅が2倍に  それから,NVLinkが3.0になり,バンド幅が2倍にそれから,HBM2メモリが6個になり,メモリバンド幅が1.6TB/sに上がりました。また,NVLinkがv3.0になり,バンド幅が2倍になりました。

  A100 GPUを使うDGX A100という開発システムが発表されたのですが,GPUの個数が半分の8個になりました。それでもFP64の演算性能でも2.5倍なので,個数半分でも性能は演算性能は増えてています。しかし,メモリバンド幅ではHBM2が64個から48個に減っています。

  ということで,DGX A100のお値段は$199KとDGX 2の$399Kのほぼ半額になっています。

2.Hot Chips 32。今年も興味深い発表が目白押し

  Hot Chips 32,8月16日から18日に掛けてディジタル開催で実施されますが,そのアドバンスドプログラムが送られてきました。それによると,初日の8月16日はチュートリアルで,午前はGoogleとVIDIAの人が講師で,Machine Learning Scaleout,午後はUCSB,Google,IBM,Intelの人が講師でQuantum Computingのチュートリアルです。

  17日,18日が本会議で,最初はサーバプロセサのセッションで,次世代Xeon,POWER10,Thunder X3とIBMのz15メインフレームが発表されます。

  次はモバイルプロセサのセッションでAMDの7nmのRyzen 4000APU, IntelのTiger Lakeが発表されます。

  その次は IntelのJim Keller氏の基調講演が行われ,続いてEdge Computing and Sensingのセッションで,AlibabaのXuantie-910 RISC-VプロセサやARMのCortex-M55などが発表されます。17日の最後のセッションはGPU's and Gaming Architecturesのセッションで,NVIDIAのAmpereの発表,InteのXe GPUのアーキテクチャの発表,そしてMicrosoftのXbox series X System Architectureの発表が並びます。

  最終日の18日はFPGAs and Reconfigurable Architecturesのセッションで,IntelのAgilexの発表に,XilinxのVersalの発表が続きます。その後はNetworking and Distributed Systemsのセッションです。

  その後にDeepMindのDan Belov氏の基調講演があり,その後,ML Trainingのセッションです。Googleの学習チップのTPUv2,TPUv3が発表されます。発表者はNorman Jouppi氏です。そして,Celebrasが第二世代のWafer Scale Engineを発表します。MLセッションの最後はETH Zurichの4096コアRISC-V Chiplet Architecture for Ultra Efficient Floating Computingと題する発表です。

  Hot Chips 32の最後のセッションはML Inferenceのセッションで,BaiduがKunrun AIプロセサを発表します。続いてSense TimeがSense Time Processing Unitを発表します。そしてLightmatterという会社がSilicon PhotonicsでAIアクセラレーションという論文を発表します。

  Hot Chips 32の最後の発表はAlibabaのHanguang 800 NPUです。データセンターでのInference処理の究極の解決法と言っています。

  ディジタル開催で会場や,おやつのハーゲンダッツアイスクリームなどは有りませんが,IEEEなどの会員で7月末までのレジストレーションなら$100とお手頃なお値段です。

  気になるのは,日本の発表が1件もないということです。国力の低下ってこうやって進んで行くのですね。

  DeepMindという会社は日本にもあり,さらに最近LeapMindの記事を書いたりしていて,混乱してしまいました。謹んで,訂正いたします。

3.TSMCが5nmファブをアリゾナに建設

  2020年5月15日のEETimesが,TSMCが5nmファブをアリゾナ州に建設すると報じています。2021年から着手し,2024年に製造を開始というスケジュールです。2021年から2019年の総投資額は約$12Bとのことです。これで月産2万枚のウエファを製造するという計画です。

  米国にとってはTSMCのファブが国内にできるのは,安全保障上からも望ましいことで,加えて1600人の雇用が生まれ,さらに間接的に1000人程度の雇用が生まれると見込まれています。

4.米国の技術を使う半導体のHuaweiへの出荷の禁止

  2020年5月16日のThe Registerが,トランプ政権が,米国製の半導体製造装置やCAD/CAEを用いて製造された半導体のHuaweiへの出荷を禁止する命令を出しました。

  今や他国の技術を使わないで先端半導体を作ることは米国でも不可能で,中国ももちろんできません。ということは,この命令で,120日の移行期間を過ぎると,HuaweiはHuaweiは,間接的にしろ米国の技術を使って作る5G通信機器やスマホの半導体部品を手に入れることができなくなります。

  また,Huaweiとその子会社のHi SiliconはTSMCの大口顧客なので,HuaweiとHi Siliconへの出荷が止まるとTSMCのビジネスに少なくからず影響がでると思われます。

  しかし,このグローバルの時代に,もし,全部の国が自国の技術を使う半導体の販売に口を出すようになると,半導体ビジネスは成り立たなくなってしまい,半導体技術の進歩も止まってしまいます。なにか良い解決法はないでしょうか?

 

inserted by FC2 system