最近の話題 2020年8月1日
1.IntelのPonte Vecchioはどう作られるのか
2020年7月29日のwccftechが,IntelのPonte VecchioはTSMCの6nmプロセスではなく,TSMCの5nmプロセスとIntelの7nmプロセスで並行して作られると報じています。
TSMCの6nmプロセスは,TSMCの7nmプロセスの改良版で,Intelの7nmプロセスより密度が低く集積度が足りないので,一部で言われているTSMCの6nmプロセスでPonte Vecchioを作ることはあり得ない。TSMCの5nmプロセスとIntelの7nmプロセスで並行して作るとのことです。
Ponte Vecchioはマルチダイで作られ,IOダイはIntelで製造,コンピュートダイはIntelの7nmかTSMCの5nmで製造。RamboキャッシュはIntelで製造。Connectivity dieは,元々TSMCで製造する計画で,これは変更なし。とのことです。
台湾での報道のように,Intelは18万枚のTSMCの6nmウエファを発注しているのですが,これはPonte Vecchioとは無関係の発注とのことです。
Intelの7nmプロセスの遅延から,最初のPonte VecchioのCompute DieはTSMC製ということになるかも知れません。
それからchief engineering officerでgroup president of the Technology, Systems Architecture and Client Group (TSCG) のVenkata "Murthy" Renduchintala氏が2020年8月3日に退社することが発表されました。テクノロジの責任者として,この事態の責任を負わされての首ということでしょう。そして,Intelは,chief engineering officer という役職は無くすとのことです。
2.GPT-3のベータテスタの反応
2020年7月29日のdeeplearning.aiが,GPT-3のベータテスターの反応について書いています。
GPT-3は汎用AIの開発をめざすOpenAIの最新ニューラルネットモデルですが,パラメタ数が175Bという巨大ネットです。
GPT-3の作文能力は驚くべきもので,ベンチャーキャピタルが投資メモを書かせたら,出来た文章に「本当に驚いた」とか,題名と1行のサマリを与えて文章を書かせたら,ビットコインに関して説得力のあるブログポストを書いたとか,webサイトの機能をGPT-3からのプロンプトに応答して記述すると,実際に使えるプログラムを出力したとか驚異的な能力を発揮しているようです。
しかし,過大な期待は禁物,時々,馬鹿な間違いをすることもあるとOpenAIのCEOのSam Altman氏は警告しています。
GoogleやMicrosoftも大きなモデルを作っていますが11Bとか17BパラメタのモデルでGPT-3は1桁以上大規模です。
3.MLPerfがTraingの0.7版を発表
2020年7月29日にMLPerfがTraining 0.7版と登録された結果を発表しました。Training v0.7はWikipediaの今年1月1日のデータを使って自然言語処理を行うベンチマーク追加され,改版中だったRecommendationのベンチマークが加えられました。それから,Reinforcement LearningのベンチマークのMiniGoが0.6版では9×9のミニ盤だったのですが,0.7版では19×19のフルの碁盤になりました。
そして,登録の区分が,Available in Cloud,Available on Premise,PreviewとResearch, development, or internalという区分となりました。Available in CloudはGoogle Cloudなどのからログインして使えるというもの,Available on Premiseは販売されており,買って使えるもの,Preveiwは今は使えないが,MLPerf Trainingの版数が上がるか6カ月先の時点で一般に公開ものです。Researc等は非公開で他人はそのシステムは使えない状態のものです。
Learningの結果登録は全部で71件ですが,大部分がNVIDIAで,GoogleとIntelが第2グループです。この3社を除くとあとはパラパラという感じです。
4.MLperf Learning v0.7でNVIDIAとGoogleが勝利宣言
2020年7月30日のEE Timesが,MLPerfのTraingの結果登録で,NVIDIAとGoogleの両者が勝利宣言と書いています。
MLPerf v0.7の結果では,Avail on Cloud/PremiseのカテゴリではNVIDIAのA100 GPUを使ったシステムが全勝です。しかし,Researchのカテゴリでは,Googleの巨大なTPU v3のシステムや新しいTPU v4チップを使うシステムが高い性能を示しています。
ただし,ResearchカテゴリにはGoogleのシステム以外は中国のXeonベースにシステムが1個という状態です。一方,Avail on Premiseのカテゴリでは大部分のエントリはNVIDIAのV100とA100のシステムで,Googleのシステムはこのカテゴリには一つも入っていません。
これでは,違う土俵で勝負して,対戦はしないで勝ったと言っているようなものです。
注目はTPU v4ですが,EETimesはv3の2-3倍の性能と書いています。
絶対性能では8種のベンチマークの内の4つでGoogleのTPU v3を4046個使うシステムがトップになっています。しかし,このシステムはTPU v3を4096個使っているのですが,今回,結果を出したNVIDIAのシステムはA100を2048個使うシステムです。
例えば,Wikipediaを使うNLPベンチマークでは,TPU v3を4096個使うシステムでは0.4分に対して,A100を2048個使うシステムでは0.81分で,チップ当たりではほぼ同等です。しかし,他のベンチマークでは向き,不向きもあり,どちらのチップの性能が高いとは一概には言えません。
そして,GraphCoreやCerebrasといったスタートアップの製品の性能に興味がもたれるのですが,これらの会社は結果を出していません。Intelは結果を登録しているのですが,それらはXeonのもので,Intelが買収したHabana LabsのGoyaは見当たりません。
5.Huaweiのスマホ出荷量が世界一に
2020年7月31日のEE Timesが,IDCがまとめた2020年2Qのスマートフォンの出荷量で,HuawaeiがSamsungを抜いて1位になったと報じています。
半導体製造で締め付けられているHuaweiですが,アナリストによると,Huaweiは今年末までに必要となる部品は在庫を積み上げており,製造に支障はないとのことです。
コロナでスマホの売れ行きは大きな打撃を受けたのですが,中国の回復が早く,世界的に見て中国市場の落ち込みは一番小さくなっています。Samsungの売れ行きは28.9%減ったのに対し,Huaweiの売り上げの落ち込みは19.5%に留まったのが逆転の理由とのことです。
そして,3位はAppleで,iPhone 11で廉価版のSEを出したのが歓迎され,前年同期に比べて11.2%出荷が増えたとのことです。4位はXiomi,5位はOppoの中国勢です。
6.危機にも拘わらず半導体製造装置セクタは好調が続く
米国と中国はテクノロジ冷戦の様相を呈し,コロナも納まる兆しがありませんが,半導体製造装置セクタは活況です。中国は,禁輸がより厳しくなる前に先進的半導体製造装置を手に入れようと発注しているので,今年の6月受注は,昨年6月に比べて14.4%増で,この傾向が来年も続くと見ています。
今年の中国の先進的半導体製造装置の投資は$17.3Bに上り,2018年の韓国,2019年の台湾の投資を上回る伸びとなる見込みです。