最近の話題 2018年7月21日

1.Xilinxが中国のAI会社DeePhiを買収

  2018年7月18日のEE Timesが,Xilinxが北京のAIスタートアップのDeePhi Technology Co. Ltdを買収したと報じています。DeePhiは清華大学とStanford大学の学生等が2016年に作った注目のスタートアップで,現在は200人程度の規模だそうです。

  設立から2年ですが,既にアリストテレス(Arhithtotle)とデカルト(Descartes)という2種のLSIを開発しています。Arithtotleは畳み込みネットワークの処理を高速化するもので,画像認識などに適しています。一方,DescartesはReccurent Neural Netの処理を高速化するチップで,音声認識などに適しているとのことです。

  また,DeePhiはニューラルネットの圧縮には高い技術を持っていると言われます。単純に学習を終わったニューラルネットの各ニューロンは多数の入力を持っていますが,入力の重みが小さいものは省いてしまってもあまり精度には影響しません。また,信号を量子化して8bitかそれ以下のビットで表し,浮動小数点数ではなく整数で表せれば,ハードウェアがコンパクトになり,演算処理も高速にできます。しかし,精度を減らすと一般には認識精度も低下するので,どのように計算精度を減らすのが良いかが重要になります。

  DeePhiの技術を使って,XilinxのFPGAで実現するニューラルネットがコンパクトになったり,より複雑で高精度のニューラルネットが搭載できるようになればXilinxにとっては大きなメリットであることは容易に理解できます。

  なお,買収金額などは発表されていません。

2.Intelが4件のセキュリティーホールを公表

  2018年7月19日のThe Registerが,2件のSecurity Advisoryを公表したと報じています。1件はIntel-SA-00112で,IntelのActive Management Technologyのバグで,CVE-2018-3628,CVE-2018-3629とCVE-2018-3632が含まれています。HTTPハンドラのバッファオーバフローにより攻撃者が任意のコードの実行が可能になってしまうという重大脅威があります。

  もう1件は,Intel-SA-00118CVE-2018-3627という番号がついています。IntelのConverged Security Management Engine 11.xのバグで,攻撃者がローカルの特権アクセスが可能になり,任意のコードが実行できてしまうという重大脅威です。

3.3D XPointメモリでIntelとMicronが離婚

  2018年7月18日のThe Registerが,IntelとMicronは3D XPointメモリの開発,製造のパートナシップを解消することになったと報じています。3D XPointメモリはXとYのアドレス線の交点のところに相変化材料の記憶セルを置く不揮発性のメモリです。NANDのようなブロックアクセスではなく,1セル単位のアクセスができます。

  そして,NANDと比べると1000倍高速,そして,使われている相変化材料は書き換え許容回数が大きく,記憶の保持時間も長いという理想の不揮発性メモリというのが売りでした。

  しかし,素子自体は速いとしても,SSDとしては,SamsungがNANDで同程度の性能のZ-SSDを発売するなど,圧倒的な高性能というメリットを示すことができませんでした。さらに,NANDは最近では96層の製品化という声も聞こえてきますが,3D XPointは2層ということで,チップの記憶容量という点では非常に劣勢で,多少,性能は高いものの,ビットコストが非常に高い製品になってしまっています。

  結果として,Intelの見込みは大きく外れて,売り上げが低迷しています。また,Intelはハイエンドゲーマーをターゲットにしたのですが,もともと,あまり大きな市場ではなく,Micronとしては,データセンタ向けの製品を売りたいという意向があるようです。ということで,MicronはIntelと別れてデータセンタ向けの3D XPointを目指すのではないかと思われます。

4.D-Waveが通常の計算よりQuantum Annelingで高速に問題が解けることを証明

  2018年7月16日のHPC Wireが,D-WaveがScience誌に,Quantum Annealingで高速に物理システムのシミュレーションができるという論文を発表したと報じています。1982年にRichard Feynmanが物理システムのシミュレーションは量子コンピュータを使えば最も効率よく行うことが出来ると述べたのですが,それを実証したことになるそうです。

  同社の2048Qubitのマシンを使い,8×8×8の立方体の格子をつくり,条件を変えてどう振舞うかをシミュレーションで求めたとのことです。これにより,自然界には存在しない物質の振る舞いを量子コンピュータで高速に計算できることが,初めて示されたとのことです。

5.NVIDIAのAIを使うRobocarがGoodwill Hillclimbを完走

  2018年7月19日のThe Inquirerが,NVIDIのAIを搭載したRobocarが,最高時速75マイルで,Goodwill Hillclimbを完走した報じています。Robocarは電動のフォーミュラEレーシングカーで,フォーミュラEの場合はレーストラックですが,Goodwill Hillclimbでは,その名の通り,凸凹のある1.16マイルのコースで150mの丘を登るのだそうです。

  このレースを自動操縦車が完走したのは初めての快挙だそうです。

6.多数のAI研究者が人を殺す自律兵器の開発に協力しないことを誓約

  2018年7月19日のThe Registerが,Elon MuskやGoogle Deep MindのDemis Hassabis,GoogleのChcolate Factory AI LabのJeff Deanらが,Future of Life Instituteが起草した誓約に署名したと報じています。この誓約は人の命を取るかどうかの判断をマシンには任せるべきではないという考えに賛同し,そのようなマシンを作ることに反対するというものです。

  しかし,マシンガンではなく,致死性のないスタンガンやペッパーガスを自律的に発射する警備ロボットの開発はOKでしょうか?マシンガンを持って敵を追い詰め,狙いをつけて,あとはビデオでの遠隔操作で人が引き金を引くだけのロボットならOKでしょうか?これらのロボットの開発も技術面では,自律的に人を殺すロボットと共通のものが多いと思います。

  勤めている研究所が,このような研究を軍や軍事産業から受託したら,勤めを辞めるべきでしょうか?このような研究が行われていることを公にしたら,雇い主から守秘義務違反で訴えられる可能性がありますが,誰か守ってくれるのでしょうか。などなど,実際には多くの問題が出てきます。

  このような問題に対して,ACMはACM Code of Ethics and Professional Conductという指針を改定して,発表しました。これまでもコンピュータのプロは社会に対する責任があり,社会の福祉に反するような開発に協力してはならないという倫理規範はあったわけですが,AIの発展で,どこまでが許され,どこからはダメかの判断は難しくなってきています。


  

inserted by FC2 system