AWS Startup ブログ

【開催報告&資料公開】ML@Loft 第8回 「量子コンピュータ x 機械学習」(Part 1: ライトニングトーク編)

ML@Loft #8 「量子コンピュータ x 機械学習」(前半:LT)

AWS 機械学習ソリューションアーキテクトの宇都宮 ( Twitter: @shokout ) です。本ブログでは、2019年11月20日に実施された ML@Loft 第8回  「量子コンピュータ x 機械学習」の開催概要を報告いたします。

ML@Loft は AWS 上で機械学習を開発・運用しているデベロッパー・データサイエンティストのための、コミュニティイベントです。月に1回、目黒の AWS Loft Tokyo で開催し、毎回活発な議論が行われています。 第8回は「量子コンピュータ」と「機械学習」について、アカデミック・ビジネスの第一線で活躍されている方々をお迎えしました。前半は10分ずつの自己紹介 LT 形式で量子コンピュータの現状と課題・実例を交えて問題提起頂いた後、後半は参加者全員参加型のパネルディスカッションで意見・知見の共有を行いました。

量子コンピュータの開発・運用に課題をお持ちの方、量子コンピュータ導入や戦略的投資を検討・決定する立場にある方などを参加対象として募集したところ、1日で100名を超えるお申し込みがあり、参加登録が150名の会場のキャパシティをオーバー、最後は泣く泣く受付を締め切ることになりました。受付には長蛇の列、今まで見たことがない AWS Loft Tokyo の光景、セッションは大変盛況でした。そしてこのイベント開催から間も無く、AWS では、AWS re:Invent 2019 にて、Amazon Braket という量子コンピュータのマネージドサービスが発表され、大きな話題を呼びました。

私自身、量子コンピュータ分野がバックグラウンドで、3年ほど前までは国立情報学研究所光半導体物性を用いた量子情報研究を15年ほど続けてきました。この日ご登壇いただいた皆様は量子情報コミュニティで学生の頃からお世話になった方々です。量子コンピュータ業界が昨今非常にホットになって大変お忙しい中、お越しいただきました。

前半の LT セッションは、大阪大学の根来さん、メルカリの久保さん、大阪大学 藤井さん、MDR 湊さん、東芝 後藤さんより。10分ずつライトニング形式でお話いただきました。本ブログでは前半の模様をご紹介します。後半は、slido で会場にお越しの皆様からいただいたご質問・フィードバックを元に、パネルディスカッション形式でのお悩み相談会を行いました。ディスカッションは大変盛り上がり、ハッシュタグ #ML@Loft で多くの tweet をいただきました。この模様は、開催報告 blog part2 でご紹介します。

【参考リンク】 togetter: ML@Loft 第8回 「量子コンピュータ」x「機械学習」#MLLoft #AWSLoft

LT セッション

根来 誠 氏 (大阪大学先導的学際研究機構 量子情報・量子生命研究部門 特任准教授)「量子機械学習実装」

阪大の根来さんは、NMR(核磁気共鳴)を長きにわたって研究をされてきた実験家です。本 LT では、unpublished な量子機械学習の結果を持ってきてみました!とのことで、数日前の量子情報技術研究会で発表したばかりの実験結果をお持ちいただきました。量子機械学習実装として、量子ビットに教師データを与え、線形フィッテングタスクと分類タスクを実装されています (参考文献: arXiv:1806.10910 [quant-ph])。

量子コンピュータを構成するには、アプリケーション、アルゴリズム、量子符号化、量子ゲート、量子制御パルス、古典情報処理、デジタル信号処理、アナログ信号処理、量子制御装置 、量子ビット… と非常に様々な技術スタックが必要です。業界をリードする企業の中には、超伝導量子回路と量子カーネル法を使って機械学習の実験を進めているところもあります。

根来さんの量子機械学習の実装で使われている、量子ビットの下回りのレイヤーからアプリケーションレイヤーまでをご紹介いただきました。根来さんは、「原子核スピン」を使って、量子機械学習を実装されています。分子の中にあるスピン、原子核といった、電子の磁気的な性質を用いて量子ビットを実装されています。現在は超電導量子ビットで大規模化を目指している IBM は、2001年に分子中の核スピンを使った Shor の素因数分解アルゴリズムの実装をして、最初の量子コンピュータ実装の火付け役になりました。その時使っていたのが根来さんの系と同じ分子のスピンです。分子や原子、電子は、量子力学役的な振る舞いをするので、磁石の上向き下向きという2つの状態の重ね合わせであるスピンという状態で、量子ビットを表現します。例えば7スピンの量子ビットで、2の7乗の状態が重ね合わせとして表現できます。その状態に対して演算を行うと、2の7乗の状態が次々と変化していくことで量子コンピュータは実装されます。7個のスピンを、分子の技術を使って超分子や高分子を使えば集積化ができるのではないかというのが根来さんのご見解です。この原子が並んだ分子を扱う方法以外に、人工的に電磁界を作ることで原子を並べることで集積化を図る技術もあり、その一つの実装方法がイオントラップ方式です。

さらに、原子だけでなく、人工的に量子ビットを作って並べる、というアプローチもあり、UC Santa Barbara の J. Martinis のチームがGoogleと一緒に出した論文、超電導量子ビットがそれにあたります。将来的に100~1000万位の量子ビットを並べたいというのが、量子コンピュータ研究者のゴールです。それを考えるとまだどの方式も最後まで絵が描けておらず、どの方式をやってもたどり着くか分かっていない状況だと根来さんは仰っています。

次に量子ビットの系に対して、量子ゲートの実装はどのようになっているのでしょうか。量子ビットは固有の振動数を持っています。その固有の振動数に相当する電磁波のパルスを当て共鳴させることで、ゲート操作を行います。電子核スピンでは、500MHz の電磁波を与え、電子であれば現在 18GHz 帯を使って量子ビットを制御しています。超伝導回路は大体 8GHz くらいで実験が行われています。さまざまな周波数のパルスをプログラミングすることで、量子アルゴリズムを構成する量子回路を実装しています。また、根来さんは、単純なパルスのオンオフ制御だけでなく、パルスの位相と強度の両方を変調し任意波形をかけることで、より複雑な量子ダイナミクスを用いることでエラーを抑えた制御ができないかという研究を進めています。

量子ビットと量子ゲートが実装できると、次にそれらをどう量子アルゴリズムにもっていくかを考えます。アルゴリズムルーティンはすべて、AND や NAND、C-NOT、Hadamardといった量子ゲート操作に分解できます。7スピンに対して量子ゲート操作を行った2001年の IBM では、500MHz の多重通信を核スピンの量子コンピュータに対して行いましたが、最近では極低温下で、マイクロ波同軸ケーブルが何百本と入っている超伝導量子ビットを実装することで、何十量子ビットも操作できるようになり、量子アルゴリズムを実装しています。根来さんたちは量子エクストリーム学習というアルゴリズムを独自に開発、量子版の回路実装を検討し、量子カーネル法を用いてフィッテングタスクを実装されています。

この1年でも非常に多くの量子機械学習アルゴリズムが発表され、「どのアルゴリズムが本当に面白くなっていくのかは全然わからない、本当に混沌とした状況」だそうです。量子機械学習を作りたい、勉強したい、応用したいと言っても、実装するには各レイヤーで様々な技術が必要になります。どの組み合わせが上手くいくかわからず、多くの研究者が凌ぎを削っている状況で、今後も深い量子技術スタックの発展には目が離せません。

久保 健治 氏 (株式会社メルカリ mercari R4D Researcher)「量子機械学習アルゴリズム」

久保さんは、今年の4月から R4D のリサーチャーとして、量子計算や量子アルゴリズムの研究を行われている傍ら、2019年の10月から今回の登壇者でもある阪大藤井先生の研究室で社会人博士として研究を進められています。

「古典」という言葉が量子情報界隈ではよく使われていますが、「古典」は「量子ではない」という意味で使われており、「古典」が決して「古い」という意味では使われていないという注意喚起を冒頭で述べられました。まず、量子コンピュータについての簡単な説明として、「エラー訂正がある量子コンピュータ」と「エラー訂正がない量子コンピュータ」についての話をしていただきました。「エラー訂正がある量子コンピュータ」は理想の量子コンピュータと呼ばれていて、エラー訂正があると、ゲートの長さがどんどん長くなる一方、計算ステップ数が増えても、エラー訂正があるので無事計算が完了すると言われています。しかし実際は、エラー訂正では多くの量子ビットを必要とするため実装は難しく、実用はまだまだ先だと言われています。一方で、「エラー訂正なしの量子コンピュータ」も注目されています。これは、エラー訂正がないので、計算ステップ数をあまり大きく取れない代わりに、エラー率を低く実装できれば、ある程度計算ステップ数を稼げるだろうと考えられています。短いステップ数で且つ小さい量子ビットであっても、今のスーパーコンピュータでできないような計算ができるのではないか、と期待されているのがエラー訂正なしの量子コンピュータです。量子超越性の実験はエラー訂正を行なっていないため、こちらの後者にあたります。それでもスパコン超える計算性能を発揮しているのではないかというのが議論の中心となっています。

エラー訂正を含む量子計算は昔から研究がなされており、量子機械学習では学習や推論にかかる計算量が指数もしくは多項式で減ることが示されています。一方でエラー訂正を含まない場合は、「性能の良い関数近似器が得られるかもしれない」、というもの。エラー訂正を含む量子計算を用いた量子機械学習では、計算量が減ることを直接示すのは難しいですが、指数的に大きい特徴量空間を用いて、関数近似器を構築することが可能です。これはスーパーコンピュータを使っても再現できないため、その関数近似器がスーパーコンピュータを超える性能を持つかもしれない、ということを示唆しています。

エラー訂正がある場合は、「逆行列計算」が指数で速くなることが知られており、これを用いた量子 SVM (Support Vector Machine) や、量子線形回帰などの応用がすでに提案されています。また、2次の加速が得られることが知られている探索問題を応用し、量子強化学習でも古典に比べ2次の加速が得られることが知られています。

Support Vector Machine はマージンの最大化問題ですが、通常は双対問題として最小化問題を考え、最適化問題を解くことになります。これを解くにはオーダーM^2(M+N) が必要で、M^2 がデータポイント、N が特徴量の数となります。一方、量子 Support Vector Machine では、最小二乗 SVM にスラック変数を導入し、主問題の不等式制約を等式の制約に置き換えます。そうすると、双対問題は最終的に線形の連立方程式を解く問題に帰着されます。この線形の連立方程式を解くところで、データポイントの3乗の計算時間が必要となりますが、量子アルゴリズムを使うことで逆行列計算が指数的に速くなることが知られています。このように、量子 Support Vector Machine では、学習、推論ともに M^3 乗の計算量に対して、指数加速が得られることが知られています。

次にエラー訂正がない量子コンピュータ上で動くアルゴリズムを考えます。エラー訂正がない場合、例えば50量子ビットは、古典のメモリでだいたい 16PB に相当すると換算できます。MacBook Pro が 16GB、32 GB 程度、現代のスパコンが 1PB ぐらいと考えると、50量子ビットが、威力のあるものだとわかります。それを使ってエラー訂正のない場合の量子機械学習を実装しようという流れがあります。量子コンピュータが得意な統計量の計算を量子コンピュータで、一方で古典コンピュータが得意な四則演算や勾配計算などは、古典コンピュータに任せるという、ハイブリットアルゴリズムが考えられています。

藤井先生と御手洗さんの研究結果である、量子古典のハイブリットである量子回路学習をご紹介いただきました。訓練データ、コスト関数の選、最適化を古典コンピュータで、コスト関数の計算の部分は量子回路を用いて計算、というハイブリッドな切り分けをされています。量子回路を部分的に用いることで指数的に大きい特徴量空間を扱うことができるため、関数近似器の性能が上がるのではないかという提案がなされています。

量子機械学習アルゴリズムの現状のまとめとして、エラー訂正がない場合の量子コンピュータの実用が近づいていること、エラー訂正がある場合には、理論的に指数や多項式の加速が得られることについて言及されました。実用化が近い量子ビット数で、より性能の良い関数近似器が得られるようなアルゴリズムの登場も同時に期待されます。

 

藤井 啓祐 氏 (大阪大学大学院基礎工学研究科システム創成専攻 教授)「量子コンピュータの現状と課題」

大阪大学の藤井さんは、非常に話題になった量子超越性論文の査読者のうちのお一人です。「量子コンピュータの現状と可能性」というタイトルで、量子超越をついに迎えた量子コンピュータの歴史と現状を非常にわかりやすくお話いただきました。藤井さんは、大阪大学での研究教育に加え、量子コンピュータソフトウェアのベンチャーの創業に関わられたり、IPA未踏プロジェクトのプロジェクトマネージャー、量子プログラミングのデベロッパーや、ソフトエンジニアの育成プロジェクトに携わられるなど、幅広く活躍されています。

まずは、量子コンピュータ黎明期のお話から。量子力学自体の誕生が1920年代、それから量子力学をコンピュータに使おうというアイデアが出てきたのが1980年代。情報科学、コンピュータ科学と物理の距離が急激に近づいて、1985年に量子コンピュータというアイデアが登場しました。この頃は非常にマニアックな研究分野だった量子コンピュータですが、1990年代に入って、P. Shor により素因数分解が多項式時間で解けるというアルゴリズムが発見されました。これにより量子コンピュータが大きなブームになって、実験的にも超電導を使った量子ビットが固体素子として初めて実現されるなど非常に華々しい時代で、第1期の量子コンピュータのブームとなりました。その後大規模な量子コンピュータを作るのが物理的に非常に難しいことがわかり、停滞期に入ります。藤井さんが量子コンピュータ研究を始められたのが大体2005-2006年。学会で発表しても質問すらしてもらえない、つらい時代だったそうですが、ご本人としては50年経っても実現しないだろうというところをとことんプラクティカルにやることを楽しまれていたそうです。その後、カナダのベンチャー企業 D-Wave が量子アニーリングマシンを開発して、Google と NASA が量子人工知能研究所を設立。続いて UCSB の J. Martinis が非常に高性能の量子ビットを実現、2010年代に入って、量子コンピュータのブームが再び訪れます。Martinis の実験結果に感動した藤井さんたちは、量子コンピュータのすごい時代が来るんじゃないかと、Martinis を阪大に招聘、ワークショップを開催されましたが、ちょうどこの一週間後に Google が Martinis を抱えて、デバイス開発に乗り出すと発表があったのが2014年でした。

IBM は80年代から量子情報科学の基礎研究を続けてきましたが、量子コンピュータをクラウドで誰でも使える形で公開しました。今では Google、IBM、Intel、Microsoft、アリババ、ベンチャー企業 IonQ など、多くの企業で量子コンピュータの開発をしています。併せて、量子コンピュータの量子版「ムーアの法則」として、横軸に年代、縦軸は量子ビット数をプロットしたものを紹介されました。2014年の5量子ビットから始まり、2019年に53量子ビットまで到達しています。今年9月、Googleがすごい量子コンピュータを作ったというリーク記事が FINANCIAL TIMES から出され話題になりましたが、10月23日、正式に Nature 誌から「量子超越性」の実験論文として発表されましたが、藤井さんは正にこの論文の査読者の1人です。

LT では Google の量子超越性を、簡単にご紹介していただきました。53個の超電導量子ビットを並べると、8×10^15次元という非常に高い次元の重ね合わせ状態になっています。量子コンピュータで実行する計算を愚直に古典コンピュータでシミュレーションすると、数 10~100PB 程度のデータを必要とします。実際の量子計算のプロセスは、1量子ビットまたは2量子ビットのロジック演算として実行されますが、必ずしも理想的に動くわけではなく、Fidelity でいうと0.993、0.998と、それぞれの操作で有限のエラーが発生します。多数のゲート操作を実行していくとそれらのエラーが積み重なり、最終的にはトータルの Fidelity で0.001程度となります。つまり、10の6乗回程度のサンプリングを行うと、そのうち1000回ぐらいは正しい答えを拾うことができ、きちんと動いているか検証できます。このような考え方に基づき検証を行ったのが今回の量子超越性の論文の話です。

わかりやすく意味のある問題が高速に解けたという訳ではないため、「量子超越性とはなんだったのか?」理解が難しいところもある今回の実験結果。本質的にどう凄い結果なのでしょうか。量子超越を示す上で必要な要素を下記のように整理いただきました。

1. プログラム可能な物理系を作ること

  • 意図的にプログラムでできる(問題を実装できる)程度に制御性が高い物理系を作ること。例えば、水の流れをシミュレーションしてください、と言われると非常に難しいが、一方でこの流体に何らかの問題を埋め込無ことは難しく、プログラマビリティはない。

2. 数学的に定式化可能なタスク

  • 対象とする量子物理制御が、数学的な問題として定式化できるということ。例えば、人間の脳をシミュレーションしてください、といわれるとこれも難しい。しかし、脳が行なっているタスクは数学的に完全に定式化されていないので、人間の脳からの出力とシミュレーション結果との検証ができない。

3.従来コンピュータを凌駕(スパコンでも計算が難しいサイズで、既知の古典アルゴリズムの計算を凌駕)

  • Martinis の実験では、量子コンピュータ上でランダムな計算、つまり構造をもたないため古典コンピュータにとって難しい計算を実行し、最も優れたアルゴリズムをスパコンで実装した場合と比較検証した。論文では、量子コンピュータでは200秒で完了する計算が、スパコンでは1万年かかるという検証結果。
  • この結果に対して IBM からはスパコンを用いて2日半で計算できるとすぐさま反論。この量子計算を行うにはスパコンを用いても 100PB くらいメモリを必要とするが、Summit というスパコンを使うとストレージメモリの 250PB を使うともっと高速にできるというトリック。
  • 今回の実験も、量子ビット数があと3つでも増えると、必要とするメモリが 250PB を超えてしまい、Summit を用いても難しくなるというギリギリな領域。

人工的な量子デバイスによってできる計算が、従来コンピュータでつぶさにシミュレートするのが難しい時代になってきた一方で、何か役に立つタスクができるかというと、まだまだ難しい。量子コンピュータは、よくライト兄弟のフライトに例えられます。最初のフライト12秒、空を飛んで陸を超えることはできないが、空を飛ぶための、地上を離れる最初の一歩に量子コンピュータは来ている、と。

こちらは藤井さんがよくプレゼンで使われているスライドです。量子超越性のニュースが出てビットコインが暴落したり、twitterで国会議員の先生が騒いだり、世の中がかなりカオスな状況だからこそ正しいメッセージを伝えたいと藤井さんは強調されています。

実用的な問題を量子コンピュータで解くには、100万〜1億という量子ビット数が必要になります。現段階において、スパコンでつぶさにシミュレーションするのは難しいくらいの複雑なことが実際の量子物理系で示すことができるようになったが、まだ理論的に証明されたアルゴリズムを動かすことはできない。このようなレベルの量子計算を NISQ(noisy intermediate scale quantum technology)と呼び、藤井研でもこういった領域をどう活用するか研究されています。

最後に量子機械学習の話です。藤井さんらは “Quantum Circuit Learning” を提案され、IBM の研究チームが引用・実験しています。実際はすぐに使える機械学習フレームワークがあるかというとそういう段階ではない。それぞれに色々なフレームワークを提案している段階で、AI の部分でいうと第一次ブームから第二次ブームぐらい。実機でも計算能力はまだ足りないレベルですが、逆に言えば量子機械学習の黎明期にコントリビューションできるチャンス。機械学習に強い方の参画が期待されています。10分で語りきれない部分は、是非この日発売になったばかりの「驚異の量子コンピュータ」を Amazon からご購入ください 🙂

 

湊 雄一郎 氏 (MDR株式会社 CEO) 「量子コンピュータと世界のベンチャー企業」

ここまではアカデミックな研究の話が続きましたが、次は MDR株式会社の CEO 湊さんから、量子コンピュータと世界のベンチャー企業に関してのお話です。湊さんは、MDR株式会社で、ベンチャー企業という立場から量子コンピュータを使って、「人類の解けない問題を解く」をテーマとされています。湊さんは非常に面白い経歴をお持ちで、東京大学工学部建築学科を卒業後、隈研吾建築都市設計事務所で働き、青山の根津美術館や中国のアリババ本社ビルの設計をした後に、2008年から建築家として独立しMDR 株式会社を設立、2015年からは総務省イノベーション、2017年から内閣府 ImPACT の PM 補佐、現在文科省の領域アドバイザーを担当されています。湊さんも量子コンピュータに関する一般書「いちばんやさしい量子コンピュータの教本」を出版され、量子超越性のニュース(ご本人はスプレマシー関係ないけどと仰っていますが)で、1万冊くらい爆売れしたそうです。

MDR株式会社の設立は2008年。資本金は2億3,000万円、現在丸ノ内の国際ビルを拠点に、事業内容としては量子コンピュータのソフトウェアからハードウェアまでを、フルスタックで開発されています。量子系ベンチャーとして MDR さんが特徴的なのは、量子ビットの開発をされているところです。独自の量子ビットとして、昨年、アニーリングタイプの Flux Qubit を開発され、現在トランズモンという量子ビットでのゲートタイプのチップも北米で作成されています。量子ビットの候補として様々なハードが注目される中、湊さんが注目しているイオントラップの量子コンピュータを提供する Honeywell についてもご紹介いただきました。

ソフトウェア重点となっている売れ筋領域は量子機械学習、顧客は銀行、自動車メーカー、材料メーカー、広告代理店などだそうです。非常に話題性の高いこの業界ですが、量子コンピュータでお金を稼ぐのは、実は凄く大変だそうです。ビジネスモデルと収益化という観点で、下記の4つのポイントからMDRで取り組まれている事業のご紹介をいただきました。

1.     デジタルマーケティング + 新製品開発

2.     機械学習フレームワーク

3.     Blueqat + クラウドOS

4.      量子コンピュータ + CPU/GPUハイブリッドシステム

 

次に、量子機械学習の実装例として、D-Wave でスーパーマリオを解いた話をご紹介いただきました。量子機械学習の分野もどんどん盛り上がっていて、一般の人が量子機械学習を扱えるように、量子コンピュータを PyTorch や TensorFlow などのフレームワークとつなげていく流れも出てきています。MDRでも、グラフネットワーク構造を持つ量子回路を使った変分回路など、色んな試みをされています。

そして本題の世界の量子コンピュータベンチャーを取り巻く状況について。やはりベンチャーは競争が過熱していて、世界中のベンチャーが NISQ と呼ばれるエラーを含んだ量子コンピュータの独自技術の開発競争が盛んです。最近は CG(computer graphics) の高速化や、AI 創薬など、世界中で様々なベンチャーが出てきています。日本にも様々な海外ベンチャー企業が進出してきていて、シリコンバレーの QCWare、ボストンの ZAPATA Computing、大手町に事務所がある CQCStrangeworks などがよく知られています。Strangeworks は珍しいサービスなので、最後に紹介します。

藤井さんからも、量子超越性の比較実験にスパコンを使う話をご紹介いただきましたが、アリババは TAIZAN、Google は Summit、日本は富岳を使って、様々な検証が進められています。一方、一般ユーザー向けにはまだまだスパコンでは使いづらい部分があります。湊さんは NVIDIA の森野さんらとともに、GeForce や DCX など手元の GPU 資産を使った NVIDIA CUDA ベースの量子コンピュータシミュレータ Qgate を開発されています。無料で利用可能ですので、是非お手元の GPU で量子コンピュータを体験してみてください。

また、MDRでは、Blueqat と呼ばれるSDKを提供されており、その上に機械学習のフレームワークを構築し、マーケティングや新商品の開発を検討されています。量子機械学習の環境として Amazon SageMaker に Blueqat が実装されており、非常に身近に量子機械学習を使える環境が提供されていますので、是非お試しください。Blueqat の SDK を扱うには高性能な量子コンピュータのシミュレータが必要となるため、Qgate を使った GPU の量子シミュレーションや、量子の実機を使った開発なども進められています。

最後に、MDR の特徴の一つに、量子コンピュータのコミュニティとして、オフラインで2400名、オンラインでも常時1700名を超えるアプリケーションのコミュニティを持たれています。2019年末に行われた MDR 主催の量子コンピュータの勉強会 Blueqat Summit Tokyo 2019 では300名を超える参加者が集まりました。量子コンピュータは勉強を始めるハードルが高いことが課題の一つなのですが、MDR ではStrangeworks が提供するフレームワーク(Cirq や Q# など量子コンピューティングのフレームワークを選ぶと自動的に量子回路が設計される)などを用いて、様々な勉強会やオンラインコンテンツを継続的に提供されています。このようなコミュニティ活動の広がりや、使い勝手の良い量子コンピュータのシミュレータやツールが増えていくことなどによって、多分野から量子コンピュータの研究開発に携わる人が増え、量子コンピュータの研究開発が更に進んでいくことを期待しています。

 

後藤 隼人 氏 (東芝 研究開発センター) 「量子インスパイアド古典アルゴリズム」

https://www.toshiba-sol.co.jp/pro/sbm/docs/AWS191120.pdf

東芝の後藤さんより、東芝で研究開発されている、量子インスパイアドな古典アルゴリズム「シミュレーテッド分岐マシン」についてお話いただきました。ここまではゲート型の量子コンピュータのハードとソフトの話が続きましたが、ここからは、量子状態から発想を得た古典の計算機のアルゴリズムの話です。

古典というのは「古い」という意味ではなくて、量子を使っていないコンピュータ、という意味で、昔から量子コンピュータ業界では特に、その区別を明確にするために使われています。CPU や GPU、FPGA などの上で、量子から発想を得たイジングマシンというアルゴリズムを動かすことで、普段皆さんが使っているようなプログラミングと同じような感覚で今すぐに扱える、という提案です。

量子コンピュータの歴史の中で、ゲート型の量子コンピュータとは全く異なる原理で動作する「量子アニーリング」が誕生してきた経緯があります。様々な社会課題の中で、計算量が問題の数とともに指数的に増えてしまう組合せ最適化問題という難しい課題があります。D-Wave 社が開発している量子アニーリングマシンはこの組合せ最適化問題をイジング問題という統計物理の磁石のスピンの問題にマッピングし、高速に解くという専用マシンとして提案されて以降、様々な物理系や量子インスパイアドな古典系を使ったイジングマシンという考え方が、日本でも多く研究開発されてきました。イジングマシンとは、統計物理のスピン(磁石)の問題であるイジング問題というドメイン特化型コンピューティングです。組合せ最適化問題をイジング問題にマッピングし、イジングに特化したハードウェアで高速に解いてしまえば、普通のパソコン使うよりも組合せ最適化がそれなりに高速に解けるだろう、その際に量子コンピュータを使うか、普通のコンピュータを使うかは問わない、というアプローチです。機械学習も最適化問題の一種だと考えると、イジングマシンで高速に機械学習が実行できるのではないかというアプローチは以前から存在していました。例えば AdaBoost という古典の機械学習アルゴリズムをイジング問題にマッピングして解く QBoost が提案され、D-Wave 上で検証されています

2010年から NII、スタンフォード、NTT を中心に研究されてきたコヒーレントイジングマシン(CIM)と呼ばれる、光を用いたイジングマシンに着想を得た後藤さんは、2015年新たに量子分岐マシンを提案されました。量子コンピュータでは多くの場合、損失は量子状態を壊してしまう悪役として捉えられるため、後藤さんは CIM から損失をなくした量子分岐マシンを提案、更に量子分岐マシンからインスパイアされたのが、古典分岐マシンを提案されています。KPO と呼ばれる理論モデルから出発し、それを量子力学的に扱うと量子分岐マシン、古典力学的に扱うと古典の運動方程式を解くことで組合せ最適化問題を解こうというものです。量子力学的に記述された方程式を正確に解くにはシミュレーションは不可能だと考えられますが、古典分岐マシンは現在の計算機でシミュレーションが可能です。古典力学の方程式を解くアプローチから、実はイジング問題が解けるということがわかりました。こういった考え方から量子インスパイアな分岐マシンが生まれました。

今回提案されているシミュレーテッド分岐マシン(SBM)は、式で書くと非常に簡単な時間ステップの漸化式を解くだけでイジング問題を解くことができます。行列ベクトル積の演算が唯一重たいので、その部分を並列計算で実装すれば、非常に早く高速にできる、といったものです。組合せ最適化問題を解くのに昔から知られている焼きなまし法(SA: シミュレーテッドアルゴリズム)という手法は、逐次計算が基本なので、並列化が難しいという課題がありました。一方で SBM は、GPU や CPU で並列計算を高速に実装できれば、最適化問題に強い専用マシンとなると考えました。後藤さんの2019年4月のScience Advances掲載の論文の結果では、2016年のCIMのScience 論文と比較して、FPGA 一台で CIM よりも約10倍高速に SBM を実装できたことを示されています。速度や、サイズ、デジタル計算の安定性などを考慮すると、FPGA で実装することで、光で構成する CIM よりも実用的に優れた性能が実現できるとされています。SBM は古典マシンなので、既に FPGA では4000スピン、GPU を使うと10万スピンの全結合という非常に大きなサイズに拡張されており、非常に大きなサイズのイジング問題が解くことができています。GPU クラスタを使って SBM を実装する場合、CPU 上で焼きなまし法のソフトウェアを使うのに比べ約1000倍程度の高速化が実現できたことを示されています。

実用化に向けて、2019年の 7月から AWS Marketplace 上で SBM のトライアル版を公開されています。時間あたりの AWS のGPU インスタンス利用料(約3ドル)をお支払いいただければ1万スピンまでお試しいただけます。また PoC も作成中で、金融の高速取引マシンを FPGA で試作され、市況パケットを受け取ってから発注注文パケットを出すまでに30μ秒で最低1回の発注ができ、最適解が得られる確率は90%程度という FPGA のマシンを開発、展示会などで発表されています。

後藤さんは量子計算の一種として提案された量子分岐マシンを、古典的な記述に置き換え GPU や FPGA で高速実装することで、イジング専用マシンを用いた組合せ最適化問題の検討を進められています。日本では東芝を始め多くの企業がイジングマシンを用いた研究開発に取り組んできた背景があり(私自身、イジングマシン研究に長きにわたり携わってきた一人です)、社会問題の実装も含め多くのナレッジが培われてきています。それぞれのアルゴリズムや手法に対して得意とする問題が異なってくるため、様々な分野で実用化に向けて活用可能なシナリオが、今後も広がっていくことを期待しています。

一人あたりたった10分しかないライトニングトークなのですが、登壇者の皆様から非常に重要なお話をたくさん盛り込んでいただき、かなり濃い内容の前半1時間が終わりました。後半のパネルディスカッションも会場から多くの質問が寄せられ、非常に盛り上がりました。その模様は、【開催報告&資料公開】ML@Loft 第8回  「量子コンピュータ x 機械学習」(Part 2: パネルディスカッション編)Part2 でお届けします。

 

このブログの著者

宇都宮 聖子 (Shoko Utsunomiya)

AWS 機械学習ソリューションアーキテクト。自動運転、AI ヘルスケア・ライフサイエンス、ゲーム、スタートアップのお客様を中心に、機械学習と量子コンピュータのワークロードをサポートさせていただいています。好きなサービスは Amazon SageMaker と Amazon Braket。( Twitter: @shokout )

2003年〜2017年 国立情報学研究所にて、光半導体物性を用いた量子コンピュータ・量子情報研究に従事。2010年より 内閣府 ImPACT  研究開発責任者