量子コンピュータが人工知能を加速する

量子アニーリングを考えた西森秀稔さんと、その弟子の大関真之さんの著書です。

量子コンピュータが人工知能を加速する

量子コンピュータが人工知能を加速する


D-Waveの量子コンピュータの話が多いです。
当時理論的に実現可能性が指摘されてから開発が進められてきたものの、量子ビットを長時間維持することが難しく、量子コンピュータが実現するのは21世紀後半くらいだと思われていたところに、商用の量子コンピュータの提供を開始したD-Waveが登場し、しかもそれが、西森さんが世界的に研究をリードしていた量子アニーリングを使ったものだったという話で、日本の研究者としてはあくまで理論的な研究を進めていたところ、海外のベンチャー企業に先を越されてしまった。それについて後悔している感じが伝わって来ます。


量子コンピュータには、量子ゲート方式と量子アニーリング方式があり、量子アニーリング方式は組み合わせ最適化計算に使え、これが機械学習の学習過程を効率化するのに使えるという。組み合わせ最適化問題は他にもいろいろ使えます。
古典的な計算方法では現実的な時間内で解けない問題が、これを使うことで解けるようになる可能性があり、今まで成し得なかったエネルギーの効率化、工数の効率化、時間の効率化が実現出来る可能性があります。


D-Waveはまだまだ発展途中で完全ではなく、量子ビットが部分的にしかエンタングルできてないための制限があり、これを物理的に解消するチップが開発されれば、その可能性は広がります。また、量子アニーリングの計算過程で、複数の量子ビットに量子ゆらぎを持たせる必要があり、それを横磁場をかけることで実現しているのですが、著者の一人である大関さんの最近の研究で、別の量子ゆらぎのかけ方を発表し、新しい潮流になっています。


また、機械学習アルゴリズム量子アニーリングの親和性を意識した研究もまだ少なく、これも今後注力されるべき研究対象となるとのこと。



理論物理学の基礎研究が、人が生きる時間スケールの中で、理論から実用化まで一貫して携われる例は少ないのですが、量子コンピュータはその珍しい例だと思います。
ディープラーニングにより機械学習にブレイクスルーが起きているのと同じように、量子コンピュータでも研究開発が加速し、いくつかのブレイクスルーによって、今の物理的な制限が取り払われるのも時間の問題で、そうなったときに、人工知能の性能改善にどう使えるかというのは、最も注目される課題の1つになるはずだと思います。

 

統計学勉強メモ

引き続き、「統計学入門」を読み進めています。

統計学入門 - サイバースイッチ
 

統計学入門 (基礎統計学)

統計学入門 (基礎統計学)

 

この本、初めは最初の数章だけ読めばいいかと思っていたのですが、これまでいい加減な理解をしていたところが多々あり、あやふやだった部分が本を読んでいくにつれて頭のなかでちゃんと整理できてくるので、以外と時間をかけて読み込んでしまっています。
それと同時にこれまで統計学という形でちゃんと勉強してなかったことを痛感しています。


やはり、どんな分野も基礎を固めるのが一番の近道ですね。。。



ローレンツ曲線

ロングテールな分布(個人資産とか会社の従業員数とか)を、累積相対度数分布で表したときに現れる曲線。

 

平均、幾何平均、調和平均

x_1x_2の普通の平均x_Mは、もちろん x_M=\frac{1}{2}(x_1+x_2)であり、このとき、(x_1-x_M):(x_M-x_2)=1:1となっている。
つまり、x_1x_2の差の真ん中である。

それに対し、幾何平均は、 x_G=\sqrt{x_1x_2}であり、このとき、(x_1-x_M):(x_M-x_2)=\sqrt{x_1}:\sqrt{x_2}となっている。
また、調和平均は、 \frac{1}{x_H}=\frac{1}{2}\left(\frac{1}{x_1}+\frac{1}{x_2}\right)であり、このとき、(x_1-x_H):(x_H-x_2)=x_1:x_2となっている。
x_1x_2の比率を考慮した中間の値となっており、たしかになんとなく"調和"っぽい気がする。

参考文献

調和平均の真実
ここがわかりやすかった。


 

モーメント母関数

xの期待値\mu周りのr次のモーメントは、\mu'_r=E(X-\mu)^r
ここで、E(X)=\mu、(Xの期待値)である。

モーメント母関数M_X(t)=E(e^{tX})は、そのt=0のまわりの1階微分により、Xの期待値(1次のモーメント)を生成する。同様にt=0のまわりのn階微分でn次のモーメントが導出できる。
 

チェビシェフの不等式

P\left(|X-\mu| \geqq k\sigma\right)\leqq \frac{1}{k^2}

Xの値が、\muのまわりよりk\sigma以上離れる確率は、\frac{1}{k^2}以下になる。
確率分布を表す情報のなかでも分散と期待値さえわかれば、その確率変数のとる値域を指定し、それが何%以下でしかおきないかを言うことができる。

 

確率の定義

統計学入門 (基礎統計学)

統計学入門 (基礎統計学)



統計学入門 - サイバースイッチ
こちらの記事でも紹介した統計学入門の教科書を読んでいるのですが、教科書というか読み物として面白いです。
以下、4章「確率」のメモ。

確率の定義

ラプラスの定義

確率の概念は、最初、ラプラスによって体系的にまとめられた。
試行の根元事象が全部でN個あり、それらが同様に確からしいと仮定する。このとき、それが出れば1つの事象Aが起こるような事象の数がR個あれば、事象Aの確率は {P(A)=R/N} と定義される。
この定義で重要なのは、各事象の発生が同様に確からしいと仮定することが必要となっていることである。

頻度説

頻度説は、上記のラプラスの定義から1歩進んで、確率を、無限回試行したときの発生頻度と等しくなるものだとした。
定義上、同様に確からしいという仮定が不要になり、例えば、歪んで、ある目が出る確率が {1/6} でなくなったサイコロにも確率を定義出来るようになった。ただ、その確率を知るためには、無限回試行しないと正確な値がわからないため、この場合には、極限への収束に現実の裏付けが不足している。

コルモゴロフの定義(公理主義的定義)

数学者コルモゴロフは、確率の公理主義的定義を行った。これにより、確率論を数学的に構成し、公理に基づいた体系的な議論をすることが可能になる。
確率論の公理は下記の3つからなる。これに合うなら、どのような数も確率として扱うことが出来る。

  1. 全ての事象Aに対して {0 \leqq P(A)\leqq 1}
  2. {P(\Omega)=1}
  3. 互いに排反な事象 {A_1,A_2,A_3 \cdots} に対して

  {P(A_1 \cup A_2 \cup A_3 \cup \cdots) = P(A_1)+P(A_2)+P(A_3)+\cdots}

 
これで、確率とは何かという問いに対して、一応の答えができるようになったが、実際の問題に対してある事象がおきる実際の確率というものが、有限回数の観測でしか求められないという点に変わりはない。そこは、さらに進んでベイズ的確率論によって現実に則した定義ができるようになる。
ただ、このコルモゴロフの定義の時点でようやく確率を数学的対象として扱うことができるようになり、公理から定理を導き、確率論における様々な議論が出来るようになった。
 
 
 
確率というもの何を表すのか、我々は日常的に確率という概念に触れているため、簡単な確率の議論ならあまり深く考えなくとも出来てしまうのですが、その裏には、ラプラスの「同様に確からしい」という仮定や、頻度説における「無限回試行した場合の実現頻度である」という仮定を暗に想定していることが多く、それに気づかなかったり、区別した議論ができてない場合には、往々にして話が噛み合ない。
ここらへん、各考え方自体は当たり前と感じる内容が多いのですが、だからこそ、気をつけていないとその議論で仮定されていることを見失ってしまいます。
歴史的な背景を知っておくと、ここらへんの意識が変わりそうな気がしました。