数理モデリング入門 ファイブ・ステップ法

数理モデリング入門 ファイブステップ法

最近、業務で本格的にデータ分析ができるようになり、いろいろ勉強しています。
統計学の知識においてもまだまだ抜けているところが多く、実務での経験を積みながらも、包括的な勉強の必要性をヒシヒシと感じている毎日ですが、日々の成長も感じられてそれなりに有意義な時間を過ごしています。

どのような分析をするにしても数理モデルを構築し問題を解くというプロセスには共通したものがあると思い、それについてまとめられている本がないかと探していて見つけた本です。

数理モデリング入門 ―ファイブ・ステップ法― 原著第4版

数理モデリング入門 ―ファイブ・ステップ法― 原著第4版



タイトルに入門とついている通り、確かに数学的に難しいことはなく学部レベルの数学知識で読める本です。
扱っているテーマは大きく分けて3つで、それぞれ最適化、動的モデル、確率モデルとなっています。どれも具体的な例題をベースに議論が展開され、わかりやすいです。
この本で得られるのは、これら3つの数理モデルを構築する際の思考プロセスの進め方と、その初歩としての具体的手法の解説です。
思考プロセスは、どれにも共通した5つのステップとなっており、それをタイトルにもなっているファイブステップ法という名前で呼んでいます。ファイブステップ法は具体的には、下記の5つとなります。

1.問題を設定する
2.数理モデルの手法を選ぶ
3.モデルを定式化する
4.モデルを解く
5.問題の解答を出す


こうやってステップを書き出すと、データ分析に限らず、問題解決の手法として当たり前にも感じられる内容なのですが、これを5つもステップとして意識することでちゃんと整理して問題に取り組みましょうという話です。
各手法や指標などを理論的には理解していても実際の分析経験の浅い自分としては、いままでもやっとして、なんとなくで進めていた分析を、ちゃんと整理してある程度枠組み化できるような気がしました。特に、なんとなくデータを見るだけだと何も進まないまま、時間が過ぎてしまうことが多々あったので、ちゃんと解決すべき問題を言語化、数式化する努力が大事なんだなと、改めて感じながら読んでいます。
まだ全部読んでないので、読み進めて特に気になる内容あればまたここに備忘録として記載していきたいと思っています。

 

量子コンピュータが人工知能を加速する

量子アニーリングを考えた西森秀稔さんと、その弟子の大関真之さんの著書です。

量子コンピュータが人工知能を加速する

量子コンピュータが人工知能を加速する


D-Waveの量子コンピュータの話が多いです。
当時理論的に実現可能性が指摘されてから開発が進められてきたものの、量子ビットを長時間維持することが難しく、量子コンピュータが実現するのは21世紀後半くらいだと思われていたところに、商用の量子コンピュータの提供を開始したD-Waveが登場し、しかもそれが、西森さんが世界的に研究をリードしていた量子アニーリングを使ったものだったという話で、日本の研究者としてはあくまで理論的な研究を進めていたところ、海外のベンチャー企業に先を越されてしまった。それについて後悔している感じが伝わって来ます。


量子コンピュータには、量子ゲート方式と量子アニーリング方式があり、量子アニーリング方式は組み合わせ最適化計算に使え、これが機械学習の学習過程を効率化するのに使えるという。組み合わせ最適化問題は他にもいろいろ使えます。
古典的な計算方法では現実的な時間内で解けない問題が、これを使うことで解けるようになる可能性があり、今まで成し得なかったエネルギーの効率化、工数の効率化、時間の効率化が実現出来る可能性があります。


D-Waveはまだまだ発展途中で完全ではなく、量子ビットが部分的にしかエンタングルできてないための制限があり、これを物理的に解消するチップが開発されれば、その可能性は広がります。また、量子アニーリングの計算過程で、複数の量子ビットに量子ゆらぎを持たせる必要があり、それを横磁場をかけることで実現しているのですが、著者の一人である大関さんの最近の研究で、別の量子ゆらぎのかけ方を発表し、新しい潮流になっています。


また、機械学習アルゴリズム量子アニーリングの親和性を意識した研究もまだ少なく、これも今後注力されるべき研究対象となるとのこと。



理論物理学の基礎研究が、人が生きる時間スケールの中で、理論から実用化まで一貫して携われる例は少ないのですが、量子コンピュータはその珍しい例だと思います。
ディープラーニングにより機械学習にブレイクスルーが起きているのと同じように、量子コンピュータでも研究開発が加速し、いくつかのブレイクスルーによって、今の物理的な制限が取り払われるのも時間の問題で、そうなったときに、人工知能の性能改善にどう使えるかというのは、最も注目される課題の1つになるはずだと思います。

 

統計学勉強メモ

引き続き、「統計学入門」を読み進めています。

統計学入門 - サイバースイッチ
 

統計学入門 (基礎統計学)

統計学入門 (基礎統計学)

 

この本、初めは最初の数章だけ読めばいいかと思っていたのですが、これまでいい加減な理解をしていたところが多々あり、あやふやだった部分が本を読んでいくにつれて頭のなかでちゃんと整理できてくるので、以外と時間をかけて読み込んでしまっています。
それと同時にこれまで統計学という形でちゃんと勉強してなかったことを痛感しています。


やはり、どんな分野も基礎を固めるのが一番の近道ですね。。。



ローレンツ曲線

ロングテールな分布(個人資産とか会社の従業員数とか)を、累積相対度数分布で表したときに現れる曲線。

 

平均、幾何平均、調和平均

x_1x_2の普通の平均x_Mは、もちろん x_M=\frac{1}{2}(x_1+x_2)であり、このとき、(x_1-x_M):(x_M-x_2)=1:1となっている。
つまり、x_1x_2の差の真ん中である。

それに対し、幾何平均は、 x_G=\sqrt{x_1x_2}であり、このとき、(x_1-x_M):(x_M-x_2)=\sqrt{x_1}:\sqrt{x_2}となっている。
また、調和平均は、 \frac{1}{x_H}=\frac{1}{2}\left(\frac{1}{x_1}+\frac{1}{x_2}\right)であり、このとき、(x_1-x_H):(x_H-x_2)=x_1:x_2となっている。
x_1x_2の比率を考慮した中間の値となっており、たしかになんとなく"調和"っぽい気がする。

参考文献

調和平均の真実
ここがわかりやすかった。


 

モーメント母関数

xの期待値\mu周りのr次のモーメントは、\mu'_r=E(X-\mu)^r
ここで、E(X)=\mu、(Xの期待値)である。

モーメント母関数M_X(t)=E(e^{tX})は、そのt=0のまわりの1階微分により、Xの期待値(1次のモーメント)を生成する。同様にt=0のまわりのn階微分でn次のモーメントが導出できる。
 

チェビシェフの不等式

P\left(|X-\mu| \geqq k\sigma\right)\leqq \frac{1}{k^2}

Xの値が、\muのまわりよりk\sigma以上離れる確率は、\frac{1}{k^2}以下になる。
確率分布を表す情報のなかでも分散と期待値さえわかれば、その確率変数のとる値域を指定し、それが何%以下でしかおきないかを言うことができる。