手書き数字認識機を使って、数字画像を出力するデモ
MNISTは手書き数字認識用の標準的なデータセット
28x28ピクセル、各ピクセルは8ビットのグレイスケール、70000サンプルの数字の手書き画像データ
こちらは顔認識機のバージョン
SemanticではなくSentiment Analysis
書かれている文章が、nagativeなのかpositiveなのかを判定する
Googleが公開したDeep Dreamは、画像認識アルゴリズムを応用して画像の中に「何が写っているか」を認識したものを画像として出力する
ニューラルネットワークの一種であり、 多層構造のニューラルネットワークに、 脳科学分野の研究を応用したものである。 汎用的なAI、いわゆる強いAIの実現が期待されている。
ニューラルネットワークとは
ニューラルネットワークの歴史
パーセプトロン
バックプロパゲーション
サポートベクターマシン
ディープラーニング
人間の脳の神経回路の仕組みを模した人工ニューロンが、
学習によってシナプスの結合強度を変化させ、
問題解決能力を持つようなモデル全般のことを指す
1958年 視覚と脳の機能をモデル化して、
人工ニューロンを使ったニューロネットワークが考案された。
シンプルなネットワークでありながら学習能力を持つため、
第一次ニューラルネットワークブームを巻き起こした。
「2つの点の集合が二次元平面上にあるとき、それらの集合を一本の直線で分離できること」
一般化して「n次元空間上の2つの点の集合をn-1次元の超平面で分離できること」も
線形分離可能と呼ぶ
線形分離可能でない簡単な例としては、XOR(排他的論理和)がある
線形分離可能
線形分離不可能
1986年 バックプロパゲーションもしくは誤差逆伝播法が
考案され、多層パーセプトロンの学習が可能になった。
多層になったことで線形分離不可能な問題が解けるようになった。
これにより第二次ニューラルネットワークブームが起きた。
機械学習の学習方法のカテゴリの一つ
”教師あり学習”、”教師なし学習”、”半教師あり学習”、”強化学習” などがある
1992年サポートベクターマシンが考案され、
汎化能力が高く収束が早かったため
バックプロパゲーションと
第二次ニューラルネットワークのブームは終わった
学習データだけではなく、未知のデータに対しても
正しく分類・予測ができる能力
学習データだけに最適化されてしまい、未知のデータに対して
正しい分類や予測ができない状態を ”過学習” と言う
過学習が起きる主な原因
サポートベクターマシン
1992年に考案されたサポートベクターマシンは、
2値の識別を行う識別器を構成する。
学習データを分割する
マージンが最大となる超平面を求めるアルゴリズム。
2006年に脳の視覚野の研究結果等を参考にして、
多層のニューラルネットワークを用いる手法が考案された。
教師なし学習によってデータのパターンを
自動で発見できることが最大の特徴
2012年のLSVRCにてディープラーニングを使ったチームがダントツで(エラー率1%で競っている中で10%の大差で)優勝した。
LSVRC(Large Scale Visual Recognition Challenge 2012) は画像認識を競うコンテストで、他のチームはほぼSVMを使っていた。その後、数々のコンテストでディープラーニングを使ったチームが優勝する自体になり、現在のブームが始まった。
同じ時期にGoogleがYoutubeの画像を元に学習させたところ、猫を識別できるニューロンができたと話題になったりした。
http://googleblog.blogspot.jp/2012/06/using-large-scale-brain-simulations-for.html
機械学習とは
機械学習の重要な5概念
機械学習の応用例
まとめ
明示的にプログラミングすることなく,
コンピュータに行動させるようにする科学by Andrew Ng
入力データから特徴を抽出して、
学習に使える特徴ベクトルで表すこと
入力データ例:テキスト、画像、音声、数値、等
このお陰で入力データがどんなものであれ、
同じアルゴリズムが使えるようになった
「未知のデータを正しく予測できるような、
ルールを学習する」こと
教師事例を 100%正しく分類できても、
未知のデータを正しく分類できるとは限らない
学習時に「教師事例を正しく分類する」
以外の目標を導入すること
例1:単純なモデルを選ぶような制約を追加する(過学習を防ぐ)
例2:問題に対する事前知識を組み込む
高次元データを扱う場合に、様々な困難が付き纏う
学習結果による推定の誤差は次の2つに分類される
この2つの値はトレードオフ
There ain't no such thing as a free lunch.
― The Moon Is a Harsh Mistress by Robert Heinlein (1966)
……コスト関数の極値を探索するあらゆるアルゴリズムは、全ての可能なコスト関数に適用した結果を平均すると同じ性能となる
— Wolpert and Macready、1995年
しかし、必要なのは目の前の問題を解決するためのツール
問題に対応するために最適なアルゴリズムを用意し、
問題の事前知識を使った最適化を施すのが最良ということ
結局、ディープラーニングも万能ではない
ディープラーニングの
醜いアヒルの子と普通のアヒルの子の類似性は、
任意の二匹の普通のアヒルの子の間の類似性と等しい
どの特徴を使うか(特徴選択・特徴抽出)が本質的に重要
今までの機械学習では
ヒューリスティックな手法で解決(?)していた。
しかし、ディープラーニングではこの特徴抽出を
ニューラルネットワークで自動で行えるようになった。
個人的に購入。
今までの歴史や研究の背景などが書かれていて、とても参考になった。
機械学習のアルゴリズムなどはさらっと書かれているので、ちゃんと勉強するには別の本が必要