単純パーセプトロン

AI

単純パーセプトロン

パーセプトロン(英: Perceptron)は、人工ニューロンやニューラルネットワークの一種である。心理学者・計算機科学者のフランク・ローゼンブラットが1957年に考案し、1958年に論文[1]を発表した。モデルは同じく1958年に発表されたロジスティック回帰と等価である。

視覚と脳の機能をモデル化したものであり、パターン認識を行う。シンプルなネットワークでありながら学習能力を持つ。1960年代に爆発的なニューラルネットブームを巻き起こしたが、1969年に人工知能学者マービン・ミンスキーらによって線形分離可能なものしか学習できないことが指摘されたことによって下火となった。他の研究者によってさまざまな変種が考案されており、ニューロン階層を多層化し入出力が二値から実数になったボルツマンマシン(1985年)やバックプロパゲーション(1986年)などによって再び注目を集めた。2009年現在でも広く使われている機械学習アルゴリズムの基礎となっている。

入力層と出力層のみの2層からなる、単純パーセプトロン (Simple perceptron) は線形非分離な問題を解けないことがマービン・ミンスキーとシーモア・パパートによって指摘された。

一番簡単な単純パーセプトロンについて

ニューラルネットワークは人間の脳を模倣してモデル化されており、入力層、中間層、出力層の複数ニューロンから構成される非常に複雑な構成をしています。それに対して、単純パーセプトロンとはニューラルネットワークの一つのモデルですが、非常に単純なニューラルネットワークとなっています。教師付き学習アルゴリズムの一つであり、ディープラーニングにつながる基本的なアルゴリズムとなっています。

一番簡単な単純パーセプトロンについて - AI人工知能テクノロジー
一番簡単な単純パーセプトロンについて ニューラルネットワークは人間の脳を模倣してモデル化されており、入力層、中間層、出力層の複数ニューロンから構成される非常に複雑な構成をしています。それに対して、単純パーセプトロンとはニューラルネットワーク...
タイトルとURLをコピーしました