パーセプトロン
(perceptron から転送)
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2025/12/13 08:09 UTC 版)
| 機械学習および データマイニング |
|---|
| |
パーセプトロン(英: perceptron)は、ニューラルネットワークの一種であり、多層パーセプトロンはニューラルネットワークの最も基本的な形である。心理学者・計算機科学者のフランク・ローゼンブラットが1957年に考案し、1958年に論文[1]を発表した。
1層の単純パーセプトロンで、活性化関数を標準シグモイド関数にした場合は、同じく1958年に発表されたロジスティック回帰と等価である。
概要
パーセプトロンは視覚と脳の機能をモデル化したものであり、パターン認識を行う。パーセプトロンの数式表記は多層パーセプトロンを参照。
パーセプトロンは1943年に発表された形式ニューロンに基づく。ローゼンブラットはこの形式ニューロンの考え方を基にしてパーセプトロンを開発した。S層(感覚層、入力層)、A層(連合層、中間層)、R層(反応層、出力層)の3層からなる。S層とA層の間はランダムに接続されている。S層には外部から信号が与えられる。A層はS層からの情報を元に反応する。R層はA層の答えに重みづけをして、多数決を行い、答えを出す。パーセプトロンにおいてこの重みと呼んでいる値が人間でいうところの記憶となる。ただし、記憶の学習というと見聞き感じた物を覚える様子を想像しがちだが、パーセプトロンにおける学習は、入力を期待する出力値に変換できる最適な重みの値を探す作業となる。
1970年頃、デビッド・マー[2]とジェームズ・アルブス[3]によって小脳はパーセプトロンであるという仮説が相次いで提唱された。後に神経生理学者伊藤正男らの前庭動眼反射に関する研究[4]によって、平行繊維-プルキンエ細胞間のシナプスの長期抑圧(LTD; long-term depression)が見つかったことで、小脳パーセプトロン説は支持されている。
単純パーセプトロン
単純パーセプトロンは入力層と出力層のみからなる[5]。1958年の論文[1]に学習方法が書かれている。単純パーセプトロン (simple perceptron) は線形分離可能な問題を有限回の反復で解くことができる[6]一方で、線形分離不可能な問題を解けない。
多層パーセプトロン
多層パーセプトロンは入力層と出力層以外に中間層を含むもの。多層にすれば線型分離不可能な問題が解けることは1943年のマカロックとピッツの頃から解っていた。1958年の論文[1]では学習方法が書かれていなかった。現代の標準的な学習方法は、出力側からの偏微分(バックプロパゲーション)と確率的勾配降下法を使用する方法で、1960年代に開発され、1986年に標準的な手法として浸透した。
沿革
1958年の論文[1]でパーセプトロンと呼んでいるものは論文の図1に書かれている多層パーセプトロンだが、単純化した中間層のない単純パーセプトロンを図2に書いている。入出力は0または1で、活性化関数はヘヴィサイドの階段関数である。そして、単純パーセプトロンに対する学習規則を論文の中でいくつか提案している。論文の17ページ目のBIVALENT SYSTEMSの章では、入出力の不一致に合わせて![]()
- M.ミンスキー、S.パパート『パーセプトロン パターン認識理論への道』斎藤正男 訳、東京大学出版会、1971年。ASIN B000JA2BCQ。
- M.ミンスキー、S.パパート『パーセプトロン』中野馨、阪口豊 訳(改訂版)、パーソナルメディア、1993年12月。 ISBN 978-4-8936-2110-8。
- 斎藤康毅『ゼロから作るDeep Learning - Pythonで学ぶディープラーニングの理論と実装』(第1刷)オライリー・ジャパン、2016年9月24日。 ISBN 978-4-8731-1758-4。
関連事項
- perceptronのページへのリンク