浅川伸一
Hinton, Sejnowski らによって提案された確率的に動作するニューラルネット ワークです。ホップフィールドネットでは、ローカルミニマムに陥ると抜け出すことができな かった訳ですが、各ユニットを確率的に動作させることによって、ローカルミニ マムの問題を回避させるように工夫されたものです。
各ユニット間の結合係数は対称 , 自己結合はなし
を仮定するのはホップフィールドと同じです。各ユニットの出力は 0 または 1
を取りますが、どちらになるかが決定論的に決まるのではなく 1 を出力する
確率が次のように定義されます。
| (1) |
| (2) |
今 n 個のニューロンを考えた場合ネットワーク全体の状態
は全部で
通り存在します。
ネットワークが時刻 で状態
(たとえば
など) に
なったとします。次の時刻
で別の状態
になる遷移確率は、
| (4) |
ネットワークの状態が のように時刻によらない形になっている場合、
定常状態といいます。定常状態になっている場合の
の出現確率は
| (5) |
| (6) |
| (7) |
定常確率分布がボルツマン分布に従うことの証明
i 番目のニューロンの値をとし、次の時刻でのこのニューロンの出力を
とします。確率的に定常な状態ならば、
が成立します。一回に一つのニューロンしか変化しないので他のニューロンは無 視します。がボルツマン分布に従うと仮定したときに式 (8)が成立することを証明します。 次の時刻で 1 を出力する確率は、
となります。ここで、変化前の分布がボルツマン分布に従うと仮定すると、
| (10) |
となるので、これをを式(9)に代入すればこのように定常状態 p の出現確率はネットワークの各状態に対して 計算されるエネルギー E によって決まり、その確率がボルツマン分布に従うこ とからこのネットワークのことをボルツマンマシンといいます。が証明できました4。
ただし、ネットワークのサイズ(ニューロンの数)が大きくなると定常分布を実際 に計算するのは計算量が多くて大変な作業になり、実際に計算するのはほぼ不可 能です。そこでシミュレーションの出番になるわけです。
ボルツマンマシンにおいては、ホップフィールドモデルの持っていた 問題点-ローカルミニマムからの脱出できる可能性を持っています。 温度 T が大きければ、ローカルミニマムから脱出する確率が増します。 ところが、
| (11) |
ボルツマンマシンの学習アルゴリズム
次のような入力層、中間層、出力層が全結合したネットワークを考えます。
その他にも、ネットワークの一部が壊れても自発的に回復する機能などが実現で
きることが指摘されています。