Deprecated: The each() function is deprecated. This message will be suppressed on further calls in /home/zhenxiangba/zhenxiangba.com/public_html/phproxy-improved-master/index.php on line 456
back propagationとは何? わかりやすく解説 Weblio辞書
[go: Go Back, main page]

back propagationとは? わかりやすく解説

Weblio 辞書 > 学問 > OR事典 > back propagationの意味・解説 

バックプロパゲーション

(back propagation から転送)

出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2025/12/03 03:51 UTC 版)

ニューラルネットワーク > バックプロパゲーション

バックプロパゲーション: backpropagation, backprop)または誤差逆伝播法(ごさぎゃくでんぱほう、: error backpropagation[1]とは、ニューラルネットワーク損失関数のパラメータに関する偏微分を、自動微分のトップダウン型(リバース・モード)と同様の手法により、出力側から偏微分を計算し、誤差を伝播させる方法で、効率よく計算する手法である。一般的には、ここで計算した偏微分を使用し、確率的勾配降下法でニューラルネットワークを学習させる。用語は曖昧に使用されていて、バックプロパゲーションに確率的勾配降下法まで含んで使われている事も多い。[2]

概要

バックプロパゲーションは数理モデルであるニューラルネットワークパラメータに関する偏微分を計算する手法で、確率的勾配降下法はパラメータを更新する(学習する)手法である。

バックプロパゲーションおよび確率的勾配降下法は次の通りである:

  1. ニューラルネットワークに学習のためのサンプルを与える。
  2. ネットワークの出力を求め、出力層における誤差を求める。その誤差を用い、各出力ニューロンについて誤差を計算する。
  3. 個々のニューロンの期待される出力値と倍率 (scaling factor)、要求された出力と実際の出力の差を計算する。これを局所誤差と言う。
  4. 各ニューロンの重みを局所誤差が小さくなるよう調整する。
  5. より大きな重みで接続された前段のニューロンに対して、局所誤差の責任があると判定する。
  6. そのように判定された前段のニューロンのさらに前段のニューロン群について同様の処理を行う。

誤差逆伝播法という名称が示唆するように、誤差(および学習)は出力ノードから入力ノードへと逆向きに伝播する。技術的に言えば、バックプロパゲーションはネットワーク上の変更可能なパラメータについて、誤差の傾斜、つまり損失関数偏微分を計算するものである[3]。数式での実際の計算方法は後述する。

出力側から偏微分を計算すると計算効率が良くなる理由は、損失関数の出力がスカラーであることに起因するのだが、詳細は自動微分を参照。

確率的勾配降下法

バックプロパゲーションで計算した偏微分値は、ほとんどの場合、損失関数の誤差を最小にするアルゴリズムである確率的勾配降下法と共に使用される。

国立図書館 その他


英和和英テキスト翻訳>> Weblio翻訳
英語⇒日本語日本語⇒英語
  

辞書ショートカット

すべての辞書の索引

「back propagation」の関連用語

back propagationのお隣キーワード
検索ランキング

   

英語⇒日本語
日本語⇒英語
   



back propagationのページの著作権
Weblio 辞書 情報提供元は 参加元一覧 にて確認できます。

   
日本オペレーションズ・リサーチ学会日本オペレーションズ・リサーチ学会
Copyright (C) 2025 (社)日本オペレーションズ・リサーチ学会 All rights reserved.
ウィキペディアウィキペディア
All text is available under the terms of the GNU Free Documentation License.
この記事は、ウィキペディアのバックプロパゲーション (改訂履歴)の記事を複製、再配布したものにあたり、GNU Free Documentation Licenseというライセンスの下で提供されています。 Weblio辞書に掲載されているウィキペディアの記事も、全てGNU Free Documentation Licenseの元に提供されております。

©2025 GRAS Group, Inc.RSS