Deprecated: The each() function is deprecated. This message will be suppressed on further calls in /home/zhenxiangba/zhenxiangba.com/public_html/phproxy-improved-master/index.php on line 456
「ニューロ」の意味や使い方 わかりやすく解説 Weblio辞書
[go: Go Back, main page]

ニューロとは? わかりやすく解説

Weblio 辞書 > 辞書・百科事典 > 日本語表現辞典 > ニューロの意味・解説 

neuro

別表記:ニューロ

「neuro」の意味・「neuro」とは

「neuro」は英語の接頭語で、神経関連することを示す。医学生物学分野でよく用いられ神経系構造機能神経科学神経疾患などを表すのに使用される例えば、「neuroscience」は神経科学を、「neurology」は神経学を指す。

「neuro」の発音・読み方

「neuro」の発音は、IPA表記では/njʊərəʊ/となる。IPAカタカナ読みでは「ニューロウ」となり、日本人発音するカタカナ英語では「ニューロ」が近い。この単語発音によって意味や品詞が変わるものではない。

「neuro」の定義を英語で解説

「neuro」は、a prefix relating to nerves or the nervous system定義される。これは、「神経または神経系関連する接頭語」という意味である。

「neuro」の類語

「neuro」の類語としては、「neural」や「nervous」がある。これらも神経関連することを示す英語の単語である。「neural」は神経に関する、または神経から派生したものを意味し、「nervous」は神経系関連する、または神経質なという意味を持つ。

「neuro」に関連する用語・表現

「neuro」を含む用語や表現としては、「neuroscience」(神経科学)、「neurology」(神経学)、「neurologist」(神経科医)、「neurological disorder」(神経疾患)などがある。これらはすべて神経関連する事象概念を表す。

「neuro」の例文

以下に「neuro」を含む例文10例示す。 1. He is studying neuroscience at the university.(彼は大学神経科学学んでいる)
2. She is a well-known neurologist.(彼女はよく知られ神経科医である)
3. Neurological disorders can be very complex.(神経疾患は非常に複雑であることがある
4. The neuro system plays a crucial role in our body.(神経系私たちの体で重要な役割を果たす
5. He has a neuro disease.(彼は神経疾患持っている
6. The neuro network in the brain is intricate.(脳の神経ネットワークは複雑である)
7. Neuro research has been advancing rapidly.(神経研究急速に進んでいる)
8. The neuro cells were damaged.(神経細胞損傷していた)
9. Neuro technology has a wide range of applications.(神経技術広範な応用がある)
10. Neuro drugs can help treat certain conditions.(神経特定の状態を治療するのに役立つ)

ニューロ【neuro】

読み方:にゅーろ

神経回路のような学習自己組織化機能をもっているという意味を表す語。洗濯機エアコンなどの電気製品カタログなどによく使われた。


ニューラルネットワーク

(ニューロ から転送)

出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2026/01/28 13:08 UTC 版)

人工知能の分野におけるニューラルネットワーク: neural network; NN、神経網)は、生物学習メカニズムを模倣した機械学習手法として広く知られているものであり[1]、「人工ニューロン」と呼ばれる計算ユニットをもち、生物の神経系のメカニズムを模倣しているものである[1]。人間の脳の神経網を模した数理モデル[2]。模倣対象となった生物のニューラルネットワーク(神経網)とはっきり区別する場合は、人工ニューラルネットワーク (: artificial neural network) と呼ばれる。

以下では説明の都合上[注釈 1]、人工的なニューラルネットワークのほうは「人工ニューラルネットワーク」あるいは単に「ニューラルネットワーク」と呼び、生物のそれは「生物のニューラルネットワーク」あるいは「生物の神経網」、ヒトの頭脳のそれは「ヒトのニューラルネットワーク」あるいは「ヒトの神経網」と表記することにする。

概要

生物のニューロン

人工ニューラルネットワークを理解するには、そもそもそれがどのようなものを模倣しようとしているのかを知っておく必要があるので説明する。ヒトの神経系にはニューロンという細胞があり、ニューロン同士は互いに軸索 (axon) と樹状突起 (dendrite) を介して繋がっている。ニューロンは樹状突起で他の神経細胞から情報を受け取り、細胞内で情報処理してから、軸索で他のニューロンに情報を伝達する[3]。そして、軸索と樹状突起が結合する部分をシナプス(synapse)という[3][1](右図も参照。クリックして拡大して見ていただきたい。紫色の部分がひとつのニューロンであり、Dendrite, Axonなどが示されている。)。 このシナプスの結合強度というのは、外的な刺激に反応してちょくちょく変化する。このシナプス結合強度の変化こそが生物における「学習」のメカニズムである[1][注釈 2]

人工ニューロン

ヒトの神経網を模した人工ニューラルネットワークでは、計算ユニットが《重み》を介して繋がり、この《重み》がヒトの神経網のシナプス結合の「強度」と似た役割を担っている[1]。各ユニットへの入力は《重み》によって強さが変化するように作られており、ユニットにおける関数計算に影響を与える。ニューラルネットワークというのは、入力用ニューロンから出力用ニューロンへと向かって計算値を伝播させてゆくが、その過程で《重み》をパラメータとして利用し、入力の関数を計算する。(ただし計算値が出力用ニューロンへと伝播されてゆくというだけでは入力パターンからある決まった出力パターンが出るだけなので、さほど有益というわけではない[4]。)《重み》が変化することで「学習」が起きる[1](ここが重要なのである[4])。

(右図も参照のこと。右図で「weights」や、丸で囲まれた「w」が縦に並んでいるのが《重み》である。)

生物のニューラルネットワークに与えられる外的刺激に相当するものとして、人工ニューラルネットワークでは「訓練データ」が与えられる[1]。いくつか方法があるが、たとえば訓練データとして入力データと出力ラベルが与えられ、たとえば何かの画像データとそれについての正しいラベルが与えられる(たとえばリンゴの画像データとappleというラベル、オレンジの画像データとorangeというラベルが与えられる)。ある入力に対して予測される出力が本当のラベルとどの程度一致するかを計算することで、ニューラルネットワークの《重み》についてフィードバックを得られ[1]、ニューロン間の《重み》は誤差(予測誤差)に応じて、誤差が減少するように調整される[1]。多数のニューロン間で《重み》の調整を繰り返し行うことで次第に計算関数が改善され、より正確な予測をできるようになる。(たとえばオレンジの画像データを提示されると「orange」と正しいラベルを答えられるようになる[1]。) この《重み》の調整方法は、数学的にはバックプロパゲーション偏微分して確率的勾配降下法で学習する方法である。[4]

なお、ヒトのニューロンを模したユニットは人工ニューロンあるいはノードと呼ばれる。

相互作用ニューラルネットワークモデルの一例

右図の、多数のユニットが結合しネットワークを構成している数理モデルは、ニューラルネットワークのほんの一例である。(実際にはニューロンの数もさまざまに設定可能であるし、結合のしかたもさまざまに設定可能である。右図はあくまで、とりあえず説明にとりかかるための "一例" と理解いただきたい。 ユニットの構成(例: 線形変換の次元、非線形変換の有無・種類)やネットワークの構造(例: ユニットの数・階層構造・相互結合、入出力の再帰)に関して様々な選択肢があり、様々なモデルが提唱されている。)

各ユニットは入力のアフィン変換を必ず含み、多くの場合それに後続する非線形変換を含む(

この節は検証可能な参考文献や出典が全く示されていないか、不十分です。 出典を追加して記事の信頼性向上にご協力ください。このテンプレートの使い方
出典検索?"ニューラルネットワーク" – ニュース · 書籍 · スカラー · CiNii · J-STAGE · NDL · dlib.jp · ジャパンサーチ · TWL
(2025年7月)

順伝播型ニューラルネットワーク

順伝播型ニューラルネットワーク(フィードフォワードニューラルネットワーク、: Feed-forward Neural Network; FFN, FFNN)は内部に循環を持たないニューラルネットワークの総称・クラスである[134]

ニューラルネットワークではしばしば層(レイヤ)の概念を取り入れる。FFNでは入力レイヤ→中間レイヤ→出力レイヤというように単一方向/方向へのみ信号が伝播する。これは回帰型ニューラルネットワークと対比される。層間の結合様式により様々なニューラルネットワークが存在するが、結合様式に関わらず回帰結合を持たないものはすべてFFNに属する。以下はFFNの一例である。

並列計算

FFNがもつ特徴に並列計算がある。回帰結合をもつネットワークはシーケンシャルに処理を繰り返す必要があるため、1データに対して時間方向に並列計算できない[135]。FFNは層内で並列計算が可能であり、RNNと比較して容易に並列計算機(例: GPU)の計算能力を上限まで引き出せる[注釈 4]

多層パーセプトロンの模式図

RBFネットワーク

誤差逆伝播法に用いられる活性化関数放射基底関数を用いたニューラルネットワーク

  • RBFネットワーク英語版
  • 一般回帰ニューラルネットワーク英語版(GRNN、General Regression Neural Network)- 正規化したRBFネットワーク

自己組織化写像

自己組織化写像はコホネンが1982年に提案した教師なし学習モデルであり、多次元データのクラスタリング、可視化などに用いられる。自己組織化マップ、コホネンマップとも呼ばれる。

畳み込みニューラルネットワーク

畳み込みニューラルネットワーク

畳み込みニューラルネットワークとは層間が全結合ではない順伝播型ニューラルネットワークの一種。画像を対象とするために用いられることが多い。

再帰型ニューラルネットワーク(リカレントニューラルネット、フィードバックニューラルネット)

フィードフォワードニューラルネットと違い、双方向に信号が伝播するモデル。すべてのノードが他の全てのノードと結合を持っている場合、全結合リカレントニューラルネットと呼ぶ。シーケンシャルなデータに対して有効で、自然言語処理音声動画の解析などに利用される[136]

Transformer

Self-Attention機構(自己注意機構)を利用したモデルである[135]。再帰型ニューラルネットワークの代替として考案された[135]

従来の自然言語処理用モデルに比べ計算量が少なく構造も単純なため、自然言語処理に使われることが多い[137]

確率的ニューラルネット

乱数による確率的な動作を導入した人工ニューラルネットワークモデル。モンテカルロ法のような統計的標本抽出手法と考えることができる。

スパイキングニューラルネットワーク

ニューラルネットワークをより生物学的な脳の働きに近づけるため、活動電位(スパイク)を重視して作られた人工ニューラルネットワークモデル。スパイクが発生するタイミングを情報と考える。ディープラーニングよりも扱える問題の範囲が広い次世代技術と言われている。ニューラルネットワークの処理は逐次処理のノイマン型コンピュータでは処理効率が低く、活動電位まで模倣する場合には処理効率がさらに低下するため、実用する際には専用プロセッサとして実装される場合が多い。

2015年現在、スパイキングNN処理ユニットを積んだコンシューマー向けのチップとしては、QualcommSnapdragon 820が登場する予定となっている[138][139]

複素ニューラルネットワーク

入出力信号やパラメータ(重み閾値)が複素数値であるようなニューラルネットワークで活性化関数は必然的に複素関数になる[140]

利点

情報の表現
入力信号と出力信号が複素数(2次元)であるため、複素数で表現された信号はもとより、2次元情報を自然に表現可能[140]。また特に波動情報(複素振幅)を扱うのに適した汎化能力(回転と拡大縮小)を持ち、エレクトロニクスや量子計算の分野に好適である。四元数ニューラルネットワークは3次元の回転の扱いに優れるなど、高次複素数ニューラルネットワークの利用も進む。
学習特性
階層型の複素ニューラルネットワークの学習速度は、実ニューラルネットワークに比べて2〜3倍速く、しかも必要とするパラメータ(重みと閾値)の総数が約半分で済む[注釈 5][140]。学習結果は波動情報(複素振幅)を表現することに整合する汎化特性を示す[141]

生成モデル/統計モデル

生成モデル(統計モデルとも)は、データが母集団の確率分布に従って生成されると仮定しそのパラメータを学習するニューラルネットワークの総称である。統計的機械学習の一種といえる。モデル(=母集団)からのサンプリングによりデータ生成が可能な点が特徴である(詳しくは推計統計学 § 統計モデル機械学習 § 統計的機械学習)。

自己回帰型生成ネット

この節は検証可能な参考文献や出典が全く示されていないか、不十分です。 出典を追加して記事の信頼性向上にご協力ください。このテンプレートの使い方
出典検索?"ニューラルネットワーク" – ニュース · 書籍 · スカラー · CiNii · J-STAGE · NDL · dlib.jp · ジャパンサーチ · TWL
(2025年7月)

スパース化: sparsification)はニューラルネットワークの重みを疎行列とする最適化である。スパース化は精度の低下と速度の向上をもたらす。

スパース化の効果は以下の要素から生み出される。

  • キャッシュ: 容量低下によるキャッシュへ乗るデータ量増加 → キャッシュヒット率向上
  • メモリ: 容量低下によるメモリ消費とメモリ転送量の減少
  • 数値精度: 小さい値のゼロ近似によるモデル出力精度の低下
  • 計算量: ゼロ重みとの積省略による計算量の減少

スパース化の恩恵を受けるためにはそのためのフォーマットや演算が必要になる。ゼロ要素を省略する疎行列形式、疎行列形式に対応した演算実装などが挙げられる。またスパース化を前提として精度低下を防ぐよう学習する手法が存在する。

より広い意味での重み除去は枝刈り: pruning)と呼ばれる。枝刈りでは行列のスパース化のみでなく、チャネルやモジュール自体の削除(ゼロ近似)を含む。

実装例

ここでは、2層の多層パーセプトロン回帰を実装する。

  • ^ Hinton, Geoffrey E.; Dayan, Peter; Frey, Brendan J.; Neal, Radford (26 May 1995). “The wake-sleep algorithm for unsupervised neural networks”. Science 268 (5214): 1158–1161. Bibcode1995Sci...268.1158H. doi:10.1126/science.7761831. PMID 7761831. 
  • ^ a b Reducing the Dimensionality of Data with Neural Networks
  • ^ a b A fast learning algorithm for deep belief nets
  • ^ 2012 Kurzweil AI Interview Archived 2018-08-31 at the Wayback Machine. with Juergen Schmidhuber on the eight competitions won by his Deep Learning team 2009–2012
  • ^ How bio-inspired deep learning keeps winning competitions”. kurzweilai.net. 2018年8月31日時点のオリジナルよりアーカイブ。2025年6月20日閲覧。
  • ^ Cireşan, Dan Claudiu; Meier, Ueli; Gambardella, Luca Maria; Schmidhuber, Jürgen (21 September 2010). “Deep, Big, Simple Neural Nets for Handwritten Digit Recognition”. Neural Computation 22 (12): 3207–3220. arXiv:1003.0358. doi:10.1162/neco_a_00052. ISSN 0899-7667. PMID 20858131. 
  • ^ Ciresan, D. C.; Meier, U.; Masci, J.; Gambardella, L.M.; Schmidhuber, J. (2011). “Flexible, High Performance Convolutional Neural Networks for Image Classification”. International Joint Conference on Artificial Intelligence. doi:10.5591/978-1-57735-516-8/ijcai11-210. オリジナルの2014-09-29時点におけるアーカイブ。. https://web.archive.org/web/20140929094040/http://ijcai.org/papers11/Papers/IJCAI11-210.pdf 2025年6月20日閲覧。. 
  • ^ Ciresan, Dan; Giusti, Alessandro; Gambardella, Luca M.; Schmidhuber, Jürgen (2012). Pereira, F.. ed. Advances in Neural Information Processing Systems 25. Curran Associates, Inc.. pp. 2843–2851. オリジナルの2017-08-09時点におけるアーカイブ。. https://web.archive.org/web/20170809081713/http://papers.nips.cc/paper/4741-deep-neural-networks-segment-neuronal-membranes-in-electron-microscopy-images.pdf 2025年6月20日閲覧。 
  • ^ Ciresan, D.; Giusti, A.; Gambardella, L.M.; Schmidhuber, J. (2013). “Mitosis Detection in Breast Cancer Histology Images with Deep Neural Networks”. Medical Image Computing and Computer-Assisted Intervention – MICCAI 2013. Lecture Notes in Computer Science. 7908. pp. 411–418. doi:10.1007/978-3-642-40763-5_51. ISBN 978-3-642-38708-1. PMID 24579167 
  • ^ Ciresan, D.; Meier, U.; Schmidhuber, J. (2012). “Multi-column deep neural networks for image classification”. 2012 IEEE Conference on Computer Vision and Pattern Recognition. pp. 3642–3649. arXiv:1202.2745. doi:10.1109/cvpr.2012.6248110. ISBN 978-1-4673-1228-8 
  • ^ Krizhevsky, Alex; Sutskever, Ilya; Hinton, Geoffrey (2012). “ImageNet Classification with Deep Convolutional Neural Networks”. NIPS 2012: Neural Information Processing Systems, Lake Tahoe, Nevada. オリジナルの2017-01-10時点におけるアーカイブ。. https://web.archive.org/web/20170110123024/http://www.cs.toronto.edu/~kriz/imagenet_classification_with_deep_convolutional.pdf 2025年6月20日閲覧。. 
  • ^ Simonyan, Karen; Andrew, Zisserman (2014). “Very Deep Convolution Networks for Large Scale Image Recognition”. arXiv:1409.1556 [cs.CV].
  • ^ Szegedy, Christian (2015). “Going deeper with convolutions”. Cvpr2015. arXiv:1409.4842. オリジナルの2024-09-30時点におけるアーカイブ。. https://web.archive.org/web/20240930225513/https://static.googleusercontent.com/media/research.google.com/en//pubs/archive/43022.pdf 2025年6月20日閲覧。. 
  • ^ Ng, Andrew; Dean, Jeff (2012). “Building High-level Features Using Large Scale Unsupervised Learning”. arXiv:1112.6209 [cs.LG].
  • ^ Ian Goodfellow and Yoshua Bengio and Aaron Courville (2016). Deep Learning. MIT Press. オリジナルの16 April 2016時点におけるアーカイブ。. https://web.archive.org/web/20160416111010/http://www.deeplearningbook.org/ 2016年6月1日閲覧。 
  • ^ Billings, S. A. (2013). Nonlinear System Identification: NARMAX Methods in the Time, Frequency, and Spatio-Temporal Domains. Wiley. ISBN 978-1-119-94359-4 
  • ^ Goodfellow, Ian; Pouget-Abadie, Jean; Mirza, Mehdi; Xu, Bing; Warde-Farley, David; Ozair, Sherjil; Courville, Aaron; Bengio, Yoshua (2014). Generative Adversarial Networks (PDF). Proceedings of the International Conference on Neural Information Processing Systems (NIPS 2014). pp. 2672–2680. 2019年11月22日時点のオリジナルよりアーカイブ (PDF). 2025年6月20日閲覧.
  • ^ Schmidhuber, Jürgen (1991). “A possibility for implementing curiosity and boredom in model-building neural controllers”. Proc. SAB'1991. MIT Press/Bradford Books. pp. 222–227.
  • ^ Schmidhuber, Jürgen (2020). “Generative Adversarial Networks are Special Cases of Artificial Curiosity (1990) and also Closely Related to Predictability Minimization (1991)” (英語). Neural Networks 127: 58–66. arXiv:1906.04493. doi:10.1016/j.neunet.2020.04.008. PMID 32334341. 
  • ^ Karras, T.; Aila, T.; Laine, S.; Lehtinen, J. (26 February 2018). “Progressive Growing of GANs for Improved Quality, Stability, and Variation”. arXiv:1710.10196 [cs.NE].
  • ^ GAN 2.0: NVIDIA's Hyperrealistic Face Generator”. SyncedReview.com (2018年12月14日). 2024年9月12日時点のオリジナルよりアーカイブ。2025年6月20日閲覧。
  • ^ Prepare, Don't Panic: Synthetic Media and Deepfakes”. witness.org. 2020年12月2日時点のオリジナルよりアーカイブ。2025年6月20日閲覧。
  • ^ Sohl-Dickstein, Jascha; Weiss, Eric; Maheswaranathan, Niru; Ganguli, Surya (1 June 2015). “Deep Unsupervised Learning using Nonequilibrium Thermodynamics” (英語). Proceedings of the 32nd International Conference on Machine Learning (PMLR) 37: 2256–2265. arXiv:1503.03585. オリジナルの2024-09-21時点におけるアーカイブ。. https://web.archive.org/web/20240921065319/http://proceedings.mlr.press/v37/sohl-dickstein15.pdf 2025年6月20日閲覧。. 
  • ^ Simonyan, Karen; Zisserman, Andrew (10 April 2015), Very Deep Convolutional Networks for Large-Scale Image Recognition, arXiv:1409.1556 
  • ^ He, Kaiming; Zhang, Xiangyu; Ren, Shaoqing; Sun, Jian (2016). “Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification”. arXiv:1502.01852 [cs.CV].
  • ^ He, Kaiming; Zhang, Xiangyu; Ren, Shaoqing; Sun, Jian (10 December 2015). Deep Residual Learning for Image Recognition. arXiv:1512.03385.
  • ^ Srivastava, Rupesh Kumar; Greff, Klaus; Schmidhuber, Jürgen (2 May 2015). “Highway Networks”. arXiv:1505.00387 [cs.LG].
  • ^ He, Kaiming; Zhang, Xiangyu; Ren, Shaoqing; Sun, Jian (2016). “Deep Residual Learning for Image Recognition”. 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). IEEE. pp. 770–778. arXiv:1512.03385. doi:10.1109/CVPR.2016.90. ISBN 978-1-4673-8851-1. オリジナルの2024-10-07時点におけるアーカイブ。. https://ieeexplore.ieee.org/document/7780459 2025年6月20日閲覧。 
  • ^ Linn, Allison (2015年12月10日). “Microsoft researchers win ImageNet computer vision challenge” (英語). The AI Blog. 2023年5月21日時点のオリジナルよりアーカイブ。2025年6月20日閲覧。
  • ^ Sutskever, Ilya; Vinyals, Oriol; Le, Quoc Viet (2014). “Sequence to sequence learning with neural networks”. arXiv:1409.3215 [cs.CL].
  • ^ Cho, Kyunghyun; van Merrienboer, Bart; Gulcehre, Caglar; Bahdanau, Dzmitry; Bougares, Fethi; Schwenk, Holger; Bengio, Yoshua (3 June 2014). “Learning Phrase Representations using RNN Encoder-Decoder for Statistical Machine Translation”. arXiv:1406.1078 [cs.CL].
  • ^ a b c Vaswani, Ashish; Shazeer, Noam; Parmar, Niki; Uszkoreit, Jakob; Jones, Llion; Gomez, Aidan N.; Kaiser, Lukasz; Polosukhin, Illia (12 June 2017). “Attention Is All You Need”. arXiv:1706.03762 [cs.CL].
  • ^ Schmidhuber, Jürgen (1992). “Learning to control fast-weight memories: an alternative to recurrent nets.”. Neural Computation 4 (1): 131–139. doi:10.1162/neco.1992.4.1.131. https://archive.org/download/wikipedia-scholarly-sources-corpus/10.1162.zip/10.1162%252Fneco.1992.4.1.131.pdf. 
  • ^ Katharopoulos, Angelos; Vyas, Apoorv; Pappas, Nikolaos; Fleuret, François (2020). “Transformers are RNNs: Fast autoregressive Transformers with linear attention”. ICML 2020. PMLR. pp. 5156–5165. 2023年7月11日時点のオリジナルよりアーカイブ. 2025年6月20日閲覧.
  • ^ Schlag, Imanol; Irie, Kazuki; Schmidhuber, Jürgen (2021). “Linear Transformers Are Secretly Fast Weight Programmers”. ICML 2021. Springer. pp. 9355–9366.
  • ^ Wolf, Thomas; Debut, Lysandre; Sanh, Victor; Chaumond, Julien; Delangue, Clement; Moi, Anthony; Cistac, Pierric; Rault, Tim et al. (2020). “Transformers: State-of-the-Art Natural Language Processing”. Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing: System Demonstrations. pp. 38–45. doi:10.18653/v1/2020.emnlp-demos.6 
  • ^ Benerard Widrow; M.E. Hoff, Jr. (August 1960). “Adaptive Switching Circuits”. IRE WESCON Convention Record 4: 96-104. http://www-isl.stanford.edu/people/widrow/papers/c1960adaptiveswitching.pdf. 
  • ^ a b c 渡邉正峰「意識の宿る機械をつくる ─甘利俊一の取り損ねたノーベル賞と今後の課題─」『科学哲学』第57巻第2号、2024年、13-20頁。
  • ^ 石川眞澄コネクショニズムと学習」『認知科学の発展』第4巻、1991年、51-77頁。
  • ^ Homma, Toshiteru; Les Atlas; Robert Marks II (1988). “An Artificial Neural Network for Spatio-Temporal Bipolar Patters: Application to Phoneme Classification”. Advances in Neural Information Processing Systems 1: 31–40. http://papers.nips.cc/paper/20-an-artificial-neural-network-for-spatio-temporal-bipolar-patterns-application-to-phoneme-classification.pdf. 
  • ^ Yann Le Cun (June 1989). Generalization and Network Design Strategies. http://yann.lecun.com/exdb/publis/pdf/lecun-89.pdf. 
  • ^ Y. LeCun; B. Boser; J. S. Denker; D. Henderson; R. E. Howard; W. Hubbard; L. D. Jackel (1989). “Backpropagation applied to handwritten zip code recognition”. Neural Computation 1 (4): 541-551. 
  • ^ 植木一也「映像検索におけるディープラーニング」『日本神経回路学会誌』第24巻第1号、2017年、13-26頁。
  • ^ 中原龍一「人工知能の歩み」『岡山医学会雑誌』第132巻第3号、2020年、144-147頁。
  • ^ "A nonrecurrent network has no cycles. Nonrecurrent networks can be thought of as computing an input-output function." Jordan, M.I. (1986). Serial order: A parallel distributed processing approach. (Tech. Rep. No. 8604). San Diego: University of California, Institute for Cognitive Science.
  • ^ a b c Vaswani et al. 2017, p. 6001.
  • ^ Yu, Yong; Si, Xiaosheng; Hu, Changhua; Zhang, Jianxun (2019-07-01). “A Review of Recurrent Neural Networks: LSTM Cells and Network Architectures”. Neural Computation 31 (7): 1235–1270. doi:10.1162/neco_a_01199. ISSN 0899-7667. https://doi.org/10.1162/neco_a_01199. 
  • ^ Vaswani, Ashish; Shazeer, Noam; Parmar, Niki; Uszkoreit, Jakob; Jones, Llion; Gomez, Aidan N.; Kaiser, Lukasz; Polosukhin, Illia (2017-12-05). “Attention Is All You Need”. arXiv:1706.03762 [cs]. https://arxiv.org/abs/1706.03762. 
  • ^ Neuromorphic Processing : A New Frontier in Scaling Computer Architecture Qualcomm 2014年
  • ^ Qualcomm’s cognitive compute processors are coming to Snapdragon 820 ExtremeTech 2015年3月2日
  • ^ a b c 複素ニューラルネットワーク
  • ^ Akira Hirose, Shotaro Yoshida (2012). “Generalization Characteristics of Complex-valued Feedforward Neural Networks in Relation to Signal Coherence”. IEEE TNNLS 23 (4): 541-551. 
  • ^ 村田剛志『グラフニューラルネットワーク ― Pytorchによる実装』オーム社、2022年、 ISBN 978-4-274-22887-2
  • ^ The proposed U-Net based architecture allows to provide detailed per-pixel feedback to the generator while maintaining the global coherence of synthesized images
  • ^ starting from a low resolution, we add new layers that model increasingly fine details as training progresses. This both speeds the training up and greatly stabilizes it PGGAN paper
  • ^ "making normalization a part of the model architecture and performing the normalization for each training mini-batch." Sergey Ioffe, et. al.. (2015)
  • ^ MINAMI, Kentaro (2018年3月4日). “Backpropしないニューラルネット入門 (2/2)”. やっていく. 2025年11月24日閲覧。
  • ^ Yann LeCun; Leon Bottou; Genevieve B. Orr; Klaus-Robert Muller (1998). Efficient BackProp. http://yann.lecun.com/exdb/publis/pdf/lecun-98b.pdf. 
  • ^ a b Xavier Glorot; Yoshua Bengio (2010). Understanding the difficulty of training deep feedforward neural networks. https://proceedings.mlr.press/v9/glorot10a/glorot10a.pdf. 
  • ^ Multilayer Perceptron — DeepLearning 0.1 documentation
  • ^ Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification”. arXiv.org. 2025年12月16日閲覧。
  • ^ torch.nn.init — PyTorch 2.9 documentation”. docs.pytorch.org. 2025年12月16日閲覧。
  • ^ ヤン・ルカンらによる
  • ^ 福島邦彦『神経回路と情報処理』朝倉書店、1989年。 ISBN 978-4254120639 
  • ^ Xavier Glorot; Antoine Bordes; Yoshua Bengio. “Deep Sparse Rectifier Neural Networks”. Proceedings of the Fourteenth International Conference on Artificial Intelligence and Statistics (AISTATS-11) 15: 315-323. http://jmlr.csail.mit.edu/proceedings/papers/v15/glorot11a/glorot11a.pdf. 
  • ^ Yann LeCun; Yoshua Bengio; Geoffrey Hinton (2015-05-28). “Deep learning”. Nature 521 (7553): 436-444. doi:10.1038/nature14539. 
  • ^ "The most obvious drawback of the learning procedure is that the error-surface may contain local minima so that gradient descent is not guaranteed to find a global minimum." p.536 of Rumelhart, et al. (1986). Learning representations by back-propagating errors. Nature.
  • ^ "ニューラルネットワークの演算の基本は、多入力の積和演算である。" 百瀬 (2016). 第2章:ディープ・ニューラルネットワークのニューロチップへの実装~その勘所は!!. semiconportal.
  • ^ "深層学習の…フレームワーク中では, 計算時間の多くが畳み込み計算などの密行列積に費やされており … 計算時間の約90%が畳み込み層での計算時間であることが知られている" p.1 of 関谷, et al. (2017). 低ランク近似を用いた深層学習の行列積の高速化. 情報処理学会研究報告. Vol2017-HPC-158, No.24.
  • ^ Optimize and Accelerate Machine Learning Inferencing and Training. ONNX Runtime.
  • ^ CUDA Deep Neural Network”. NVIDIA Developer. 2025年11月25日閲覧。
  • ^ Intel® oneAPI Deep Neural Network Library (oneDNN)”. Intel. 2025年11月25日閲覧。
  • ^ J. Heaton http://www.heatonresearch.com/encog/mprop/compare.html Applying Multithreading to Resilient Propagation and Backpropagation
  • ^ "Quantization works by reducing the precision of the numbers used to represent a model's parameters, which by default are 32-bit floating point numbers." Model optimization. TensorFlow.
  • ^ "Quantizing a network means converting it to use a reduced precision integer representation for the weights and/or activations." DYNAMIC QUANTIZATION. PyTorch.
  • ^ "Quantization performance gain comes in 2 part: instruction and cache." Quantize ONNX Models. ONNX Runtime.
  • ^ "Less memory usage: Smaller models use less RAM when they are run, which frees up memory for other parts of your application to use, and can translate to better performance and stability." Model optimization. TensorFlow.
  • ^ "Old hardware doesn’t have or has few instruction support for byte computation. And quantization has overhead (quantize and dequantize), so it is not rare to get worse performance on old devices." Quantize ONNX Models. ONNX Runtime.
  • ^ "Performance improvement depends on your model and hardware." Quantize ONNX Models. ONNX Runtime.
  • ^ "Static quantization quantizes the weights and activations of the model. ... It requires calibration with a representative dataset to determine optimal quantization parameters for activations." QUANTIZATION. PyTorch.
  • ^ "with dynamic quantization ... determine the scale factor for activations dynamically based on the data range observed at runtime." DYNAMIC QUANTIZATION. PyTorch.
  • ^ "The model parameters ... are converted ahead of time and stored in INT8 form." DYNAMIC QUANTIZATION. PyTorch.
  • ^ "Simulate the quantize and dequantize operations in training time." FAKEQUANTIZE. PyTorch. 2022-03-15閲覧.
  • ^ "There are 2 ways to represent quantized ONNX models: ... Tensor Oriented, aka Quantize and DeQuantize (QDQ)." Quantize ONNX Models. ONNX RUNTIME. 2022-03-15閲覧.
  • 参考文献

    関連項目

    外部リンク


    「ニューロ」の例文・使い方・用例・文例



    英和和英テキスト翻訳

    英語⇒日本語日本語⇒英語

    辞書ショートカット

    すべての辞書の索引

    「ニューロ」の関連用語

    ニューロのお隣キーワード
    検索ランキング

       

    英語⇒日本語
    日本語⇒英語
       



    ニューロのページの著作権
    Weblio 辞書 情報提供元は 参加元一覧 にて確認できます。

       
    実用日本語表現辞典実用日本語表現辞典
    Copyright © 2026実用日本語表現辞典 All Rights Reserved.
    デジタル大辞泉デジタル大辞泉
    (C)Shogakukan Inc.
    株式会社 小学館
    ウィキペディアウィキペディア
    All text is available under the terms of the GNU Free Documentation License.
    この記事は、ウィキペディアのニューラルネットワーク (改訂履歴)の記事を複製、再配布したものにあたり、GNU Free Documentation Licenseというライセンスの下で提供されています。 Weblio辞書に掲載されているウィキペディアの記事も、全てGNU Free Documentation Licenseの元に提供されております。
    Tanaka Corpusのコンテンツは、特に明示されている場合を除いて、次のライセンスに従います:
     Creative Commons Attribution (CC-BY) 2.0 France.
    この対訳データはCreative Commons Attribution 3.0 Unportedでライセンスされています。
    浜島書店 Catch a Wave
    Copyright © 1995-2026 Hamajima Shoten, Publishers. All rights reserved.
    株式会社ベネッセコーポレーション株式会社ベネッセコーポレーション
    Copyright © Benesse Holdings, Inc. All rights reserved.
    研究社研究社
    Copyright (c) 1995-2026 Kenkyusha Co., Ltd. All rights reserved.
    日本語WordNet日本語WordNet
    日本語ワードネット1.1版 (C) 情報通信研究機構, 2009-2010 License All rights reserved.
    WordNet 3.0 Copyright 2006 by Princeton University. All rights reserved. License
    日外アソシエーツ株式会社日外アソシエーツ株式会社
    Copyright (C) 1994- Nichigai Associates, Inc., All rights reserved.
    「斎藤和英大辞典」斎藤秀三郎著、日外アソシエーツ辞書編集部編
    EDRDGEDRDG
    This page uses the JMdict dictionary files. These files are the property of the Electronic Dictionary Research and Development Group, and are used in conformance with the Group's licence.

    ©2026 GRAS Group, Inc.RSS