ニューラルネットワークとは

/機械学習

ニューラルネットワーク

ニューラルネットワークとは、脳機能の特性に類似した数理的モデルです。ニューロン(神経細胞)とシナプス(ニューロンの接合部分)からネットワークを形成し、学習によってシナプスの結合強度を変化させ、問題解決を行います。

ネットワーク関数

ニューロンを配置する層は、入力層、中間層、出力層などに分かれています。以下は、中間層が1層の場合のモデルを取り上げます。

まず、入力層(x0,x1,,xD)から中間層(z0,z1,,zM)への伝播は以下の線形和で表します。

aj=i=0Dwji(1)xi  ,  x0=1  

zj=h(aj)

ここで、wji(1) は重みパラメタ、wj0(1) はバイアスパラメタです。aj は活性と呼ばれ、活性化関数 h で変換され中間層に渡されます。活性化関数には、tanh 関数や以下のロジスティックシグモイド関数などが使われます。

h(aj)=11+eaj

次に、中間層から出力層(y0,y1,,yK)への伝播は以下の線形和で表します。活性化関数 σ にはロジスティックシグモイド関数などが使われます。

ak=j=0Mwkj(2)zj  ,  z0=1  

yk=σ(ak)

①と②の合わせると、入力層から出力層への伝播は以下でまとめられます。

yk(x,w)=σ(j=0Mwkj(2)h(i=0Dwji(1)xi))

誤差の評価

誤差の評価により、ニューラルネットワークの重みパラメタ w を求めます。具体的には、入力ベクトル xn の集合に対する目標ベクトル tn が与えられたとき、次の二乗和誤差を最小にする重みパラメタを求めることです。

E(w)=12n=1N|y(xn,w)tn|2

この二乗和誤差を最小(極小)にするための条件は以下で表されます。

E(w)=Ewij=0  2Ewij2>0

誤差逆伝播法

誤差逆伝搬法(Backpropagation Method)とは、ニューラルネットワークを学習させる際に用いられるアルゴリズムです。中間層について、次のようなモデルを想定います。

zj=h(aj)  ,  aj=iwji(1)xi  yk=h(ak)  ,  ak=jwkj(2)zj  

ここで、誤差 δ を以下で定義します。

δjEaj  

δkEakyktk  

誤差逆伝搬法の手順

誤差逆伝搬法の手順は以下になります。

  1. ④と⑤より、順伝播で全ての中間層と出力層の値を求める。
  2. ⑦より、出力層の誤差 δk を計算する。
  3. ⑧より、誤差 δ を逆伝搬させ、全ての中間層の誤差を求める。
    δj=kδkwkj(2)h(aj)  
  4. ⑨と⑩より、極小条件③を評価する。
    Ewji(1)=δjxi  Ewkj(2)=δkzj  
⑧の導出

まず、⑥と⑦より、

δj=kEakakaj=kδkakaj  (1)

④と⑤より、

ak=jwkj(2)h(aj)

この両辺を aj で微分すると、

akaj=wkj(2)h(aj)aj

これを(1)に代入すると、⑧が得られます。

⑨と⑩の導出

④より二乗和誤差 E へは aj を通して依存することに着目すると、

E(w)=Ewji(1)=Eajajwji(1)  (2)

④の両辺を wji で微分すると、

ajwji(1)=xi

これと⑥を(2)に代入すると、⑨が得られます。一方、⑩についても、(2)を以下のように書き換えると同様に得ることができます。

E(w)=Ewkj(2)=Eakakwkj(2)

 

数学
解析学、代数学、幾何学、統計学、論理・基礎論、情報・暗号、機械学習、金融・ゲーム理論、初等数学
散策路TOP
数学、応用数学、古典物理、量子力学、物性論、電子工学、IT、力学、電磁気学、熱・統計力学、連続体力学、解析学、代数学、幾何学、統計学、論理・基礎論、プラズマ物理、量子コンピュータ、情報・暗号、機械学習、金融・ゲーム理論

Wikipedia

 

タイトルとURLをコピーしました