[DL Hacks]スパイキングニューラルネットワークを用いた経路探索アルゴリズム

>100 Views

July 09, 19

スライド概要

2019/07/09
Deep Learning JP:
http://deeplearning.jp/hacks/

シェア

またはPlayer版

埋め込む »CMSなどでJSが使えない場合

(ダウンロード不可)

関連スライド

各ページのテキスト
1.

スパイキングニューラルネットを用いた経路 探索アルゴリズム 情報理工学系研究科 システム情報学専攻D1 上野洋典 DLHacks 7/8

2.

発表概要 ● スパイキングニューラルネットワーク(SNN)概要 ○ ○ モデルの持つべき性質 各モデルの比較(Izhikevich論文より) ● MNIST by SNN ● SNNの応用例 ○ SNNを用いた最短経路探索アルゴリズム DLHacks 7/8 2/17

3.

SNN概要 ● 神経細胞の膜電位をモデル化したもの ○ 活動電位を発生させ,他の細胞に情報を伝達する ● ニューロン間のつながりの強さを変えること で学習を行う ● 時間的なダイナミクスを考慮して細胞の発 火を忠実に再現することを目的とする DLHacks 7/8 3/17

4.

神経細胞モデルの持つべき性質 ● ● ● ● ● ● 興奮状態と休止状態がある 多数の入力の総和が細胞の活動を決める 入力の和が閾値を超えたときに発火する 発火頻度が細胞の活動の強さを表す 入力ごとに影響の強さ=シナプスの結合強度が異なる シナプスの結合強度は変化しうる ○ Hebbの学習則 DLHacks 7/8 4/17

5.

流行っている方のニューラルネット ● 重み付けした入力の和が閾値を 超 えると発火 ○ 活性化関数でそれを表現 ● 誤差逆伝播法で閾値と重みを学習 ● 時間的な要素を考慮していない ニューラルネットワークの概要 Relu関数 DLHacks 7/8 5/17

6.

Hebbの学習則 細胞Aの軸索が細胞Bを発火させるのに十分近くにあり、繰り返しあるいは絶え 間なくその発火に参加するとき、いくつかの成長過程あるいは代謝変化が一方 あるいは両方の細胞に起こり、細胞Bを発火させる細胞の1つとして細胞Aの効 率が増加する。 ● 要するにAとBが同時に発火したときにシナプスが 化される ● STDP(スパイクタイミング依存可塑性) ○ ○ 強 Aの発火直後にBが発火 -> シナプス強化 Aの発火直前にBが発火 -> シナプス弱化 DLHacks 7/8 6/17

7.

様々なニューロンモデル ● Hodgkin-Huxleyモデル ○ 最も古くて生物学的に妥当 ● Integrated and Fireモデル ○ 軽いけど再現できる現象が少ない ● Izhikevichモデル ○ ○ 2003年に提案されたモデル 軽くていい感じらしい DLHacks 7/8 7/17

8.

各モデルの違い ● Hodgkin-Huxleyが一番 生物学的に妥当 ○ 重い ● Izhikevichがいい感じ ○ 神経スパイクの同期度で 情 報をコードするネットワークに おいて情報処理 能力が低下 する by 河野先生 DLHacks 7/8 8/17

9.

SNNの応用例 ● SNNを用いた最短経路探索アルゴリズムを提案 ● 書誌情報 ○ ○ ○ Adaptive Robot Path Planning Using a Spiking Neuron Algorithm With Axonal Delays T. Hwu, A. Y. Wang, N. Oros and J. L. Krichmar @UC Irvine IEEE Transactions on Cognitive and Developmental Systems, vol. 10, no. 2, pp. 126-137, June 2018. DLHacks 7/8 9/17

10.

論文概要 ● Wavefront plannerという最短経路探索アルゴリズムをSNN で解く ● 低計算コスト,低消費電力? ○ Javaで書いたものがリアルタイムでSamsung Galaxy S5で動く ● SNNは積分発火に近い2変数モデル ○ ○ 時間的に離散なモデルであまりSNNっぽくない… 20×20のグリッド: アルゴリズムを適用するマップのグリッドに対応 DLHacks 7/8 10/17

11.

ニューロンモデル ● v: 膜電位 ● u: recovery変数 ○ 発火までの「遠さ」に対応 ● I: 入力電流 ○ 近傍8ニューロンからの入力の 和 DLHacks 7/8 11/18

12.

ニューロンモデル ● D: ニューロンi, j間の発火 が伝わるまでのディレイ ○ ○ 400×400次元 Dを調整して学習 ● d: ディレイバッファ ● map: (x, y)でのコスト ● δ: 学習率 DLHacks 7/8 12/18

13.

性能評価 ● A*アルゴリズムと比較 ○ ○ 提案手法のほうが総コストの小さい経路を選択できている ただ,全然遅い ● DLHacks 7/8 13

14.

まとめ ● SNNの概要紹介 ○ RustによるSNN実装の紹介 ● SNNを用いた経路探索アルゴリズムの紹介 ○ ○ 離散時間を扱うニューロンモデルなのであまりSNNっぽくない アイデアは面白いけど,正直そんなに高性能か? DLHacks 7/8 14