深層展開による反復アルゴリズムの学習と信号復元への応用(情報計測オンラインセミナー)

2.7K Views

September 03, 24

スライド概要

2024/07/27
情報計測オンラインセミナー
https://measurement-informatics-seminars.jp/

講演動画:https://youtu.be/xLOXUsoS6rc?si=WnP-FZ8VcO-IzfoW

profile-image

東京農工大学大学院工学研究院 准教授

シェア

またはPlayer版

埋め込む »CMSなどでJSが使えない場合

関連スライド

各ページのテキスト
1.

20 2 4/ 07/27 情 報計測 オ ン ライ ンセ ミ ナ ー 深 層 展 開 による反復アルゴリズムの学習と 信 号 復 元 への 応 用 東 京農工 大 学 大学 院 工 学 研 究 院 早川 諒

2.

1/44 自己紹介 早川 諒 (はやかわ りょう) 略歴 ✦ 202 0 年0 3月 :京都 大学 博士後期課程修了 ✦ 202 0 年0 4月〜 20 2 3 年 0 9月:大 阪大学 助教 ✦ 202 3 年1 0月〜現 在 :東京 農工大学 准教授 研 究分野 信 号処理 、画 像 処 理、数 理 最 適 化 、 (無線 通信)、…

3.

2/44 研 究 ト ピック 信号 処理( 特に信 号 復 元 )のための数理 最適化の応用や解析 凸/ 非凸最適 化、近接分 離法、… 数 理 最適 化 ス パース 信号 処理 圧縮センシング、 スパースモデリング、… 画 像 処理 画像 復元 、 圧縮イメージング、… 無線 通信 信号検出、 マルチユーザ検出、…

4.

目次 ✦ 信 号 復 元問題 ✦ 反 復アルゴリズムに基づく信号 復 元 ✦ 深層展開 ✦ 応用例 ✤ 無線 信 号検出 ✤ 圧縮イメージング ✦ まとめ

5.

目次 ✦ 信 号 復 元問題 ✦ 反 復アルゴリズムに基づく信号 復 元 ✦ 深層展開 ✦ 応用例 ✤ 無線 信 号検出 ✤ 圧縮イメージング ✦ まとめ

6.

信号復元問題 3/44 信号復元 ✓ ノイズや変換で劣化した観測値から, 未知の信号(音,画像,電波,脳波,…)を復元 → データから価値のある情報を抽出するための基盤となる数理的技術 未知 信 号 観測 ス パース 画像 動画 観測 値 復元

7.

信号復元問題 線 形 観 測 から の 信号復元 4/44 N x* ∈ ℝ 未知ベクトル を ✓ その線形観測 y = Ax* + v ∈ ℝM から推定 N M y = A x* + v 雑音 推 定値 x̂ 例: ✦ 圧縮センシング ✦ 画像 復元 ✦ 無線 信号 検出

8.

信号復元問題 スパース信 号復元(圧縮センシング)[1] 5/44 ✓ スパースな(零成分が多い)未知ベクトル x* ∈ ℝN を その線形観測 y = Ax* + v ∈ ℝM (M < N) から推定 N M y = A 非零 成分 x* + v 雑音 推 定値 x̂ 例: ✦ M RI 画像 再構成 [2 ] ( M a g n e t i c Re so n a nc e I m a gi n g ) ✦ 無線 通信路 推定 [3 ] [1] D. L. Donoho, “Compressed sensing,” IEEE Trans. Inf. Theory, vol. 52, no. 4, pp. 1289–1306, Apr. 2006. [2] M. Lustig, D. L. Donoho, J. M. Santos, and J. M. Pauly, “Compressed sensing MRI,” IEEE Signal Process. Mag., vol. 25, no. 2, pp. 72–82, Mar. 2008. [3] K. Hayashi, M. Nagahara, and T. Tanaka, “A user’s guide to compressed sensing for communications systems,” IEICE Trans. Commun., vol. E96-B, no. 3, pp. 685–712, Mar. 2013.

9.

信号復元問題 6/44 画像復元 ✓ 未知の原画像 x* ∈ ℝN を 劣化画像 y = Ax* + v ∈ ℝM から復元 劣 化 過程(ぶれ,欠損 ,… )を 表す行 列 y = 原画 像 A x* + v 雑音 劣化 画 像 復 元 画 像 x̂ 例: ✦ ノイズ除 去 ✦ ぶれ除 去 ✦ 超解 像

10.

信号復元問題 7/44 無 線 信 号 検出 ✓ 送信シンボルベクトル x* ∈ ℂN を 受信信号ベクトル y = Ax* + v ∈ ℂM から推定 高速・大 容量の通 信 M IMOシステム (Multiple-Input Multiple- Output) x* 1 送 信 機 x* N a1,1 aM,1 a1,N v1 vM aM,N 未 知信 号 y1 yM 観 測値 受 信 機 信号 検出 x1̂ , …, xN̂ 推定シンボル

11.

信号復元問題 8/44 信 号 復 元のためのアプローチ ✓ 信号復元によって得られた知見の信頼性を担保するためには, 情報処理プロセスの解釈性や説明性が重要 数 理 最適化を用いたモデルベース手 法 目的 関数を設計・最 小 化 ( 解釈性◯,汎用性◯ ,復 元 精 度△) 観 測値 復 元 結果 機 械 学習を用いたデータ駆 動 型 手 法 データから,観測 値 → 復 元 結 果の変 換を学習 ( 解釈性△,汎用性△,復 元 精 度 ◯ ) 観 測値 復 元 結果 融 合 aP lu g a n d p la y {a ⁝ ✦ 深 層 展開 ✦

12.

目次 ✦ 信 号 復 元問題 ✦ 反 復アルゴリズムに基づく信 号 復元 ✦ 深層展開 ✦ 応用例 ✤ 無線 信 号検出 ✤ 圧縮イメージング ✦ まとめ

13.

反復アルゴリズムに基づく信号復元 信 号 復 元 のた め の最適化問題の設計 9/44 ✓ 求めたいもの(= x*)に対する値が小さくなるような目的関数を設計 minimize F(x) x∈ℝN F(x) x* x̂ x ✦ 最 適 解 x̂ の復元 精度が良い(= x* に近い) 「良い」目的関数 F(x) { ✦ 効 率 的に最適 解 x̂ を求められる 効率的に解ける最適化問題の形式・条件に関する知識が重要

14.

反復アルゴリズムに基づく信号復元 最 適 化 に 基づ く 復元の基本的な考え方 10/44 ✓ 観測モデルの情報と復元対象の信号に関する事前知識をどちらも活用 正則化パラメータ 1 基本 的な形: x̂ = arg min ∥y − Ax∥22 + λ g(x) } x∈ℝN { 2 データ忠実性 観測モデル y = Ax* + v の情報を活用 正則 化 x* に関する事 前知 識を活用 1 ∥y − Ax∥22 + λ g(x) 2 x*x̂ x

15.

反復アルゴリズムに基づく信号復元 例: ℓ1 正 則化を用いたスパース信号復元 11/44 スパースなベクトル x* ∈ ℝN を その線形観測 y = Ax* + v ∈ ℝM (M < N) から再構成 方針 { スパース性: ∥x∥1 = ∑ |xn| は小さくなってほしい データ忠実性: y − Ax は(ある意味で)小さくなってほしい N n=1 ℓ1 正則化を用いた最適化問題 1 minimize ∥y − Ax∥22 + λ∥x∥1 {2 } x∈ℝN ✓ 求めたいもの(=スパースベクトル)に関する事前知識を活用可能 ただし, ℓ1ノルム ∥x∥1 は微分可能ではない → 効率的に解くには?

16.

反復アルゴリズムに基づく信号復元 12/44 近接写像 ✓ 微分可能でない関数を含む最適化を行うためのツール 凸関数 ϕ : ℝN → ℝ ∪ {+∞} の近 接写 像 1 proxγϕ(u) = arg min γϕ(x) + ∥x − u∥22 { } 2 x∈ℝN (γ > 0) 1 γϕ(x) + ∥x − u∥22 2 1 ∥x − u∥22 2 γϕ(x) proxγϕ(u) u x

17.

反復アルゴリズムに基づく信号復元 近 接 勾 配 法/ IS T A [ 4] 対 象とする最 適 化 問 題 minimize { f(x) + g(x) } x∈ℝN 13/44 近接写像 proxγg(u) (γ > 0) が 効率的に計算可能 微 分 可 能(+勾 配がリプシッツ連続 ) ✓ g(x) は微分可能でなくてもよい 近 接勾 配 法 u (k+1) = x (k) − γ ∇f(x (k)) x (k+1) = proxγg(u (k+1)) γ > 0:パラメータ ※IS T A( Iter a ti ve Shri nkag e an d Th re s h ol din g Al g orit h m) とも呼ばれる [4] P. L. Combettes and V. R. Wajs, “Signal Recovery by Proximal Forward-Backward Splitting,” Multiscale Model. Simul., vol. 4, no. 4, pp. 1168–1200, Jan. 2005.

18.

反復アルゴリズムに基づく信号復元 14/44 近 接 写 像 の計 算 ✓ 近接写像の定義自体に最適化問題が含まれているが, 信号復元で有用な多くの関数に対して近接写像を効率的に計算可能 例: g(x) = ∥x∥1 の近 接写 像 [proxγg(u)]n = sign (un) max (|un| − γ, 0) 弱しきい値 関数 −γ γ u

19.

反復アルゴリズムに基づく信号復元 弱 し き い 値関 数 のアニメーション 15/44 ℓ1 ノルム (g(x) = ∥x∥1) の場 合 1 2 = sign (xn) max (|xn| − γ, 0) γ|x| + (x − u ) prox (u) = arg min n γg [ ]n { } 2 x∈ℝN [proxγg(u)]n = sign (xn) max (|xn| − γ, 0)

20.

反復アルゴリズムに基づく信号復元 16/44 ℓ1 正 則 化を用いた問題に対するISTA ℓ1 正則化を用いた最適化問題 1 minimize ∥y − Ax∥22 + λ∥x∥1 {2 } x∈ℝN (k+1) (k) (k) u = x − γ x ∇f ( ) 近 接 勾配 法 ( ISTA) x (k+1) = proxγg(u (k+1)) γ > 0:パラメータ 弱しきい値関数 −γ γ u

21.

目次 ✦ 信 号 復 元問題 ✦ 反 復アルゴリズムに基づく信号 復 元 ✦ 深層展開 ✦ 応用例 ✤ 無線 信 号検出 ✤ 圧縮イメージング ✦ まとめ

22.

深層展開 17/44 アル ゴリズムのパラメータ設定 ✓ 反復アルゴリズムには、多くの場合パラメータが含まれる → パラメータの値の選択が復元精度や収束速度に大きく影響 元のIS TA u (k+1) = x (k)− γ ∇f(x (k)) x (k+1) = proxγg(u (k+1)) 入力 復元 結果 … y, A γ0 γ1 γK x̂ パラメータ 復 元 結果 x̂ を真の値 x* により近くするには どのようにパラメータ γ1, γ2, …, γK を設定したらよいか?

23.

深層展開 18/44 深 層 展 開の概要 ✓ 反復アルゴリズムの処理をニューラルネットワークに見立て, 誤差逆伝播法などの技術を用いてアルゴリズムのパラメータを学習 ✦ ISTAベースのアルゴリズムのパラメータを学習させる LISTA(Learned ISTA)[5]をはじめとして,さまざまな問題に応用 処理 A 処理 B 入 力 A B C … A B C 処理 C 反復アルゴリズム 展開後のネットワーク [5] K. Gregor and Y. LeCun, “Learning fast approximations of sparse coding,” in Proc. the 27th ICML, Jun. 2010, pp. 399–406. 損 失 関 数

24.

深層展開 19/44 単 純なI ST Aの例(1/ 2) ✓ ISTAのパラメータ γ0, γ1, … を学習 u (k+1) = x (k)− γk ∇f(x (k)) x (k+1) = proxγkg(u (k+1)) 目的 ̂ 0, γ1, …, γK ) が真の値 x* に近くなる I ST Aによる復 元 結 果 x(γ パラメータ γ0, γ1, …, γK を求める 基本的な流れ , A1, y1), …, (x* , AB, yB) を用意 1. 学習のためのデータ (x* B 1 の推定値 x* b 1 B 2 ∥x̂b(γ0, γ1, …, γK ) − x* ∥ 2. 損 失 関数を最 小化: minimize b 2} γ0,γ1,…,γK∈ℝ { BN ∑ b=1 = E(γ0, γ1, …, γK ) ∂E パラメータによる微分 を求めるには? ∂γk

25.

深層展開 20/44 単 純なI ST Aの例(2/ 2) ✓ アルゴリズムの各反復での更新がパラメータに関して微分可能なら, 誤差逆伝播法でパラメータの値を学習可能 u (1) ∂E ∂γ0 = x − γ0 ∇f(x ) (0) (0) ・ ・ ・ x (1) = proxγ0g(u (1)) ∂E ∂γK−1 u (2) = x (1)− γ1 ∇f(x (1)) ・ ・ ・ x̂ 損失関数 E(γ0, γ1, …) ∂E ∂γK 誤差逆伝播

26.

深層展開 深 層 展 開 の特 徴 21/44 メリット ✦ データに基づいてパラメータを学習できる ✤ アルゴリズムの復元精度や収束速度を改善可能 ✦ アルゴリズムの構造を反映したネットワークを構築できる ✤ 信号の観測モデルや信号に関する事前知識はそのまま使用可能 ✦ 学習パラメータが比較的少ないので学習が楽+結果の解釈がしやすい ✤ 新たな発見があるかも? 学習率,初期値 ,ミニバッチサイズ,.. . デメリット(?) ✦ 学習時のハイパーパラメータの調整は必要 ✤ Optuna [6]などのツールによってある程度自動的な探索は可能 ✦ 基本的には,問題設定に合わせてその都度学習が必要 [6] T. Akiba, S. Sano, T. Yanase, T. Ohta, and M. Koyama, “Optuna: A next-generation hyperparameter optimization framework,” in Proc. 25th ACM SIGKDD Int. Conf. Knowl. Discov. Data Min., Jul. 2019, pp. 2623–2631.

27.

深層展開 深 層 展 開での検討事項(1/5) 22/44 ベースとなる最 適 化 問 題・アルゴリズムの選択 ✦ どのような最適 化問 題をスタート地点にするか ✦ どのようなアルゴリズムを使うか ✤ 反 復ごとの計 算量 ✤ 収 束 速度 などに影 響 f(x) + g(x) } 例: minimize { N x∈ℝ minimize { f(x) + g(z) } x∈ℝN , z∈ℝL subject to Φx = z I STA 、F IS TA 交互 方向 乗数 法( ADMM) minimize { f(x) + g(x) + h(Φx) } x∈ℝ N 主双 対近 接分 離法(P DS )

28.

深層展開 深 層 展 開での検討事項(2/5) 23/44 学習パラメータの埋め込み方 ✦ どのパラメータを学習させるか ✦ どこまで元のアルゴリズムに忠実にするか ✤ 思 想やセンスが出るところ ✤ 学習時 間・最 終 的な復 元 精 度などに影 響 例: L IS TA [ 5 ] アルゴリズム中の観 測行 列の部分もパラメータと思って学習 T IST A [ 7] 観 測行 列はそのまま(学習せず)使い、ステップサイズなどのみ学習 [5] K. Gregor and Y. LeCun, “Learning fast approximations of sparse coding,” in Proc. the 27th ICML, Jun. 2010, pp. 399–406. [7] D. Ito, S. Takabe, and T. Wadayama, “Trainable ISTA for Sparse Signal Recovery,” IEEE Trans. Signal Process., vol. 67, no. 12, pp. 3113–3125, Jun. 2019.

29.

深層展開 24/44 深 層 展 開での検討事項(3/5) 学習方法 ✦ 学習アルゴリズムの選 択 確 率 的勾 配降 下法 ✤ RM S Pr o p ✤ A da m ⁝ ✦ インクリメンタル学習の有 無 入力 損失 関数 学習 ✤ 入力 … 学習対象となる層の数を 少しずつ増やしながら学習 損失 関数 入力 … 損失 関数

30.

深層展開 深 層 展 開での検討事項(4 /5) 25/44 損失 関数の設 計 ✦ 問 題 設定に合わせて学習時の損 失関 数を設計 ✦ 信 号 復元であれば、基 本 的には平均二 乗誤差 復元誤差 損失 関数の違いによる 学習結果の違いの調査 [8 ] 教師なし 学習 損失:最 適化 問題の 目的 関数 教師あり 学習 損失:平 均二 乗誤 差 アルゴリズムの反復回数 [8] 長久紘士, 早川諒, 飯國洋二, “スパース信号復元に対する深層展開における教師あり学習と教師なし学習の比較,” 第67回システム制御情報学会 研究発表講演会, 2023年5月.

31.

深層展開 深 層 展 開での検討事項(5/5) 26/44 学習・テスト用データの作 成 ✦ 基 本 的にはデータを用意 ✦ もしデータの分 布が既 知or仮 定できるならその分 布に従って生 成 ✤ 無 線 通信の信 号検出などでは、 送 信 側もある程度 設計できるので分布を既知とできる場合もある Im Q P SK ( Q u a dra tu re P h as e S h ift Ke yi ng ) Re 1 1, 01 , 0 0, 1 0というビット列をそれぞれ 1 + j, − 1 + j, − 1 − j, 1 − j に変 調して送 信

32.

深層展開 深 層 展 開 の応 用 例 27/44 ✓ さまざまな分野で応用されている [9, 10] ✦ 圧縮センシング・スパースモデリング ✦ 画像 復 元・イメージング ✦ 無線 通 信 ✦ 符号 理 論 ✦ グラフ信号 処 理 ✦ 制御 理 論 ✦ 微分 方 程 式 [9] V. Monga, Y. Li, and Y. C. Eldar, “Algorithm unrolling: Interpretable, efficient deep learning for signal and image processing,” IEEE Signal Processing Magazine, vol. 38, no. 2, pp. 18–44, Mar. 2021. [10] 和田山 正, “モデルベース深層学習と深層展開,” 森北出版, 2023.

33.

深層展開 28/44 学 習 結 果 の解 釈 ✓ 学習されたパラメータは、単調ではなくジグザグに変化することが多い → なぜか? ←I S TAのステップサイズの 学習結果の例 チェビシェフステップによる解 釈 [1 1] …チェビシェフ多 項式から定まる数列 (シンプルな設 定では収 束 加 速を証明 可能)との類似性を指摘 [11] S. Takabe and T. Wadayama, “Convergence acceleration via Chebyshev step: Plausible interpretation of deepunfolded gradient descent,” IEICE Trans. Fundam. Electron. Commun. Comput. Sci., vol. E105.A, no. 8, pp. 1110–1120, Aug. 2022.

34.

深層展開 29/44 深 層 平 衡 モデル ✓ 通常の深層展開では、 アルゴリズムの反復回数をあらかじめ決める必要がある → 計算量の観点からはできるだけ少ない反復回数にしたいが、 どれくらいの反復回数で十分かはやってみないとわからない 深層 平 衡モデル[ 12 ] …反 復アルゴリズムの不 動 点に基づく学習 ( 各 層のパラメータ数が多い場 合を主に想定) 入力 x1 θ1 θ2 … x∞ x K 損 失 関数 x2 θK 通 常の深 層 展 開 ℒ(x K, x*) 損失 関数 ℒ(x ∞, x*) θ 深層 平衡モデル [12] D. Gilton, G. Ongie, and R. Willett, “Deep equilibrium architectures for inverse problems in imaging,” IEEE Trans. Comput. Imaging, vol. 7, pp. 1123–1133, 2021.

35.

目次 ✦ 信 号 復 元問題 ✦ 反 復アルゴリズムに基づく信号 復 元 ✦ 深層展開 ✦ 応用例 ✤ 無線 信 号検出 ✤ 圧縮イメージング ✦ まとめ

36.

応用例 | 無線信号検出 30/44 無 線 信 号 検出 ( 再掲) ✓ 送信シンボルベクトル x* ∈ ℂN を 受信信号ベクトル y = Ax* + v ∈ ℂM から推定 高速・大 容量の通 信 M IMOシステム (Multiple-Input Multiple- Output) x* 1 送 信 機 x* N a1,1 aM,1 a1,N v1 vM aM,N 未 知信 号 y1 yM 観 測値 受 信 機 信号 検出 x1̂ , …, xN̂ 推定シンボル

37.

応用例 | 無線信号検出 31/44 従 来 手 法の課題 ✓ 従来の多くの信号検出法は, ・大規模(数十〜数百本のアンテナ)で ・過負荷(受信アンテナ数 < 送信アンテナ数) の場合,復元精度が悪い or 計算量的に実行不可能 受信アンテナ 多い 受信アンテナ 少ない 小規模 従 来 手法の適用範 囲 検出困 難? 大規 模

38.

応用例 | 無線信号検出 32/44 学習型 射 影勾 配 法に基づく信号検出[13] QP SK 変 調を用いた場 合の等 価な実数モデル y = Ax* + v ∈ ℝ2M, x* ∈ {1, − 1}2N 勾配 降下のような処理 学習型 射 影勾配検出法[ 13 ] u (k+1) = x (k) + γkW( y − Ax (k)) (W = A ⊤(AA ⊤ + αI)−1) (k+1) u x (k+1) = tanh ( | θk | ) 学習 パラメータ 推定 値を 1 か −1 に近づける処理 γk, θk, α を深 層展 開で学習 [13] S. Takabe, M. Imanishi, T. Wadayama, R. Hayakawa, and K. Hayashi, “Trainable Projected Gradient Detector for Massive Overloaded MIMO Channels: Data-Driven Tuning Approach,” IEEE Access, vol. 7, pp. 93326–93338, 2019.

39.

応用例 | 無線信号検出 シミュレーション結果[13] 33/44 ビッ ト 誤 り 率 ✓ 計 算 量が同程 度の従来 手 法と比べて小さい誤り率を達成 送 信 アン テナ 数 [13] S. Takabe, M. Imanishi, T. Wadayama, R. Hayakawa, and K. Hayashi, “Trainable Projected Gradient Detector for Massive Overloaded MIMO Channels: Data-Driven Tuning Approach,” IEEE Access, vol. 7, pp. 93326–93338, 2019.

40.

応用例 | 無線信号検出 学習されたパラメータの値[13] 34/44 ✓ 学習されたパラメータは、どちらもジグザグの形状となった γk | θk | アル ゴ リズ ム の反 復 回数 [13] S. Takabe, M. Imanishi, T. Wadayama, R. Hayakawa, and K. Hayashi, “Trainable Projected Gradient Detector for Massive Overloaded MIMO Channels: Data-Driven Tuning Approach,” IEEE Access, vol. 7, pp. 93326–93338, 2019.

41.

目次 ✦ 信 号 復 元問題 ✦ 反 復アルゴリズムに基づく信号 復 元 ✦ 深層展開 ✦ 応用例 ✤ 無線 信 号検出 ✤ 圧縮イメージング ✦ まとめ

42.

応用例 | 圧縮イメージング 動 画の圧 縮イメージング [14 ] 35/44 ✓ 高フレームレートの動 画( 3 次 元データ)を 圧縮された画 像( 2 次元データ)から再構 成 観測 画像 時 間 変 調マスク 撮 影対 象 ( 高フレームレート) カメラ (低フレームレート) 再構成 アルゴリズム [14] X. Yuan, D. J. Brady, and A. K. Katsaggelos, “Snapshot Compressive Imaging: Theory, Algorithms, and Applications,” IEEE Signal Process. Mag., vol. 38, no. 2, pp. 65–88, Mar. 2021.

43.

応用例 | 圧縮イメージング 36/44 システムモデル 未知動画 X1 マスク M1 ノイズ X2 E M2 観測画像 Y ⋮ XNt ⋮ MNt ⋮ Y= Nt ∑ nt=1 Xnt ⊙ Mnt + E 目的:観測 画 像 Y とマスク M1, …, MNt から未知動画 X1, …, XNt を再構成

44.

応用例 | 圧縮イメージング 再 構 成アルゴリズム 37/44 ✦ 数理 最適 化 ベース ✤ G AP [ 1 5 ], D e S C I [ 1 6 ] , … ✦ 機械 学習 ベース ✤ E 2 E -C N N [ 17] , re ve rs i bl e SC I n e t [ 1 8 ] , … ✦ 融合 型 ✤ P n P - ADM M [ 19 ] , o n l i n e P nP [2 0 ] , … [15] X. Yuan, “Generalized alternating projection based total variation minimization for compressive sensing,” in 2016 IEEE International Conference on Image Processing (ICIP), 2016, pp. 2539–2543. [16] Y. Liu, X. Yuan, J. Suo, D. J. Brady, and Q. Dai, “Rank Minimization for Snapshot Compressive Imaging,” IEEE Trans. Pattern Anal. Mach. Intell., vol. 41, no. 12, pp. 2990–3006, Dec. 2019. [17] M. Qiao, Z. Meng, J. Ma, and X. Yuan, “Deep learning for video compressive sensing,” APL Photonics, vol. 5, no. 3, Mar. 2020. [18] Z. Cheng et al., “Memory-Efficient Network for Large-scale Video Compressive Sensing,” in 2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2021, pp. 16241–16250. [19] X. Yuan, Y. Liu, J. Suo, F. Durand, and Q. Dai, “Plug-and-Play Algorithms for Video Snapshot Compressive Imaging,” IEEE Trans. Pattern Anal. Mach. Intell., vol. 44, no. 10, pp. 7093–7111, Oct. 2022. [20] Z. Wu, C. Yang, X. Su, and X. Yuan, “Adaptive Deep PnP Algorithm for Video Snapshot Compressive Imaging,” Int. J. Comput. Vis., vol. 131, no. 7, pp. 1662–1679, Jul. 2023.

45.

応用例 | 圧縮イメージング 38/44 ノイズレベルパラメータ AT X CLASS ✓ PnP JOURNAL OF-LAD FILES, VOL. XX, NO. X, JULY 2024 E M Mでは、 観測モデルに基づく更 新と動 画に対するノイズ除去を反復 wk+1 = y vk w xk+1 = v k v k+1 例: ✦ FF DNet [2 1 ] ✦ Fa st DVDn et [2 2 ] k+1 uk + x uk > wk+1 k+1 k+1 = D k (x k +u ) v k+1 uk+1 = uk + xk+1 v k+1 uk+1 (a) Signal flow of PnP-ADMM. w1 x1 v1 u1 ··· xK 1 vK 1 uK 1 動 画像に対するノイズ除 去 0 K 2 ノイズレベルパラメータ σk (ノイズ除去の強さを表す) を適切に設定する必要がある update by (b) Unfolded signal flow of PnP-ADM [21] K. Zhang, W. Zuo, and L. Zhang, “FFDNet: Toward a fast and flexible solution for CNN based image denoising,” IEEE Image May 2018. Fig. 2. Trans. Signal flow Process., of PnP-ADMM and its unfolded version. [22] M. Tassano, J. Delon, and T. Veit, “FastDVDnet: Towards Real-Time deep video denoising without flow estimation,” in 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). IEEE, Jun. 2020, pp. 1351–1360.

46.

応用例 | 圧縮イメージング 深 層 展 開に基づくパラメータ学習[23] 39/44 NO. X, JULY 2024 5 ✓ 深層 展 開によってノイズレベルパラメータ σk を学習 w1 x1 v1 0 u1 ··· xK 1 vK 1 uK 1 wK xK L xK , x⇤ K 2 update by backpropagation s unfolded version. (b)Pn Unfolded signal flow of PnP-ADMM. P - AD MM (展開 版) [23] T. Matsuda, R. Hayakawa, and Y. Iiguni, “Deep unfolding-aided parameter tuning for plug-and-play based video snapshot compressive imaging,” arXiv [eess.IV], Jun. 2024.

47.

応用例 | 圧縮イメージング 学習されたノイズレベルパラメータ 40/44 ✓ 学習によって得られたパラメータ設 定は 従 来のパラメータ設 定( 手 動で設計)と大きく異なる ノイ ズレ ベルパラメータ 学習後 学習前( 従来の設定 ) P n P - AD M Mの反 復回数

48.

応用例 | 圧縮イメージング 再 構 成の精 度 P S NR ( d B ) ✓ 学習されたパラメータを用いたP nP- ADMMによって より良い復 元精 度を達 成 P n P - AD M Mの反 復回数 41/44

49.

応用例 | 圧縮イメージング 42/44 再 構 成された動 画(シミュレーションデータ) ✓ 学習されたパラメータを用いることで、 車の詳細をより復元可能 従来の パラメータ 原動 画 観測 学習後の パラメータ

50.

応用例 | 圧縮イメージング 再 構 成された動 画(リアルデータ) ✓ リアルデータの復 元結 果でも改 善が見られる 観測 従 来の パラメータ 学習後の パラメータ 43/44

51.

目次 ✦ 信 号 復 元問題 ✦ 反 復アルゴリズムに基づく信号 復 元 ✦ 深層展開 ✦ 応用例 ✤ 無線 信 号検出 ✤ 圧縮イメージング ✦ まとめ

52.

44/44 まとめ ✓ 深 層展開に基づく反 復アルゴリズムのパラメータ学習 → 汎用性や解 釈 性をある程 度 保ちつつ,復元精度や収束速度を改善 未 知 信号 観測 スパース 画像 動画 ✦ 数 理最適 化ベース ✦ 機 械学習ベース ✦ 融 合型 観測値 復元 入 力 A B C … A B 展開後のネットワーク C 損 失 関 数