オープンゼミ#8 『読み解こう,機械学習論文!』

187 Views

September 08, 25

スライド概要

オープンゼミ #8 の資料です。

ななーる訪問看護デベロップメントセンターでは、「看護研究を"楽しむ"のみんなのTIPS」と題して、定期的なオープンゼミを開催します。

このオープンゼミの目的は、看護師や若手研究者、看護系大学生・院生が看護分野の研究に対する理解を深め、知識を共有し、研究コミュニティの輪を広げることです。

〇参加できる方
・看護師
・保健師
・助産師
・看護系学生
・看護系研究に関わる研究職や教職員

いずれの方も、ゼミの参加者・発表者双方の役割を自由に担うことができます。
弊センターは訪問看護に関する研究施設ですが、オープンゼミは研究フィールド等を制限しません。
詳しくはゼミページへ:https://seminar-dc.peatix.com

profile-image

訪問看護・在宅看護の研究施設「ななーる訪問看護デベロップメントセンター」のセンター長。「研究と実践をつなぐ」がミッション。 研究テーマ:神経難病支援、訪問看護データベース研究 etc

シェア

またはPlayer版

埋め込む »CMSなどでJSが使えない場合

(ダウンロード不可)

関連スライド

各ページのテキスト
1.

オープンゼミ #8 『読み解こう、機械学習論文!』 2025年7月29日(火) 20時~ 1

2.

今回のゼミの目的 • 「機械学習」がなんなのか理解する • 機械学習が使われた論文を読んで理解できるようになる 2

3.

アウトライン • 機械学習とは • 機械学習の基本的な手法 • 機械学習論文の読み方 3

4.

機械学習とは 4

5.

AI,機械学習,ディープラーニングの関係性 人間の知的活動を模倣する技術全般 人工知能 (AI) データから自動的にパターンやルールを学習し 予測や分類を行う技術 機械学習 人間の脳神経回路を模したニューラルネットワークを 多層化し,より複雑なパターンを学習する技術 ディープ ラーニング 5

6.

医療・看護分野で注目される「機械学習」 ニーズの 多様化と 個別化 PubMed Result: “Machine Learning” 機械学習 データの 利用可能性 6

7.

医療・看護分野で注目される「機械学習」 複雑・多因子データから,個別化医療・看護ニーズに対応していく それが可能なデータの蓄積がなされてきた Topol EJ. High-performance medicine: the convergence of human and artificial intelligence. Nat Med. 2019. doi: 10.1038/s41591-018-0300-7. 7

8.

教師と強化 教師あり学習 • 正解(ラベル)のあるデータを使って「入力→出力」の関係を学習 • 医療・看護研究でもっともよくつかわれる 教師なし学習 • 正解のないデータから,データ内のパターンや構造を抽出 強化学習 • ある条件下における「報酬」を最大化するように試行錯誤しながら学習 8

9.

教師:その目的における「正解」 例)犬か猫かを見分ける 犬! 猫! 猫! 犬! 教師 学習 9

10.

強化学習:報酬を最大化させる • AlphaGo Zeroの例 • 報酬を設定; 対局に勝てば+1 負ければ-1 “囲碁盤”において,“どこに石を置けば”,“報酬が最大化”するか • 最初はランダムに近い場所に石を置く 学習を通して,最適な手を打つように Silver D, Schrittwieser J, Simonyan K, Antonoglou I, Huang A, Guez A, Hubert T, Baker L, Lai M, Bolton A, Chen Y, Lillicrap T, Hui F, Sifre L, van den Driessche G, Graepel T, Hassabis D. Mastering the game of Go without human knowledge. Nature. 2017. doi: 10.1038/nature24270. 10

11.

機械学習の基本的な手法 11

12.

ロジスティクス回帰モデル • 医療・看護研究でよく使われる予測モデル • 2値分類(Yes/Noやあり/なし)の予測に • 機械学習の文脈では“ベースラインモデル”として使われることも より複雑なモデルと精度を比較するための基準のモデル 12

13.

ロジスティック回帰モデルのイメージ • 例)入院患者の転倒発生予測 転倒する 性別 年齢 体重 麻痺 転倒しない 与えられた変数から 転倒する(もしくはしない)確率を算出する 13

14.

決定木 • 木のような形で「ルール」を作り,分類や予測を行う • データを複数の質問に分けていき 最終的に「Yes/No」「1/0」などの結論を導く 〇 〇 × 14

15.

タイタニック号からの生存予測 • その人がタイタニック号から生還できるか • 決定木を上から降りていき 質問の回答に合わせて分岐 たどり着いた先が予測結果 女性? Yes No 1等室? • 決定木の上の方にある質問ほど Yes 生存への影響力が強い • 実際には「1/0」だけでなく 「生存率」のような予測も可能 〇 10歳以下? No Yes No × 〇 × 15

16.

決定木のメリット・デメリット メリット デメリット 16

17.

決定木のデメリットを解消するには 木を増やす 多数の木をランダムに作ること,全体の平 均で判断 データをランダムに選びなおして複数の木 を作成 弱い木でも多数決すれば,全体として 精度が向上 17

18.

ランダムフォレスト:決定木を複数作る • 具体的な方法 データをランダムに抽出する(ブーストラップサンプリング) 毎回少し違うデータで木を作る 変数もランダムに選択 毎回違う説明変数セットで分岐を考える 多数決や平均でまとめる 1本1本の木が弱くても,たくさん集まれば 安定した結論になる お金持ち? Yes 一等室? 女性? Yes Yes 10歳以下? Yes 〇 〇 No × 女性? 〇 Yes No 一等室? 10歳以下? 女性? Yes No No × Yes × 〇 No Yes No × 〇 × × 18

19.

ランダムフォレストのデメリット 木の作り方がランダム • 1本1本の木は独立して作成される →木同士が補い合うわけではない 難しいパターンには対応しきれない • 多数決は結果の頑健さには貢献するが,複雑な誤差の修正はできない 高精度な予測には限界がある • 複雑なパターン修正はできないため,性能に限界がある 19

20.

勾配ブースティング ブースティング • 弱いモデル(弱学習器)を積み重ねていって強いモデル(強学習器)にしていく 勾配 • 誤差がどっちの方向を向いているか(損失関数の勾配) →どちら方向に誤差修正をすればよいかを考える(勾配降下法) Yes Yes 10歳以下? Yes 女性? 一等室? 女性? No No Yes +2 -1 +8 一等室? 10歳以下? 女性? Yes 誤差修正 +5 Yes No +2 -2 誤差修正 点数を合計→予測 +10 No Yes No +3 +1 -5 20

21.

機械学習手法のまとめ ロジスティック回帰 決定木 ランダムフォレスト 勾配ブースティング 仕組み 直線(基準線)を引き, 確率でYes/Noを判定 If~thenの質問を 重ねながら判定 多数の決定木を ランダムに作って 多数決 誤差を少しずつ 修正する木を順番に 積み重ねる メリット 計算が早い 結果の解釈が容易 過学習しにくく安定 予測精度が向上 (オッズ比など) ルールが見える 非線形関係も 捉えやすい 高精度 難しいパターンにも 強い デメリット 複雑なパターンは 捉えにくい 精度が低く, 過学習しやすい 個々の判断理由が わかりにくい パラメータ調整が複雑 過学習リスクもある 使い時 シンプルな2択予測 説明責任が必要な 研究 予測ルールを示したい 重要な変数を知りたい 精度重視で 予測したいとき 精度最優先 複雑な予測課題 実際には,複数のアルゴリズムでモデルを作成 →正答率や感度・特異度,AUC,AIC,BIC,R2などを用いて比較し 最適なモデルを選択することが多い 21

22.

予測モデルの評価 • 予測モデルを作った →実際には「どれくらい使える予測モデルが作れたのか」が重要 基本はこれ 予測;陽性 予測:陰性 実際:陽性 真陽性 偽陽性 実際:陰性 偽陽性 真陰性 22

23.

予測モデルの評価 • 正答率(Accuracy):全体のうち,正しく当てた割合 真陽性+真陰性 正答率 = 真陽性+真陰性+偽陽性+偽陰性 • 感度(Sensitivity):実際の陽性のうち,どれだけ陽性と予測できたか 真陽性 感度 = 真陽性+偽陰性 • 特異度(Specificity):実際の陰性のうち,どれだけ陰性と予測できたか 真陰性 特異度 = 真陰性+偽陽性 23

24.

予測モデルの評価:AUC(Area Under the Curve) • ROC曲線: • 横軸:1-特異度 • 縦軸:感度 • モデルの閾値を0~1で変化 • AUC:曲線下の面積 0.5:ランダム予測 1.0:完全な予測 どれくらい判別がうまくできているか 24

25.

予測が偶然うまくいっただけ?-交差検証- • 機械学習モデルが “その集団にだけフィットしたものなのか,普遍的な予測ができるのか” つまり,一般化できるモデルなのかを知りたい • 一番簡単な方法:テストデータと学習データを分ける しかし,分けることでサンプルサイズが減る 25

26.

予測が偶然うまくいっただけ?-交差検証- • 持っているデータを最大限活かしつつ,過学習も避けたい • k分割交差検証 ①データをk個に分割 ②1つをテスト用,残りk-1個のデータを学習用に ③検証用データで性能(正答率やAUCなど)を評価 ④テスト用の分割を入れ替えてk回繰り返す ⑤k回の性能の平均が,モデルの汎用性 ⑥検証結果から,最終的なモデルを構築する 26

27.

モデルの説明性は?-変数重要度とSHAP値- • ランダムフォレストや勾配ブースティングなどの複雑なモデルは 「なぜその予測になったのか」がわかりにくい モデルがどの変数をどの程度重視したのかを可視化 • 特徴量重要度 モデルが予測にどの変数をどれくらい使っているか 各分岐で誤差がどれだけ減ったかを合計 全体像を把握でき,「どの因子がモデルに重要だったか」がわかる 方向性(リスクを上げる or 下げる)はわからない • SHAP値(Shapley Additive Explanations) 各予測に対して,各変数(統計量)がどれだけスコアを上げ下げしたか 27

28.

SHAP値 • 縦軸:上から順に特徴量重要度が高い • 横軸:SHAP値 プラスなら予測を上げる,マイナスなら下げる • 色:特徴量の値(赤=高い,青=低い) ・同乗者がいる:生存率が上がる ・男性:生存率が下がる ・等級の数字が上がると 生存率が下がる 28

29.

機械学習論文の読み方 29

30.

機械学習論文を読んでみる • 「XGBoostを用いた入院患者のせん妄予測」 • 研究目的 過活動性せん妄の予測が機械学習で可能か検証する 予測因子のうち,影響度の強い項目について調査する 30

31.

研究対象 • 北海道医療大学の入院患者(2021年12月~2022年1月) n = 80 (せん妄あり19件/なし61件) • データ: ICDSC:意識レベル,注意力,睡眠覚醒サイクルなど8項目 せん妄リスク項目:年齢,認知症,脳器質障害,ベンゾ系使用など • 教師データ:実際の診断(せん妄の有無) 31

32.

分析方法 • XGBoost 勾配ブースティング手法の一つ • 2:1で学習データと検証データに分割 “推論器の評価をログ損失で測った” →正答率ではなく,予測した確率と実際の結果との差で評価 一応数式で書くと……… 𝑁 ログ損失 = − 1 ෍[𝑦𝑖𝑙𝑜𝑔 𝑝𝑖 + 1 − 𝑦𝑖 log 1 − 𝑝𝑖 ] 𝑁 𝑖=1 ※p: 確率 y: ラベル(結果) • SHAP値を用いて,各変数の寄与度を解析 32

33.

結果:予測精度は • 正答率:約0.93 → 93%の正答率 今回のデータ:せん妄なしが61件/80件=76.3% すべて「なし」と予測すれば76.3%の正答率を出せる(基準) →+17%くらいの正答率の高さ ※train: 学習データ valid: 検証データ • ログ損失:約0.26 例えばすべての結果を 「50%の確率で“1”」と予測したら →-log(0.5) = 0.6931... 精度的には申し分ない 33

34.

結果:予測に寄与した因子は SHAP値の正負で 色がきれいに分かれている 例えば…… 不適切な会話・情緒や症状変動, 注意力(欠如),精神興奮・遅滞 があればせん妄あり 脳器質障害があればせん妄なし といった判断がされている 34

35.

この論文は…… • せん妄発生を予測する機械学習モデルの構築を目指した XGBoostを用いて,それなりの精度のモデルを構築成功 しかし,感度・特異度は不明 参考になっていないデータも含まれる→実用化はどう? • せん妄スクリーニングがせん妄予想に一定の手がかりに 特にICDSCの項目が重要度高い →臨床上の示唆 35

36.

まとめ • 機械学習とは データからパターンを学び,予測や分類を行う方法 決定木,ランダムフォレスト,勾配ブースティングなど多様な手法 長所・短所を理解して選択することが重要 • 機械学習の研究:手法以外は普通の論文と同じ 「目的」「対象」「方法」「結果とその解釈」をじっくり読む ひとつの数値だけでなく,複数の指標から批判的に 36