ニューラルネットワークを用いたケインズ『確率論』の検討_新井一成

271 Views

October 05, 24

スライド概要

2022PCカンファレンス 口頭発表で使用したスライドです。
https://conference.ciec.or.jp/2022pcc/program/subcommittee/presentation/pcc089.html
以下、上記サイトより転載。
ーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーー
本研究の目的は、確率的意思決定モデルの検討である。不確実な現代において、教育における意思決定論の価値は高まりつつある。サヴェジ、サイモン、カーネマン=トゥベルスキー、ギルボア=シュマイドラー等多分野の研究者が意思決定モデルの構築を試みたが、未だ合意に至る結論は出ていない。本研究では、決定理論や確率概念が明確に確立する以前の、ケインズ『確率論』(1921)に着目する。ケインズは計算も比較もできない非数値的確率に着目し、多くの論理式からなる公理系の構築を試みた。それらの論理式にはブールの挑戦問題などの19世紀の諸課題を含み、数理的に解くことが困難である。本研究はPythonによるニューラルネットワークを用いて論理式の解の範囲を検討する。ケインズ『確率論』の意思決定メカニズムを解明することを通じて、高等教育における初学者向けに他の決定モデルとの違いがわかる教材を開発する。

profile-image

AI開発を行う研究者です。教育学・心理学・農学・経済学・哲学の論文を持ちます。

シェア

またはPlayer版

埋め込む »CMSなどでJSが使えない場合

関連スライド

各ページのテキスト
1.

ニューラルネットワークを用いたケインズ 『確率論』の検討 新井 一成 サイエンスフロンティアラボ 2022PCカンファレンス 令和4年8月12日

2.

研究目的 本研究の目的は、「確率的」意思決定モデルを検討すること ・不確実な現代において、教育における意思決定論の価値は高い ・現代においては多種多様な意思決定モデルが存在 例:プロスペクト理論(カーネマン=トゥベルスキー) 事例ベース意思決定論(ギルボア=シュマイドラー) →本研究では、決定理論や確率概念が明確に成立する以前の、 ケインズ『確率論』(1921)に着目

3.

研究目的 本研究の目的は、「確率的」意思決定モデルを検討すること ・不確実な現代において、教育における意思決定論の価値は高い ・現代においては多種多様な意思決定モデルが存在 例:プロスペクト理論(カーネマン=トゥベルスキー) 事例ベース意思決定論(ギルボア=シュマイドラー) →本研究では、決定理論や確率概念が明確に成立する以前の、 ケインズ『確率論』(1921)に着目 J.M.Keynes(1883-1946)

4.

研究背景 ケインズ『確率論』に着目した理由 19世紀的な確率観では、確率をいかにして正しく計算するか、 統計学と関連づけて発展させるかの研究が主流 一方、ケインズ『確率論』は数値化できない確率の存在を認め、 非数値的確率をも含む体系を構築するにはどのような工夫が必要か、 さまざまな角度から検討 →ケインズ「確率」の公理系の構築

5.

本研究の流れ ① 20世紀初頭の確率論 ② ケインズの『確率論』 ③『確率論』はプログラミング可能か ④『確率論』を用いた教材の開発 ⑤ 考察

6.

① 20世紀初頭の確率論

7.

① 20世紀初頭の確率論 ・ラプラス『確率の哲学的試論』(1814) よく知られた確率計算を理論化 P(A)= 可能な場合の数m ある結果が起こる場合の数n 例:サイコロを2回ふって出た目の和が11になる確率P(A) m= 3通り n= 36通り P(A)= 3 36 = 1 12

8.

① 20世紀初頭の確率論 ・ラプラス『確率の哲学的試論』(1814) よく知られた確率計算を理論化 P(A)= 可能な場合の数m ある結果が起こる場合の数n 例:サイコロを2回ふって出た目の和が11になる確率P(A) m= 3通り n= 36通り P(A)= 主観的確率 3 36 = 1 12

9.

① 20世紀初頭の確率論 統計的頻度説 実際の実験や試行を通じて得られたデータを数える P(A)= 条件にあたる試行回数m 全ての実験の試行回数n 例:サイコロを2回ふる実験を60000回試行し、 出た目の和が11になった回数を数え、確率P(A)を計算する 1 m= 5005回 5005 P(A)= 60000 12 n = 60000回

10.

① 20世紀初頭の確率論 統計的頻度説 実際の実験や試行を通じて得られたデータを数える P(A)= 条件にあたる試行回数m 全ての実験の試行回数n 例:サイコロを2回ふる実験を60000回試行し、 出た目の和が11になった回数を数え、確率P(A)を計算する 1 m= 5005回 5005 P(A)= 60000 12 n = 60000回 客観的確率

11.

① 20世紀初頭の確率論 主観的確率と客観的確率の、確率のもつ2つの性質の整合性 をめぐり、さまざまな立場の確率論が提唱される ・確率の主観説 ベイズ、ラムジー、デ・フィネッティ (意思決定論としてはサヴェッジ) ・確率の客観説 エリス、ヴェン、フォン=ミーゼス ・確率の傾向説 カール=ポパー ・確率の論理説 ケインズ、カルナップ 20世紀初頭は確率論百花繚乱の時代

12.

① 20世紀初頭の確率論 主観的確率と客観的確率の、確率のもつ2つの性質の整合性 をめぐり、さまざまな立場の確率論が提唱される ・確率の主観説 ベイズ、ラムジー、デ・フィネッティ (意思決定論としてはサヴェッジ) ・確率の客観説 エリス、ヴェン、フォン=ミーゼス ・確率の傾向説 カール=ポパー ・確率の論理説 ケインズ、カルナップ 20世紀初頭は確率論百花繚乱の時代 →最終的にコルモゴロフ(1921,1933)の公理論的確率論に統一される

13.

② ケインズの『確率論』

14.

② ケインズの『確率論』 ケインズ(1921)は、確率は前提命題と結論命題の間の論理関係 であると主張した。 前提命題 結論命題

15.

② ケインズの『確率論』 ケインズ(1921)は、確率は前提命題と結論命題の間の論理関係 であると主張した。 確率-関係 前提命題 結論命題 推論

16.

② ケインズの『確率論』 ケインズ(1921)は、確率は前提命題と結論命題の間の論理関係 であると主張した。 確率-関係 前提命題 結論命題 推論 →確率とは、「推論の大きさ」である

17.

② ケインズの『確率論』 ・確率の最小値はO, 最大値はIである ・確率は大きく分けて3種類 ① 数値的確率(下図A) ② 数値表現できないが順序比較可能な確率(下図V,W,X,Y,Z) ③ 数値表現できず順序比較も不可能な確率(下図U) ほとんどの確率論者は②③を軽視しすぎている ケインズ(1921)によるストランド

18.

② ケインズの『確率論』 「推論の大きさ」と「推論の重み」 ・「推論の重み」はある推論にとって有利な証拠と不利な証拠 の総量によって決まる。 ・証拠の総量が多いほど、「推論の重み」は増加する。 ・有利な証拠と不利な証拠の比率により、「推論の大きさ」 つまり確率が決まる。 オドンネル(1989)による「推論の大きさ」と「推論の重み」の関係

19.

② ケインズの『確率論』 『確率論』の有用性 『確率論』は第5部33章からなる大作 第 I 部 : 確率-関係と推論の重みの概要 第 II 部 : 論理式を用いた公理系の構築 第 III 部 : 推論の重みを掘り下げ、帰納と類比(アナロジー) 第 IV 部 : 確率とひとの行動の関係性 第 V 部 : 統計的頻度説と自説の関係性

20.

② ケインズの『確率論』 『確率論』の有用性 『確率論』は第5部33章からなる大作 第 I 部 : 確率-関係と推論の重みの概要 第 II 部 : 論理式を用いた公理系の構築 第 III 部 : 推論の重みを掘り下げ、帰納と類比(アナロジー) 第 IV 部 : 確率とひとの行動の関係性 第 V 部 : 統計的頻度説と自説の関係性 → 本研究では確率の公理系を構築した第 II 部に着目

21.

② ケインズの『確率論』 ブールの挑戦問題(Booleʼs Challenge Problem) ・1851年の雑誌に論理学者ブールが掲載した問題 ・ケイリー、マッコール、ウィルブラハムら大物数学者が解を投稿 ・ブールは『思考の法則』(1854)で投稿された解が間違っており、 正しい解の条件を公表 ・ケインズ(1921)ではブール本人の正しい解さえも間違っており、 自分の公理系を使えば正しい解を導けると主張 ・その後ウィルソン(1934)による別解が提示 ・近年ブレディ(2004)により、ブールもケインズも投稿者も、全員 の解が間違っているとの主張がなされる → 現在も結論出ず ブール『思考の法則』(1854)の挑戦問題

22.

③ 『確率論』はプログラミング可能か

23.

③ 『確率論』はプログラミング可能か 「推論の大きさ」のプログラミング ケインズの確率モデルを、 上限1、下限0となる 半順序束で捉えることで、 ケインズ(1921)のストランド 順序関係による プログラミングが可能に 村田(2009)によるハッセ図

24.

③ 『確率論』はプログラミング可能か 「推論の大きさ」のプログラミング 論理プログラミング言語Prologによる半順序束の実装 ケインズの確率モデルを、 ・事実を記述したホーン節 ・規則を記述したルール節 に分解し、 ・質問を書いたゴール節 で、記述した情報を取り出す

25.

③ 『確率論』はプログラミング可能か 「推論の大きさ」のプログラミング 論理プログラミング言語Prologによる半順序束の実装 半順序束のルール節 半順序束のホーン節 ゴール節による質問とPrologによる回答

26.

③ 『確率論』はプログラミング可能か 「推論の重み」のプログラミング ケインズ(1921)のストランド オドンネル(1989)による解釈 推論の重みを、ある確率のまわりの 区間推定とみなす。 重みが増加するにつれて区間は狭まり、 重みが最大のときには点推定となる。 推論の重みは誤差の推定と見做せる キーバーグ(2000)によるベイズ確率的解釈

27.

③ 『確率論』はプログラミング可能か 「推論の重み」のプログラミング Pythonによるニューラルネットワークの実装 ブールの挑戦問題の解の範囲をPythonによって求める ・解が存在する範囲を、仮説ごとに初期値として扱う (ブール説、ケインズ説、ウィルブラハム説) ・誤差を修正しながら、工学的に解を導出 金丸(2018)によるニューラルネットワークモデル

28.

③ 『確率論』はプログラミング可能か 「推論の重み」のプログラミング Pythonによるニューラルネットワークの実装 Pythonによるディープラーニング 敵対的生成ニューラルネットワーク

29.

④『確率論』を用いた教材の開発 教育対象:大学生のうち、意思決定論の初学者 教育機関:半期程度 教育目的:複数の意思決定モデルがあることを理解する。 特に、確率の捉え方の違いにより複数のモデル が存在することを理解し、計算方法や解の範囲 の定義によりさらに細分化されることを知る。 AIの設計思想や計算方法の違いに 触れるにあたって、『確率論』のような 確率の哲学的側面の検討に現代的な意義が あることを伝えたい 損失関数

30.

⑤ 考察 1. 具体的にどのようにニューラルネットワークを用いれば 『確率論』がモデリングできるのか、決定する必要がある → DCGAN, RNN, LSTM, SAE, PCA, CWD等の単独 または連続での使用による解決を試みる 2.「推論の大きさ」のプログラムと「推論の重み」の プログラムが同一空間上に併存できるような工夫が必要 → 半順序性をPyhton上で表現可能か 3. ケインズの重視する非数値的確率をどのように扱うか、 もしくは扱わないのか、決定する必要がある

31.

【ケインズ研究関連】 参考文献 Keynes.J.M.(1921),A Treatise on Probability, London;Macmilan. 佐藤隆三訳(2010)『確率論(ケインズ全集 第八巻)』,東洋経 新報社. 村田晴紀(2010)「ケインズ『確率論』における「短期確率加 重関数」の研究 ―不確実性下における意思決定の考察―」, 東京学芸 学 2009 年度修士論文 . OʼDonnell, R. M.(1989)KEYNES: Philosophy, Economics & Politics, Palgrave Macmillan.Shannon, ClaudeE.(1948)“A Mathematical Theory of Communication, ”The Bell System Technical Journal, Vol. 27, pp. 379-423,623-656. Dempster.A.P(1967), Upper and lower probabilities induced by a multi-valued mapping, The Annals of mathematical statistics,38,325-339. 【ニューラルネットワーク関連】 早川博章,伊藤亮,中島直樹,相原威(2020),「敵対的生成ネットワークを利用した学習データの生成」, 玉川大学工学部紀要Vol.55. 傍士 虎南 , 生野 壮一郎 , 堀江 和正(2019),「深層学習を用いた浮世絵に描かれた人物の人数カウント」, 情報処理学会第81回全国 会講演論文集. 佐川 友里香 , 萩原 将文(2018) ,「属性を付与したDCGANによる顔画像生成システム」 ,日本感性工学会論文誌 Vol17(3). 児玉 涼次 , 中村 剛士 , 加納 政芳 , 山田 晃嗣(2017),「DCGANを用いたイラスト事例からの画風の再現」,人工知能学会全国大会 文集2017. 小島 大樹 , 土井 樹 , 池上 高志(2016), 「DCGANを用いた記憶と表象のモデル」,日本物理学会講演概要集,Vol.71(2). A.Radford,L.Metz,S.Chintala (2015),”Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks”,Cornell University vol.2015(1) P.H.Winston(1970),Learning structural descriptions from examples,LCS TR-76,MIT. K.Fukushima,S.Miyake(1982),Neocognitron:A new algorithm for pattern recognition tolerant of deformations and shi in position, Pattern Recognition,Vol.15. G.E.Hinton,R.Salakhutdinov(2006),Reducting the dimensionality of data with neural networks,Science,Vol.313. G.Lai, W.C.Chang, Y.Yang, H.Liu,(2018). “Modeling long-and short-term temporal patterns with deep neural networks” The 41st International ACM SIGIR Conference on Research & Development in Information Retrieval.

32.

ご静聴ありがとうございました