SASユーザー総会論文集 2007年

>100 Views

April 21, 25

スライド概要

GAM とその周辺 伊庭克拓
SASプロシジャにおける非線形最適化法の実例 土居主尚
ミクロな営業力の分析~製薬企業のMR 活動を例 として 武藤猛
コンジョイント分析による行政施策評価の試み 有馬昌宏
統計的手法を用いた歌舞伎狂言における役の格付け 坂部裕美子
ディストリビューター(登録会員)の資格更新確率を予測するモデル 五十嵐貴子
ターゲット判別に有効な2変数間の選言的合成変数の自動抽出 谷岡日出男
実務家にわかりやすい不動産賃料の推定モデル 小野潔
臨床試験のデータ加工におけるSAS/Proc SQL の活用-事例:データセット併合と図表作成- 岩崎晋也
SAS Macro Library の開発/ 管理/ 運用 田村洋介
SQLプロシジャの利用-安全性の集計を題材に - 中村竜児
Web 上からのSAS コード自動生成 作花一志
SAS9 BI Server 環境での統計解析システム開発 事例 佐藤耕一
酵素阻害薬の阻害定数の非線形最小二乗法によ る推定法の性能評価 山崎亜紀子
母集団薬物動態解析における異常個体の統計的 検出法 長谷川千尋
臨床薬理試験における反復投与による蓄積性に 関する統計学的評価 張方紅
質的交互作用検定の多地域共同治験への応用 都地昭夫
MMRM 解析とLOCF 解析の比較 馬場裕子
Co-primary endpoints に対する多重性の調整 山田忠明
群逐次デザインの再考 浜口和人
ノンパラメトリックO'Brien 法の臨床試験データへ の応用 野島俊秋
メタアナリシスの功罪 -MIXED プロシジャによる メタアナリシスと公表バイアスへの対応 浜田知久馬
順序カテゴリ反応に対する探索的解析 高橋行雄
ミクロ統計特別セッション、基調講演:ミクロ統計 データ解析実験 国際研究所の設立に向けて 松田芳郎
ミクロ統計特別セッション、貧困対策のための非 貨幣的指標の利用 インドネシアの応用 ラクソノ アナン
ミクロ統計特別セッション、タイにおける男女賃金 格差の解析 チラワット プノサブ
ミクロ統計特別セッション、ネパールにおける貧困 と不平等に国内外の出稼ぎ収入が果たす役割 マヘシュ クマル スベディ
Application of Mixed Models in Measurement Error Data 緑川修一
JMP による心肺停止時刻の検証 田久浩志
SAS を利用したHTML ページの作成とその応用 橋詰公一
Cure model を仮定した生存時間解析を行うため のSAS プログラムの紹介 浅野淳一
ODS Statistical Graphics の臨床データへの適用 事例 長谷川要
戦略の管理 伊藤和憲
妊娠中、分娩時、産後ケアの満足度規定要因に 関する研究・中間報告 縣俊彦

profile-image

SAS言語を中心として,解析業務担当者・プログラマなのコミュニティを活性化したいです

シェア

またはPlayer版

埋め込む »CMSなどでJSが使えない場合

関連スライド

各ページのテキスト
1.

2007

2.

SASユーザ会論文集_2007_目次 タイトル 氏名(所属) ページ GAM とその周辺 1 伊庭克拓(東京CRO 株式会社) 辻谷将明(大阪電気通信大学) SASプロシジャにおける非線形最適化法の実例 13 土居主尚,吉永信治(放射線医学総合研究所) 山口拓洋(東京大学大学院) ミクロな営業力の分析~製薬企業のMR 活動を例として 36 武藤猛(ITBPO 株式会社) コンジョイント分析による行政施策評価の試み 46 有馬昌宏,川向肇(兵庫県立大学大学院) 統計的手法を用いた歌舞伎狂言における役の格付け 59 坂部裕美子(財団法人統計情報研究開発センター) ディストリビューター(登録会員)の資格更新確率を予測するモデル 66 坂部裕美子(財団法人統計情報研究開発センター) ターゲット判別に有効な2変数間の選言的合成変数の自動抽出 91 谷岡日出男(株式会社ニイウス金融エンジニアリング・グループ) 実務家にわかりやすい不動産賃料の推定モデル 103 小野潔(三菱東京UFJ 銀行) 臨床試験のデータ加工におけるSAS/Proc SQL の活用 109 -事例:データセット併合と図表作成- 岩崎晋也,高田康行,矢島勉(持田製薬株式会社) SAS Macro Library の開発/ 管理/ 運用 123 田村洋介(アストラゼネカ株式会社) SQLプロシジャの利用-安全性の集計を題材に- 135 中村竜児(株式会社インクリース研究所) Web 上からのSAS コード自動生成 145 作花一志,南野公彦(京都情報大学院大学) 松本真一(バンテック株式会社) SAS9 BI Server 環境での統計解析システム開発事例 152 佐藤耕一,石田和也(株式会社タクミインフォメーションテクノロジー) 酵素阻害薬の阻害定数の非線形最小二乗法による推定法の性能評価 163 山崎亜紀子,田中澄子,久米英介(田辺製薬株式会社) 吉村功,浜田知久馬(東京理科大学) 母集団薬物動態解析における異常個体の統計的検出法 長谷川千尋(小野薬品工業株式会社) 1 177

3.

SASユーザ会論文集_2007_目次 タイトル 氏名(所属) ページ 浜田知久馬(東京理科大学) 臨床薬理試験における反復投与による蓄積性に関する統計学的評価 197 張方紅(グラクソ・スミスクライン株式会社) 質的交互作用検定の多地域共同治験への応用 都地昭夫,長谷川貴大,田崎武信(塩野義製薬株式会社 解析セン ター) 森川馨(国立医薬品食品衛生研究所) 202 MMRM 解析とLOCF 解析の比較 213 馬場裕子,落合俊充,山田忠明,田崎武信(塩野義製薬株式会社) 森川馨(国立医薬品食品衛生研究所) Co-primary endpoints に対する多重性の調整 224 山田忠明,北西由武,田崎武信(塩野義製薬株式会社 解析センター) 森川馨(国立医薬品食品衛生研究所) 群逐次デザインの再考 236 浜口和人,土屋佳英,田崎武信(塩野義製薬株式会社 解析センター) 森川馨(国立医薬品食品衛生研究所) ノンパラメトリックO'Brien 法の臨床試験データへの応用 246 野島俊秋,菅波秀規(興和株式会社) メタアナリシスの功罪 262 -MIXED プロシジャによるメタアナリシスと公表バイアスへの対応 浜田知久馬(東京理科大学) 順序カテゴリ反応に対する探索的解析 284 高橋行雄(中外臨床研究センター) ミクロ統計特別セッション 296 基調講演:ミクロ統計データ解析実験 国際研究所の設立に向けて 松田芳郎(青森公立大学) 貧困対策のための非貨幣的指標の利用 インドネシアの応用 304 ラクソノ アナン(東京国際大学/インドネシア統計局) タイにおける男女賃金格差の解析 318 チラワット プノサブ(東京国際大学/タイ国家統計局) ネパールにおける貧困と不平等に国内外の出稼ぎ収入が果たす役割 330 マヘシュ クマル スベディ(東京国際大学/ネパール中央統計局) Application of Mixed Models in Measurement Error Data 334 緑川修一,山路太一朗,宮岡悦良(東京理科大学) 川崎洋平(三菱ウェルファーマ株式会社) JMP による心肺停止時刻の検証 348 2

4.

SASユーザ会論文集_2007_目次 タイトル 氏名(所属) ページ 田久浩志(中部学院大学) 中川隆,竹内昭憲,田渕昭彦,花木芳洋,北川芳己() 小澤和弘,後藤玲司,野口宏(愛知県救急業務高度化推進協議会) SAS を利用したHTML ページの作成とその応用 353 橋詰公一,古市優太,中澤雅晴(住商情報システム株式会社) Cure model を仮定した生存時間解析を行うためのSAS プログラムの紹介 370 浅野淳一,浜田知久馬(東京理科大学 工学研究科) ODS Statistical Graphics の臨床データへの適用事例 377 長谷川要(キリンファーマ株式会社) 戦略の管理 381 伊藤和憲(専修大学) 妊娠中、分娩時、産後ケアの満足度規定要因に関する研究・中間報告 縣俊彦(東京慈恵医科大) 杉本充弘(日本赤十字社医療センター) 島田三恵子(大阪大学大学院) 3 396

5.

GAMとその周辺 ○伊庭克拓 ∗ ∗ 辻谷将明 ∗∗ ∗∗ 東京CRO株式会社 DM統計本部 統計解析部 大阪電気通信大学 情報通信工学部 情報工学科 GAM and Its Related Problems Katsuhiro Iba∗ Tsujitani Masaaki∗∗ ∗ TOKYO CRO Co., Ltd. ∗∗ Osaka Electro-Communication University 要旨 近年,SAS やフリーソフト R の出現により,一般化線形モデル(Generalized Linear Models:GLM) を 拡張した一般化加法モデル(Generalized Additive Models:GAM) が広範に活用されつつある.データ解 析の目的が予測にあるなら,母集団構造の非線形性を摘出するだけでは不十分で,適切なモデルで記述しな ければならない.GAM は,GLM における非線形項を共変量の平滑化関数の和として表現したモデルであ る.本稿では,平滑化スプラインによる判別モデルを取上げる.更に,実践の場での GAM の適用を念頭 におき,リサンプリング法を援用したモデル適合度の検証,診断としてモデルに不適合な影響観測値や外れ 値の検出を試みる.更に,種々のサンプルサイズに対するシミュレーション・データを用い, i) 非線形性 をもつデータに対する平滑化スプラインの有効性を示し,ii) サイズが GAM の構築と統計的推測に与える 影響について調べる.マシンラーニングを用いた他の手法として,ニューラルネットを適用して性能評価を 行う.また,従来のモデルと比較するために線形判別や (線形) ロジスティック判別モデルも取上げる. キーワード 平滑化スプライン,判別分析,逸脱度,ブートストラッピング,影響分析,シミュレーション 1 はじめに 近年のコンピュータ技術の飛躍的進歩や多様なデータの収集と蓄積によって,非線形性をもつ統計的多変 量データ解析が脚光を浴びつつある.特に,平滑化スプライン,カーネルマシン,サポートベクターマシン (SVM:Support Vector Machine) などのマシンラーニング (Hastie ら, 2001) が有力な武器になりつつあり, データから直接的に非線形モデルを構築することができる.本稿では,GAM の一種である平滑化スプライン による判別モデルについて考察する (Hastie & Tibshirani ,1987;Wood, 2006;Faraway, 2006). 平滑化スプラインによるアプローチの利点は,i) 共変量の非線形性を摘出し,ii) グラフ化により非線形構 造を視覚的に把握できる.更に,iii) モデルの未知パラメータの最尤解が一意で,計算に要する時間が短い, などが挙げられる.しかし,平滑化スプラインは未知パラメータを推定するだけでは不十分であり,予測精度 の高い平滑化スプラインを得るためには,最適な平滑化パラメータを決定しなければならない.局所評点化法 を用いて,最適な平滑化パラメータをグリッド検索すると,ill-condition に落込み,解が収束しない欠点があ る.その難点を回避するため,R では Wood(2004) のアルゴリズム (詳細は,辻谷 & 外山 (2007) を参照され たし) を採用しているが,本稿では自由度の最適値を決定する代替法を推奨する. まず,2 群判別の適用例として脊柱後湾症 (kyphosis) データ (表 1) を取上げる (小西 & 北川,2004, p.103). 1 -1ー

6.

表1 脊柱後湾症データ 患者番号 age start num 群 1 71 5 3 0 2 158 14 3 0 3 .. . 128 .. . 5 .. . 4 .. . 1 .. . 82 42 6 7 1 83 36 13 4 0 表 2 糖尿病網膜症データ 患者番号 dur gly bmi 群 1 10.3 13.7 23.8 0 2 .. . 9.9 .. . 13.5 .. . 23.5 .. . 0 .. . 353 .. . 9.8 .. . 16.7 .. . 20.3 .. . 1 .. . 669 10.1 10.1 26.3 0 同表は,椎弓切除術を施した 83 例について,脊柱後湾症が発症したか否かを調べたデータである*1 . 共変量 として,x1 :age(手術時の年齢 (月齢)),x2 :start(何番目の脊椎から先を手術したか),および x3 :num(手術 した脊椎の個数) を考える. 更に,共変量間に交互作用効果があると考えられる糖尿病網膜症データ (表 2) を用いる (Wahba ら, 1996;Wang, 1997;Wang, 1997;Lin ら, 2000;Gu, 2002) *2 .共変量としては,x1 :dur(罹病期間),x2 :gly(糖 化ヘモグロビン;%), x3 :bmi(肥満度;kg/m2 ) を取上げる.gly,bmi が大きければ糖尿病に移行しやすく, bmi が更に大きくなると増大したインスリン抵抗性に耐え切れず,膵臓が疲弊して糖利用が低下し痩せてく る.この経過は罹病期間に異存するため,糖尿病発症の早期は bmi が大きく,その後,痩せに転じて bmi が 低下する.よって,罹病期間と bmi に交互作用効果があると考えられる. 2 平滑化スプライン 2.1 ロジスティック判別 (1) 主効果スプライン 2 値応答 yi がベルヌーイ分布 B(1, πi ),すなわち, E[yi ] = πi , V ar[yi ] = πi (1 − πi ) *1 このデータは,http://www.xplore-stat.de/tutorials/xlghtmlnode137.html からダウンロードできる. *2 こ の デ ー タ は ,WESDR(Wisconsin Epidemiological Study of Diabetic Retinopathy) http://ftp.stat.wisc.edu/pub/wahba/software/より引用できる. 2 -2ー と呼ばれており,

7.

0 に従うとき,n 組のデータを (x(i), yi ) , i = 1, · · · , n とする.x(i) = (x1 (i), · · · , xI (i)) は I 個の要素から成 0 る共変量ベクトルである.この x(i) を用いると,共変量のデータ行列 x は x = (x(1), · · · , x(n)) と書け, 平 滑化スプライン ( ∆ ηi = ln πi 1 − πi ) = α + s1 (x1 (i)) + s2 (x2 (i)) + · · · + sI (xI (i)), i = 1, 2, . . . , n (1) に関する局所評点化法は,次の通りである (Hastie & Tibshirani, 1987, 2.3 節;Hastie & Tibshirani, 1990, 6.3 節). [ステップ 1(初期化)] ŝj (xj (i)) ≡ 0, j = 1, 2, . . . , I, ( α̂ = ln ȳ 1 − ȳ i = 1, 2, . . . , n ) , ȳ = / n ∑ yi n i=1 [ステップ 2] η̂i = α̂, [ステップ 3(反復)] π̂i = 1 1 + exp(−η̂i )  z = η̂ + yi − π̂i i i π̂i (1 − π̂i )  wi = π̂i (1 − π̂i ) : 調整従属変数 : 重み として,(x(1), z1 ), (x(2), z2 ), . . . , (x(n), zn ) に後退当てはめ法を適用し,i = 1, 2, . . . , I について ŝi を算出する.そして,π̂i を推定する. [ステップ 4(収束判定)] 逸脱度 Dev(y, π̂) = −2 n ∑ {yi ln π̂i + (1 − yi ) ln(1 − π̂i )} (2) i=1 0 が収束するまで [ステップ 3] を繰返す.ここに,y = (y1 , · · · , yn ) とする. [ステップ 3] で用いられている後退当てはめ法は,I = 2 の場合,以下の通りである: [0] [ステップ 1(初期化)] zi = α + s1 (x1 (i)) + s2 (x2 (i)) について,ŝ2 (x2 (i)) ≡ 0 とする. ∆ [0] [0] [ステップ ( 2] x1 (i) に対して,zi −ŝ)2 (x ( 2 (i))− α̂ を平滑化する.すなわち, ) (yi を yi = zi −ŝ2 (x2 (i))− α̂)とし, [0] [0] [0] x1 (1), z1 − ŝ2 (x2 (1)) − α̂ , x1 (2), z2 − ŝ2 (x2 (2)) − α̂ , . . . , x1 (n), zn − ŝ2 (x2 (n)) − α̂ につ [1] いて,ŝ1 を算出する. [1] [1] [1] [2] [ステップ 3] x2 (i) に対して,zi − ŝ1 (x1 (i)) − α̂ を平滑化し,ŝ2 を算出する. [ステップ 4] x1 (i) に対して,zi − ŝ2 (x2 (i)) − α̂ を平滑化し,ŝ1 を算出する. [k] [k] [ステップ 5] ŝ1 (x1 (i)), ŝ2 (x2 (i)) が収束するまで繰返す. なお,3 次の平滑化スプラインを用いると局所評点化法は,ペナルティ付き対数尤度 − n ∑ {yi ln πi + (1 − yi ) ln(1 − πi )} + i=1 の最小化と等価である. 3 -3ー I n ∑ { 00 }2 λj fj (t) dt 2 j=1 (3)

8.
[beta]
(2) 薄板スプライン
n 組のデータ (x(i), yi ) , i = 1, · · · , n について,共変量間に交互作用がある場合
(
) ∑
πi
ln
sαβ (xα (i), xβ (i)), i = 1, 2, · · · , n
=
1 − πi

(4)

α<β

を考える (Wang ら, 1997;Gu, 2002).ここで,(4) 式の右辺を

s(x) ≡

∑

sαβ (xα (i), xβ (i)), i = 1, 2, · · · , n

(5)

α<β

とおく.sαβ (xα (i), xβ (i)) は薄い弾性体の板を曲げた形に似ていることに由来し,薄板スプライン(thin plate

spline) と呼ばれている.
0

2 値応答ベクトル y = (y1 , y2 , · · · , yn ) について,(3) 式と同様のペナルティー付き対数尤度関数
−

n {
} n
∑
yi s(x(i)) − ln(1 + es(x(i)) ) + λJmI (η)
2
i=1

が最小になる s を推定する.ここに,

{

∑n
i=1

(6)

}
yi s(x(i)) − ln(1 + es(x(i)) ) は対数尤度である*3 .JmI (η) は

揺動 (wiggliness) を測るペナルティー関数,λ は平滑化パラメータである.揺動のペナルティーは

∫
JmI =

∫

∑

m!
···
<I ν +···+ν =m ν1 ! · · · νI !
1

I

(

∂ms
ν1
∂x1 · · · ∂xνI I

)2
dx1 · · · dxI

(7)

と定義する.揺動のペナルティに関する偏微分の階数 m は 2m > I を満たす整数値である.このとき,(6) 式
が最小になる関数は

s (x) =

n
∑

δi ηmI (kx − x(i)k) +

M
∑

αj φj (x)

(8)

j=1

i=1

(
0

と表せる.ここに,δ と α は T δ = 0, Tij = φj (x(i)) を満たす未知パラメータで,M =

m+I −1
I

)
個

の関数 φi (x) は線形独立な多項式である.更に






(−1)m+1+I/2
r2m−I log(r) r : 偶数
2m−1 π I/2 (m − 1)!(m − I/2)!
2
ηmI (r) =
Γ(I/2 − m)


 2m I/2
r2m−I
r : 奇数
2 π (m − 1)!

(9)

となる (Wood, 2003;Wood, 2006, 4.1.5 節).
例えば,m = I = 2 の場合,(6) 式の JmI (η) は,

∫ +∞ ∫ +∞ {(
J22 =

−∞

−∞

∂ 2 s (x1 , x2 )
∂x21

(

)2
+2

∂ 2 s (x1 , x2 )
∂x1 ∂x2

(

)2
+

∂ 2 s (x1 , x2 )
∂x22

)2 }
dx1 dx2

となり,(8) 式において,φ1 (x) = 1, φ2 (x) = x1 , φ3 (x) = x2 を得,(6) 式を最小にする解は

η (x1 , x2 ) = c0 + c1 x1 + c2 x2 +

n
∑

θi · Gi (x1 − x1 (i), x2 − x2 (i))

(10)

i=1
*3 (3) 式の対数尤度は

Pn

i=1 {yi ln πi + (1 − yi ) ln(1 − πi )} =

Pn

i=1 {yi ln

πi
)} と書ける.
1−πi

4

-4ー

“

πi
1−πi

”

+ ln(1 − πi )} =

Pn

i=1 {yi s(x(i)) − ln(1 +

9.
[beta]
{ 2

と表せる.ただし,

Gi (x1 − x1 (i), x2 − x2 (i)) =
√
ti =

ti
8π · log(ti )

,t > 0
,t = 0

0

2

2

(x1 − x1 (i)) + (x2 − x2 (i))

である.(10) 式には,未知パラメータとして n 個の θi に加えて,3 個の c0 , c1 , c2 があり,計 (n + 3) 個とな
る.そのため,データ数が n 個より,3 つの条件
n
∑

θi = 0,

n
∑

θi x1 (i) = 0,

θi x2 (i) = 0

i=1

i=1

i=1

n
∑

を付加する (Takezawa, 2006, 4.3 節).

2.2 最適自由度の選択
平滑化スプラインは未知パラメータを推定するだけでは不十分であり,予測精度の高い平滑化スプラインを
得るためには,最適な平滑化パラメータ λ を決定しなければならない.局所評点化法を用いて,最適な λ をグ
リッド検索すると,解が収束しないことが多々ある.本稿では,自由度の最適値を決定する代替法を推奨する.
まず,GAM の自由度について定義しておく.ハット行列 Hλ を用いると y の予測値 ŷ は ŷ = Hλ y と書
ける.ハット行列 Hλ のトレースは,モデルの識別可能な未知パラメータの個数である. モデルの柔軟性を測
るための tr (Hλ ) をモデルの実効自由度(effective degrees of freedom of the model),あるいは有効パラメー
タ数(effective number of parameters) という.実効自由度からパラメトリックな部分の自由度 1 を引いた
自由度をノンパラメトリックな部分の等価自由度(equivalent degree of freedom) という (柴田, 1992, p.268,

p.300).このとき,クロス・バリデーション規準
1∑
CV (λ) =
n i=1
n

{

yi − ŷi
1 − H[i] (λ)

}2
(11)

が最小になるように λ を決定する.ここに,H[i] (λ) は,第 i 番目の観測値を除去したときのハット行列であ
る.この計算はデータ数が多いとき厄介になるため,計算が容易な平均値 tr(Hλ )/n で,H[i] (λ) を置き換え
た一般化クロス・バリデーション (GCV ) 規準

1∑
n i=1
n

GCV (λ) =

{

yi − ŷi
1 − tr(Hλ )/n

}2
(12)

が広範に用いられている.判別モデルでは,(12) 式の残差平方和を逸脱度で置換えた GCV 逸脱度 (General-

ized Cross-Validated deviance)
Vg =

nDev(y, ŷ)
2

{n − tr(Hλ )}

が採用されている (Hastie & Tibshirani, 1990, p.159;Wood, 2006, p.178;Takezawa, 2006, p.376).

5

-5ー

(13)

10.

2.3 リサンプリング法 グループ化されていない 2 値データの場合,(3) 式の逸脱度に対する漸近カイ二乗性は成立たない (Collett, 2003, 3.8.3 節; Landwehr ら, 1984).そこで,ブートストラップ法 (Ishiguro ら, 1997;Tsujitani & Koshimizu, 2000) を援用し,(3) 式の棄却点を算出する: [ステップ 1] 共変量 xi と 2 値応答 yi から成る初期標本 X = (xi , y) について,対数尤度が最大になる β を 推定し,各個体ごとの推定値 π̂i を算出する. [ステップ 2] [0, 1] 区間の一様乱数 u を発生させ,u < π̂i なら個体 i は第 1 群に,そうでなければ第 2 群に 属するとし,ブートストラッピングで生成された 2 値応答を yi∗ とする.そして,B 個のブートスト ラップ標本 X ∗ = (xi , yi∗ ) を生成する. [ステップ 3] b(= 1, . . . , B) 番目のブートストラップ標本を Xb∗ とし,逸脱度 ( ) Dev(b) = −2 ln L Xb∗ ; β̂(Xb∗ ) (14) を計算する.ここに,β̂(Xb∗ ) は b 番目のブートストラップ標本 Xb∗ から推定される回帰係数で,その ( ) 推定値から算出される Xb∗ の対数尤度が ln L Xb∗ ; β̂(Xb∗ ) である. ∗ [ステップ 4] Dev ≥ Dev なら,有意水準 α でモデルは妥当でないとみなす.ここに,Dev は初期標本に対 する (3) 式の逸脱度で, Dev ∗ = Dev(b) を小さい順に並べたときの第 j 番目の値,α = 1 − j/(B + 1) とする. 2.4 適用例 2 群判別問題の実際例として,3 個の共変量からなる表 1 の脊柱後湾症データを取上げる.脊柱後湾症デー タについて主効果スプラインモデル ( ln π 1−π ) = s(age) + start + num を考える.すなわち,年齢のみにスプライン関数を用いている.SAS ver9.1.3 の PROC GAM では,MODEL 文のオプションで method=GCV を指定すると,GCV 規準を用いて自由度の最適化を行う.このモデルに SAS の GCV 規準を採用すると収束しない.そこで, proc gam data=kyphosis; model kyp = param( start num ) spline( age ,df=&df ) / link=logit dist=binomial maxiter=100000 maxitscore=100000; を macro に組み込み,%DO 文のループを用いて&df の値 (age の自由度) を例えば 1 から 10 程度まで動か す.そして,データステップ計算した (13) 式の GCV が最小になる自由度を決定すると,df =3 となる (ちな みに,GCV=0.763, 逸脱度=54.50). 図 1 は,年齢に対する平滑化スプラインの予測値 (実線) である.実線の周りの領域は予測値からその標準 偏差の 2 倍離れた位置を示している.同図では,年齢に対する非線形性が顕著に現れており,手術時の月齢と 6 -6ー

11.

図1 年齢 (月齢) 共に発症率が高くなり,100 ヶ月前後でピークに達し,その後低くなる.平滑関数を適用した効果を調べるた め,各共変量に関する尤度比検定を行なう. Dev(1) − Dev(0) = 66.24 − 54.50 = 11.74; df = 80 − 77 = 3 より,”年齢”は有意である.他の共変量 (線形) も有意である.このように平滑化スプラインを適用することに よって,母集団構造の非線形性を摘出し,その非線形構造を視覚的に把握するグラフ表現が可能になる.なお, GLM による (線形) ロジスティック判別では”年齢”は有意にならない.残差サンプリングに基づく逸脱度の ブートストラッピングに対するヒストグラムを図 2 に与えておく.同図より,Dev ∗ = 66.06 > 54.50 = Dev を得,モデルは妥当とみなす. 次に一つの観測値を除去することによるモデル適合度への影響を調べるため逸脱度に関する DIFDEV(Difference of Deviance) ∆Dev[d] = Dev − Dev[d] (15) を用いる (Hosmer & Lemshow, 2000, 5.3 節).ここに,Dev と Dev[d] は,それぞれ初期標本および d 番目 の個体を除去したときの逸脱度である.Dev の自由度 df = n − p, Dev[d] の自由度 df = n − p − 1 より, ∆Dev[d] の自由度 df = n − p − (n − p − 1) = 1 となる.よって,∆Dev[d] は自由度 1 のカイ二乗分布に従 う.図 3 に DIFDEV をプロットしておく.同図から,有意水準 1% で No.45 と No.79 が影響観測値である ことが分かる.この 2 例を除去後の逸脱度は 39.82 と大幅に減少する.表 1 に関する誤判別率の性能評価を行 うため,従来,広範に活用されてきた線形判別および (線形) ロジスティック判別を取上げる.表 3 から GAM を用いると,誤判別率はかなり小さくなる. 次に,糖尿病網膜症データについて,薄板スプラインに基づく 2 因子交互作用モデル ( ln π 1−π ) = gly + s(dur, bmi) を考える (Wahba ら, 1995).すなわち,dur(罹病期間) と bmi に交互作用効果があると考える.このモデル に SAS の GCV 規準を採用すると収束し,最適 df = 8.3 となる.ちなみに,脊柱後湾症と同様に,自由度を 動かして最適値を決定すると,df = 8 を得る.表 2 に関する誤判別率の性能評価を行うため,従来,広範に 7 -7ー

12.

100 80 60 40 20 0 0 10 20 30 40 50 60 70 80 90 Deviance 図2 ブートストラップされた逸脱度のヒストグラム 10 DIFDEV 8 6 4 2 0 10 30 50 70 90 No. 図 3 DIFDEV 表 3 誤判別率の性能比較 モデル 誤判別率 線形判別 0.193 GAM 0.133 ロジスティック判別 0.205 活用されてきた線形判別およびロジスティック判別を取上げる.表 4 から GAM を用いると,誤判別率はか なり小さくなる. 8 -8ー

13.

表 4 誤判別率の性能比較 モデル 誤判別率 交互作用スプライン 0.274 0.318 線形判別 ニューラルネット 0.306 ロジスティック判別 0.293 3 シミュレーション実験 3.1 シミュレーション設計 本稿のシミュレーションでは,各観測値の共変量を x = (x1 , x2 )0 の 2 個とし,相関 0.3 の 2 次元標準化正 規乱数を用いて生成する.そして,生成した x = (x1 , x2 )0 を Pr = 1 1 + exp{−f (x1 , x2 )} (16) に代入して,各観測値を 2 つの群に分ける.f (x1 , x2 ) は任意の非線形関数を用いることができる.f (x1 , x2 ) として,Vach モデル (Vach ら,1996) を変型した f (x1 , x2 ) = sin(2πx1 ) + x1 x2 + sin(2πx2 ) (17) を採用する.このとき,P r は 0 ≤ P r ≤ 1 となり,P r の 3 次元プロット (x1 , x2 , P r) は図 4 のようになる. 図 4 群決定に用いた関数 各観測値は { Pr < 0.5 : y = 0(第 1 群) ≥ 0.5 : y = 1(第 2 群) (18) に基づいて 2 つの群に分割される.よって,シミュレーション・データは共変量 x = (x1 , x2 )0 と 2 値応答 y をもつ観測値から成る. 本稿ではモデルへのサンプルサイズの影響を調べるため,サイズを 100, 200, 400, 600, 800, 1000 例と変化 させた訓練標本を生成する.次に,構築したモデルの未知の標本に対する判別精度を評価するため,同サイズ 9 -9ー

14.

の検証標本を生成する.表 5 に種々のモデルのもとでの誤判別率を与えておく.交互作用スプラインモデル に対応するセルの第 1 行目は SAS の GCV で最適 df 選択を行った.( ) 内は最適 df 値である.第 2 行目は df = 4(デフォルト値) を用いた場合である.第 3 行目は R の GCV に対応する.ニューロ判別の列の h は, 最適な隠れユニット数である. その結果,次のような知見が得られる. 1) SAS の交互作用モデルで n = 200 の場合,SAS の GCV を採用すると収束しない.逸脱度も 515.96 と大きくなり,交互作用効果の有意性検定が不能になる.ちなみに,自由度 (df = 4) にすると,逸脱 度は 261.24,誤判別率は,0.380(訓練標本),0.365(検証標本) と大きくなる. 2) SAS の主効果モデルの場合,GCV を採用すると収束しないが,R では収束する. 3) 2 因子交互作用モデルの逸脱度が極めて小さく,訓練標本に対する誤判別率は小さい.また,検証標本 に対する誤判別率は,例数が大きくなると共に減少する (SAS の最適 df 選択を採用). 図 5 は,サンプル・サイズを変えたときの種々のモデルに対する誤判別率を表している.同図から,薄板スプ ラインに基づく 2 因子交互作用モデルは他のモデルに比べて誤判別率がかなり小さくなる.また,図 6 は最適 df 選択を行った場合とデフォルト値 (df = 4) に対する誤判別率の比較である.同図から,最適 df 選択を行 うと誤判別率はかなり小さくなる. 表5 誤判別率の比較 訓練標本 例数 検証標本 平滑化スプライン ニューロ 線形 ロジスティ 平滑化スプライン ニューロ 線形 ロジスティ 交互作用 判別 判別 ック判別 交互作用 主効果 判別 判別 ック判別 0.460 0.480 0.470 0.470 0.350 0.365 0.400 0.400 0.383 0.373 0.440 0.440 0.387 0.400 0.455 0.455 0.371 0.394 0.444 0.444 0.387 0.375 0.457 0.457 主効果 0.000 (60) 100 0.320 (4) 0.350 0.330 0.100 0.320 0.300 0.300 (h=1) 0.370 0.000 (114) 200 0.380 (4) 0.215 0.385 0.175 0.355 0.405 0.405 (h=3) 0.373 (4) 0.135 0.360 0.303 0.300 0.470 0.470 (h=4) 0.375 (4) 0.118 0.357 0.027 0.312 0.435 0.435 (h=4) 0.360 (4) 0.100 0.346 0.126 0.350 0.431 0.431 (h=4) 0.365 (4) 0.011 0.384 0.260 0.000 (304) 1000 0.388 0.208 0.000 (270) 800 0.378 0.360 0.000 (228) 600 0.365 0.285 0.000 (177) 400 0.490 0.086 0.352 0.356 0.442 0.442 (h=4) 0.380 0.192 10 - 10 ー

15.

図 5 検証標本の誤判別率 図 6 検証標本の誤判別率比較 (最適 df v.s. df = 4) 参考文献 [1] Akaike, H.(1973): Information theory and an extension of the maximum likelihood principle. 2nd Inter. Symp. on Information Theory (ed. Petrov, B.N. and Caski, F.), Akademiai Kiado, Budapest. 267-281. [2] Collett, D.(2003): Modelling Binary Data, 2nd ed., Chapman and Hall, London. [3] Faraway, J.J.(2006): Extending the Linear Model with R, Generalized linear, Mixed Effects and Nonparametric Regression Models, New York, Chapman & Hall. [4] Fessler, J.A.(1991): Nonparametric fixed-interval smoothing with vector splines, IEEE Trans. Signal Process., 39, 852-859. [5] Green, P.J. and Silverman, B.W.(1994): Nonparametric Regression and Generalized Linear Models: A roughness penalty approach, Chapman and Hall, London. 11 - 11 ー

16.

[6] Gu, C.(2002): Smoothing Spline ANOVA Models, Springer, New York. [7] Hastie, T.J. and Tibshirani, R.J.(1987): Generalized additive models: Some applications, J. Amer. Stat. Assoc. 82, 371-386 [8] Hastie, T.J. and Tibshirani, R.J.(1990): Generalized Additive Models, Chapman and Hall, London. [9] Hastie, T., Tibshirani, R. and Freidman, J.(2001): The Elements of Statistical Learning: Data Mining, Inference, and Prediction, Springer, New York. [10] Hosmer, D.W. and Lemshow, S.(2000): Applied Logistic Regression, John Wiley, New York. [11] Ishiguro, M., Sakamoto, Y. and Kitagawa, G.(1997): Bootstrapping log likelihood and EIC, An extension of AIC. Ann. Inst. Stat. Math. 49, 411-434. [12] 小西貞則,北川源四郎 (2004): 情報量規準,朝倉書店. [13] Landwehr, J.M, Pregibon, D. and Shoemaker, A.C.(1984): Graphical methods for assessing logistic regression models. J. Amer. Stat. Assoc. 79, 61-71. [14] Lin,X., Wahba, G., Xiang, D., Gao, F., Klein, R., and Klein, B.(2000): Smoothing spline ANOVA models for large data sets with Bernoulli observations and the randomized GACV. Ann. Statist. 28, 1570-1600. [15] 柴田里程 (訳)(1992): S と統計モデル,共立出版. [16] 竹澤邦夫 (2007): みんなのためのノンパラメトリック回帰 (上) 第 3 版,吉岡書店 [17] Takezawa, K.(2006): Introduction to Nonparametric Regression, John Wiley. [18] Tsujitani, M. and Koshimizu, T.(2000): Neural Discriminant Analysis. IEEE Trans. Neural Networks 11, 1394-1401. [19] 辻谷将明, 外山信夫 (2007): R による GAM 入門,行動計量学, 34, 111-131. [20] Vach, W., Roβner, R., and Schumacher, M.(1996): Neural betworks and logistic regression:Part II, Comput.Statist. & Data Analy., 21, 683-701. [21] Wang, Y., Wahba, G., Gu, C., and Klein, R., and Klein, B.(1997): Using smoothing spline ANOVA to examine the relation of risk factors to the incidence and progression of diabetic retinopathy, Statist. Medicine, 16, 1357-1376. [22] Wang, Y.(1997): GRKPAK: Fitting smoothing spline ANOVA models for exponential families, Commun. Statist.-Simulat. Comput., 26, 765-782. [23] Wahba, G.(1990): Spline Models for Observational Data.Volumn 59 of CBMS-NSF Regional Conference Series in Applied Mathematics, Philadelphia, SIAM. [24] Wahba, G., Wang,Y., Gu, C., Klein, R., and Klein, B.(1995): Smoothing spline ANOVA for exponential families, with application to the Wisconsin epidemiolpgical study of diabetic retinopathy, Ann. Statist., 23, 1865-1895. [25] Wood, S.N.(2003): Thin plate regression splines, J.Roy.Statist.Soc.B, 65, 95-114. [26] Wood, S.N.(2006): Stable and efficient multiple smoothing parameter estimation for generalized additive models. J. Amer. Stat. Assoc. 99, 673-686. [27] Wood, S.N.(2006): Generalized Additive Models, An Introduction with R, New York, Chapman & Hall. 12 - 12 ー

17.

SAS プロシジャにおける非線形最適化法の実例 ○土居主尚*1 、山口拓洋*2 、吉永信治*1 *1 放射線医学総合研究所 規制科学総合研究グループ *2 東京大学大学院医学系研究科 臨床試験データ管理学 Illustration of nonlinear programming in SAS procedure Kazutaka Doi*1, Takuhiro Yamaguchi*2, Shinji Yoshinaga*1 *1 Regulatory Sciences Research Group, National Institute of Radiological Sciences *2 Clinical Trial Data Management, Graduate School of Medicine, University of Tokyo 要旨 統計解析モデルにおけるパラメータ推定では非線形最適化法が用いられ、SAS の統計解析プロシ ジャにも非線形最適化法が実装されている。本発表では統計解析プロシジャが行っている非線形 最適化法を説明し、同じ内容を統計解析プロシジャ、行列演算言語 IML、非線形最適化に特化した NLP プロシジャでそれぞれ記述することにより、統計解析プロシジャをより理解することを主な目的 とする。また非線形最適化法を変更する必要がある実データの解析例や、統計解析プロシジャでは 実行できず、IML を使う必要のあるパラメータ推定を、適切なプロシジャを本来の主目的とは異なる 使い方をすることによって実行できる実例も併せて紹介する。 キーワード: IML、NLP、NLMIXED、パラメータ推定、非線形最適化法 1. 緒言 統計解析モデルにおけるパラメータ推定では最尤推定が中心的な役割を果たしている[1]。最尤 法とは尤度を構成した後、その尤度が大きくなるようにパラメータを動かし、最大となるパラメータの 値を推定値とする方法である。一方で、最適化問題とは自然科学、工学、社会科学など多種多様な 分野で発生する基本的な問題の一つで、与えられた条件のもとで何らかの関数を最小化もしくは最 大化するような問題である。この最適化問題を含む数理計画法は 1940 年代に登場した線形計画法 に端を発しており、オペレーションズ・リサーチ(OR)の数理的な基礎にもなっている[2]。この最適化 問題での解法である最適化手法により、複雑なパラメータ推定の問題は尤度の非線形最適化の問 題に置き換えることが可能である。例えば LOGISTIC プロシジャでは Fisher のスコア法、MIXED プロ シジャ、GENMOD プロシジャではリッジ安定化ニュートン-ラフソン、NLMIXED プロシジャでは準ニュ ートン法、PHREG プロシジャではニュートン-ラフソン法がそれぞれ用いられている[3]。 それぞれ個別の解析プロシジャでは、その適用するモデルの適した非線形最適化法がデフォルトで 1 - 13 ー

18.

実行される。そのため、各プロシジャを用いるにあたり、オプションで変更可能であるが、普段は非線形 最適化法の変更の必要に迫られる場面は多くない。しかし、NLMIXED で複雑なモデルを記述した場合 や、既存の解析プロシジャでは実行できない複雑なモデルのパラメータ推定を IML プロシジャにて行う場 合、反復計算によるパラメータ推定が収束しないことがしばしばある。 パラメータ推定が収束しない場合の対処として、様々なものが挙げられている。反復計算中に目的関 数である対数尤度関数がオーバーフローを起こしてしまう場合には、パラメータのスケールの変更を行う、 よりよい初期値を与える、オーバーフローを回避すべく制約条件を課す、ステップを制約したグリッドサー チを行う、データ中の外れ値を探す、などの方法が挙げられている。一般に勾配ベクトルやヘッセ行列を 与えた方が速く収束するが、反復計算が収束しない際、誤った勾配ベクトルを指定していることもしばし ば見受けられる[4]。また目的関数の設定に関しては、二次関数での近似が上手くいかない関数や指数 関数を可能な限り避けること、多少の変数増加で目的関数の複雑さが回避されるなら変数を加えること、 などが収束の可能性を高める項目として列挙されている[3]。 以上の対処方法に加え、非線形最適化法の変更も対処方法の一つとして挙げられている。本発表で は収束しない場合以外はあまり変更をする機会のない非線形最適化法について焦点を当て、SAS のプ ロシジャで適用可能な非線形最適化法を紹介する。同じモデルを統計解析プロシジャ、IML、NLP プロ シジャで記述することにより、統計解析プロシジャの内部処理をより理解することを主な目的とする。 また非線形最適化法を変更する必要がある実データの解析例や、プロシジャでは実行できず IML を使う必要のあるパラメータ推定を、適切なプロシジャを本来の主目的とは異なる使い方をすること によって実行できる実例も併せて紹介する。 2. 統計解析モデルにおけるパラメータ推定 2.1 最尤推定法 手元のデータが対象としているイベントに対して確率モデルを想定すると、手元のデータが得ら れる確率はデータの値と確率モデルのパラメータの関数として表現される。この確率を、様々なパラ メータの値におけるもっともらしさを表す関数とみなしたものを尤度と呼ぶ。通常尤度は独立とみな すことのできる単位の確率(密度)関数の積として表現することが可能であり、最尤法とは尤度を最 大にする値が最も得られたデータに則しているとみなし、パラメータの推定値とする方法である。よ って最尤推定法とは、尤度を最大化することでパラメータの値の推定を行う。一度尤度を構成すれ ば、パラメータ推定の問題をその尤度の非線形最適化の問題に置き換えることが可能である。積の 形の尤度関数は数学的に取り扱いが不便であるため、単調な関係にある対数尤度にて扱われる。 以下では統計解析モデルのパラメータ推定を最尤推定にて行う状況を想定し、対数尤度関数に対 して非線形最適化手法の適用を行う。 一般には最尤推定法にて解が明示的に求まることは稀であり、パラメータ推定のためには繰り返 し計算が必要である。このような繰り返し計算は反復法と総称され、以下で紹介する方法は全て反 復法である。 2 - 14 ー

19.

2.2 統計解析モデルと尤度の構成 ここでは例としてカブトムシの毒性実験データに対して、ロジスティックモデルの適用を行う。カブ トムシは様々な濃度の二硫化炭素(CS2)に曝露され、その死亡割合が観測された[5]。データを以 下の表 1 に示す。 表 1: カブトムシの毒性実験データ 死亡数( Yi ) 生存数( N i − Yi ) 全体( N i ) 1.6907 6 ( 10%) 53 (90%) 59 (100%) 1.7242 13 ( 22%) 47 (78%) 60 (100%) 1.7552 18 ( 29%) 44 (71%) 62 (100%) 1.7842 28 ( 50%) 28 (50%) 56 (100%) 1.8113 52 ( 83%) 11 (17%) 63 (100%) 1.8369 53 ( 90%) 6 (10%) 59 (100%) 1.8610 61 ( 98%) 1 ( 2%) 62 (100%) 1.8839 60 (100%) 0 ( 0%) 60 (100%) 二硫化炭素濃度( Z i ) (log10 CS2mgl-1) 二硫化炭素濃度の各カテゴリを示す添字を i ( i = 1K N )とし、カテゴリ i におけるカブトムシの個 体総数を ni 、二硫化炭素濃度を Z i 、死亡数を Yi とする。二硫化炭素濃度が Z i の個体が死亡する 確率 π i をロジスティックモデルによりモデル化を行うと π i = exp(β 0 + β 1 Z i ) となり、対数尤度関 1 + exp(β 0 + β 1 Z i ) 数は以下となる。 N ⎡ ⎛ π ⎞ ⎛ n ⎞⎤ l = ∑ ⎢Yi log⎜⎜ i ⎟⎟ + ni log(1 − π i ) + log⎜⎜ i ⎟⎟⎥ i =1 ⎣ ⎝ Yi ⎠⎦ ⎝1− π i ⎠ N ⎡ ⎛ n ⎞⎤ = ∑ ⎢Yi (β 0 + β1 Z i ) − ni log[1 + exp(β 0 + β1 Z i )] + log⎜⎜ i ⎟⎟⎥ i =1 ⎣ ⎝ Yi ⎠⎦ 以下の節ではこの対数尤度をそれぞれ NLMIXED プロシジャ、IML プロシジャ、NLP プロシジャで最 ⎛n ⎞ 大化することにより、最尤推定値 βˆ0 、 β̂1 を求める。なお、 log⎜ i ⎟ は定数であり、最尤推定値を求め ⎜Y ⎟ ⎝ i⎠ る際の対数尤度関数には含めない。 3. 非線形計画法における最適化法[6-10] 統計解析におけるパラメータ推定では、数理計画法の一部である非線形計画法の最適化手法が 用いられる。非線形最適化の問題は、制約付き最適化問題と無制約最適化問題に分類されるが、 3 - 15 ー

20.

以下では SAS にて実行可能である代表的な無制約最適化手法を紹介する。また SAS の NLMIXED プロシジャ、NLP プロシジャ、IML プロシジャで実行可能な最適化法の一覧を付録 A に示す。目的関 数を f (x ) とし、この関数を最小化もしくは最大化するパラメータベクトル x * を求めることを目的とす る。適当な初期値 x 0 から出発して反復式 x k +1 = x k + d k によって最終的に関数の最大値もしくは 最小値を与える解 x * に収束させる。 d k は探索方向と呼ばれる。特に明記しない限り、最適化法の 対象とする目的関数は 2 回連続微分可能とし、目的関数は最小化するものとする(目的関数の符 号の逆転により最大化と最小化は同値)。いくつかの方法ではヘッセ行列を用いるが、指定しない 場合は有限差分による近似で計算され、指定した場合と比べて計算に時間がかかる。 3.1 直線探索付きニュートン-ラフソン法 (Newton-Raphson method with line search) • TECH=NEWRAP(NLMIXED オプション、NLP オプション) ニュートン-ラフソン法は各ステップで関数を二次近似し、次のステップでその二次近似の極値に 移動する方法である。目的関数を最小化するには、以下の x k の近傍におけるテーラー展開 f (x k + d k ) = f (x k ) + ∂f (x k ) 1 T ∂ 2 f (x k ) T dk dk + dk 2 ∂x k ∂x 2k T (1) を d k で微分し、0 と置いた以下の式を満たす d k を求めればよい。 ∂ 2 f (x k ) ∂f (x k ) dk = 0 + ∂x k ∂x k2 T (2) x k +1 = x k + d k とし、以上の手順を収束するまで繰り返す。 ここでヘッセ行列 ∂ 2 f (x k ) が正定値でない場合、探索方向が f (x ) の降下方向ではなくなってし ∂x 2k まう。そこでリッジ化によりヘッセ行列に単位行列の正数倍を加えて正定値とした後、(2)を解いて 求めた d k 方向に直線探索を行い、目的関数が現在よりも小さくなるステップ幅 α k ( α k > 0 )を求め る。 x k +1 = x k + α k d k とする以外は正定値の場合と同様である。 3.2 リッジ安定化ニュートン-ラフソン法 (Newton-Raphson method with ridging) • TECH=NRRIDG(NLMIXED オプション、NLP オプション) リッジ安定化ニュートン-ラフソン法とは、ヘッセ行列が正定値の場合はニュートン-ラフソン法を行 い、ヘッセ行列が正定値でない場合にはヘッセ行列に定数倍の単位行列を加える方法である。上 記方法とは異なり直線探索は行わない。 3.3 準ニュートン法(quasi-Newton methods) • TECH=QUANEW(NLMIXED オプション、NLP オプション)、NLPQN(IML サブルーチン) ニュートン-ラフソン法ではヘッセ行列の計算に時間がかかることがしばしばあり、その対処法の 一つとして反復の際に得られる現在の目的関数、その勾配ベクトルと、1 回前の反復時における目 4 - 16 ー

21.

的関数、その勾配ベクトルの差を用いてヘッセ行列を近似する一連の方法を準ニュートン法と呼ぶ。 そのためヘッセ行列の計算に時間のかかる場合に有用であるが、ヘッセ行列も使用するニュートン -ラフソン法、リッジ安定化ニュートン-ラフソン法、信頼領域法よりも一般に反復回数が多くなってし まう。またこの方法は非線形混合効果モデルへの適用における速度と安定性のバランスの観点よ り、NLMIXED プロシジャではデフォルトとなっている。また準ニュートン法は可変計量法(variable metric method)やセカント法(secant method)と呼ばれることもある。 3.4 信頼領域法(trust region method) • TECH=TRUREG(NLMIXED オプション、NLP オプション)、NLPTR(IML サブルーチン) 信頼領域法は、まず二次近似が妥当であると思われる領域(超楕円)を定め、その領域内におい て二次近似モデルの最小化を行う。探索方向だけを定めて後からステップ幅を決める方法ではヘッ セ行列が正定値である必要があるが、信頼領域内には必ず最小解が存在するため信頼領域法に はこのようなヘッセ行列の制限はない。しかしながら、無制約最適化問題を制約付き最適化問題と して解いているため、計算手順が複雑となる。 3.5 ダブルドッグレッグ法(double dogleg method) • TECH=DBLDOG (NLMIXED、NLP オプション)、NLPDD (IML サブルーチン) ダブルドッグレッグ法は準ニュートン法と信頼領域法の考えを組み合わせたものである。まず信 頼領域法と同様にして信頼領域を構成した後、信頼領域内にて最降下方向 − ∂f (x k ) とニュートン ∂x k −1 ⎛ ∂ 2 f (x k ) ⎞ ∂f (x k ) ⎟ との間の方向を探索方法とする方法である。具体 -ラフソン法の探索方向 − ⎜ ⎜ ∂x 2 ⎟ ∂x k k ⎝ ⎠ 的には、信頼領域が狭い場合には最降下方向に近く、信頼領域が広い場合にはニュートン-ラフソ ンの方向に近くなる。 3.6 共役勾配法(conjugate gradient method) • TECH=CONGRA (NLMIXED、NLP オプション)、NLPCG(IML サブルーチン) 共役性とは、k 個のベクトル d1 , d 2 K d k が d i Qd j ( i ≠ j )を満たすとき、 d1 , d 2 K d k は Q に関 T して互いに共役であるという。初期探索方向を最降下方向に定めた後、このように互いに共役な方 向に探索する方法を共役勾配法と呼ぶ。ニュートン-ラフソン法の問題点の一つは、ヘッセ行列が 必要であることであり、さらにヘッセ行列が求まってもその逆行列を計算しなければならないことで ある。共役勾配法では、このヘッセ行列とその逆行列の計算を避けることができる。 3.7 Nelder-Mead Simplex 法 • TECH=NMSIMP (NLMIXED オプション、NLP オプション)、NLPDD (IML サブルーチン) 5 - 17 ー

22.

これまでの方法はある規則によって定められた探索方向に沿って直線探索を行う手続きを反復するも のが多く、そのため探索方向の決定に導関数やヘッセ行列を用いる。一方で Nelder-Mead によって提案 されたこの方法はパラメータ空間上にある幾何学的配置をもったいくつかの点を取り、それらの点での 目的関数の値の比較によって探索を行う。そのため導関数を必要とせず、また初期値の選択に敏 感でないが、相対的に遅い。また微分できない関数に対してもそれなりに適用可能である。 3.8 その他の方法 レーベンバーグ・マカート法(Levenberg-Marquardt method、LEVMAR)、ハイブリッド準ニュートン 最 小 二 乗 法 ( hybrid quasi-Newton least-squares method 、 HYQUAN ) は 、 目 的 関 数 が f (x ) = 1 2 g i (x k ) の形で表わされる非線形最小二乗問題に対する方法である。また linear ∑ 2 i complemetarity 法 ( LICOMP ) や quadratic active set 法 ( QUADAS ) は 、 目 的 関 数 が f (x ) = 1 T x Gx + gx + b の形で表わされる二次計画問題に対する方法である。これらの方法は汎 2 用的な非線形最適化法も用いるよりも安定で効率が良い。方法の内容については省略する。 3.9 各方法の選択[3][4][13] モデルが比較的小規模(パラメータ数が 40 以下)でヘッセ行列の計算が大変でない場合、信頼 領域法、直線探索付きニュートン-ラフソン法、リッジ安定化ニュートン-ラフソン法が適している。リッ ジ安定化ニュートン-ラフソン法は信頼領域法よりも速いことが多いが、信頼領域法は安定している。 リッジ安定化ニュートン-ラフソン法は信頼領域法、直線探索付きニュートン-ラフソン法より計算に 必要とするメモリが少ない。 モデルが中規模(パラメータ数が 40 から 200)であり、ヘッセ行列と比べて目的関数の値と勾配ベ クトルの計算が速い場合、準ニュートン法やダブルドッグレッグ法が適している。これらの方法は信 頼領域法や各ニュートン-ラフソン法よりも多く反復を必要とするが、一回あたりの反復が遥かに速 く、またメモリ使用量も僅かに少ない。 モデルが大規模の場合(パラメータ数が 200 以上)は他の方法と比べてメモリ使用量が少ない共 役勾配法のみが適用可能である。この方法は一般に準ニュートン法やダブルドッグレッグ法より反 復回数は多くなるが、一回あたりの反復は速い。この方法はヘッセ行列やその近似行列を計算し保 存する必要がないため、ヘッセ行列の計算に時間がかかる場合に有効であり、またメモリ使用量が 少ない。 Nelder-Mead Simplex 法は勾配ベクトルの計算が大変な小規模データに対して適用可能である。 また非線形最小二乗などの特定の状況には、上記の汎用的な方法ではなく、特化したレーベンバ ーグ・マカート法などが有効である。 4. 非線形最適化法の適用のためのプログラムの例示 2 節のカブトムシの毒性実験データに対してロジスティックモデルを適用し、パラメータ推定を対数 6 - 18 ー

23.
[beta]
尤度関数に非線形最適化法を適用することによって行う。IML プロシジャ、NLP プロシジャ、
NLMIXED プロシジャにて非線形最適化法を実行するプログラムを付録 B に示す。また以下に各プ
ロシジャの概要とプログラムの簡単な解説を示す。
4.1 IML プロシジャ[11][12]
IML プロシジャはインタプリタ型の対話型行列演算言語であり、一つの変数が行列を表すため、
直感的にわかりやすい表現で線形代数の式をそのまま表現することが可能である。様々な行列演
算がサブルーチンとして組込まれており、非線形最適化の機能もその一つである。以下では IML プ
ロシジャにて対数尤度関数を定義し、データを与えた下で最大化し、最尤推定値を求める手順を示
す。
•

対数尤度関数の定義
start logistic(beta) global(y, x, n);
logL = sum(y # (beta[1] + beta[2] # x) - n # log(1 + exp(beta[1] + beta[2] # x)));
return(logL);
finish;

対数尤度関数のモジュールとして定義し、「start 関数名(引数)」で開始し、「finish 関数名」で終
える。今回、対数尤度関数を logistic の名前で定義し、引数はパラメータベクトル(beta)である。対
数尤度の値を返り値として return で返している。sum は行列の全ての要素の和を返す関数である。
対数尤度関数はパラメータとデータの値の関数であるため、引数のパラメータに加え、データも
与える必要がある。そのためにデータ変数を global で定義することにより、モジュールの外で定義し
た変数を参照する。ここではそれぞれ x、n、y を参照している。
•

データの読み込み
use beetle;
read all into alldat ;
x=alldat[,1];
n=alldat[,2];
y=alldat[,3];

SAS データセットより IML の行列として読み込みを行った後、x、n、y にそれぞれ分割を行う。
•

非線形最適化サブルーチンの呼び出し
init={1 1};
optn={1 1};
call nlpnrr(rc, result, "LOGISTIC", init, optn);

パラメータベクトル beta の初期値と、各最適化サブルーチンのオプションを行列として作成し、非
線形最適化サブルーチンの引数として与える。
719
24.

オプションのうち、最初の 2 つは各非線形最適化サブルーチンで共通しており、一つ目は目的関 数の最小化、もしくは最大化を決定する。ここでは 1 の最大化を指定しているが、0 を指定すれば最 小化となる。2 つめのオプションは出力の詳細さを指定しており、0(簡素)から 5(詳細)までの値を取 る。 nlpnrr サブルーチンによりリッジ安定化ニュートン-ラフソン法を呼び出している。他の方法は付録 A に一覧を示す。rc にリターンコードが格納されてサブルーチンが終了し、rc を参照することで最適 化が成功したかどうかを識別することができる。1 から 10 の正の数の場合、満たした収束規準が示 され、収束したことが示されている。一方、-1 から -10 の負の数の場合、収束は失敗し、その原因が その負の数によって示されている。result には求めるパラメータの値が格納されている。 • 信頼区間の導出 call nlpfdd(f, g, h, "LOGISTIC", result); cov=-inv(h); stderr=sqrt(vecdiag(cov)); NewRaphRidge=T(result)||(T(result) - probit(0.975) * stderr)|| (T(result) + probit(0.975) * stderr); nlpfdd サブルーチンにより、あるパラメータを与えた際の関数値とその勾配ベクトル、ヘッセ行列 を有限差分による導関数近似により求めることができる。ここではヘッセ行列から Wald の分散を求 め、さらに信頼区間を求めている。 データの読み込みから信頼区間の導出までのプログラムの実行結果を抜粋して以下に示す。 Newton-Raphson Ridge Optimization Ratio Between Actual Objective Max Abs and Predicted Function Active Objective Function Gradient Iter Restarts Calls Constraints Function Change Element Ridge Change 1 0 9 0 -335.33481 213.9 101.6 128.0 0.968 2 0 10 0 -322.34093 12.9939 14.6862 64.00 1.133 3 0 11 0 -320.62172 1.7192 4.0371 16.00 1.797 4 0 12 0 -314.81434 5.8074 4.1632 4.000 1.974 5 0 13 0 -295.12394 19.6904 3.5608 1.000 1.903 6 0 14 0 -250.54816 44.5758 4.0721 0.250 1.709 7 0 15 0 -207.76982 42.7783 4.9137 0.0625 1.461 8 0 16 0 -188.59579 19.1740 3.2493 0 1.202 9 0 17 0 -186.34241 2.2534 0.6351 0 1.158 10 0 18 0 -186.23715 0.1053 0.0384 0 1.115 11 0 19 0 -186.23542 0.00173 0.00137 0 1.102 8 - 20 ー

25.

12 0 20 0 -186.23540 0.000019 0.000108 0 1.101 13 0 21 0 -186.23540 1.872E-7 0.000010 0 1.107 Optimization Results Iterations 13 Function Calls 22 Hessian Calls 14 Active Constraints 0 Objective Function -186.2354033 Max Abs Gradient Element 0.0000104912 0 Actual Over Pred Change 1.1072580483 Ridge GCONV convergence criterion satisfied. NEWRAPHRIDGE ESTIMATE LL UL BETA1 -60.71713 -70.35093 -51.08332 BETA2 34.270141 28.854862 39.685419 4.2 NLP プロシジャ[4][13] NLP プロシジャは非線形な連続な関数 f (x ) を、最大もしくは最小にする決定変数 x (decision variable)の値を求める一連の手法を実行可能なプロシジャである。今回の流れでは、目的関数は 対数尤度関数となり、決定変数はモデルのパラメータとなる。以下では NLP プロシジャを用いて最 尤推定値を求めるプログラムを示す。 proc nlp data=beetle vardef=n covariance=h tech=quanew; max logL; parms beta1=1, beta2=1; logL = y1 * (beta1 + beta2 * x) - n * log(1 + exp(beta1 + beta2 * x)); run; vardef オプションと covariance オプションにより、パラメータ推定値を計算する際の近似分散共分 散行列の指定を行う。ここでは最尤推定値を求めるので vardef=n で分散共分散行列をオブザベー ション数で割り、covariance=h の指定と併せてヘッセ行列の逆行列を分散共分散行列に指定してい る。 tech オプションで適用する非線形最適化法の指定を行う。ここでは tech=quanew により、準ニュ ートン法を適用している。他の方法は付録 A に一覧を示す。 MAX ステートメントで目的関数の指定と、その目的関数に対して最大化と最小化のどちらを行う かの指定を行う。MAX ステートメント自体が最大化の指定であり、最小化を行う際には MIN ステート メントを用いる。LSQ ステートメントを用いた際には、目的関数が非線形最小二乗の形になっている ことを示しており、またこの指定は非線形最適化法の指定で レーベンバーグ・マカート法かハイブ リッド準ニュートン最小二乗法を指定したときのみ、用いることができる。 PARMS ステートメントで決定変数、つまり今回はパラメータとその初期値の指定を行う。また TO や BY キーワード等により一つ以上の初期値を指定することで、初期値のグリッドサーチを行うこと が可能である。なお PARMS ステートメントと DECVAR ステートメント、VAR ステートメント、 9 - 21 ー

26.

PARAMETERS ステートメントは同じ役割を果たす。 目的関数や制約式をデータステップと同様のプログラムステートメントにより記述することができ る。ここでは対数尤度関数を logL として定義している。 以下にプロシジャの実行結果を抜粋して示す。 PROC NLP: Nonlinear Maximization Dual Quasi-Newton Optimization Objective Max Abs Slope of Function Active Objective Function Gradient Step Search Iter Restarts Calls Constraints Function Change Element Size Direction 1 0 3 0 -349.74898 199.5 147.0 0.254 -1873.0 2 0 4 0 -328.49443 21.2546 63.4644 1.000 -82.261 3 0 5 0 -321.91104 6.5834 6.9031 1.000 -11.864 4 0 7 0 -320.61117 1.2999 28.9261 4.564 -0.573 5 0 10 0 -198.85050 121.8 1.5994 100.0 -2.157 6 0 12 0 -190.09926 8.7512 13.6227 3.500 -13.208 7 0 14 0 -186.47406 3.6252 4.6636 1.133 -4.872 8 0 16 0 -186.25140 0.2227 0.0882 1.000 -0.570 9 0 18 0 -186.23626 0.0151 0.5584 1.082 -0.0305 10 0 20 0 -186.23545 0.000811 0.0523 1.628 -0.0010 11 0 22 0 -186.23540 0.000049 0.000399 1.179 -0.0001 12 0 24 0 -186.23540 8.7E-10 2.054E-7 1.001 -17E-10 Optimization Results Iterations 12 Function Calls 25 Gradient Calls 18 Active Constraints 0 Objective Function -186.2354033 Slope of Search Direction -1.738221E-9 Max Abs Gradient Element 2.0544972E-7 GCONV convergence criterion satisfied. Optimization Results Parameter Estimates Gradient Approx N Parameter Approx Objective Estimate Std Err t Value Pr > |t| Function 1 beta1 -60.717455 5.180711 -11.719907 0.000002566 0.000000119 2 beta2 34.270326 2.912140 11.768090 0.000002487 0.000000205 Value of Objective Function = -186.2354033 10 - 22 ー

27.

4.3 NLMIXED プロシジャ 固定効果と変量効果が非線形な形で含むモデルを非線形混合効果モデルと呼び、NLMIXED プ ロシジャは非線形混合効果モデルのあてはめを行うプロシジャである。非線形混合効果モデルは 薬物動態データの解析などにしばしば用いられる[14]。その計算手順は以下の通りである。 まず変量効果を積分した尤度を求める。デフォルトは適応的ガウス求積法であるが、テーラー展 開による一次近似(first-order method)やインポータンス・サンプリング法など様々な近似積分法が オプションで指定可能である。求めた尤度に対し非線形最適化法が適用され、デフォルトは準ニュ ートン法である。ここでは非線形混合効果モデルについては触れず、近似積分法の詳細について は文献を参照されたい[15]。 以下では NLMIXED プロシジャを用いて最尤推定値を求めるプログラムを示す。 proc nlmixed data=beetle tech=quanew; parms beta1=1 beta2=1; logL = y1 * (beta1 + beta2 * x) - n * log(1 + exp(beta1 + beta2 * x)); model y1 ~ general(logL); run; NLP プロシジャと全く同様に tech オプション、PARMS ステートメント、プログラムステートメントを用 いることができる。ここでは対数尤度関数を logL として定義した後、それを MODEL ステートメントの general 指定により対数尤度関数として指定することができる。通常は関心のあるモデルのパラメー タの関数として、分布の平均や分散などのパラメータを表現し、その分布に結果変数が従うことを 「~」の左側に結果変数、右側に分布を記述することで指定する。指定できる分布としては、正規分 布、二項分布、ベルヌーイ分布、ガンマ分布、負の二項分布、ポアソン分布がある。 以下にプロシジャの実行結果を抜粋して示す。 The NLMIXED Procedure Specifications Data Set WORK.BEETLE Dependent Variable y1 Distribution for Dependent Variable General Optimization Technique Dual Quasi-Newton Integration Method None Parameters beta1 beta2 NegLogLike 1 1 549.254334 11 - 23 ー

28.

Iteration History Iter Calls NegLogLike Diff MaxGrad Slope 1 3 349.748982 199.5054 146.9919 -1872.95 2 4 328.494426 21.25456 63.4644 -82.2614 3 5 321.911036 6.583389 6.903111 -11.8641 4 7 320.611168 1.299868 28.92614 -0.57266 5 10 198.850498 121.7607 1.599388 -2.1571 6 12 190.099257 8.751241 13.62267 -13.2081 7 14 186.474057 3.6252 4.66356 -4.87202 8 16 186.251397 0.22266 0.088197 -0.56984 9 18 186.236263 0.015133 0.558431 -0.03046 10 20 186.235452 0.000811 0.052258 -0.00099 11 22 186.235403 0.000049 0.000399 -0.00008 12 24 186.235403 8.7E-10 2.054E-7 -1.74E-9 NOTE: GCONV convergence criterion satisfied. Fit Statistics -2 Log Likelihood 372.5 AIC (smaller is better) 376.5 AICC (smaller is better) 378.9 BIC (smaller is better) 376.6 Parameter Estimates Standard Parameter Estimate Error DF t Value Pr > |t| Alpha Lower Upper Gradient beta1 -60.7175 5.1807 8 -11.72 <.0001 0.05 -72.6642 -48.7707 -1.19E-7 beta2 34.2703 2.9122 8 11.77 <.0001 0.05 27.5549 40.9858 -2.05E-7 5. NLMIXED プロシジャを用いた実データへの適用事例 はじめに以下の実データの解析を行った環境を示す。 • CPU: Core 2 Extreme QX6700 (2.66GHz) • メモリ: 3GB (物理メモリは 4GB 搭載しているが OS の認識は 3GB) • OS: Windows XP Service Pack 2 • SAS 9.1.3 Service Pack 4 5.1 過剰相対リスクモデルによる広島・長崎の原爆被爆者の固形癌発症リスク解析 広島、長崎の原爆被ばく者を対象とした寿命調査(Life Span Study)のデータは放射線リスクの 12 - 24 ー

29.

評価や放射 線防護基準 の策定に重 要な役割を 果たしてい る[16][17]。 以下の解析 は、既に Radiation Research 誌に掲載された論文と同じデータを同じモデルにて再解析を行った結果である [18]。なお論文中で用いた統計パッケージは Epicure であり、本解析は、統計ソフトウェア間の信頼 性の検証と位置付けることも可能であろう[19][20]。 この Radiation Research 誌の論文の目的は、がんの罹患率と放射線の線量との用量反応関係を 記述し、その用量反応関係を修飾する年齢や性別などの因子の探索、個々の臓器や組織のリスク の特徴の記述である[19]。論文中では固形癌全体の発症だけでなく、個々の部位別の解析も行っ ているが、ここでは固形癌全体のみに限定する。 固形癌の罹患率の解析は 1958 年の時点でがんを発症しておらず、1998 年まで追跡した 111,952 名(男性 45,880 名、女性 66,072 名)を対象とし、そのうち線量評価ができなかった 6,525 人を除く 105,427 名が解析に用いられた。固形がんを発症したのは 17,448 名であった。 解析の目的はがん罹患率を、線量、年齢、性、被ばく時の年齢、都市(広島、長崎)、暦時間など の関数として記述することである。また線量は結腸における加重線量で代表させた(臓器別の解析 では個々の臓器における加重線量を用いている)。解析モデルはポアソン回帰を用い、ある共変量 が同じグループの固形癌発症数を Y 、人時間を T とすると、放射線疫学の分野にてしばしば用いら れる過剰相対リスクモデル(excess relative risk model)の形にて以下のように罹患率のモデル化を 行った。 ⎛Y ⎞ E⎜ ⎟ = λ0 (c, s, a, e, l )(1 + ERR(d , e, s, a )) ⎝T ⎠ λ0 (•) はベースライン罹患率、つまり曝露線量が 0 の人の罹患率を示しており、 ERR(•) は線量 d に よってベースライン罹患率の相対変化を示しており、 ERR (d , e, s, a ) は線量の効果が被ばく時年齢 ( e )、性( s )、年齢( a )によって変化することを示している。ここでは ERR(d , e, s, a ) = β s d exp(αe + ω log(a )) とモデル化を行った。この解析における最も関心のある パラメータは男女別の線量あたりのリスク増加パラメータ β s である。同様に λ0 (c, s, a, e, l ) はベース ライン罹患率が都市( c )、性( s )、年齢( a )、被ばく時年齢( e )、被ばく時の所在地( l )によって変 化することを示している。被ばく時の所在地は市内、もしくは市外を示す指示変数である。ここでは 性別、都市、都市と被ばく時の所在地の交互作用、性別ごとに年齢と被ばく時年齢をスプラインで 平滑化し、モデル化を行った。解析には NLMIXED プロシジャを用いた。初期値を 3 通り(パラメータ 初期値を全て 1、パラメータ初期値を全て 0、パラメータ初期値を β s のみ 100、残りは全て 1)に設定 し、それぞれの結果を以下の表 2、表 3、表 4 に示す。 13 - 25 ー

30.

表 2: 各非線形最適化手法の適用結果(パラメータ初期値を全て 1) β s (男性) β s (女性) 元論文 0.35(0.28, 0.43) 0.58(0.43, 0.69) NEWRAP 0.35(0.26, 0.44) 0.57(0.45, 0.69) 1 分 9 秒 完全に収束 NRRIDG 0.35(0.26, 0.44) 0.57(0.45, 0.69) 1 分 5 秒 完全に収束 QUANEW 0.98(求まらず) -0.01(求まらず) TRUREG 0.35(0.26, 0.44) 0.57(0.45, 0.69) DBLDOG 0.35(0.26, 0.44) 0.57(0.45, 0.69) 9 秒 収束したが Note あり*2 CONGRA 0.35(0.26, 0.43) 0.57(0.44, 0.69) 1 分 19 秒 収束したが Note あり*2 NMSIMP 1.55(求まらず) 1.64(求まらず) 4 分以上 5000 回の反復で収束せず*3 実行時間 収束 9 秒 収束したが Warning*1、Note あり*2 1 分 29 秒 完全に収束 *1 WARNING: The final Hessian matrix is full rank but has at least one negative eigenvalue. Second-order optimality condition violated. *2 Note: At least one element of the (projected) gradient is greater than 1e-3. *3 ERROR: NMSIMP needs more than 5000 iterations or 5000 function calls. 表 3: 各非線形最適化手法の適用結果(パラメータ初期値を全て 0) β s (男性) β s (女性) 元論文 0.35(0.28, 0.43) 0.58(0.43, 0.69) NEWRAP 0.35(0.26, 0.44) 0.57(0.45, 0.69) 25 秒 完全に収束 NRRIDG 0.35(0.26, 0.44) 0.57(0.45, 0.69) 22 秒 完全に収束 QUANEW 0.35(0.26, 0.44) 0.57(0.45, 0.69) 11 秒 収束したが Note あり*1 TRUREG 0.35(0.26, 0.44) 0.57(0.45, 0.69) 22 秒 完全に収束 DBLDOG 0.35(0.26, 0.46) 0.57(0.45, 0.69) 8 秒 収束したが Note あり*1 CONGRA 0.34(0.25, 0.43) 0.56(0.44, 0.69) 1 分 19 秒 収束したが Note あり*1 NMSIMP -0.03(-0.08, 0.02) -0.13(求まらず) 実行時間 *1 Note: At least one element of the (projected) gradient is greater than 1e-3. *2 The final Hessian matrix is full rank but has at least one negative eigenvalue 14 - 26 ー 収束 23 秒 収束したが Note、Warning あり*1*2

31.

表 4: 各非線形最適化手法の適用結果(パラメータ初期値を β s のみ 100、残りは全て 1) β s (男性) β s (女性) 元論文 0.35(0.28, 0.43) 0.58(0.43, 0.69) NEWRAP 0.35(0.26, 0.44) 0.57(0.45, 0.69) 1 分 32 秒 完全に収束 NRRIDG 0.35(0.26, 0.44) 0.57(0.45, 0.69) 1 分 16 秒 完全に収束 QUANEW 97.91(求まらず) 121.70(求まらず) TRUREG 0.35(0.26, 0.44) 0.57(0.45, 0.69) DBLDOG 4.82(4.15, 5.49) 8.51(求まらず) CONGRA 0.35(0.26, 0.44) 0.58(0.45, 0.70) NMSIMP 100.13(求まらず) 100.13(求まらず) 実行時間 収束 10 秒 収束したが WARNING あり*3 1 分 17 秒 完全に収束 10 秒 収束したが WARNING あり*3 3 分 21 秒 収束したが NOTE*1 あり 10 秒 収束したが WARNING あり*2 *1 Note: At least one element of the (projected) gradient is greater than 1e-3. *2 The final Hessian matrix is not positive definite, and therefore the estimated covariance matrix is not full rank and may be unreliable. The variance of some parameter estimates is zero or some parameters are linearly related to other parameters. *3 The final Hessian matrix is full rank but has at least one negative eigenvalue. Second-order optimality condition violated. 5.2 表在性膀胱がんの再発データ ここでは既存の統計解析プロシジャでは直接行うことができない、統計モデルのパラメータ推定 を、IML プロシジャを用いずに NLMIXED プロシジャにて行う実例を示す。 EORTC30863 は、ステージ Ta/T1 の表在性膀胱癌患者に対して、経尿道的膀胱腫瘍切除術後 の補助化学療法としてのエピルビシン膀胱内注入の効果を検討したランダム化試験である[21]。主 要エンドポイントは無病生存時間であり、追跡 1 年以内は 3 ヶ月ごとに、追跡 1 年以上 2 年未満 では 4 ヶ月ごとに、その後は半年ごとに追跡膀胱鏡検査が行われた。再発が確認された際には、 それが原発部位と同じ部位か違う部位であるかが判断された。試験の主要な結果として、術後のエ ピルビシンの膀胱内注入によって再発が抑制されることが示されたが[22]、この EORTC30863 の データに対し、上記の 2 つの再発パターンに対する化学療法の効果の推定を行い、さらに再発パ ターンを考慮したハザード関数のモデル化を行った。対数尤度関数を NLMIXED プロシジャにて直 接記述し、パラメータの推定を行った。モデルの詳細等については当日発表する。 6. 考察 ロジスティックモデルによる解析を、それぞれ IML プロシジャ、NLP プロシジャ、NLMIXED プロシジ ャにて記述した。IML プロシジャでは尤度を行列で記述する必要があり、残りのプロシジャとは異な るが、NLP プロシジャと NLMIXED プロシジャは多少の変更にて同じモデルの解析を行うことが可能 である。NLP プロシジャは専用のプロシジャであるためより多くの非線形最適化手法が適用可能で あり、また様々なオプションが存在するが、NLMIXED プロシジャでも大半の非線形最適化手法が実 行可能であった。 原爆被ばく者を対象とした寿命調査データに過剰相対リスクモデルを適用し、初期値を 3 通りに 設定してその推定を様々な非線形最適化法を用いて行った。 15 - 27 ー

32.

まず初期値 1 の設定は、明示的に指定しない場合の NLMIXED のデフォルトであるが、準ニュート ン法では収束しなかった。準ニュートン法は、tech オプションにて非線形最適化法を指定しなかった 場合の NLMIXED プロシジャのデフォルト非線形最適化法であり、つまりこのデータを NLMIXED にて 初期値と非線形最適化法を指定せずに実行した場合、解が求まらないことを意味する。本論文にて 紹介した様々な最適化法が存在することを念頭に置き、様々な非線形最適化法を試みることが重 要である。初期値についても、可能な限り妥当なものを設定することが重要である。初期値 1 の設 定は元論文の値から大きく外れていないが、それでも準ニュートン法では途中で warning が出て元 論文と大きく異なる値になってしまったのは、ヘッセ行列の近似に失敗している可能性が高い。ここ では紹介していないが、準ニュートン法のヘッセ行列の近似法にもいくつかあり、他のものを試して みることも有効だと思われる。なお NLP プロシジャでは初期値を指定しなかった場合、ランダムな数 値が設定される。 初期値 1 の設定と初期値 0 の設定では、ダブルドッグ法が推定値、実行時間の観点から結果が 良かった。特に実行時間は正しい値が求まらなかった方法を除けば、他のものと比べて数倍速い 結果となった。これは二次近似が妥当と思われる領域が広い場合にはニュートン-ラフソン法などと 同等の性能を持ち、逆に狭い場合は探索方向を一点ではなく区間で決めることでより適切な探索 方向が定められていることが原因と思われる。一方で、初期値にとてつもなく外れた値を設定した 場合には正しい値が求まらないので注意が必要である。 Nelder-Mead Simplex 法は全ての初期値の設定にて正しい値が求まらなかった。勾配ベクトルや ヘッセ行列の計算が可能な場合は、それらを用いる方法を適用するのが望まれる。 7. 謝辞 用いた原爆被爆者のデータは広島および長崎の放射線影響研究所(放影研)から入手したもの である。放影研は、日本の厚生労働省ならびに米国の学士院を通じてエネルギー省により資金提 供を受けている公益法人である。当該データには、広島市・県および長崎市・県の腫瘍登録、なら びに広島・長崎の組織登録から得られた情報が含まれている。この報告書に示した結論は著者の ものであり、必ずしも放影研またはその資金提供機関の判断を反映するものではない。 参考文献 [1] Clayton D, and Hills M. Statistical Models in Epidemiology. New York: Oxford University Press, 1993. [2] 矢部 博. 最適化とその応用. 東京: 数理工学社, 2006. [3] SAS Institute Inc. SAS/STAT 9.1 User's Guide. Cary: SAS Institute Inc, 2004. [4] SAS Institute Inc. SAS/OR 9.1.3 User's Guide: Mathematical Programming 3.1. Cary: SAS Institute Inc, 2007 [5] Bliss CI. The calculation of the dose-mortality curve. Annals of Applied Biology 1935; 22: 134-67. [6] 岩崎 学. 統計的データ解析のための数値計算法入門. 東京: 朝倉書店. 2004. [7] 金谷 健一. これなら分かる最適化数学. 東京: 共立出版, 2005. [8] 竹内啓編. 統計学辞典. 東京: 東洋経済新聞社, 1989. [9] 広中平祐編. 現代数理科学辞典. 大阪: 大阪書籍. 1991. 16 - 28 ー

33.

[10] 今野浩, 今下浩. 非線形計画法. 東京: 日科技連, 1978. [11] SAS Institute Inc. SAS/IML 9.1 User's Guide. Cary: SAS Institute Inc, 2004. [12] 岸本淳司, 浜田知久馬. SAS/IML による非線形最適化とその統計学への応用. 統計数理 1996; 44(2): 163-79. [13] 岸本淳司. 非線形最適化を行なう SAS の新プロシジャ NLP の紹介. オペレーションズ・リサーチ 1983; 38: 142-5. [14] Davidian M, Giltinan DM. Nonlinear Models for Repeated Measurement Data. Boca Raton: Chapman & Hall. 1995. [15] Pinheiro JC, Bates DM. Approximations to the log-likelihood function in the nonlinear mixed-effect model. Journal of Computational and Graphical Statistics 1995; 4: 12-35. [16] 馬渕清彦. 原爆被爆者長期コホート疫学研究の経験から. 癌の臨床 1994; 40(4): 369-73. [17] Kodama K, Mabuchi K, Shigematsu I. A long-term cohort study of the atomic-bomb survivors. Journal of Epidemiology 1996; 6: S95-105. [18] Preston DL, Ron E, Tokuoka S, et al. Solid cancer incidence in atomic bomb survivors. Radiation Research 2007; 168: 1-64. [19] Preston DL, Lubin JH, Pierce DA, McConney ME. Epicure Users Guide. Seattle: Hirosoft International Corporation. 1993. [20] Preston DL, 谷口るり子. Epicure: リスク解析ソフトウェア. 計算機統計学 1995; 7: 199-202. [21] Oosterlinck W, et al. A prospective European organization for research and treatment of cancer genitourinary group randomized trial comparing transurethral resection followed by a single intravesical instillation of epirubicin or water in single stage Ta, T1 papillary carcinoma of the bladder. The Journal of urology. 1993; 149: 749-52. [22] Hinotsu S, Akaza H, Kotake T, Ohashi Y. Intravesical chemotherapy for maximum prophylaxis of new early phase superficial bladder carcinoma treated by transurethral resection: a combined analysis of trials by the Japanese Urological Cancer Research Group using smoothed hazard function. Cancer 1999; 86: 1818-26. 17 - 29 ー

34.

付録 A 非線形最適化法ごとの実行可能なプロシジャ、必要な計算、メモリ容量 NLP IML NLMIXED 勾配ベクトル ヘッセ行列 必要なメモリ容量 NEWRAP ○ ○ ○ ○ ○ 2n + 2n (n + 1) / 2 NRRIDG ○ ○ ○ ○ ○ 6n + n (n + 1) / 2 QUANEW ○ ○ ○ ○ × n + n (n + 1) / 2 TRUREG ○ ○ ○ ○ ○ 4n + 2n (n + 1) / 2 DBLDOG ○ ○ ○ ○ × 7n + n (n + 1) / 2 CONGRA ○ ○ ○ ○ × 3n NMSIMP ○ ○ ○ × × 4n + n (n + 1) LEVMAR ○ ○ × ○ × 6n + n (n + 1) / 2 HYQUAN ○ ○ × ○ × 2n + n (n + 1) / 2 + 3m LICOMP ○ × × × × 18n + 3n (n + 1) QUADAS ○ × × × × n + 2n (n + 1) / 2 • 必要なメモリ容量における n はパラメータ数、m は目的関数の数とオブザベーション数の積を示す • 本文中では触れていないが、上記非線形最適化法は全て領域制約式(boundary constraints)、線形制約式(linear constraints)を課 すことが可能であり、QUANEW と NMSIMP は非線形制約式(nonlinear constraints)も課すことが可能である • 非線形最適化手法の略称と名称の関係は本文中に記載 付録 B * カブトムシの毒性データ; data beetle; input x n y1; datalines; 1.6907 59 6 1.7242 60 13 1.7552 62 18 1.7842 56 28 1.8113 63 52 1.8369 59 53 1.8610 62 61 1.8839 60 60 ; run; 18 - 30 ー

35.
[beta]
proc iml;
* 対数尤度関数;
start logistic(beta) global(y, x, n);
logL= sum(y # (beta[1] + beta[2] # x) - n # log(1 + exp(beta[1] + beta[2] # x)));
return(logL);
finish;

* データの読み込み;
use beetle;
read all into alldat ;
x=alldat[,1];
n=alldat[,2];
y=alldat[,3];

* 初期値;
init={1 1};

* 最適化オプション;
optn={1 1};

* リッジ安定化ニュートン-ラフソン法;
call nlpnrr(rc, result, "LOGISTIC", init, optn);
* 信頼区間(正規近似)の導出;
call nlpfdd(f, g, h, "LOGISTIC", result);
cov=-inv(h);
stderr=sqrt(vecdiag(cov));
NewRaphRidge=T(result)||(T(result)-probit(0.975)*stderr)||
(T(result)+probit(0.975)*stderr);
rname={beta1 beta2};
cname={Estimate LL UL};
print NewRaphRidge[rowname=rname colname=cname];

* 共役勾配法;
call nlpcg(rc, result, "LOGISTIC", init, optn);
* 信頼区間(正規近似)の導出;
call nlpfdd(f, g, h, "LOGISTIC", result);
cov=-inv(h);

19

- 31 ー

36.
[beta]
stderr=sqrt(vecdiag(cov));
ConjugateGradient=T(result)||(T(result)-probit(0.975)*stderr)||
(T(result)+probit(0.975)*stderr);
print ConjugateGradient[rowname=rname colname=cname];

* ダブルドッグレッグ法;
call nlpdd(rc, result, "LOGISTIC", init, optn);
* 信頼区間(正規近似)の導出;
call nlpfdd(f, g, h, "LOGISTIC", result);
cov=-inv(h);
stderr=sqrt(vecdiag(cov));
DoubleDogleg=T(result)||(T(result)-probit(0.975)*stderr)||
(T(result)+probit(0.975)*stderr);
rname={beta1 beta2};
cname={Estimate LL UL};
print DoubleDogleg[rowname=rname colname=cname];

* Nelder-Mead Simplex法;
call nlpnms(rc, result, "LOGISTIC", init, optn);
* 信頼区間(正規近似)の導出;
call nlpfdd(f, g, h, "LOGISTIC", result);
cov=-inv(h);
stderr=sqrt(vecdiag(cov));
NelderMeadSimplex=T(result)||(T(result)-probit(0.975)*stderr)||
(T(result)+probit(0.975)*stderr);
rname={beta1 beta2};
cname={Estimate LL UL};
print NelderMeadSimplex[rowname=rname colname=cname];

* ニュートン-ラフソン法;
call nlpnra(rc, result, "LOGISTIC", init, optn);
* 信頼区間(正規近似)の導出;
call nlpfdd(f, g, h, "LOGISTIC", result);
cov=-inv(h);
stderr=sqrt(vecdiag(cov));
NewtonRaphson=T(result)||(T(result)-probit(0.975)*stderr)||
(T(result)+probit(0.975)*stderr);

20

- 32 ー

37.
[beta]
rname={beta1 beta2};
cname={Estimate LL UL};
print NewtonRaphson[rowname=rname colname=cname];

* 準ニュートン法;
call nlpqn(rc, result, "LOGISTIC", init, optn);
* 信頼区間(正規近似)の導出;
call nlpfdd(f, g, h, "LOGISTIC", result);
cov=-inv(h);
stderr=sqrt(vecdiag(cov));
QuasiNewton=T(result)||(T(result)-probit(0.975)*stderr)||
(T(result)+probit(0.975)*stderr);
rname={beta1 beta2};
cname={Estimate LL UL};
print QuasiNewton[rowname=rname colname=cname];

* 信頼領域法;
call nlptr(rc, result, "LOGISTIC", init, optn);
* 信頼区間(正規近似)の導出;
call nlpfdd(f, g, h, "LOGISTIC", result);
cov=-inv(h);
stderr=sqrt(vecdiag(cov));
TrustRegion=T(result)||(T(result)-probit(0.975)*stderr)||
(T(result)+probit(0.975)*stderr);
rname={beta1 beta2};
cname={Estimate LL UL};
print TrustRegion[rowname=rname colname=cname];
quit;

* NLPにて対数尤度最大化;
* quasi-Newtonを示す;
* 他の方法は適宜「tech=」の部分を変更;
proc nlp data=beetle vardef=n covariance=h tech=quanew;
max logL;
parms beta1=1, beta2=1;
logL = y1 * (beta1 + beta2 * x) - n * log(1 + exp(beta1 + beta2 * x));
run;

2133
38.

* NLMIXEDで対数尤度を指定して最大化; * quasi-Newtonを示す; * 他の方法は適宜「tech=」の部分を変更; proc nlmixed data=beetle tech=quanew; parms beta1=1 beta2=1; logL = y1 * (beta1 + beta2 * x) - n * log(1 + exp(beta1 + beta2 * x)); * MODELステートメントのgeneral指定の際、結果変数は何を指定しても結果は同じ; model y1 ~ general(logL); run; * NLMIXEDで二項分布を指定; * quasi-Newtonを示す; * 他の方法は適宜「tech=」の部分を変更; * 初期値のグリッドサーチを実行; proc nlmixed data=beetle tech=quanew; parms beta1=0 to 1 by 0.1 beta2=0 to 1 by 0.1/best=1; p = exp(beta1 + beta2 * x) / (1 + exp(beta1 + beta2 * x)); model y1 ~ binomial(n, p); run; * 1個体1オブザベーションに変換; data beetle2; set beetle; y0 = n - y1; do i=1 to y1; y=1; output; end; do i=1 to y0; y=0; output; end; drop i y1 y0; 22 - 34 ー

39.

run; * NLMIXEDでベルヌーイ分布を指定; * quasi-Newtonを示す; * 他の方法は適宜「tech=」の部分を変更; proc nlmixed data=beetle2 tech=quanew; parms beta1=1 beta2=1; p = exp(beta1 + beta2 * x) / (1 + exp(beta1 + beta2 * x)); model y ~ binary(p); run; * LOGISTICプロシジャ(おまけ); proc logistic data=beetle2 descending; model y=x; run; 23 - 35 ー

40.

ミクロな営業力の分析 〜製薬企業のMR活動を例として〜 武藤 猛 ITBPO株式会社 主席研究員 Sales Force Effectiveness Analysis of Pharmaceutical Companies Takeshi Muto Senior Fellow、 ITBPO Inc. 要旨 製薬業界においては、ここ数年企業のM&A(合併・吸収)が進展しつつある。 また、国民医療費の伸びを抑制するための各種の施策も取られている。このように 激変し、また厳しい経営環境の中で、製薬企業においては、製品開発力と並んで、 マーケティング・営業力が重要な意味を持つ。このうち、営業力については、従来 経験的なアプローチが主体であったが、競争の激化とともに、より科学的なアプロ ーチが不可欠となってきた。本論文では、営業力(営業生産性)を向上させるため の 科 学 的 、 実 証 的 で か つ 体 系 的 な ア プ ロ ー チ で あ る 、 S F E (Sales Force Effectiveness)のモデルに基づいた、ミクロな営業力分析とその結果について報告 する。具体的には、ターゲティングの重要性に着目し、医師クラスター別のMR活 動への反応を分析し、実務への応用のための知見を得る。 キーワード: 営業力分析、医師ターゲティング、SFE、クラスター分析、共分散構造分析 はじめに マーケティングおよび営業活動は、製品開発と並んで企業経営の2大要素を構成して いる。画期的な製品開発は中長期的な経営の成否を決定するが、大きなシェアを獲得で きる新製品の開発には多額の投資と長い期間、そして幸運が必要である。このためもう 一つの要素であるマーケティング・営業活動を効果的・効率的なものに改革し、営業生 産性を高めることの重要性が増している。特に製薬業界においては活発な企業のM&A (合併・買収)に伴い、多数のMR(学術情報担当者)を有する企業が誕生し、営業(M R)生産性を高めることが重要な経営課題となっている。 最近、SFE(Sales Force Effectiveness)と呼ばれている考え方が注目されている。一 1 - 36 ー

41.

般にSFEとは、次の4つの特徴を備えた営業プロセスの改革手法と考えられる:①成果 (例:薬剤の採用)とそれを達成するための要因(例:ディテーリング活動)との因果関 係にフォーカスすること、②実データに基づいており実証的であること、③統計解析など 確立された方法論に基づき体系的にアプローチすること、④実務に応用可能であること。 要約すると、SFEとは科学的な手法により営業力の分析を行い、営業生産性を改善する ための実践的な手法である(1)。 本論文ではSFEの観点からミクロな営業力分析を行う。すなわち、MRのディテーリ ング活動の結果、どのような要因が評価されて医師の薬剤採用や処方増加につながるかの 要因分析を行う。特に注目するのは、MR活動の質的側面と量的側面である。具体例とし て、医師クラスター別のMR活動に関する反応分析、および医師クラスター別の新薬に対 する時系列反応分析を行う。この分析結果により、営業の効果と効率を高めるための実践 的な示唆を得ることを目的としている。なお、本論文は、過去の発表内容(2)(3)をベースに、 最新のデータを用いてモデルを発展させ、分析を追加したものである。 1. ミクロな営業力分析のアプローチ (1)ミクロな営業力分析のアプローチについて ミクロな営業力は、マイクロマーケティングとも呼ばれ、MRが主に医師とのコミュ ニケーションを通じて、いかに効果的に自社薬剤の新規採用や処方増加を達成するかを意 味している。ミクロな営業力が、どのような要因で決まるかは、MRの生産性向上、MR の 最適配置や人材の活用により売上を伸ばすことを目的とする営業戦略の重要な基礎データ となる。なお、これに対してマクロな営業力分析とは、製薬企業全体としての売上高決定 要因を分析するもので、企業間の比較や企業価値の分析が目的である。 一般に、営業は企業経営にとって非常に重要であるにも関わらず、マーケティングに比 べると営業に関する科学的な研究は極めて少ない。これは、営業は複雑である上に、経験 的・人的要素が大きく、科学的なアプローチが難しいと考えられているためであろう。営 業に関するほとんど唯一の網羅的かつ体系的な本である Zoltners ら(1)は、 「営業生産性ドラ イバーモデル」に基づき、営業の成果を高めるための広範囲なアプローチを論じている。 売上高の決定要因は多岐に渡る。大別すると、①外的環境要因、②顧客要因、③内的環 境要因、④マーケティング活動、⑤営業活動、⑥人事制度・人材育成がある。これらにつ いて説明すると、①の外的環境要因としては、経済環境、人口統計学的変化、法的規制・ 規制緩和、技術革新がある。②の顧客要因としては、顧客ニーズ・顧客満足、購買組織・ 購買戦略・購買理由がある。③の内部環境要因としては、経営者・M&A・組織風土、営 業組織・組織間連携がある。④のマーケティング活動としては、企業ブランド力・製品ブ ランド力、マーケティングミックスがある。⑤の営業活動としては、営業リソース、営業 プロセス、営業スキル、営業支援ツール(SFA)がある。⑥の人事制度・人材育成とし ては、営業教育、人事制度・報奨制度、採用制度がある。これらのうち、外的環境要因と 2 - 37 ー

42.

顧客要因を除いた要因は、企業自身がコントロール可能なものであり、広い意味での営業 力と呼ぶことができる。 (2)SFEモデルによる営業力分析 前述のように、売上高を決定する営業力の各種要因は短期的な効果を持つものから、中 長期的な効果を持つものまで含まれ、多岐に渡る。本論文では、これらの要因の内、短期 的な効果に影響を及ぼす要因に絞る。このためには、短期的な影響力の大きな要因に絞っ たモデル(つまりSFEモデル)で検討を進める必要がある。 一般的なSFEモデルでは、売上高が、「ターゲティング」 、「訪問回数(ディテーリング 回数)」 、 「訪問の質(ディテーリングの質)」の 3 要因で決まると考える。言い換えると、 「最 適な顧客に」、「最適な回数で」、「質の高いメッセージを届ける」ことで、売上高が達成で きると考えるのである。このモデルは非常に単純ではあるが、実用性が高く、製薬企業を 中心に採用されている。 SFEモデルの3要因の中で、著者は特にターゲティングに着目して研究と実践を行っ てきた(2)(3)(4)(5)。その理由は、ターゲティングはマーケティング戦略と密接な関係があり、 営業(MR)生産性への影響力が、SFEの3要因中で最も大きいからである。よく知ら れているように、マーケティング戦略の中核はSTP(Segmentation-TargetingPositioning)である。精度の良いターゲティングの前提条件は、精度の良いセグメンテー ションである(6)。著者は、このようなセグメンテーションの一方法として、「質的セグメン テーション」の重要性を強調し、研究を行っている(2)。質的セグメンテーションの具体的な 方法の一つが、製品ライフサイクルに着目し、医師全体を「先進派クラスター」、「中間派 クラスター」 、および「保守派クラスター」の 3 つに分け、各々がMR活動にどのように反 応するかを分析した上で、ターゲットすべきクラスターを決定することである。本論文で は、このようなターゲティングモデルに基づいた分析を行う。 2. 医師クラスター別のMR活動に対する反応分析 (1)問題の概要 ミクロな営業力分析のためには、MR活動が医師にどのように評価されているかを知る 必要がある。本論文では、医師に対するインターネット調査を行ない、その結果から、S FEモデルの3要因がどのように影響するかを分析する。なお、この問題は前報(3)で、「タ ーゲティングの量」と「ターゲティングの質」に着目して分析を行った。本論文では、さ らに「ターゲティング」を同時に分析することで、SFEの 3 要因を検討する。 (2)分析手順 分析手順は次の通りである。①薬剤採用(または処方増加)の決定要因に関する仮説、 ②インターネットによる医師アンケート、③探索的因子分析、④共分散構造分析、⑤モデ ルの妥当性検討。 まず、分析のための仮説について説明する。ある薬剤を未使用の医師に対して、製薬企 3 - 38 ー

43.

業は全社的なマーケティング活動を行うとともに、MRは認知のための医師向け活動を行 う。次にMRは、薬剤の採用のためにディテーリングを行う。首尾よく採用してもらえた 後は、処方人数の増加のための活動を継続して行う。このようにして、製薬企業全体とし ての売上高の伸張やシェア拡大を実現していく。前述のように、本論文では、薬剤採用や 処方増加は、ターゲティング、ディテーリングの質、およびディテーリングの量という3 つの変数で決定されるという仮設を検証する。 分析用データとしては、医師に対して実施したインターネット調査の結果を用いる (N=1000)。対象とした薬剤は高血圧症治療薬であり、ARBやCCBなどの代表的な薬 剤 16 種類が含まれる。質問項目は、製品認知に関する質問(知っている薬剤、薬剤の特徴、 情報入手経路)、処方に関する質問(使用している薬剤、薬剤の使用理由、最近 1 週間の薬 剤別処方人数)、ディテーリングに関する質問(MRと面談した薬剤、最近の薬剤別MRと の面談回数、高血圧患者数)、および回答者の属性である。 質問項目のうち、目的変数はARBの「採用薬剤数」と「処方人数」である。一方、説 明変数は、薬剤の特徴、情報入手経路、および薬剤の使用理由の 3 種類(合計 61 項目)で ある。ただし、元の質問項目のままでは数が多すぎて、適合度の高い共分散構造モデルを 構築することはほとんど不可能である。そこで、61 項目の質問項目を 9 項目に集約した。 これらの集約後の変数について探索的因子分析を行った結果、各変数が各々単独で鮮明な 因子を構成することを確認できたので、集約後の 9 項目を観測変数に用いて、分析を行う ことにした。 本論文では、目的変数である「薬剤の採用」または「処方増加」に影響を及ぼす潜在変 数として、「医師ターゲティング」、 「ディテーリングの量」 、および「ディテーリングの質」 という 3 種類を取り上げる。クラスター分析により、 「先進派クラスター」、 「中間派クラス ター」、および「保守派クラスター」という3つのクラスターを抽出する。次に各医師クラ スターを母集団とした共分散構造分析を行うことで、3つの要因の影響を分析する。 (3)医師クラスター別のMR活動に対する反応分析結果と考察 「薬剤採用」および「処方増量」という2つの目的変数に対する共分散構造モデル(パ ス図)を各々図表1と図表2に示す。なお、この結果はすべてのクラスターを含む医師全 体に関するものである。いずれのパス図も適合度指標GFIは 0.9 を上回っており、モデル は成立している。 次に、医師クラスターが「薬剤採用」および「処方増量」に対してどのような影響を及 ぼすかを分析する。このため、各医師クラスター別に、同じパス図を用いて分析を行った。 「薬剤採用」および「処方増量」に対して、各医師クラスターのパス係数を求めた結果を 図表3と図表4に示す。なお、各クラスター別のモデルに関して、適合度指標GFIはす べて 0.9 を上回っており、モデルは成立している。 結果について考察しよう。まず、すべてのモデルについて、パス図の適合度指標GFI が 0.9 を上回っていることから、売上高が医師ターゲティング」、「ディテーリングの量」、 および「ディテーリングの質」という 3 要因で決まるとするSFEモデルは妥当であるこ 4 - 39 ー

44.

図表1.MR活動に対する反応分析最終パス図(目的変数:薬剤採用) E2 使用理由:効果の良さ 使用理由:効果の良さ 0.83 E3 使用理由:安全性 使用理由:安全性 0.66 0.24 E4 使用理由:医局・医師仲間 使用理由:医局・医師仲間 ディテー ディテー リングの質 リングの質 特徴:優れた効果 特徴:優れた効果 E6 特徴:高い安全性 特徴:高い安全性 E7 特徴:豊富な臨床データ 特徴:豊富な臨床データ 0.89 0.92 0.43 薬剤採用 薬剤採用 E1 0.79 0.81 E5 E8 標準解 製品特徴 製品特徴 0.90 適合度指標 0.38 面談回数 面談回数 ディテー ディテー リングの量 リングの量 GFI 0.957 AGFI 0.898 RMR 0.351 RMSEA 0.103 図表2.MR活動に対する反応分析最終パス図(目的変数:処方増量) E2 理由:効果の良さ 理由:効果の良さ E3 理由:安全性 理由:安全性 E4 理由:医局・医師仲間 理由:医局・医師仲間 E5 特徴:優れた効果 特徴:優れた効果 E6 特徴:高い安全性 特徴:高い安全性 E7 特徴:豊富な臨床データ 特徴:豊富な臨床データ E8 標準解 0.80 0.68 ディテー ディテー リングの質 リングの質 0.25 0.92 処方増量 処方増量 E1 0.80 0.81 0.89 0.18 製品特徴 製品特徴 0.24 適合度指標 1.00 面談回数 面談回数 ディテー ディテー リングの量 リングの量 GFI 0.957 AGFI 0.897 RMR 5.230 RMSEA 0.104 図表3.SFEの3要因の相対的比較(目的変数:薬剤採用) 変数名 効果が優秀 全体 質 製品 量 0.825 クラスター1(保守派) クラスター2(中間派) 質 質 製品 量 0.611 製品 量 0.927 クラスター3(先進派) 質 製品 高い安全性 0.660 0.343 0.317 0.675 医局・医師仲間が使用 0.241 0.032 0.078 0.117 製品:優れた効果 0.808 0.529 0.643 0.556 製品:高い安全性 0.887 0.664 0.774 0.715 製品:豊富な臨床データ 0.921 ARB面談回数 使用ARB薬剤数 0.432 ディテーリングの質 質:量 0.785 0.375 0.902 0.785 0.479 0.821 0.383 0.328 0.899 1.000 0.365 0.824 0.386 0.357 0.924 0.918 0.231 0.535 0.480 1.000 0.389 量 0.808 0.786 0.326 1.000 0.680 1.000 [注]「効果が優秀」〜「ディテ ーリングの質」の行の各数値は標準化係数を、「質:量」の行の数値は、量を1.0とした場合の質の相対的大きさを示す。 5 - 40 ー

45.

図表4.SFEの3要因の相対的比較(目的変数:処方増量) 変数名 効果が優秀 全体 質 製品 量 0.800 クラスター1(保守派) クラスター2(中間派) 質 質 製品 量 0.563 製品 クラスター3(先進派) 量 0.861 質 製品 高い安全性 0.676 0.332 0.340 0.887 医局・医師仲間が使用 0.247 0.036 0.079 0.056 製品:優れた効果 0.806 0.511 0.642 0.547 製品:高い安全性 0.887 0.666 0.772 0.754 製品:豊富な臨床データ 0.922 ARB面談回数 ARB処方人数 0.184 ディテーリングの質 質:量 0.797 1.000 0.237 0.799 0.774 0.824 1.000 0.163 0.207 1.000 0.785 0.788 1.000 0.079 1.000 0.217 1.000 0.128 0.516 1.000 0.364 量 0.615 0.302 0.349 1.000 0.423 1.000 [注]「効果が優秀」〜「ディテ ーリングの質」の行の各数値は標準化係数を、「質:量」の行の数値は、量を1.0とした場合の質の相対的大きさを示す。 とを意味している。 次に「薬剤採用」について。図表3によれば、目的変数「薬剤採用」に直接影響を及ぼ す変数は、「ディテーリングの質」と「ディテーリングの量」である。図表4によれば、こ れらの相対的な影響の大きさを医師クラスター別に比較すると、量を 1.0 とした場合の質の 影響力は、「保守派」、「中間派」、および「先進派」について、各々0.365、0.389、および 0.680(医師全体では 0.479)である。つまり、すべての医師クラスターに関して、ディテ ーリングの量のほうがディテーリングの質よりも影響力が大きい。ディテーリングの質の 相対的な重要性を医師クラスター別に比較すると、ディテーリングの質を最も重要視する のは「先進派」であり、 「保守派」と「中間派」は相対的に小さい。以上の結果は、これま で行ってきたアンケート分析の結果得られた医師クラスターの特徴と一致している(2)。また、 先進派の医師が新薬の採用に当たって、MRの提供する学術情報の質に対して厳しい意見 を持っているという経験則とも一致している。 次に、一旦薬剤を採用した後の「処方増量」について。図表4に基づき、上記と同様な 考察を行うと、 「処方増量」に関して、量を 1.0 とした場合の質の影響力は、 「保守派」、 「中 間派」、および「先進派」について、各々0.785、0.364、および 0.423(医師全体では 0.774) である。ディテーリングの質の相対的な重要性を医師クラスター別に比較すると、ディテ ーリングの質を最も重要視するのは「保守派」であり、「中間派」と「先進派」は相対的に 小さい。このように、「処方増量」に関する医師クラスター別反応が、「新薬採用」と異な ることは興味深い結果である。 3. 医師クラスター別の新薬に対する時系列反応分析 (1)問題の概要 MR 活動に対する医師の反応が、新薬の上市後どのように変化するかは実用上重要な問 題である。この問題にアプローチするために、医師に対するパネル調査を行ない、その結 果を分析する。分析の目的は、ディテーリングの量と質が製品売上高に及ぼす影響、医師 6 - 41 ー

46.

クラスター別の新薬に対する反応、および異なる薬効間での医師クラスターの相関を明ら かにすることである。 (2)分析手順 分析手順は次の通りである。①パネルによる医師アンケート、③クラスター分析、④ク ラスター別時系列分析。 まず、使用したデータについて説明する。本データは開業医を対象にしたアンケートデ ータで、同一の医師(N=515)に対して毎月一回、連続 12 ヶ月間調査を行ったものであ る。調査内容は、ディテーリングを受けた薬剤名、MRのディテーリング内容に対する評 価、およびその結果としての処方意欲である。調査した薬効領域は、ARB、CCBなど 生活習慣病を中心とした9領域である。 以上の時系列データを薬効領域別に分け、各々クラスター分析を行い、「先進派クラスタ ー」、「中間派クラスター」、および「保守派クラスター」という3つのクラスターを抽出し た。次に各医師クラスター毎に時系列分析や薬効領域毎の相関分析を行なった。 (3)医師クラスター別のMR活動に対する反応分析結果と考察 まず、医師全体がディテーリングの量と質にどのように反応しているかを分析した。薬 効領域ARBに限定し、月別のディテーリング件数および質を考慮したディテーリング件 数と、ARBの製品シェア変動との相関係数の推移を分析した。ここで、質を考慮したデ ィテーリング回数とは、ディテーリング有無(1 または 0)に処方意欲(1 または 0)を掛 けた値である。分析の結果によれば、ディテーリング回数と製品シェア変動との相関係数 が 0.1〜0.3 の範囲であるのに対して、質を考慮したディテーリング回数との相関係数は 0.6 〜0.7 の範囲にあることが分かった。このように、ディテーリングの量だけでは精度の良い 売上高の推移を予測できないのに対して、質を考慮することにより売上高の予測精度が格 段に高まることが明らかになった。 次に、時系列データをクラスター分析した結果を図表5に示す。 「先進派クラスター」、 「中間派クラスター」、および「保守派クラスター」という3つのクラスターが鮮明に 抽出できた。なお、このようなクラスターは分析の結果として抽出されたもので、MR がこの区別を認識している訳ではない。 図表6は、ある新薬Xの上市後約 1 年間における、各クラスター別ディテーリング回 数の推移である。先進派および中間派医師に対するディテーリングは、同程度に活発で あるのに対して、保守派医師へのディテーリングはずっと低いレベルに留まっている。 このことは、少なくとも保守派の医師かどうかは、MRが意識していることを意味する。 図表7は、図表6に対応するもので、同じく新薬Xの上市後約 1 年における、ディテ ーリングに対する医師の反応の推移である。先進派クラスターのみがMR活動に鋭敏に 反応し、ディテーリング回数に関しては同程度であった中間派クラスターはほとんど反 応していない。この点については、ディテーリング回数が少なかった保守派も同様であ る。 図表5〜図表7によれば、各医師クラスターのMR活動に対する反応は非常に差があ 7 - 42 ー

47.

8 - 43 ー 販 販 売 売 開 開 始 始 クラスター3(先進派) 0.30 0.20 0.10 0.00 -0.10 Month̲31 Month̲30 Month̲29 Month̲28 Month̲27 Month̲34 クラスター2(中間派) Month̲33 クラスター1(保守派) Month̲32 医師の処方意欲の推移(薬剤X) Month̲34 0.80 Month̲33 図表7.新薬に対する時系列反応分析:処方意欲の推移 Month̲32 Month̲31 Month̲30 Month̲29 Month̲26 販 販 売 売 開 開 始 始 Month̲28 Month̲25 Month̲24 Month̲23 Month̲22 Month̲21 Month̲20 Month̲19 Month̲18 Month̲17 Month̲16 Month̲15 Month̲14 Month̲13 Month̲12 Month̲11 Month̲10 Month̲09 Month̲08 Month̲07 Month̲06 Month̲05 Month̲04 1.60 Month̲27 0.60 Month̲26 0.70 Month̲25 Month̲24 Month̲23 Month̲22 Month̲21 Month̲20 Month̲19 Month̲18 Month̲17 Month̲16 Month̲15 Month̲14 Month̲13 Month̲12 Month̲11 Month̲10 Month̲09 Month̲08 Month̲07 Month̲06 0.40 Month̲05 0.50 Month̲03 1.20 Month̲04 Month̲02 Month̲01 1.40 Month̲03 Month̲02 Month̲01 医師1人当りディテーリング回数(月平均) 人間志向 医師の処方意欲 図表5.新薬に対する時系列反応分析:医師クラスターの分布 中間派 先進派 保守派 N=515 技術志向 図表6.新薬に対する時系列反応分析:ディテーリング回数の推移 1.80 医師1人当りディテーリング回数推移(薬剤X) クラスター1(保守派) クラスター2(中間派) クラスター3(先進派) 1.00 0.80 0.60 0.40 0.20 0.00

48.

り、このことをプロモーションに活用すれば、MR生産性を著しく高める可能性がある ことが明らかになった。 この他、補足的な分析として、各薬効領域間で医師クラスターが類似しているかどう かの確認も行った。その結果によれば、ARB、CCB、糖尿病治療薬等の医師クラス ターは非常に類似していることが明らかになった。このことは、複数薬効領域にまたが る主力製品を持つ製薬企業のプロモーションの生産性を高めるヒントを与えている。 4. 結論と今後の課題 (1)結論 本論文では、ミクロな観点から製薬企業の営業力分析を行った。基本的なモデルは、 売上高が、「ターゲティング(医師クラスター)」、「訪問回数(ディテーリング回数)」、 「訪問の質(ディテーリングの質)」の 3 要因で決まると考えるSFEモデルである。 医師クラスター別のMR活動に対する反応分析によれば、ディテーリングの量と質が 「新薬採用」や「処方増量」に及ぼす影響は、医師クラスターによりかなり異なること が明らかになった。 さらに、新薬上市時のディテーリング活動に対する医師の反応は、医師クラスターに より著しく異なることが明らかになった。 以上の分析結果により、医師クラスターを積極的に取り入れたディテーリング活動によ りMR生産性を著しく高められる可能性が実証できた。 (2)今後の課題 今後、製薬企業間の営業力の競争が、一層激化すると予想される。また、医療制度の改 革も次々に打ち出され、その対応が求められる。MR生産性向上の施策も、これらの変化 に対応することにより、継続的な効果を達成される。 今後の課題として、第一に、病院の特性と医師クラスターとを組合せたターゲティング 精度の向上が求められる。 第二に、MR活動に関して、ディテーリングの量よりも質が求められることが益々多く なっている。医師は、薬剤の説明を中心とした「狭い意味でのディテーリング」から、地 域連携や病院・診療所経営を含むより広い支援を期待している。このように、医療現場の 変化に即した、MR活動の質に関する研究も重要な課題である。 参考文献 (1) Andris A. Zoltners & Prabhakant Sinha、The Complete Guide to Accelerating Sales Force Performance、 ANACOM(2001) (2) 武藤 猛、効果的顧客ターゲティングのための一手法〜医薬品マーケティングへの 応 用 〜 、 SAS Forum ユ ー ザ 会 2005 論 文 集 、 pp.23‑29 、 SAS Forum ユ ー ザ 会 9 - 44 ー

49.

(2005.7.28‑29) (3) 武藤 猛、製薬企業の営業力分析〜SFEのアプローチによる〜、SAS Forum ユー ザ会 2006 論文集、pp.203‑211、SAS Forum ユーザ会(2006.7.27‑28) (4) 武藤 猛、新しい医師ターゲティング法(上)、(下)、Monthly ミクス(2005.8〜 2005.9) (5) 武藤 猛:MR生産性アップ法(1)〜(8)、医薬経済(2006 年 6 月 15 日号〜9 月 15 日号) (6) フィリップ・コトラー:マーケティング・マネジメント (1996) 10 - 45 ー 第7版、ダイヤモンド社、

50.

コンジョイント分析による行政施策評価の試み 有馬昌宏 兵庫県立大学大学院 川向肇 応用情報科学研究科 An Attempt of Applying Conjoint Analysis to Policy Evaluation in Local Government Masahiro Arima Hajime Kawamukai Graduate Faculty of Applied Informatics, University of Hyogo 要旨 自治体における Plan-Do-See のマネジメントサイクルの中で住民参加による政策評価を 行うための方法の一つとして,住民意識調査でのコンジョイント分析の適用の可能性を兵 庫県たつの市での住民意識調査結果から検証する.また,JMP で生存時間分析を利用して ランクロジットモデルによるコンジョイント分析を実施するにあたり,簡単な操作で分析 が行えるように作成した JSL スクリプトを紹介する. キーワード: 住民意識調査,政策評価,コンジョイント分析,ランクロジット分析,生 存時間分析 1.はじめに 地域社会に存在する問題を明らかにしたり,厳しい財政状況のもとで実現していくべき 施策の優先順位を検討するための基礎資料を得るための手段として,多くの自治体で住民 意識調査などの名称でアンケート調査が実施されている.しかし,従来の多くの調査では, 住民生活に関連する幅広い諸項目について5段階評価などの順序尺度に基づく重要度や満 足度の評価データが用いられることが多く,回答者の回答に際しての負担は軽いが,有馬・ 川向他[2・5・7]で指摘したように,政策立案や政策評価に利用するには,施策の重要 度の過大評価の問題も発生していた. その原因は,①公共施設などのいわゆる箱モノについては,世界あるいは日本に誇る立 派な施設という評価からもたらされる価値(prestige value:威光価値),②文化・福祉関 連施設やコミュニティバスなどの公的サービスについては,今は利用していなくても,供 給されていればいつでも利用できるという事実から生じる価値(option value:選択価値), また,③高齢者や乳幼児などの特定の住民セグメントを対象とするサービスなどについて は,自分がそのサービスの対象者に該当していなくても受益者が親戚・縁者にいるといっ - 46 ー

51.

た人間関係に基づく理由やそのようなサービスが供給されていることはよいことであると の考えから生じる価値(existence value:存在価値),が存在していることなどによる. これらの外部効果(外部性)から発生する価値のために,地域課題を解決するための諸施 設や諸サービスの重要度評価が個別に行われる場合や費用負担を考えずに行われる場合に は,諸施設や諸サービスの重要度が過大評価される傾向が存在するのである. そもそも,自治体で実施されている政策は,さまざまな分野で発生している問題の解決 のための個別の対策の集合体あるいはパッケージであり,財政的制約のもとで優先順位を つけて選別された施策の集合体であると考えるべきではないかということを有馬・川向 [5]で指摘した.そうであれば,施策や項目を独立かつ個別に評価する場合と,政策パッ ケージを構成する一要素として他の施策との関連で評価する場合とでは,重要度の評価結 果に違いが生じることは十分に想定できることである. そこで,我々の研究グループは,地域社会に存在する問題を明らかにし,限られた地方 財政予算の中で政策の優先順位を検討するための基礎資料を得るための手段として,これ までに質問紙法での住民意識調査におけるコンジョイント分析の可能性を検証してきた (有馬・川向[5・6・9・18]).また,多くの自治体で実施されている住民意識調査などの アンケート調査結果を地域の行政課題の抽出や政策評価に積極的に活用できるように,さ らにはその結果を住民が関心を持つとともに理解しやすいように地理情報システムを利用 して可視化して提示する方法について,その方法論の可能性と課題についても考察してき た(有馬・川向[1・3・4]). 本稿では,これまでの研究成果を踏まえながら,コンジョイント分析による政策評価を 組み込んだ住民意識調査の実施結果から,コンジョイント分析の可能性と課題について報 告するとともに,JMP で生存時間分析を利用してランクロジットモデルによるコンジョイ ント分析を実施するにあたり,簡単な操作で分析が行えるように作成した JSL スクリプト についても紹介する. 2.コンジョイント分析と政策評価 「コンジョイント分析」とは,評価対象に対する選好を回答者に直接訊ねて得られる表 明選好データ(Stated Preference)に基づいて分析する表明選好型のアプローチで,評価 対象を構成する属性別に個々の属性の効果(価値)およびその同時結合尺度(Conjoint Scale)を同時に評価することができる分析手法である.主に企業のマーケティング分野で 活用されてきているが,自治体の行政施策の評価に活用することも可能である. 近年,従来からの環境評価への応用に加えて,交通・通信や再開発事業などの個別の分 野の事業計画や事業評価にコンジョイント分析を適用する事例が多く見られるようになっ てきている.しかし, 「厳しい財政制約のもとで行政が提供している各種の幅広いサービス の水準をどのように決定すべきか」という喫緊の課題に関連しては,コンジョイント分析 を適用した政策判断や政策形成過程への国民や住民の参加が可能であると思われるにもか - 47 ー

52.

かわらず,ごく少数の一部の国民や住民を対象にパブリック・インボルブメントの一環と しての特定の分野・領域の政策や計画の代替案評価に適用される事例(例えば森山他[19], 木村他[14])が散見されるだけである.また,行政の担う分野・領域全般から幅広く属性 を選定してコンジョイント分析を試みている例は,栗山他[15]による受益と負担について の国民意識を探るための先駆的な事例はあるものの,我々にとって身近な市町村レベルで の総合的な行政施策評価にコンジョイント分析を適用している例は見られない. コンジョイント分析には,大きく分けて選択型コンジョイント(Choice-based Conjoint) と評定型コンジョイント(Rating-based Conjoint)の2つの手法があり,評定型を細かく 分類すると「順位付け評定法」,「評点型評定法」,「一対比較法」の3つに分類される.本 研究では,行政施策評価のために住民意識調査でコンジョイント分析が適用できるのでは ないかという可能性を探ることを目的としており,住民意識調査は質問紙法で行われ,調 査票の配布・回収は郵送や託送による場合がほとんどであることから,順位尺度による「評 定型コンジョイント分析」を適用することとした. 3.兵庫県たつの市での実証実験 兵庫県たつの市(2006 年3月 31 日現在で人口 82,800 人,27,718 世帯)の総合計画策 定のための全世帯を対象とする住民意識調査が 2006 年1月に実施される機会を捉えて, たつの市の協力のもと,コンジョイント分析を適用して施策の重要度を評価するための設 問を置いた調査票を住民意識調査のための調査票とは別に作成し,同時に配布して回収す る方法でコンジョイント分析の適用可能性を検証するための調査を実施した.調査の詳細 については,有馬・川向・天津[6]を参照されたい. この調査で設定した具体的な属性と水準内容は,「小学生の登下校時の安全確保」(保護 者や地域のボランティアによる見守り,全ての小学校に警備員を1人配置,全小学生に居 「コミュニティバスの運行」 (コミュニティバス 場所の分かる携帯電話を配布,の3水準), の廃止,毎日1便運行,毎日2便運行,の3水準)」 ,「70 歳以上高齢者の医療費負担(無 料化,1割負担に減額,国並の2割負担,の3水準)の3属性であり,統計解析パッケー ジソフトウェアのJMPの「カスタム計画」を利用して,3属性3水準による8つのプロ ファイルを生成した.調査票で示した設問は,図1に示すとおりである. 調査票の配布・回収に関しては,住民意識調査とコンジョイント分析の調査票を自治会 を通じて 25,525 票配布し,自治会を通じて回収した.住民意識調査の調査票は 20,800 票 が回収され,有効票は 20,314 票(有効回収率 79.6%)であった.コンジョイント分析に 関する調査票の回収数は 15,977 票(有効回収率は 62.6%)で,住民意識調査の有効回収 率と比較すると,17 ポイント低い回収率となっている.また,コンジョイント分析に関す る調査票が回収された世帯の中で順位付けを完全に行っていた世帯の比率は 53.3%,無回 答は 41.9%で,コンジョイント分析を適用して政策評価を行うための設問に対しては,完 全に回答への拒否反応が示されるわけではないが,反対に多くの調査対象者に回答しても - 48 ー

53.

図1 調査票でのコンジョイント分析適用のための設問 らえるわけでもないということが明らかとなった. 同点順位の回答がある場合の順位の変換や論理矛盾のある回答の処理などのデータのク リーニング作業の後,順位付けに関して問題がないと判断された 8,384 サンプルに対して, 以下の分析を行った. ①個々のサンプルに対して線形の効用関数を仮定し,OLSで各属性各水準の係数パラメ ータ(部分効用値)を推定し,各属性の各水準の係数パラメータである部分効用値の範囲 (最大値と最小値の値の差)が全属性の範囲の和に占める割合として定義される重要度を 算定した.結果については,有馬・川向・天津[6]ならびに有馬・川向[9]で紹介済みであ るが,表1に各部分効用値の属性別の平均を示している. ②個々のサンプルに対して線形の効用関数を仮定し,多項ロジットモデル(ランクロジッ トモデル)を適用すると,プロファイルj(j=1,2,…,8)が選択される確率Pjの対 数尤度関数がCoxの比例ハザードモデルで用いられる部分尤度(偏尤度)と同じ形をして いるという事実(栗山他[15],小代[17])を援用して,付録に示すJCLスクリプトによる生 存時間分析を適用し,属性集団別に部分効用値の推定を行った.表2には,性別,年齢, 職業,居住地(合併前旧市町別,小学校区別) ,家族構成,車の保有・運転状況という回答 者の属性集団別に行った部分効用値の推定結果を示している. これらの表から,年齢や職業や同居家族の構成などの個人属性によって部分効用値に違 いの存在することが明確に読み取れる.このような住民意識調査の結果を住民に分かりや すい形態・形式で還元し,それをベースに地域として何に重点的に取り組んでいくべきか が地域住民によって議論されていくことになれば,そこには,ハーバーマス[20]の提唱す る「公共圏(public sphere)」が形成されていく可能性が期待できるようになると我々は - 49 ー

54.

表1 個 人 属 性 コンジョイント分析属性 推定された部分効用値の回答者属性別の平均 小学生の登下校時の安全確保 コミュニティバスの運行 保護者や 全小学生に 全小学校に コミュニティ コミュニティ コミュニティ サンプル ボランティア 居場所の 警備員を バスを毎日 バスを毎日 による わかる携帯 バスの廃止 数 1人配置 1便運行 2便運行 見守り 電話配布 全体 8,384 0.5230 -0.6675 0.1445 -0.5653 0.5655 -0.0002 性 1. 男 4,694 0.5778 -0.7235 0.1456 -0.4549 0.5653 -0.1104 別 2. 女 3,604 0.4537 -0.6001 0.1464 -0.7092 0.5704 0.1388 1. 10歳代 17 0.4804 -0.2451 -0.2353 -0.6569 -0.0392 0.6961 2. 20歳代 273 0.3309 -0.2247 -0.1062 -0.7106 0.2930 0.4176 3. 30歳代 1,289 0.0643 -0.1964 0.1321 -0.5853 0.4469 0.1385 年 4. 40歳代 1,554 0.5182 -0.7413 0.2231 -0.6111 0.4674 0.1437 齢 5. 50歳代 2,259 0.6943 -0.8205 0.1262 -0.5418 0.5501 -0.0083 6. 60歳代 1,825 0.6620 -0.6702 0.0082 -0.4867 0.5859 -0.0993 7. 70歳代 900 0.5311 -0.8685 0.3374 -0.5907 0.8893 -0.2985 8. 80歳代以上 218 0.5489 -1.0734 0.5245 -0.6911 0.9511 -0.2599 1. 給与所得者 3,079 0.5157 -0.6599 0.1442 -0.5007 0.4628 0.0378 2. 農林水産自営業 239 0.5565 -0.6011 0.0446 -0.4421 0.5872 -0.1451 3. 自営業 742 0.6595 -0.7893 0.1298 -0.4699 0.5517 -0.0818 職 4. 専業主婦・主夫 1,260 0.4099 -0.5316 0.1217 -0.7356 0.5751 0.1605 業 5. パート・アルバイト 1,014 0.5012 -0.6221 0.1210 -0.6935 0.5881 0.1054 6. 学生 22 0.8561 -1.3106 0.4546 -0.5076 0.5152 -0.0076 7. 無職 1,796 0.5570 -0.7617 0.2047 -0.5150 0.7049 -0.1899 8. その他 168 0.5476 -0.5456 -0.0020 -0.7302 0.6210 0.1091 3,981 0.4722 -0.6148 0.1426 -0.5509 0.4908 0.0600 旧 1. 龍野 1,680 0.6068 -0.7507 0.1438 -0.8352 0.7431 0.0922 市 2. 新宮 1,403 0.5398 -0.6821 0.1423 -0.1939 0.5068 -0.3129 町 3. 揖保川 4. 御津 1,313 0.5491 -0.7053 0.1561 -0.6593 0.6278 0.0315 1. 播磨高原東 57 0.6550 -0.9532 0.2982 -0.5789 0.4561 0.1228 2. 西栗栖 220 0.5023 -0.5174 0.0152 -1.1826 0.7879 0.3947 3. 東栗栖 240 0.6139 -0.7778 0.1639 -0.9472 0.8069 0.1403 4. 香島 279 0.5836 -0.6625 0.0789 -0.8524 0.7372 0.1153 5. 新宮 547 0.6856 -0.8763 0.1907 -0.7428 0.7837 -0.0408 6. 越部 337 0.5534 -0.7186 0.1652 -0.7077 0.6558 0.0519 7. 龍野 575 0.5296 -0.6722 0.1426 -0.7330 0.5513 0.1817 小 8. 小宅 1,196 0.4291 -0.6044 0.1753 -0.5311 0.4367 0.0943 学 9. 揖西東 372 0.5394 -0.5600 0.0206 -0.5968 0.4597 0.1371 校 10. 揖西西 478 0.5122 -0.6426 0.1304 -0.5917 0.5119 0.0799 区 11. 揖保 484 0.4590 -0.5988 0.1398 -0.4225 0.4690 -0.0465 12. 誉田 298 0.4413 -0.7030 0.2617 -0.2176 0.5224 -0.3048 13. 神岡 578 0.4553 -0.5597 0.1044 -0.6266 0.5473 0.0793 14. 半田 501 0.6401 -0.7665 0.1264 -0.3526 0.5476 -0.1949 15. 神部 729 0.4680 -0.6253 0.1573 -0.0181 0.4518 -0.4337 16. 河内 173 0.5520 -0.6773 0.1252 -0.4750 0.6204 -0.1455 17. 御津 1,192 0.5464 -0.6865 0.1401 -0.5998 0.5990 0.0008 18. 室津 121 0.5758 -0.8898 0.3141 -1.2452 0.9118 0.3333 1. 配偶者無 1,460 0.5068 -0.6562 0.1493 -0.6505 0.5852 0.0653 2. 配偶者有 6,924 0.5264 -0.6699 0.1435 -0.5474 0.5614 -0.0140 1. 親非同居 6,206 0.4934 -0.6481 0.1547 -0.5431 0.5793 -0.0363 2. 親同居 2,178 0.6074 -0.7229 0.1155 -0.6288 0.5262 0.1026 家 1. 祖父母非同居 8,104 0.5261 -0.6679 0.1418 -0.5624 0.5633 -0.0008 族 2. 祖父母同居 280 0.4339 -0.6566 0.2226 -0.6494 0.6310 0.0185 構 1. 就学前児童無 7,112 0.5965 -0.7546 0.1581 -0.5689 0.5888 -0.0199 成 2. 就学前児童有 1,272 0.1120 -0.1807 0.0687 -0.5455 0.4353 0.1102 1. 小中学生無 6,455 0.6061 -0.7212 0.1150 -0.5742 0.5776 -0.0035 2. 小中学生有 1,929 0.2447 -0.4880 0.2433 -0.5357 0.5250 0.0107 1. 高校・大学生無 6,888 0.4747 -0.6288 0.1541 -0.5649 0.5948 -0.0299 2. 高校・大学生有 1,496 0.7454 -0.8459 0.1005 -0.5674 0.4309 0.1365 自 1. 自家用車保有 7,696 0.5280 -0.6568 0.1289 -0.5554 0.5416 0.0138 家 2. 自家用車非保有 575 0.4699 -0.8171 0.3472 -0.6838 0.8580 -0.1742 用 1. 自動車運転 7,126 0.5216 -0.6469 0.1253 -0.5393 0.5371 0.0022 車 2. 自動車非運転 1,200 0.5229 -0.7813 0.2583 -0.7085 0.7236 -0.0151 属性値 - 50 ー 70歳以上高齢者の医療負担 医療費を 無料化 医療費を 1割負担に 減額 医療費は 国並に 2割負担 0.2534 0.2442 0.1314 0.0294 -0.1551 0.1080 0.0453 0.1521 0.3108 0.4696 0.5413 0.1209 0.2455 0.1244 0.0372 0.2398 -0.4924 0.4408 0.0516 0.2972 0.2021 0.2238 0.2226 -0.1053 0.3280 0.1278 0.1189 0.0780 0.2705 0.1220 0.1643 0.1031 0.2172 0.2476 0.2511 0.1589 0.2242 0.1758 -0.0684 0.3283 0.3058 0.2982 0.1713 0.2349 0.0752 0.1879 0.3518 0.2265 0.0080 0.2072 0.1472 0.2336 0.0081 0.1727 0.5070 0.1558 0.4071 -0.4468 0.2223 0.2876 0.7549 0.3858 0.1902 0.2842 0.2114 0.3049 0.2993 0.0489 0.2075 0.3989 0.2161 0.3152 0.2063 0.1288 0.2973 0.4484 -0.4718 -0.3591 -0.3868 -0.5489 0.0994 0.2568 0.2486 0.2503 0.1243 0.2369 0.3481 0.3315 0.3369 0.3176 0.2042 0.2209 0.2500 0.2535 0.1991 0.2418 0.2374 0.0771 0.2865 0.2464 0.2567 0.2439 0.2594 0.0780 0.2473 0.2873 0.2722 0.1904 0.2328 0.3482 0.2568 0.1957 0.2524 0.2654 0.1934 -0.4666 -0.4190 -0.7843 -0.2308 -0.2982 -0.3295 -0.3634 -0.6157 -0.7689 -0.5902 -0.3284 -0.6444 -0.3405 -0.3524 -0.4461 0.3636 -0.7381 -0.5000 0.1747 0.1570 0.1630 0.3262 0.0059 -0.5849 -0.3764 -0.3692 -0.2023 -0.5074 -0.4701 -0.4958 -0.4400 -0.5349 -0.4518 -0.4720 -0.4089 -0.4777 -0.3749 -0.1734 -0.5657 -0.3829 -0.5847 -0.4177 -0.4916 -0.3191 -0.4474 -0.4298 -0.4739 -0.2953 -0.4794 -0.3377 -0.4664 -0.3563 -0.4295 -0.7026 -0.4081 -0.6725

55.

表2 ランクロジット分析を適用して推定された回答者属性別の部分効用値 サンプ ル数 全体 男性 女性 10歳代 20歳代 30歳代 年 40歳代 齢 50歳代 60歳代 70歳代 80歳以上 給与所得者 農林水産業 自営業者 職 家事専業 業 パート・アルバイト 学生 無職 その他の職業 旧龍野市 旧 旧新宮町 市 町 旧揖保川町 旧御津町 播磨高原東 西栗栖 東栗栖 香島 新宮 越部 龍野 小 小宅 学 揖西東 校 揖西西 区 揖保 誉田 神岡 半田 神部 河内 御津 室津 配偶者有 配偶者無 親同居 親非同居 家 祖父母同居 族 祖父母非同居 属 就学前幼児有 性 就学前幼児無 小・中学生有 小・中学生無 高校・大学生有 高校・大学生無 自 自家用車保有 家 自家用車非保有 用 自動車運転 車 自動車非運転 性 8,384 4,694 3,604 17 273 1,289 1,554 2,259 1,825 900 218 3,079 239 742 1,260 1,014 22 1,796 168 3,981 1,680 1,403 1,313 57 220 240 279 547 337 575 1,196 372 478 484 298 578 501 729 173 1,192 121 6,924 1,460 2,178 6,206 280 8,104 1,272 7,112 1,929 6,455 1,496 6,888 7,696 575 7,126 1,200 小学生の登下校時の安全確保 コミュニティバスの運行 70歳以上高齢者の医療費負担 対数尤度 ボランティアの見守り 携帯電話配布 毎日1便運行 毎日2便運行 1割負担減額 国並の2割負担 推定値 t値 推定値 t値 推定値 t値 推定値 t値 推定値 t値 推定値 t値 *** *** *** ** *** -691674.4 0.1864 32.26 -0.2792 -16.89 0.2565 15.00 -0.0389 -2.07 0.1450 8.79 -0.1666 -11.42 *** *** *** *** *** *** -365434.3 0.2055 26.60 -0.2899 -13.13 0.2548 11.15 -0.0698 -2.79 0.1427 6.47 -0.1781 -9.14 *** -272970.5 0.1641 18.63 *** -0.2773 -10.99 *** 0.2683 10.28 *** -0.0098 -0.34 0.1367 5.44 *** -0.1438 -6.46 *** -559.5 0.2209 1.71 * -0.1939 -0.52 -0.0159 -0.04 0.1894 0.45 0.2930 0.80 -0.2500 -0.77 -15084.5 0.1101 3.45 *** -0.1439 -1.57 0.1505 1.59 0.1010 0.97 0.1480 1.62 -0.0765 -0.95 *** *** ** -87288.4 0.0238 1.62 -0.1351 -3.21 0.2053 4.71 0.0034 0.07 0.1001 2.38 -0.1080 -2.91 *** -107255.4 0.1835 13.67 *** -0.3217 -8.37 *** 0.2348 5.91 *** -0.0053 -0.12 0.1360 3.55 *** -0.1143 -3.37 *** -162584.5 0.2487 22.28 *** -0.3171 -9.96 *** 0.2436 7.39 *** -0.0328 -0.91 0.1462 4.60 *** -0.1491 -5.31 *** -128091.2 0.2509 20.18 *** -0.3012 -8.50 *** 0.2987 8.14 *** -0.0967 -2.41 ** 0.1588 4.49 *** -0.2128 -6.81 *** -57883.0 0.2075 11.75 *** -0.3761 -7.44 *** 0.4210 8.05 *** -0.1715 -2.99 *** 0.1635 3.25 *** -0.2700 -6.06 *** -11547.8 0.1989 5.55 *** -0.3949 -3.85 *** 0.3982 3.75 *** -0.1035 -0.89 0.1203 1.18 -0.2531 -2.80 *** -229557.9 0.1831 19.21 *** -0.2753 -10.10 *** 0.2127 7.54 *** -0.0191 -0.62 0.1257 4.62 *** -0.1286 -5.34 *** -12897.6 0.1811 5.30 *** -0.1424 -1.46 0.1757 1.73 * 0.0365 0.33 0.3149 3.20 *** -0.3238 -3.72 *** -46817.8 0.2280 11.73 *** -0.3043 -5.48 *** 0.2431 4.23 *** -0.0543 -0.86 0.1553 2.80 *** -0.1497 -3.05 *** -84873.9 0.1459 9.81 *** -0.2577 -6.04 *** 0.2866 6.49 *** -0.0137 -0.28 0.1305 3.07 *** -0.1104 -2.94 *** -66514.9 0.1764 10.62 *** -0.2685 -5.65 *** 0.2499 5.08 *** -0.0047 -0.09 0.1284 2.71 *** -0.1684 -4.01 *** -764.0 0.3256 2.86 *** -0.6455 -1.96 ** 0.3521 1.04 -0.1477 -0.40 -0.0421 -0.13 0.2097 0.73 -125674.8 0.2107 16.85 *** -0.3311 -9.27 *** 0.3420 9.25 *** -0.1324 -3.27 *** 0.1560 4.38 *** -0.2516 -7.98 *** *** ** *** * -8585.0 0.2219 5.42 -0.2743 -2.35 0.3431 2.83 -0.0386 -0.29 0.1916 1.65 -0.1560 -1.51 -304817.3 0.1667 19.89 *** -0.2639 -11.00 *** 0.2331 9.39 *** -0.0241 -0.89 0.1543 6.45 *** -0.1707 -8.06 *** *** *** *** *** -116792.1 0.2197 17.00 -0.2992 -8.10 0.3151 8.25 0.0039 0.09 0.1417 3.85 -0.1453 -4.46 *** -95774.5 0.1926 13.64 *** -0.2862 -7.09 *** 0.2301 5.51 *** -0.1371 -2.99 *** 0.1361 3.37 *** -0.1528 -4.29 *** -88735.5 0.1983 13.57 *** -0.2925 -7.00 *** 0.2769 6.41 *** -0.0255 -0.54 0.1425 3.42 *** -0.2045 -5.54 *** -2429.2 0.2152 3.07 *** -0.3638 -1.81 * 0.2170 1.05 -0.0036 -0.02 0.0526 0.26 -0.0040 -0.02 -11677.4 0.1923 5.38 *** -0.2030 -1.99 ** 0.3154 2.99 *** 0.1271 1.10 0.1643 1.61 -0.2477 -2.75 *** -12924.7 0.2254 6.59 *** -0.3309 -3.38 *** 0.3619 3.58 *** 0.0025 0.02 0.1669 1.71 * -0.1485 -1.72 * -15386.7 0.2098 6.62 *** -0.2503 -2.77 *** 0.2964 3.16 *** 0.0429 0.42 0.1885 2.08 ** -0.1737 -2.17 ** -33142.7 0.2367 10.45 *** -0.3656 -5.64 *** 0.3566 5.32 *** -0.0738 -1.01 0.0730 1.13 -0.0541 -0.95 -19098.3 0.2126 7.36 *** -0.2578 -3.13 *** 0.2531 2.97 *** 0.0248 0.27 0.2048 2.49 ** -0.2361 -3.24 *** *** *** *** *** -35065.2 0.1845 8.37 -0.2899 -4.59 0.2717 4.16 0.0091 0.13 0.1897 3.01 -0.1722 -3.09 *** -80070.6 0.1479 9.68 *** -0.2307 -5.28 *** 0.1819 4.02 *** 0.0287 0.58 0.1978 4.53 *** -0.2098 -5.43 *** -21428.7 0.1887 6.88 *** -0.2377 -3.03 *** 0.2162 2.66 *** 0.0083 0.09 0.1774 2.26 ** -0.1681 -2.43 ** -28470.0 0.1833 7.58 *** -0.2771 -4.00 *** 0.2393 3.34 *** -0.0243 -0.31 0.1672 2.42 ** -0.1970 -3.22 *** -28929.7 0.1600 6.66 *** -0.2749 -3.99 *** 0.2304 3.24 *** -0.0732 -0.94 0.0938 1.37 -0.1452 -2.39 ** -16647.1 0.1660 5.42 *** -0.2889 -3.30 *** 0.2265 2.50 ** -0.1345 -1.35 0.1324 1.51 -0.1761 -2.27 ** -35345.4 0.1703 7.74 *** -0.2961 -4.70 *** 0.3143 4.81 *** -0.0884 -1.24 0.0709 1.13 -0.0901 -1.62 -30034.1 0.2272 9.60 *** -0.2850 -4.22 *** 0.2054 2.94 *** -0.0653 -0.85 0.1882 2.79 *** -0.2047 -3.42 *** -45972.4 0.1694 8.65 *** -0.2839 -5.07 *** 0.2278 3.93 *** -0.1915 -3.01 *** 0.1032 1.84 * -0.1376 -2.79 *** -8907.3 0.2022 5.02 *** -0.3061 -2.66 *** 0.3116 2.61 *** -0.1120 -0.86 0.1335 1.16 -0.0709 -0.70 -79659.5 0.1969 12.84 *** -0.2839 -6.48 *** 0.2626 5.79 *** -0.0322 -0.65 0.1480 3.38 *** -0.2114 -5.46 *** -5829.1 0.2190 4.54 *** -0.4234 -3.06 *** 0.4558 3.18 *** 0.0123 0.08 0.0626 0.46 -0.1084 -0.89 -560721.0 0.1862 29.28 *** -0.2770 -15.24 *** 0.2522 13.40 *** -0.0406 -1.97 ** 0.1440 7.94 *** -0.1599 -9.96 *** -99930.3 0.1871 13.50 *** -0.2881 -7.27 *** 0.2764 6.74 *** -0.0291 -0.65 0.1506 3.81 *** -0.1997 -5.71 *** -156181.6 0.2215 19.50 *** -0.3106 -9.57 *** 0.2511 7.48 *** -0.0153 -0.42 0.1394 4.31 *** -0.1143 -3.99 *** -497031.9 0.1742 25.96 *** -0.2681 -13.96 *** 0.2591 13.04 *** -0.0469 -2.15 ** 0.1468 7.66 *** -0.1848 -10.90 *** -15489.1 0.1560 4.94 *** -0.2817 -3.11 *** 0.2620 2.80 *** -0.0243 -0.24 0.0808 0.90 -0.1542 -1.93 * -666364.9 0.1874 31.89 *** -0.2791 -16.60 *** 0.2564 14.74 *** -0.0393 -2.06 ** 0.1473 8.78 *** -0.1671 -11.26 *** -86002.3 0.0419 2.84 *** -0.1315 -3.10 *** 0.2096 4.77 *** -0.0061 -0.13 0.1263 2.98 *** -0.1031 -2.76 *** -577006.6 0.2153 34.28 *** -0.3096 -17.25 *** 0.2684 14.46 *** -0.0486 -2.39 ** 0.1472 8.22 *** -0.1769 -11.16 *** -136711.9 0.0906 7.54 *** -0.2454 -7.12 *** 0.2507 7.03 *** -0.0552 -1.41 0.0848 2.47 ** -0.1104 -3.63 *** -518702.4 0.2175 32.99 *** -0.2917 -15.49 *** 0.2612 13.40 *** -0.0357 -1.67 * 0.1637 8.71 *** -0.1830 -11.00 *** -102679.5 0.2688 19.58 *** -0.3443 -8.79 *** 0.2165 5.35 *** 0.0030 0.07 0.1797 4.60 *** -0.1344 -3.89 *** -557476.4 0.1687 26.48 *** -0.2638 -14.47 *** 0.2655 14.07 *** -0.0467 -2.26 ** 0.1382 7.60 *** -0.1743 -10.83 *** 629748.8 0.1880 31.17 *** -0.2756 -15.98 *** 0.2463 13.80 *** -0.0335 -1.71 * 0.1453 8.45 *** -0.1615 -10.61 *** 34968.1 0.1647 7.47 *** -0.3175 -5.03 *** 0.3853 5.89 *** -0.0991 -1.38 0.1402 2.23 ** -0.2539 -4.56 *** 578814.3 0.1861 29.69 *** -0.2757 -15.38 *** 0.2483 13.39 *** -0.0409 -2.01 ** 0.1410 7.88 *** -0.1515 -9.58 *** 80111.7 0.1845 12.08 *** -0.2947 -6.74 *** 0.3040 6.72 *** -0.0255 -0.51 0.1703 3.91 *** -0.2582 -6.69 *** - 51 ー

56.

考えている. 一見すれば,本研究で行っている住民意識調査結果の住民への還元や可視化は,住民間 の対立をさらに煽るような結果をもたらしかねないのではないかという懸念を生むかもし れない.そうではなく,本研究で目指しているのは,住民間で地域や年代や居住年数など による対立があることだけを明らかにして対立を可視化して煽るのではなく,意識や考え の対立の背後にある根拠を明らかにし,その根拠を理解した上で利害集団間で協調を模索 する過程を経て,地域のあるべき姿とそこへ到達するための方策,換言すれば地域の戦略 を立案・実施していくという「公共圏」の確立へと向けての可能性を追求することなので ある.なお,推定された部分効用値や重要度についての詳細な分析については,今後の課 題として残されている. 4.まとめ 本研究では,コンジョイント分析を住民意識調査に用いることの可能性と課題を示した. ところで,地方自治体で実施される住民意識調査などのアンケート調査結果は,本稿で も指摘したように,住民のライフステージやライフスタイルを規定する人口統計学上の属 性や社会経済的な属性によって異なっているだけではなく,行政の提供するサービス水準 が同じ自治体内でも町内会・自治会レベルあるいは小学校区レベルでの小地域で異なって いるため,地域構造や地域特性も考慮に入れる必要がある.地域構造や地域特性を無視し た回答データの単純集計やクロス集計では,地域社会が抱える行政課題を正しく捉えるこ とはできない.いわゆる平成の大合併が進められ,1999 年3月 31 日時点の 3,232 市町村 から 2007 年7月1日現在で 1,804 町村へと大きく市町村数が減少して地方自治体の空間 構造が変化した現在では,特にこの点を強調しても強調しすぎることはない状況にあると いえよう. 一方で,近年,エージェンシー化や市場化テスト,さらには TQM(Total Quality Management)やベンチマーキングといった手法から構成される NPM(New Public Management)など,民間の効率的経営手法を行政分野にも積極的に取り入れていこうと いう試みが全国の自治体で進められている.しかし,いかに効率性(efficiency)を追求し ても,行政目的が達成されているかどうかに関わる有効性(effectiveness)が保証されてい ないのであれば,換言すれば,真の住民ニーズや地域課題が適切に把握されず,過大評価 されたニーズや偏った課題が住民ニーズや地域課題として取り上げられて行政目標や解決 すべき地域の問題として設定されるのであれば,統計学,特に統計的検定の分野での専門 用語である『第1種の過誤』と『第2種の過誤』の概念を前提に統計学者の Kimball[21] が定義して Raiffa[22]がその著書の中で紹介した「間違った問題を正しく解く」という『第 3種の過誤(The Third Type Errors)』を犯すことになり,いくら効率性を追求しても真 の地域問題の解決には何の貢献も果たせずに行政の執行努力は無意味なものとなってしま いかねない. - 52 ー

57.

本研究の今後の課題として,真の住民ニーズを把握するための仕組みを,具体的には地 理情報システムと住民意識調査によって現状認識の共有と地域課題の表出を支援するため のシステムを構築し,タウンミーティングなどを通じて「公共圏」の構築の可能性を探る とともに,加藤・有馬[12]で提案したマインドシェアの概念の行政への応用可能性も考え ながら,その有効性を検証していきたい. 謝辞 本研究は,平成 17・18 年度科学研究費補助金(基盤研究(C)課題番号:17510132) を受けて行った「地理情報システムを活用した人間サイズのまちづくり支援システムの構 築」,ならびに兵庫県たつの市との共同研究「たつの市総合計画策定に係る市民意識調査票 の作成及び分析を通じた住民参加のまちづくりに関する研究」の研究活動の一環として行 った研究成果の一部である.たつの市で住民意識調査を実施するにあたり,たつの市民の 皆様にご協力をいただくとともに,調査票の配布に際してたつの市から格別のご配慮をい ただいた.この場を借りて深く感謝します. 参考文献 [1]有馬昌宏・川向肇・黒田佳代・田中有紀・藤尾俊幸・繆青,「GISを活用した地域社 『経営情報学会 2005 年春季全国研究発表大会予稿集』, 会マネジメントシステムの構築」, pp.314-317,経営情報学会,2005. [2]有馬昌宏・藤尾俊幸・繆青・黒田佳代・田中有紀・川向肇, 「JMP を利用した CVM に よる政策評価」, 『SAS Forum ユーザー会学術総会 2005 論文集』,pp.415-424,SAS Forum ユーザー会,2005. [3]有馬昌宏・川向肇,「地域における公共圏構築と GIS-GIS による地域社会マネジメン トシステムの構築-」, 『地理情報システム学会講演論文集かっこ』,pp.107-112,2005. [4]有馬昌宏・川向肇,「地域社会の有効なマネジメントのための住民ニーズ表出システム 『経営情報学会 2005 年秋季全国研究発表大会予稿集』,pp.114-117,2005. に関する研究」, [5]有馬昌宏・川向肇,「住民意識調査による政策評価へのコンジョイント分析の適用可能 『オフィス・オートメーション学会・経営情報学会 2006 年合同・ 性に関する基礎的研究」 , 全国研究発表大会予稿集』,pp.468-471,2006. [6]有馬昌宏・川向肇・天津重伸, 「JMP によるコンジョイント分析と住民意識調査への応 用-JSL スクリプトを利用したコンジョイント分析の実装化-」,『SAS Forum ユーザー 会学術総会 2006 論文集』 ,pp.245-259,2006. [7]有馬昌宏・川向肇,「有効な地域社会マネジメントシステムのための住民ニーズの表出 『日本計画行政学会第 29 回全国大会報告要旨集』 ,pp.215-218,2006. に関する基礎的研究」, [8]有馬昌宏・川向肇, 「地域社会の有効なマネジメントのための住民ニーズ表出への AHP の適用可能性に関する基礎的研究」 ,『日本地域学会第 43 回(2006 年)年次大会プログラム - 53 ー

58.

学術発表論文要約集』,pp.67-68,日本地域学会,2006. (フルペーパーはCD-ROMに よる論文集に収録) [9]有馬昌宏・川向肇,「地方自治体におけるコンジョイント分析を活用した政策評価の可 能性と課題」,『経営情報学会 2007 年春季全国研究発表大会予稿集,pp.210-213,2007. [10]大橋靖雄・浜田知久馬,『生存時間分析-SAS による生物統計-』,東京大学出版会, 1995. [11]片平秀貴,『マーケティング・サイエンス』,東京大学出版会,1997. 「コンジョイント分析による岩津ネギの青ネギ形態に対する消費 [12]加藤雅宣・有馬昌宏, 者評価」,『近畿中国四国農業研究』 ,第6号,pp.79-87,2005. [13]加藤雅宣・有馬昌宏・川向肇, 「JMP5.1 を活用したコンジョイント分析による農産物 の消費者評価」,『SAS Forum ユーザー会学術総会 2005 論文集』,pp.283-300,2005. [14]木村健太郎・岡村敏之,「コンジョイント分析を用いた観光地道路の事業評価」,財団 法人道路経済研究所平成 13 年度第 14 回懸賞論文優秀作,2002. 「受益と負担についての国民意識 [15]栗山浩一・茨木秀行・高橋慶子・植田博信・井上崇, に関する考察」,経済財政分析ディスカッション・ペーパー(DP/05-1),内閣府政策統括 官室,2005. [16]小島隆矢,「公共施設のニーズおよび顧客満足度に関する調査分析技術の開発」,独立 行政法人建築研究所平成 16 年度講演会資料,2005. [17]小代禎彦,「JMP によるコンジョイント分析」,JMPer's Meeting 2006-3 発表資料, 2006. [18]田中洋平・黒田佳代・加藤雅宣・川向肇・有馬昌宏,「行政施策評価へのコンジョイ ント分析適用の可能性と課題」, 『SAS Forum ユーザー会学術総会 2006 論文集』,pp.261 -270,2006. 「高齢社会における過疎集落の交通サービス水準と生 [19]森山昌幸・藤原章正・杉恵頼寧, 活の質の関連性分析」, 『土木計画学研究・論文集』,No.19(4),pp.725-732,2002. [20]ユルゲン・ハーバーマス(細谷貞雄・山田正行訳),『公共性の構造転換(新版)』,未来 社,1994. “Errors of the Third Kind in Statistical Consulting,” Journal of the [21]Kimball,A.W., American Statistical Association,Vol.52,No.278, pp.133-142,1957. [22]Raiffa,H.,Decision Analysis:Introductory Lectures on Choices under Uncertainty, Addison-Wesley,1968(宮澤光一・平館道子訳, 『決定分析入門』,東洋経済新報社,1972). - 54 ー

59.

付録 JSLスクリプトを用いた生存時間分析を援用したランクロジット分析 以下に示すのは,生存時間分析を援用してランクロジット分析を実施するための処理を自動 化するための JCL スクリプトである.本 JCL スクリプトを実行するためには,プロファイルに 対する順位が数値型で入力されているデータテーブルと図1に例示するような分析対象となる プロファイルがコードで定義されているデータテーブルを事前に用意しておく必要がある. 図1 コードでプロファイルを定義するデータテーブルの例 注)論文の図1の8つのプロファイルをコードで表現したテーブルである. 図2 ランクロジット分析のためのJSLスクリプト //--------------------------------------------------------/* Conjoint Analysis Using Survival Time Analysis Script */ // Coded by Hajime Kawamukai // Create Date: 2007May05 // Last Modified: 2007June21 //--------------------------------------------------------/* 変数の初期化 */ 1:tblVariables=[]; /* 文字型の属性水準によるプロファイル定義行列(プロファイル数×属性数) */ 2:SourceDataTable=[]; /* 全オブザベーションのプロファイル順位付けデータ格納行列 */ 3:AddCol=[]; - 55 ー

60.

/* 各オブザベーションのプロファイル順位付けデータ格納列ベクトル */ 4:ProfileLIST=[]; /* コード化された属性水準によるプロファイル定義行列 */ 5:TMPLIST=[]; /* コード化された属性水準によるプロファイル定義行列の横にその順位データも保存 */ /* するための行列(プロファイル数×(属性数+1)) */ 6:FINALLIST=[]; /* 生存時間分析用データ格納行列 */ /* ((オブザベーション数×プロファイル数)×(属性数+1) )*/ //----------------------------------------/* プロファイルとデータファイルの定義 */ //----------------------------------------// 各プロファイルをコード化した属性水準で定義したプロファイル定義用JMP // ファイルの選択を促すダイアログの表示 7: dlgShow=Dialog("コンジョイント分析で使う分析対象のプロファイルの入った JMP ファイル を指定します.",Button("OK")); // プロファイル定義用JMPファイルを通常のファイルダイアログから選択 8:dlgShow=Open(); // プロファイルが定義されたデータテーブルを tblVariables に代入 9:tblVariables=Current Data Table(); // 回答者のプロファイルに対する順位付けデータが入力されているJMPファイ // ルの選択を促すダイアログの表示 10:dlgShow=Dialog("コンジョイント分析で用いる回答者のプロファイルの順位付けデータが 入った JMP ファイルを指定します.", Button("OK")); // プロファイル順位データが記録されたJMPファイルをダイアログから選択 11:dlgOpenTable=Open(); // プロファイル順位付けデータ列の選択を促すダイアログの表示 12:dlgShow=Dialog( "コンジョイント分析で使う回答者のプロファイル順位付けデータが保存 された複数列を指定します.",Button("OK")); // プロファイル順位付けデータ列選択用のダイアログを表示の上で選択された複 // 数列の変数名の集合を dlgOrderList に保存 // ダイアログのリストで選択された変数名は OrdersVarNames に代入 // このリストは SourceDataTable にデータを代入する際にも利用 13:dlgOrderList=ColumnDialog( OrdersVarNames=ColList("順位の列",MinCol(1)) ); - 56 ー

61.

//----------------------------------------------/* プロファイルの順位付けデータの読み込み */ //----------------------------------------------// OrderVarNames に取り込んだ列名に対応するデータを一つずつ SourceDataTable // の後ろに追加 14:For(i=1,i<=NItems(dlgOrderList["OrdersVarNames"]),i++, 15: ColumnDatabyName=Column(dlgOrderList["OrdersVarNames"][i])<<Get As Matrix; 16: SourceDataTable=Concat(SourceDataTable,ColumnDatabyName); ); // メモリの節約と処理速度の向上のために dlgOrderList をクローズ 17:Close(dlgOpenTable, No Save); // 画面に表示されているデータテーブルの内容を ProfileList に代入 18:ProfileLIST=tblVariables<<GetAsMatrix; //-------------――――――----------------------------------------------/* 生存時間分析によるランクロジット分析適用のためのデータテーブル作成 */ //-------------------------――――――----------------------------------19:i=0; // 全オブザベーションについて個々のプロファイル定義行ベクトルとそのプロフ // ァイルに対応する順位データを縦方向に並べるループの開始 20:For(i=1,i<=NRow(SourceDataTable),i++, // オブザベーション i のプロファイルの順位データを取得・転置して列ベクトル化 21: AddCol=Transpose(SourceDataTable[i,0]); // 取得した順位データベクトルをプロファイル定義行列の末尾に右側から追加 22: TMPLIST2=Concat(ProfileLIST,AddCol); // オブザベーションiのプロファイル定義行列および順位データベクトルを生存 // 時間分析用データ行列に下側から追加 23: FINALLIST=VConcat(FINALLIST,TMPLIST2); ); // 全オブザベーションについて個々のプロファイル定義行ベクトルとそのプロフ // ァイルに対応する順位データを縦方向に並べるループの終了 //--------―--------------------------------------/* 分析用データテーブルへの格納とテーブルの管理 */ //------------------------------------------------// 作成された生存時間分析用のデータ行列をデータテーブルに格納 24:tblLIST=As Table(FINALLIST); // コードで表現されたプロファイル定義用テーブルを保存せずにクローズ - 57 ー

62.
[beta]
25:Close(tblVariables, No Save);
// 分析結果で属性水準が文字表記できるように数値型属性水準を文字型に変更
26:column(1)<<data type(character);
27:column(2)<<data type(character);
28:column(3)<<data type(character);
// プロファイルを定義する属性が4以上ある場合には,必要な数だけ 28 行を複写
// の上で括弧内の列番号を書き換えて追加のこと
// 具体的に文字型の属性水準を定義して置き換えるためのループ
// プロファイルを定義する属性が4以上ある場合には,必要な数だけ 28 行を複写
// の上で列番号を書き換えて追加のこと
29:for(i=1,i<=Nrow(tblLIST),i++,
// 第1属性のコード表記された属性水準を漢字表記に置き換え
30:

if(列 1[i]=="101",列 1[i]="ボランティア",列 1[i]=="102",列 1[i]="携帯電話",列 1

[i]=="103",列 1[i]="警備員");
// 第2属性のコード表記された属性水準を漢字表記に置き換え
31:

if(列 2[i]=="201",列 2[i]="廃止",列 2[i]=="202",列 2[i]="1日1便",列 2[i]=="20

3",列 2[i]="1日2便");
// 第3属性のコード表記された属性水準を漢字表記に置き換え
32:

if( 列 3[i]=="301", 列 3[i]="無料化",列 3[i]=="302",列 3[i]="1 割負担",列 3[i]=="

303",列 3[i]="2 割負担");
// プロファイルを定義する属性が4以上ある場合には,必要な数だけ 32 行を複写
// の上で列番号と"コード"と"漢字表記の属性水準"を書き換えて追加のこと
);
//--------------------------/* 生存時間分析の実施

*/

//--------------------------//比例ハザードモデルによる生存時間分析の実施
33:モデルのあてはめ(
Y( :列 4),
/* 列 4 は(属性数+1)の値で置き換えのこと */
効果( :列 1, :列 2, :列 3),
/* 列 1 から列 3 までの並びは属性数に応じて書き換えのこと */
手法(比例ハザード), モデルの実行(レポートへ送信(ディスパッチ({},
"反復の履歴", OutlineBox, 閉じる(0))))
);

- 58
63.

統計的手法を用いた歌舞伎狂言における役の格付け 坂部 裕美子 (財) 統計情報研究開発センター Rating Roles of Kabuki drama using Statistical Method Yumiko Sakabe Statistical Information Institute for Consulting and Analysis 要旨 歌舞伎狂言中の一つ一つの役柄には、役の「格」とも言えるある種の階層構造がある。 この階層構造を、上演データおよび役者それぞれについてのデータからクラスター分析を 行った結果、特に女形の役について興味深い分類区分が見えてきた。 キーワード:歌舞伎、女形、cluster プロシジャ 1 分析の目的 歌舞伎狂言における役々は、女形・立役、もしくは、侍の役・町人の役というような外 見で用意に判別できる分類以外に、役それぞれに「格」というべきものが存在している。 長く歌舞伎を観ていると、公演予定の演目発表を見て「若手の誰々が初役であの大役を演 じるようだ」「ついに誰々があの役を務めるようになったのか」という感慨に包まれること があるが、これは直感的にその役者が目に見えない階段を一段上がった、ということを理 解したからに他ならない。新劇の世界と違い、歌舞伎はこの辺りはかなり厳格であり、一 度「上」の役についた役者は、もうその狂言に「格下」の役で出ることはほとんどないし (「ご馳走」と称してわざと出演することもある)、次回以降の出演作での扱いも次第に変 わっていくことになる。 この「役の格」の根拠は、強いて言えば「先人の配役の経験」である。 「これは先代の誰々 が務めたほどの大きい役だ」というような、以前の上演における配役の蓄積である。そし て、「家系」や「家の格」を重んじる歌舞伎の世界では、その定義に議論の余地はあるにせ よ、「名家の大名跡」が演じる役ほど「重い役」「大きい役」と考えられ、まだ技量の浅い 若手や門閥外の俳優にはなかなか演じる機会が回ってこない。この「役の格」は、もちろ んどんな書籍にも出ていないし、その役をやるようになったからと言って配役一覧の文字 が大きくなるわけでもないので、歌舞伎に興味のない部外者には分かりにくい。しかし、 - 59 ー

64.

役者および歌舞伎愛好家の間では、暗黙のうちに認められている。 今回は、この大まかなイメージをより具体的に把握するために、実際の過去の上演デー タを用いながら、代表的ないくつかの役について、配役の類似性を探ってみようと思う。 2 分析−Ⅰ データ準備 ① データの整備 今回上演データとして使用するのは、社団法人日本俳優協会(歌舞伎俳優・新派の俳優 を主な構成員とする組織)が文化庁の平成 17 年度芸術団体人材育成支援事業の委託を受け て調査・作成した、戦後歌舞伎上演データベースである。このデータベースには、1946 年 から 2005 年までに上演された東西の歌舞伎公演の上演年月・演目名・配役のデータが約 12000 件入っている1。ちなみにデータは Excel 形式で供与を受けている。 この「配役」データは、基本的には「武蔵坊弁慶=團十郎、富樫左衛門=海老蔵、九郎 判官義経=菊五郎、兵卒=菊一郎・菊也」というような形式で入力されているので、「=」 と「、」を用いてデータを分割し、変数名を「配役 1 役者名1 配役2 役者名2…」と して読み込んだ。 しかし、長期間にわたり多くの人手をかけて作成されてきたこのデータベースのデータ 中には、実際には基本ルールに則っていないものが非常に多かった。最も手を焼いたのが 「複数名を『、』でつないで羅列してある」というケースである。これをそのまま読み込む と配役データが入るべきところに役者名が来てしまうので、データの読み込みを終えてか ら役者名のデータを目視でチェックし、配役と思われるデータが入っているオブザベーシ ョンを捜し出して修正した。 また、配役データが意外に大きいのもデータの扱いを困難にした。「配役」の変数は 4〜 50 個を想定していたのだが、実際には最大で 185 まであった。 ② 対象データの絞り込み 全上演データを集計対象とすると、データが余りにも大きくなりすぎる上、ほとんどの 演目は複数回の上演記録がない 2ため今回の分析にそぐわない。そこで、いくつかの条件を 設定し、それに当てはまる演目について集計することとした。 その条件とは、 ・ 世代間比較も可能にするため、「古典歌舞伎」に属する演目であること ・ 上演回数が多いこと(概ね 50 回以上) ・ 狂言中に「格上の役」「格下の役」と判断される役が可能な限り含まれること である。 1 データベースの詳細については、 「SAS Forum ユーザー会学術総会 2006 論文集」を参照されたい。 2 この集計報告についても、同じく「SAS Forum ユーザー会学術総会 2006 論文集」に掲載されている。 - 60 ー

65.

そしてこれらを勘案の上、以下の役について分析することとした。 ③ ◇ 「勧進帳」弁慶・富樫・義経 ◇ 「京鹿子娘道成寺」白拍子花子 ◇ 「春興鏡獅子」小姓弥生後に獅子の精 ◇ 「藤娘」藤の精 ◇ 「妹背山婦女庭訓」お三輪・定高・大判事・蘇我入鹿 ◇ 「本朝廿四孝」八重垣姫・濡衣・武田勝頼 ◇ 「与話情浮名横櫛」与三郎・お富 ◇ 「伽羅先代萩」政岡・仁木弾正 ◇ 「寿曽我対面」曽我五郎・曽我十郎・工藤祐経・大磯虎・化粧坂少将 ◇ 「助六由縁江戸桜」助六・白酒売・揚巻・白玉・朝顔仙平・福山かつぎ ◇ 「新版歌祭文」お染・お光 ◇ 「伊勢音頭恋寝刃」福岡貢・お紺・お岸・万野・料理人喜助 ◇ 「籠釣瓶花街酔醒」八ツ橋・次郎左衛門・九重・栄之丞 対象データ抽出 元のデータは筋書(公演プログラム)の記載どおりに入力されている。が、同一の演目 であっても配役の記載順はその公演によってまちまちである。そのため、上に挙げた各役 のデータが「配役」変数中の何番目に入力されているかは全く分からない。さらに、格上 の役者の配役は「兵卒」 「捕手」なども含めた配役一覧の最後に記載されることも多いため、 何番目までをチェックすれば見つかるかも推測できない。 これについては、「全配役データを順にチェックし、該当の文字データが含まれる配役の 変数およびそれと同番号の役者名の変数データだけを取り出して別途 1 つにまとめる」と いうマクロプログラムを作成して処理した。 3 分析−Ⅱ 分析に用いる項目設定 今回の目的は「配役の傾向から『似た役』を探し出す」ことだが、その役を演じる役者 の特性が「似ている」ことをどこで判断すればよいのであろうか? まず「上演時の役者の年齢」が考えられる。ある程度の研鑽を積まないと演じられない ような役であるならば、それを演じる時の年齢はそう若くはないであろう。逆に若さが要 求される役であれば、上演時の年齢は低めになるかも知れない。 そして、「家柄」がある。ただ、どの家を「名家」とするのか、客観性に判断するのは非 常に難しい。そこで、ここでは「受賞歴」を用いて、議論の余地のなさそうなルールを設 けてみた。すなわち、「文化勲章」「文化功労者」「重要無形文化財保持者(人間国宝)」「芸 術院会員」このうちの2つ以上に該当すればA、Aには該当しないがAの子息であればB、 - 61 ー

66.

Bの子息はCとするのである。さらに、昭和中期の俳優をこれに準じた扱いにするため、 Aの親に受賞歴がない場合はBとする。 ただ、このルールをこのまま適用すると、歌舞伎界の名門中の名門・市川宗家(團十郎 家)の家系に該当者が1人もいないことになってしまう。そこで例外として、十一代目團 十郎を「A」と見なすことにした。 4 クラスター分析結果 それぞれの役について、「3 に示したA、B、C、非該当それぞれが演じた回数」と「上 演時の年齢データの個数・最小値・最大値・平均年齢」を使って、階層的方法 Ward 法でク ラスター分析を行った。 ① 女形の役 図1 女形の役の樹状図 0.0 0.2 0.4 R S q u a r e d 0.6 0.8 1.0 a g e m a k i o m i w a m a s a o k a m a n n o s a d a k a n u r e g i n u y a e g a k i o m i t s u o o i s o t o r a o s o m e o k o n y a t s u h a s h o t o m i k e w a i z a k a k o k o n o e s h i r a t a m a o k i s h i h a n a k o f u j i n o s e i rname 立役と女形で役の構造は変わるので、それぞれに分けて分析を行った。図 1 はそのうち 女形の図である。 - 62 ー

67.

この図は、歌舞伎を知る者としても直感的に非常に理解しやすい。 大まかに4つのグループに分けられるが、一番左の「揚巻・お三輪・政岡・万野・定高」 グループはまさに女形の最高峰に位置する役と言える。(さらに言えば、「助六」の揚巻や 「妹背山」のお三輪は華のある若手が演じることもたびたびあるが、「伊勢音頭」の万野と 「妹背山」の定高は、ベテランにならないととても演じられない役なのである。見事にこ れが分かれている。)そして次が「主演級の役だが、割にいろいろな人が演じる役」のグル ープと言える。さらにその右はまさに「主役に次ぐ役」のグループである(「伊勢音頭」の お岸はお紺の妹分、 「助六」の白玉は揚巻の妹分、 「籠釣瓶」の九重は八ツ橋の妹分である。 「曽我対面」の化粧坂少将も大磯虎の次に位置する役と言える)。一番右は強いて言えば「女 形が主役の踊り」なのだが、実は上演回数が他の演目に比べずば抜けて多い。そのことが 多分に影響していると考えられる。 そして、この分析結果で非常に興味深く感じる点が 2 つある。 まず1つは、「妹背山」のお三輪は「助六」の揚巻に近い大役、と分類されていることで ある。この役については「若女形の大役」という印象しかなかったのだが、傾向的に見る と誰でも出来る役というわけでもない位置にある。だが考えてみれば、確かに「妹背山」 のお三輪は、襲名披露狂言に選ばれることもあるほどの大きな役である。この事実を再確 認できた。 2つ目は、「格下」グループかと思われた「本朝廿四孝」の濡衣が、主役の八重垣姫と変 わらない位置にあることである(ちなみに正しい役名は「息女八重垣姫」と「腰元濡衣」 である)。「野崎村」のお染とお光なら比肩するのは理解できないでもないのだが、この2 役にもはっきりとした格差はなかったということになる。確かに、六世歌右衛門の八重垣 姫に七世梅幸の濡衣という信じられないような舞台の記録もあり、この2役は同等と考え るべきものなのだろう。(さらに、その「野崎村」の 2 役のうちでも、お光の方がこの「大 きな2役」に近いところにある、というのも非常に面白い結果である。) ② 立役の役 同様の分析を、立役についても行ってみた。まず女形の時と同条件で樹状図を描いたの だが、グループ間がかけ離れすぎてつぶれた図になってしまったため、「データの個数」を 除外して作図した。結果は次ページ図 2 である。 女形の場合同様、一番右に舞踊の鏡獅子と「勧進帳」の各役が来ているのは、上演回数 がかけ離れて多い影響が除ききれていないためと考えられる。しかし、全般的にこちらは 女形ほどきれいに役の差が出なかった。 その理由として考えられるのは、立役の場合、役の「格」以前に、猛々しい荒事の役か 二枚目の優男の役かという差が非常に大きいことである。実際、演目を選択する際にも、 「荒 事系と和事系それぞれで格上の役と格下の役がある演目」というのは見つけられなかった。 かろうじて「助六」の朝顔仙平と福山のかつぎがあったのだが、この 2 役が作る「格下」 - 63 ー

68.

図2 立役の役の樹状図 0.0 0.2 0.4 R S q u a r e d 0.6 0.8 1.0 sukerok einojo danjo mitsugi jirozae iruka shiroza katsuyo kudo daihanj kisuke goro juro yosa sembei katsugi benkei togashi yoshits yayoi rname グループ以外は、「勧進帳」の弁慶と富樫、義経と「鏡獅子」の弥生など納得のいくグルー プも散見はされるものの、ほとんどは「主役級」「優男」「荒事系」「ベテラン格」などがそ れぞれの中で入り乱れており、この図からそれぞれに共通性を見出すことはできなかった。 5 分析の過程での知見 統計的に処理するために、個々の役者の名前は全く用いずにその「属性」のみで集計を 行ったのだが、実際の配役データを処理しながら、改めて歌舞伎の世界における「家柄」 の意味の重さに気づかされた。特に4で見た、女形の役の中の「主役に次ぐ役」のグルー プのデータ内容が興味深い。ここの役の「姉貴分」に当たる役に頻繁に登場する役者も、 実はこの九重、お岸、白玉などの役をきちんと舞台で演じているのである。ただしそれは 1〜2回で、その後しばらくすると格上の役に就いてしまう。恐らく彼らは、メインの役 の「勉強」のために下の役で出るのだろう。そして去っていく。 この歌舞伎界のシステムが、悪いとは思わない。 - 64 ー

69.

まとめ 今回の分析では、「統計的手法を用いた役の格付け」を行うために、いくつかの役につい て試みにクラスター分析を行ってみた。その結果、女形の配役分析では直感に合う樹状図 が描けたため、さらに多くの役のデータを加えて今後も分析を展開してみたい。 参考文献 「SAS による多変量データの解析」(竹内啓監修、前川眞一著、東京大学出版会) - 65 ー

70.

䊂䉞䉴䊃䊥䊎䊠䊷䉺䊷䋨⊓㍳ળຬ䋩䈱 ⾗ᩰᦝᣂ⏕₸䉕੍᷹䈜䉎䊝䊂䊦 ᣣᧄ䉝䊛䉡䉢䉟ᩣᑼળ␠ ⽷ോᧄㇱ 䊎䉳䊈䉴䉟䊮䊁䊥䉳䉢䊮䉴䉫䊦䊷䊒 Target Renewal Model Amway Japan Limited Finance Division Business Intelligence Group 1 ળ␠⚫੺ ␠ ฬ 䋺 ᣣᧄ䉝䊛䉡䉢䉟ᩣᑼળ␠ ᧄ␠ᚲ࿷࿾ 䋺 ᧲੩ㇺᷦ⼱඙ ༡ᬺ㐿ᆎ 䋺 㪈㪐㪎㪐ᐕ ᓥᬺຬᢙ 䋺 㪌㪋㪉ฬ䋨㪉㪇㪇㪍㪆㪊⃻࿷䋩 ળຬᢙ 䋺 㪐㪋ਁ⚵ 㩿㪉㪇㪇㪍ᐕ㪀 㪁䈉䈤㪉㪍ਁ⚵䈲䇸⾈䈉䈣䈔䉪䊤䊑䇹䊜䊮䊋䊷 ᄁ਄㜞 䋺 㪈㪈㪈㪃㪇㪋㪊⊖ਁ౞ 㩿㪉㪇㪇㪍ᐕ㪀 ੐ᬺౝኈ䋺 䉝䊜䊥䉦䈮䈅䉎♽೉ળ␠䈎䉌䈱ኅᐸᣣ↪ຠ╬䈱ャ౉䊶⽼ᄁ 䋨৻ㇱ⵾ຠ䈲ᣣᧄ䈪㐿⊒䊶ᆔ⸤⵾ㅧ䋩 㪉 - 66 ー

71.

䊂䉞䉴䊃䊥䊎䊠䊷䉺䊷⾗ᩰ䈫䇮䈠䈱ᦝᣂᚻ⛯䈐 䊂䉞䉴䊃䊥䊎䊠䊷䉺䊷䈮䈭䉎䈢䉄䈮䈲䇮㵰䉴䊘䊮䉰䊷㵱䈫⸒䈉⚫੺⠪䉕 ੺䈚䇮䊂䉞䉴䊃䊥䊎䊠䊷䉺䊷⾗ᩰ䈱ขᓧ䉕ᣣᧄ䉝䊛䉡䉢䉟䈮↳⺧䈜䉎 ᔅⷐ䈏䈅䉎䇯 䊂䉞䉴䊃䊥䊎䊠䊷䉺䊷⾗ᩰ䈲ήᦼ㒢䈱䉅䈱䈪䈲䈭䈒䇮৻ᐕ䈮৻ᐲ䇮 ᚲቯ䈱ᦝᣂᚻ⛯䈐䉕ⴕ䈉੐䈪⛽ᜬ䈘䉏䉎䇯䋨⾗ᩰᦝᣂᢱ䋺㫛㪊㪃㪌㪇㪇䋩 ᦝᣂ⠪䈏ᄙ䈇㹢ડᬺ䈫䈚䈩ᦸ䉃ᚑᨐ 㪊 ᣉ╷ 䇸䉺䊷䉭䉾䊃䊶䊥䊆䊠䊷䉝䊦䇹 ᧂᦝᣂ⠪䈮䊂䉞䉴䊃䊥䊎䊠䊷䉺䊷⾗ᩰ䈱ᦝᣂ䉕䈉䈭䈏䈜 ᧂᦝᣂ⠪䈮䊂䉞䉴䊃䊥䊎䊠䊷䉺䊷⾗ᩰ䈱ᦝᣂ䉕䈉䈭䈏䈜 䉻䉟䊧䉪䊃䊜䊷䊦䉕ㅍઃ䈚䇮ᦝᣂ⠪ᢙ䉕Ⴧ䉇䈜䈖䈫䉕⋡ᜰ䈜ᣉ╷ 䉻䉟䊧䉪䊃䊜䊷䊦䉕ㅍઃ䈚䇮ᦝᣂ⠪ᢙ䉕Ⴧ䉇䈜䈖䈫䉕⋡ᜰ䈜ᣉ╷ 䊶ㅍઃౝኈ 䋺 ᦝᣂ䉕䈉䈭䈏䈜䊜䉾䉶䊷䉳 䊶ㅍઃᇦ૕ 䋺 E䊜䊷䊦䈎DM䋨䉻䉟䊧䉪䊃䊜䊷䊦䋩 䊶ㅍઃ䉺䉟䊚䊮䉫 䋺 ᦝᣂᚻ⛯䈐✦ಾᣣ䈱⚂2ㅳ㑆೨ 䊶ㅍઃኻ⽎⠪ 䋺 ᧂᦝᣂ䊂䉞䉴䊃䊥䊎䊠䊷䉺䈫䈠䈱䉴䊘䊮䉰䊷 㒢䉌䉏䈢᧦ઙਅ䈪䈇䈎䈮ᦨᄢ㒢 䈱ലᨐ䉕⁓䈉䈎 䋱ੱ䈵䈫䉍䈱⾗ᩰᦝᣂ⏕₸䉕੍᷹䈚䇮 ᦝᣂ⏕₸䈱㜞䈇ੱ䈮DM䉕ㅍઃ䈜䉎 䊝䊂䊦૞ᚑ䈏ᔅⷐ 㪋 - 67 ー

72.

㪧㪛㪚㪘䉰䉟䉪䊦䈮ೣ䈦䈢૞ᬺ䊙䉾䊒 ᰴ࿁ᣉ╷䈻䈱ᔕ↪ ACTION PLAN CHECK DO ⾗ᩰᦝᣂ⏕₸ 䊝䊂䊦૞ᚑ 䉻䉟䊧䉪䊃䊜䊷䊦 ㅍઃ ⚿ᨐᬌ⸽ 㪌 ᦝᣂ⏕₸੍᷹䊝䊂䊦૞ᚑ䈱೨ឭ⏕⹺ 䊝䊂䊦䈱૞ᚑ䈮೨ᐕᐲ䈱䊂䊷䉺䉕૶䈦䈩⦟䈇䈎 ೨ᐕᐲ䈫੹ᐕᐲ䈮䈍䈇䈩䇮ᦝᣂ䈮㑐䈜䉎⁁ᴫ䈮ᄌൻ䈏䈅 䉎䈎䈬䈉䈎䉕⏕⹺ ᦝᣂᚻ⛯䈐䈮㑐䈜䉎䉟䊮䊐䉤䊜䊷䉲䊢䊮䇮ᦝᣂ ᢱ䈱ᡰᛄ䈇ᣇᴺ䉇ᢱ㊄ ╬䈱ᄌൻ䉕⏕⹺ ೨ᐕᐲ䈫੹ᐕᐲ䈪ᄢ䈐䈭ᄌൻ䈲䈭䈇䇯䈠䈱ὑ䇮೨ᐕᐲታ ❣䈮䉋䈦䈩ᦝᣂ⏕₸䉕੍᷹䈜䉎䊝䊂䊦䉕૞ᚑ䊶ᬌ⸽䈚䇮੹ ᐕᐲ䈮ᒰ䈩䈲䉄䈩ᦝᣂ⏕₸䉕▚಴䈜䉎䈖䈫䈫䈚䈢䇯 㪍 - 68 ー

73.

ᦝᣂ⏕₸੍᷹䊝䊂䊦૞ᚑ䈱઀᭽ 䊝䊂䊦઀᭽ 䊶੍᷹ᚻᴺ 䋺 䊨䉳䉴䊁䉞䉾䉪࿁Ꮻ 䊶ኻ ⽎ ⠪ 䋺 ೨ᐕหᤨᦼ䈱ᧂᦝᣂ⠪䈱৻ㇱ ⚂㪈㪇ਁੱ 䊶䊝䊂䊦૞ᚑ↪䊂䊷䉺 䋺 䊤䊮䉻䊛䉶䊧䉪䉲䊢䊮䈮䉋䉍਄⸥ኻ⽎⠪ 䈱㪎㪇䋦䉕᛽಴ 䊶ᬌ⸽↪䊂䊷䉺 䋺 ᱷ䉍㪊㪇䋦䈪ᬌ⸽ 䊶⋡⊛ᄌᢙ 䋺 ೨ᐕᐲ䈱ᦝᣂ⚿ᨐ 䋨ᦝᣂ⠪䋽㪈䇮ᧂᦝᣂ⠪䋽㪇䋩 䊶⺑᣿ᄌᢙ 䋺 ೨ᐕᐲหᤨᦼ䈱⵾ຠ⾼⾈ጁᱧ䇮ዻᕈ ╬ 䋨㪁䊝䊂䊦૞ᚑኾ↪䊂䊷䉺䊔䊷䉴೑↪䋩 ೑↪䈚䈢䊂䊷䉺䊔䊷䉴䈫䉸䊐䊃䉡䉢䉝 ⥄␠䈪䊝䊂䊦૞ᚑኾ↪䈮᭴▽䈚䈢䊂䊷䉺䊔䊷䉴䉕䇮㪪㪘㪪䈱㜞ᐲ䈭ᯏ⢻ 䉕䉰䊘䊷䊃䈜䉎䊙䉟䊆䊮䉫䉿䊷䊦䇮䇸㪞㪸㫀㫅㪪㫄㪸㫉㫋㫊䇹䉕೑↪䈚䈩ಽᨆ 㪎 ᦝᣂ⏕₸੍᷹䊝䊂䊦䈱૞ᚑ 䈠䈱㪉 ⺑᣿ᄌᢙ䈱ㆬᛯ STEP STEP 11 ⋡⊛ᄌᢙ䈫⺑᣿ᄌᢙ䈱⋧㑐⺞ᩏ䋨නᄌ㊂ಽᨆ䋩䇮ᄖ䉏୯䈱೥㒰 STEP STEP 22 ⺑᣿ᄌᢙ⋧੕㑆䈱⋧㑐⺞ᩏ䉕ⴕ䈇䇮ᄙ㊀౒✢ᕈ䉕࿁ㆱ STEP STEP 33 䉻䊚䊷ᄌᢙ૞ᚑ 䌾 ᄌᢙ䉺䉟䊒䈱ㆬᛯ STEP STEP 44 䉴䊁䉾䊒䊪䉟䉵ᴺ䈮䉋䉎ᄌᢙㆬᛯ STEP STEP 55 ᦝ䈮ᱷ䈦䈢⺑᣿ᄌᢙ⋧੕䈱⋧㑐⺞ᩏ STEP STEP 66 ࿁Ꮻଥᢙ䈱ផቯ䌾䊝䊂䊦䈱ᦨ⚳᳿ቯ 㪏 - 69 ー

74.

䊝䊂䊦䈱ᬌ⸽㪈 ᬌ⸽㪈 ᦭ὑᕈ 䊝䊂䊦䉕᭴ᚑ䈚䈩䈇䉎⺑᣿ᄌᢙ䉕એਅ䈱䊐䊨䊷䈮䈩ᬌ⸽䉕ⴕ䈭䈇䇮䊝䊂䊦䉕ౣ૞ᚑ ⥄↱ᐲୃᱜᷣ䉂㪩㪵㪉䇮෸䈶㪘㪩㩷㩿㪘㪺㪺㫌㫉㪸㪺㫐㩷㪩㪸㫋㪼㪀䈱୯䈲䇮ᄌᢙ䉕ᷫ䉌䈚䈩䉅 ᷫዋ䈚䈭䈇䇯䈪䈅䉎䈭䉌䇮ᄌᢙ䈱ዋ䈭䈇䊝䊂䊦䈱ᣇ䈏⦟䈇 䋼ᬌ⸽⚿ᨐ䋾 䇸䊝䊂䊦3䇹䉕ᦨ⚳䊝䊂䊦䈮᳿ቯ 㪐 䊝䊂䊦䈱ᬌ⸽㪉 ᬌ⸽㪉 ᥉ㆉᕈ 㵰ో૕䈱૗䋦䈱Ბ㓏䈪䇮ታ❣䉕䈬䈱⒟ᐲ੍᷹䈏䈪䈐䈩䈇䉎䈎䋿㵱䉕䇮䊝䊂䊦 ૞ᚑ↪䊂䊷䉺䈫ᬌ⸽↪䊂䊷䉺䈫䈪䈠䉏䈡䉏▚಴䈚䇮䊝䊂䊦䈱᥉ㆉᕈ䉕ᬌ⸽ 䊝䊂䊦૞ᚑ↪䊂䊷䉺䈪䈲䇮ో૕ 䈱10䋦䈱ੱ䉕ㆬ䈹䈖䈫䈮䉋䈦䈩䇮 ታ㓙䈱ᦝᣂ⠪䈱22.0%䉕ㆬ䈹䈖 䈫䈏䈪䈐䇮৻ᣇ䇮ᬌ⸽↪䊂䊷䉺 䈪䈲䇮ታ㓙䈱ᦝᣂ⠪䈱21.8䋦䉕 ㆬ䈹䈖䈫䈏䈪䈐䉎䇯 Ꮐ⸥䈱䉋䈉䈮䇮૞ᚑ↪䉫䊤䊐 䈫ᬌ⸽↪䉫䊤䊐䈲䈾䈿㊀䈭 䉎䇯 䊥䊐䊃䈲ห䈛 䋼ᬌ⸽⚿ᨐ䋾 ᥉ㆉᕈ᦭䉍䈫್ᢿ 㪈㪇 - 70 ー

75.

䊝䊂䊦䈱ᬌ⸽㪊 ᬌ⸽㪊 ੍᷹䈫ታ❣䈱Ყセ ᬌ⸽↪䊂䊷䉺䈮䈩䇮䊝䊂䊦䈮䉋䈦䈩▚಴䈘䉏䈢ᦝᣂ⏕₸䈱ᐔဋ୯䋨੍᷹䋩 䈫䇮ታ㓙䈱ᦝᣂഀว䋨ታ❣䋩䉕㊀䈰䉎䈫䇮䈠䈱୯䈮䈲ᱴ䈬Ꮕ䈲ή䈇䇯 䋼ᬌ⸽⚿ᨐ䋾 ੍ታ䈱ਵ㔌䈲ή䈇 㪈㪈 䉻䉟䊧䉪䊃䊜䊷䊦ㅍઃ㪈 ലᨐ᷹ቯ䈱䈢䉄䇮䉺䊷䉭䉾䊃䉫䊦䊷䊒૞ᚑ 㪛㪤㪶㪟㫀㪾㪿 䍖䍼䍷䍎䍪䍽 㪚㪦㪥㪫㪩㪦㪣㪶㪟㫀㪾㪿 䍖䍼䍷䍎䍪䍽 㪛㪤㪶㪣㫆㫎 䍖䍼䍷䍎䍪䍽 ᦝᣂ੍᷹⏕₸䈏㜞䈒䇮㪛㪤䉕ㅍઃ䈜䉎䉫䊦䊷䊒 㹢ᧄ᧪䈱⋡⊛䈪䈅䉎䇸ᦝᣂ⠪ᢙ䉕Ⴧ䉇䈜䇹ᓎഀ ᦝᣂ੍᷹⏕₸䈏㜞䈇䈏䇮㪛㪤䉕ㅍઃ䈚䈭䈇䉫䊦䊷䊒 㹢㪛㪤ㅍઃലᨐ᷹ቯ䈱ὑ䇮㪛㪤㪶㪟㫀㪾㪿䈱Ყセ䉫䊦䊷䊒䈱ᓎ ഀ ᦝᣂ੍᷹⏕₸䈏ૐ䈇䈏䇮ᢓ䈋䈩㪛㪤䉕ㅍઃ䈜䉎䉫䊦䊷䊒 㹢䊝䊂䊦䈱♖ᐲ⏕⹺䈱ὑ䇮 㪛㪤㪶㪟㫀㪾㪿䈱Ყセ䉫䊦䊷䊒䈱 ᓎഀ ᦝ䈮䇮਄⸥3䉫䊦䊷䊒䉕䈠䉏䈡䉏2ಽഀ 㽲⊓㍳ᓟೋ䉄䈩ᦝᣂ䉕䈜䉎䊂䉞䉴䊃䊥䊎䊠䊷䉺䊷䈱䉫䊦䊷䊒 㽳ᦝᣂ䈏2࿁⋡એ㒠䈫䈭䉎䊂䉞䉴䊃䊥䊎䊠䊷䉺䊷䈱䉫䊦䊷䊒 㶎㽲䈲㽳䉋䉍ᦝᣂഀว䈏ૐ䈇䈱䈪䇮㊀ὐ⊛䈮䊐䉤䊨䊷䈚䈢䈇䈢䉄䈮ಽഀ ว⸘䋺6䉫䊦䊷䊒 㪈㪉 - 71 ー

76.

䉻䉟䊧䉪䊃䊜䊷䊦ㅍઃ㪉 䈠䉏䈡䉏䈱䉺䊷䉭䉾䊃䉫䊦䊷䊒䈱䉰䉟䉵䈫 ᦝᣂ⏕₸䈱ᐔဋ 㪈㪊 ⚿ᨐ㪈䋨ലᨐ䈱⠨䈋ᣇ䋩 㪛㪤ㅍઃലᨐ䈫䇮䉺䊷䉭䊁䉞䊮䉫ലᨐ ೋ࿁ᦝᣂኻ⽎⠪ 2࿁⋡એ㒠ᦝᣂኻ⽎⠪ 㪈㪋 - 72 ー

77.

⚿ᨐ㪉䋨㪛㪤ㅍઃ䈮䉋䉎ലᨐᬌ⸽䋩 㪛㪤ㅍઃ䈮䉋䉎ലᨐ䈱▚಴ DMㅍઃ䈮䉋䉎ലᨐ䋽 䇸 DM_High䍖䍼䍷䍎䍪䍽䇹䈱ᦝᣂഀว(%) 䋭 䇸CONTROL_High䍖䍼䍷䍎䍪䍽䇹䈱ᦝᣂഀว(%) ೋ࿁ᦝᣂኻ⽎⠪䈱⚿ᨐ 䋺 䋫10.1䋦 2࿁⋡એ㒠ᦝᣂኻ⽎⠪ 䋺 䋫15.4䋦 㪛㪤ㅍઃ䈮䉋䈦䈩Ⴧട䈚䈢ᦝᣂ⠪ᢙ DMㅍઃ䈮䉋䈦䈩Ⴧട䈚䈢䈫⠨䈋䉌䉏䉎ᦝᣂ⠪ᢙ䋽 䇸DM_High䍖䍼䍷䍎䍪䍽䇹䈱ኻ⽎⠪ᢙ 㬍 DMㅍઃലᨐ(%) ೋ࿁ᦝᣂኻ⽎⠪ 䋺 䋫10.1䋦䈮䉋䈦䈩1,306ੱჇട 2࿁એ㒠ᦝᣂኻ⽎⠪ 䋺 䋫15.4䋦䈮䉋䈦䈩2,007ੱჇട ⋡⊛ 䇸ᦝᣂ⠪ᢙჇട䇹 䈲㆐ᚑ 㪈㪌 ⚿ᨐ㪉䋨䊝䊂䊦♖ᐲ䈱ᬌ⸽䋩 䊝䊂䊦♖ᐲ䈱ᬌ⸽ᣇᴺ 䇸DM_High䉫䊦䊷䊒䇹䈫䇸DM_Low䉫䊦䊷䊒䇹䈱䇮䈠䉏䈡䉏䈱㵰੍᷹ ୯䈱ᐔဋ㵱䈫䇮㵰ታ㓙䈱ᦝᣂഀว㵱䉕Ყセ ೋ࿁ 2࿁⋡એ㒠 ታ㓙䈱䉺䊷䉭䊁䉞䊮䉫䈮䈲໧㗴䈲䈭䈎䈦䈢 㹢 䈚䈎䈚䇮੍᷹୯䈫ታ❣୯䈱ਵ㔌䈲ᄢ䈐䈇 㪈㪍 - 73 ー

78.

⠨ ኤ ✚᜝ 䇸䉺䊷䉭䉾䊃䊶䊥䊆䊠䊷䉝䊦䇹䈮䈍䈇䈩䇮㪧㪛㪚㪘䉰䉟䉪䊦䉕ㅢ 䈛䈩䇮એਅ䉕┙⸽䈜䉎䈖䈫䈏䈪䈐䈢 䃂㪛㪤䈱ㅍઃ䈲䇮ᦝᣂ⠪ᢙჇട䈮ലᨐ䈏䈅䉎 䃂ᦝᣂ੍᷹䊝䊂䊦䈱⏕₸䈮ၮ䈨䈇䈢䉺䊷䉭䊁䉞䊮䉫䉕 䈜䉎䈖䈫䈲᦭ല䈪䈅䉎 ੹ᓟ䇮ᡷༀ䈏ᦸ䉁䉏䉎੐ 䃂䊝䊂䊦䈮䉋䉎ᦝᣂ⏕₸䈫ታ❣䈫䈱ਵ㔌䈱ᡷༀ ⸃᳿╷䈫䈚䈩䇮 㽲䇸䊂䉞䉴䊃䊥䊎䊠䊷䉺䊷⊓㍳ᤨᦼ䇹䈪ಽഀ䈚䇮ฦ䇱䈪䊝䊂䊦૞ᚑ 㽳䇸ᦝᣂኻ⽎⠪ᧄੱ䇹䈱䊂䊷䉺䈮ട䈋䇮䉴䊘䊮䉰䊷♽೉䈱ᖱႎ䉕ㅊട 㪈㪎 䉁䈫䉄 એਅ䈱ㅢ䉍䇮PDCA䉰䉟䉪䊦䈮ೣ䉍䇮Plan㹢Do㹢Check㹢Action䇮䈫䈇䈦䈢䉰 䉟䉪䊦䈪䈱ᬺോㆇ↪䈏ታ⃻ ⾗ᩰᦝᣂ⏕₸ 䊝䊂䊦૞ᚑ ᰴ࿁ᣉ╷䈻䈱ᔕ↪ 䇸䉺䊷䉭䉾䊃䊶䊥䊆䊠䊷䉝䊦䇹 䈲Ფᐕታᣉ䈚䈩䈇䉎ᣉ╷䈪 䈅䉎ὑ䇮ᡷༀ╷䉕෻ᤋ ⚿ᨐᬌ⸽ ACTION PLAN CHECK DO ⚿ᨐ䉕⹏ଔ䈚䇮ᡷༀ䈱ᔅⷐ 䈭ὐ䉕᣿⏕ൻ ኾ↪䊂䊷䉺䊔䊷䉴䈫䊙䉟 䊆䊮䉫䉸䊐䊃䈱ᵴ↪䈪䊝 䊂䊦૞ᚑ䈮䈎䈎䉎ᤨ㑆䈫 䊙䊮䊌䊪䊷䉕シᷫ䈚䇮䊝 䊂䊦䈱⺑᣿ജ䉇ᄌᢙ䈱 ᬌ⸛╬䈮ᵈജ 䉻䉟䊧䉪䊃䊜䊷䊦 ㅍઃ 䊝䊂䊦䉕ታ㓙䈱ᣉ╷䈮ㆡ↪ 㪈㪏 - 74 ー

79.

දജ දജ 䉝䊷䊋䊮䊶䉰䉟䉣䊮䉴䊶䉳䊞䊌䊮 ᩣᑼળ␠ ᩣᑼળ␠ 䉝䊷䊛 㪈㪐 - 75 ー

80.

ディストリビューター(登録会員)の資格更新確率を予測するモデル 日本アムウェイ株式会社 財務本部 ビジネスインテリジェンスグループ Target Renewal Model Amway Japan Limited Finance Division Business Intelligence Group 要旨: ディストリビューター(登録会員)の資格更新者数増加は、当社にとって企業命題の1 つとなっている。 本ユーザー会でのテーマとして選んだ「ディストリビューターの資格更新確率の予測モ デル」は、更新者数増加を目指す施策の一部として開発されたものである。 このモデル作成の背景、作成プロセス、運用方法を順を追って説明し、モデルの予測値 に基づいて選ぶ効果と、対象者に送付したDMの効果を明らかにする。 キーワード:ロジスティック回帰、PDCA サイクル 1 - 76 ー

81.

1. 当社概要 1-1.当社ビジネスについて 1-2. 資格の更新について 2. ディストリビューターの資格更新確率の予測モデル 2-1. はじめに 2-2.「ターゲット・リニューアル」とは? 2-3. モデルの仕様 2-4. モデルの説明変数選択プロセス 2-5. モデルの検証 2-5-1.有為性による判断 2-5-2.普遍性 2-5-3.予実の比較 3.実際のターゲティングによる DM 送付 4.結果検証 4-1. DM 送付の効果とターゲティングの効果 4-2. モデルの精度 6.考察 6-1. 総括 6-2. 改善が望まれる点 6-3. おわりに 2 - 77 ー

82.

1.当社概要 1-1. 当社ビジネスについて 当社は、1979 年に営業開始。アメリカにある系列会社から家庭日用品等の輸入・販売(但 し、一部の製品については、日本で開発・委託製造を行っている)を行っており、その販 売方式はディストリビューターによるダイレクト・セリング(直接販売)という形をとっ ている。ディストリビューターとは当社と雇用関係のない独立した事業主であり、ダイレ クト・セリングとは一般の流通形態をとらずに、直接消費者へ販売する方式である。 また、当社には上記の ディストリビューター の他に、「買うだけクラブ」メンバー という名称の、販売活動を行わない自己消費のみを行う会員もいる。 年間売上高の推移 (単位:百万円) 120,000 115,000 110,000 105,000 100,000 95,000 2002 (単位:組) 2003 2004 2005 2006 資格更新ディストリビューター&「 買うだけクラブ」メンバー数の推移 1,200,000 「買うだけクラブ」メンバー ディストリビューター 1,000,000 800,000 600,000 400,000 200,000 0 2002 2003 2004 2005 2006 図 1:当社の売上と登録組数の推移 2-2.資格の更新について ディストリビューターになる為には、 スポンサー と言う紹介者を介し、ディストリビ ューター資格の取得を日本アムウェイに申請する必要がある。取得したディストリビュー ター資格は無期限のものではなく、ビジネス活動を継続するためには、資格の更新手続き を行う必要がある。ディストリビューター資格の有効期間は一年間、期限は一律に 12 月末 3 - 78 ー

83.

日までとなっている。つまり、有効期限は個人別に設けられているのではなく、基本的に は全ディストリビューター共通である。 資格更新手続きは、毎年 9 月から開始される。会社にとって資格更新者は多い程良く、 より多くのディストリビューターに更新をしてもらう事は、企業としての命題の一つとな っている。 図 2:ディストリビューター資格の更新 2.ディストリビューターの資格更新確率の予測モデル 2-1.はじめに 当社としてはディストリビューターの更新者数の増加を目指し、過去より数々の施策を行 ってきた歴史がある。本ユーザー会でのテーマとして選んだ「ディストリビューターの資 格更新確率の予測モデル」は、当社のデータベース・マーケティングの一環として、これ らの施策のひとつのために開発されたものである。データベース自体やその分析手法に新 たな工夫や改善を継続的に加え、一定の成果を上げているものである。 2-2.「ターゲット・リニューアル」 「ターゲット・リニューアル」とは、更新者を増やすことを目的とし、未更新者をターゲ ティングし*0、更新をうながす情報、例えば、 「更新手続きはお済みですか?」というメッ セージを送付することである。 尚、過去の経験に基づき、未更新者のスポンサー(紹介者)*1 にも、同時に更新をうなが す情報、例えば、 「あなたがスポンサーした方の中に未更新の方がいます・・その方は・・・ さんです」といったメッセージを送付することにしている。 4 - 79 ー

84.

スポンサー(紹介者) A 未更新者 更新者 B 未更新者 D C A・ ・ ・ スポンサー( 紹介者) B のスポンサーは A である C のスポンサーは A である D のスポンサーは A である 図 3:「ターゲット・リニューアル」のイメージ <ターゲット・リニューアルの内容> ●送付内容 :更新をうながすメッセージ ●送付媒体 :E メールか DM(ダイレクトメール) ●送付タイミング:更新手続締切日の約 2 週間前 ●送付対象者 :未更新者とそのスポンサー E メール・アドレス登録者には、E メールでメッセージを送信。残りの未更新者全員に、 DM を送付したいところであるが、費用対効果の観点からすると、あまり効率的とはいえな い。 E メールにかかる費用は一件あたり数円程度であるが、DM の場合は、郵便料金や印刷代と 数十倍のコストがかさむためである。 従って、未更新者一人一人の資格更新する確率(以下、更新確率とよぶ)を予測し、確率 の高い人を選んで DM を送付することとした。 2-3. モデルの仕様 まず、前年度と今年度において、更新に関する状況に変化があるかどうかを確認した。 ● 更新手続き関するインフォメーション、更新料の支払い方法や料金変化はない ● 実施時期の未更新者数に変化はない ● 更新対象者数に占める更新者数の割合の推移に変化はない 前年度と今年度で大きな変化はなさそうである。そのため、前年度実績によって、更新確 5 - 80 ー

85.

率を予測するモデルを作成・検証し、今年度実績に当てはめて確率を算出することとした。 <分析仕様> z 予測手法 :ロジスティック回帰 z 対象者 :前年同時期の未更新者の一部 z モデル作成用データ : ランダムセレクションで対象者の 70% z 検証用データ : 残り 30% z 目的変数 :前年の更新結果(更新=1、未更新=0) z 説明変数 :前年度同時期購買履歴と属性 約 10 万件 (モデル専用データベース*2 を使用) 上記によって生成された式を、今年度の未更新者の実績に当てはめることにより、今年度 の更新予測確率を算出した。 尚、モデル作成にあたっては、GainSmarts という SAS の高度な機能をサポートするデー タマイニングツールを利用している。 2-4.モデルの説明変数選択プロセス 以下に、モデルを構築する説明変数を取捨選択するステップの概略を解説する。 ステップ 1 単変量分析 下記に該当する場合、その説明変数全体もしくは当該レコードを削除した。 z 目的変数に対する各々説明変数の単独での相関をチェックし、相関係数の絶対値が 90%を超えるものは、削除した(相関係数はピアソンの積率相関係数を使用)。 z 二値型の説明変数のうち値=1(または 0)であるレコードが、全レコード中 99.5%を 超えるもしくは 0.5%未満である場合は、削除した。 z 値=「平均値±(標準偏差×5)」を超えている場合、 外れ値 としてそのレコードを 削除した。 ステップ 2 異なる説明変数間の相関分析 説明変数相互に強い関連があると多重共線性(マルチコ)が発生してしまう。これを避け るため、説明変数同士の相関係数の絶対値が 80%を超える場合に、目的変数との相関を見 て小さい方を削除した。 ステップ 3 同一説明変数内の異なるセット*3 間における検証 各説明変数毎に、オリジナル数値型変数(=下記①)の他にダミー変数(=下記②~⑤)を 生成し、各々の自由度修正済み決定係数を算出した。 6 - 81 ー

86.

その中で最も説明力の高い(=自由度修正済み決定係数の高い)セットのみを残し、残り のセットを削除した。つまりこのステップでオリジナル数値型変数(=下記①)か、その 他のダミー変数(=下記②~⑤)のうちいずれか 1 つのセットを選択し、残りのセットを削 除した。 ① ② ③ ④ ⑤ オリジナル数値型変数 ノンオーバーラッピング分類 カイ二乗検定によるグルーピング ピースワイズ線形分割 オーバーラッピング分類 (左記①~⑤より1つを選択) ステップ 4 ステップワイズ法による変数選択 ステップワイズ法により、説明力の高い(=自由度修正済み決定係数の高い)変数から、 順次採用していった。最初の方で採用された説明変数も、後で採用された変数との関係で 不要になる場合があるので、新たな説明変数の採用の前に、すでに採用された変数を削除 するかどうかをチェックした。 ステップ 5 最終モデル構築説明変数間の相関チェック 上記ステップ 4 を経て残っている説明変数同士の相関を、再度チェックした。残存する説 明変数群のうち互いに強い相関を持つ変数の一方を削除した。 ステップ 6 非連続型モデルにおける回帰プロシジャー 残存する説明変数間にて回帰係数を推定し、各説明変数の有意確率をチェックした。 所 定の水準を超える有意確率であれば、当該説明変数を削除した(有意確率は各回帰係数の 推定値をカイ二乗検定により検定した P 値)。 2-5.モデルの検証 2-5-1.有為性による判断 前述のステップによって作成されたモデルを構成する説明変数については、その変数の意 味と回帰係数の正/負が目的変数を正しく説明しているかどうかを確認した。 そして、回帰係数の正/負が目的変数を正しく説明していないと思われる変数が含まれてい た場合、その説明変数を実際に使われたセットの分類分割に沿ってグループ分けし、目的 変数とのクロス表で分布を確認した。そのクロス表の分布に沿って、やはり目的変数を正 しく説明しないと思われる場合は、その説明変数を削除することとした。 全ての説明変数の確認が済むと、削除該当の説明変数を除いて、モデルの再作成を行い、 再作成されたモデルの説明変数について再検討するということを繰り返した。(フロー参 照) 7 - 82 ー

87.

モデルの再作成 説明変数をピックアップ すべての説明変数チェックが完了 OK モデルの説明変数ごとに回帰係数の 正/負をチェック そのままモデルに残す NG 説明変数を適宜グループに分け、 目的変数(更新=1,未更新=0)との クロス表を作成し、分布をチェック ※例)参照 OK NG モデルから除く 注 ) 下 記 表 は イメー ジ で あ り、表 中 の 数 字 は 実 数 値 で は な い (単 位 :人 数 ) 説 明 変 数 購入金額 高 目的変数 購入金額 中 購入金額 低 TOTAL 更 新 (= 1) 100 70 50 未 更 新 (= 0) 10 30 50 90 110 100 100 310 TOTAL 220 説 明 変 数 購入金額 高 目的変数 購入金額 中 購入金額 低 TOTAL 更 新 (= 1) 90.9% 70.0% 50.0% 71.0% 未 更 新 (= 0) 9.1% 30.0% 50.0% 29.0% 100.0% 100.0% 100.0% 100.0% TOTAL ※ 購 入 金 額 が 高 い 人 ほ ど通 常 更 新 しや すい 。よって 上 記 説 明 変 数 は 目 的 変 数 を正 しく説 明 して い ると考 えられ る。 図 4:説明変数の取捨選択フロー 上記の工程を経て、いくつかの説明変数を除いて新たに生成されたモデルが 2 つ加わった。 この新たな 2 つのモデルと、説明変数を除く前のモデルを、自由度修正済み決定係数と AR(Accuracy Ratio)*4 を判断基準として比較した。 説明変数を除いた後のモデルの値が、説明変数を除く前のモデルの値とあまり変化がなけ れば、モデルの説明力に大きな違いはないと考えられる。 結果として、自由度修正済み決定係数と AR の値に大きな変化はみられなかった。数値的な 有為性に変化がないのであれば、より少ない説明変数で目的変数を説明できるモデルの方 が適切であると判断し、モデル 3(下記参照)を最終的なモデルとした。 8 - 83 ー

88.

決定 残った説明変数の数 自由度修正済み決定係数 AR モデル1 42 0.2414 0.595 モデル2 25 0.2303 0.585 モデル3 21 0.2232 0.587 図 5:最終モデルの自由度修正済み決定係数と AR 2-5-2.普遍性 モデル作成用データを更新確率の高い順に並べ、全体の 10%、20%・・・と 10%刻みの各 段階で実績をどれだけ予測できているか、検証用データと比較した。モデル作成用データ では、更新確率の上位の 10%の人を選ぶことによって、実際の更新者の 22.0%を選ぶこと ができ、一方、検証用データでは、実際の更新者の 21.8%を選ぶことができる。すると、 下記のように、モデル作成用グラフと検証用グラフはほぼ重なる。すなわち、普遍性に問 題はないと判断した。 ゲインズ チャート 作成用 累 積 レ ス ポ % ン ス 者 比 率 100 90 80 70 60 50 40 30 20 10 0 更新者の割合 モデル結果に基づくコンタクトの場合 作成用 % ランダム コンタクトの場合 ( ) 10 20 30 40 50 60 70 80 90 100 累積見込み顧客比率 (%) ゲインズ チャート 検証用 累 積 レ ス ポ % ン ス 者 比 率 100 90 80 70 60 50 40 30 20 10 0 ~10% ~20% ~30% ~40% ~50% ~60% ~70% ~80% ~90% ~100% 22.00 39.40 52.70 63.80 73.20 81.80 88.80 94.00 97.60 100.00 検証用 % 21.80 39.30 52.80 63.80 73.40 81.70 89.00 94.20 97.80 100.00 差 % 0.20 0.10 -0.10 0.00 -0.20 0.10 -0.20 -0.20 -0.20 0.00 モデル結果に基づくコンタクトの場合 ランダム コンタクトの場合 ( ) 10 20 30 40 50 60 70 80 90 100 累積見込み顧客比率 (%) 図 6:最終モデルの普遍性 2-5-3.予実の比較 検証用データを更新確率の高い順に並べ、十分位し、各グループの予測値の平均値(a)と そのグループに所属する人の実際の更新割合(b)を並べて比較(c)してみた。基本的に、更新 確率が高いと予測されたグループの更新割合は高く、低いと予測されたグループの更新割 9 - 84 ー

89.

合は低く、予測値の平均と実際の更新割合ではほとんど乖離がみられない。 従って、この予測値を用いてターゲティングすることは問題ないと判断した。 モデル検証用データ 更新確率の平均値 十分位別 実績/予測レスポンスレート 100 90 80 レ ス 70 ポ 60 ン 50 % ス 40 レ 30 20 ト 10 0 実積(%) 十分位 グループ 予測(%) 高 ( ) ー 1 2 3 4 5 6 7 8 9 10 低 1 2 3 4 5 6 7 8 9 10 予測(%) a 93.40 69.06 52.67 43.16 37.29 32.59 29.04 22.88 17.42 12.75 実積(%) b 88.97 71.22 55.02 44.85 39.17 33.95 29.63 21.26 14.61 9.30 差(%) c 4.43 -2.16 -2.35 -1.69 -1.88 -1.36 -0.59 1.62 2.81 3.45 十分位 図 7:検証用データによる最終モデルの予実比較 3.実際のターゲティングによる DM 送付 当社に登録後、はじめて更新するディストリビューター(初回更新対象者)は、2 回目以降 のディストリビューター(2 回目以降更新対象者)よりも更新割合が低い傾向にある。それ ゆえに、初回更新対象者への重点的フォローが必要と判断した。 ●初回更新対象者 :登録後はじめて更新するディストリビューター ●2 回目以降更新対象者 :更新が 2 回目以降となるディストリビューター そのため、初回更新対象者と 2 回目以降更新対象者に分け、それぞれ更新確率の高い人か ら送付対象者を選んだ。その際、送付効果を測るために一部送付しない人(CONTROL) も設定*5 した。 更に、モデルの精度を測るために、敢えて更新確率が低い対象者のごく一部にも DM を送 付することとした。グループを整理すると以下の通りとなる。 更新確率 ターゲットグループ DM_High 媒 体 目 的 DM 更新者の増加 高 CONTROL_High 更新確率 ターゲットグループ 低 DM_Low 送付しない 更新経験 モデルによる更新確率の平均 初 回 40.60% 2回目以降 49.00% DM効果検証 初 回 40.60% 比較グループ 2回目以降 49.00% 媒 体 目 的 更新経験 モデルによる更新確率の平均 DM モデルの精度検証 初 回 11.20% 比較グループ 2回目以降 7.10% 図 8:ターゲティングによるグループ設定 このターゲティングによって、更新確率を算出した未更新者の内、約 30%に DM を送付す ることとした。 10 - 85 ー

90.

4.結果検証 4-1.DM 送付の効果とターゲティングの効果 仮に、DM_High グループに DM 送付しなかったとすると、DM_High グループの更新割合 は、CONTROL_High グループの更新割合と同等であったと推測される。従って、DM_High のグループの更新割合と CONTROL_High グループの更新割合の差が、DM を送ったこと による効果と考えることができる。 送付後の更新割合の実績 初 回 *ランダムに選んだ場合 26.9% モデルの予測値からターゲティングしたことによる効果 7.2% *モデルの予測値に基づいて選んだ場合 CONTROL_High 34.1% DM_High 44.2% DM送付による効果 10.1% 送付後の更新割合の実績 2回目以降 *ランダムに選んだ場合 39.4% モデルの予測値からターゲティングしたことによる効果 12.7% *モデルの予測値に基づいて選んだ場合 CONTROL_High 52.1% DM_High 67.5% DM送付による効果 15.4% 図 9:DM 送付の効果とターゲティングの効果 <DM 送付効果> ●式 : DM 送付効果=DM_High グループの更新割合―CONTROL_High グループの更新割合 ●初回更新対象者 : +10.1% ●2 回目以降更新対象者 : +15.4% <DM 送付によって増加した更新者数> ●式 :DM 送付によって増加した更新者数 =DM_High グループの対象者数×DM 送付効果 ●初回更新対象者 : +10.1%によって 1,306 人増 ●2 回目以降更新対象者 : +15.4%によって 2,007 人増 11 - 86 ー

91.

以上、DM 送付によって、更新者増加をもたらすという目的は十分達成できたといえる。 尚、ランダムセレクションによる更新割合と CONTROL_High グループの更新割合の差は、 ターゲティングしたことによる効果と考えられる。 <ターゲティングしたことによる効果> ●式 :ターゲティング効果 =DM_Control グループの更新割合―ランダムセレクションによる更新割合 ●初回更新対象者 : +7.2% ●2 回目以降更新対象者 : +12.7% 4-2.モデルの精度 モデルの精度を確認するため、DM_High グループと DM_Low グループのそれぞれの予測 値の平均値と更新割合の実績を比べてみた。 すると、DM_High グループは、予測値の平均値と同様に、更新割合の実績も高く、DM_Low グループは、予測値の平均値と同様、更新割合の実績も低かった。これは初回更新対象者 でも、2 回目以降更新対象者でも変わらない。 更に、DM_High グループについて、更新確率の高い順に五分位し、各グループの予測値の 平均値と更新割合の実績を比較してみた。予測値の高いグループほど更新割合の実績も高 く、予測値の低いグループほど更新割合の実績が低いといえる。従って、基本的に、予測 値の高い人を選ぶことによる実際のターゲティングには問題はなかったと考えられるが、 予測値と実績との乖離が大きいのが課題である。 12 - 87 ー

92.

初回 ターゲット グループ 予測値 実績 % % 2回目以降 ターゲット グループ 44.2 9.9 DM_High DM_Low DM_High DM_Low 40.6 11.2 DM_HighとDM_Lowの比較 初 回 (単位:%) 予測値 実績 予測値 実績 % % 49.1 7.1 67.5 20.4 DM_HighとDM_Lowの比較 2回目以降 (単位:%) 予測値 実績 80.0 50.0 44.2 45.0 67.5 70.0 40.6 40.0 60.0 35.0 30.0 50.0 25.0 40.0 20.0 49.1 30.0 15.0 11.2 20.4 9.9 10.0 20.0 5.0 10.0 0.0 0.0 DM_High 7.1 DM_High DM_Low 五分位 五分位 DM_High 初 回 DM_High 2回目以降 実績 予測値 (単位:%) 90.0 80.0 80.0 70.0 70.0 60.0 60.0 50.0 50.0 40.0 40.0 30.0 30.0 20.0 20.0 10.0 10.0 0.0 グループ2 グループ3 グループ4 実績 予測値 (単位:%) 90.0 グループ1 DM_Low 0.0 グループ5 グループ1 グループ2 グループ3 グループ4 グループ5 図 10:最終モデルの精度 5.考察 5-1.総括 今回、「ターゲット・リニューアル」という施策のために、ディストリビューターの資格更 新確率を予測するモデルを作成し、それに基づいてターゲティングし、DM を送付した。そ して、その結果を分析することにより、次のことを立証することができた。 ● DM 送付は更新者増加に効果がある。 ● モデルの更新確率に基づくターゲティングをすることは有効である。 5-2.改善が望まれる点 今年度以降は、モデルによる更新確率と実績との乖離を改善するため、以下の 2 点をモデ ル作成にあたっての主要なポイントと考えている。 ● 更新対象者をその「ディストリビューター登録時期」によって分割し、各々のデータ ベースとモデルを作成する。 ● 当社ビジネスの最大の特徴であるスポンサー系列*6 の特色を生かすため、 「更新対象者 本人」のデータに加え、新たに「(更新対象者の)スポンサー」ならびに「(更新対象 者の)スポンサー系列上位リーダー」の情報を追加する。 13 - 88 ー

93.

5-3.おわりに 今回の「資格更新確率を予測するモデル」においては、本来ならば大量の人や時間的リソ ースを必要とするモデル作成の作業を、既存のデータベースとソフトウェアを最大限利用 する事で工数の短縮を図っている。 これにより、従来では時間を割くことが難しかったモデルの説明力やモデルを構成する変 数の検討、そして何よりターゲティングの工程に注力することができた。 更に、単なるモデル作成で終了せずに、それを実際の施策に適用し結果の評価を行えた事、 そして次回へ繋がる改善策を考案し得た事は、PDCA(Plan- Do- Check- Action)サイクル *7 に則っており、進化のスパイラルを形成していくであろう。 以上 協力: アーバン・サイエンス・ジャパン 株式会社 株式会社 アーム 14 - 89 ー

94.

---(単語注釈)--*0 ターゲティング:目的に合わせて人を選ぶ行為を指す。 *1 スポンサー:新たなディストリビューター希望者を会社に紹介した人のこと。 *2 モデル専用データベース:当社では、モデル作成に特化した専用の SAS データベースを 保有している。当月末に存在するディストリビューター全員をキーとし、過去の 24 ヶ月間 における製品購買の履歴(量、頻度、期間、購買パターンなど)を表す統計的数値、属性 (性別、年齢など)に関する情報等から構成されており、キーを含む総項目数は 1,000 以 上に及ぶ。 *3 セット:本ステップでは、以下の 4 種類の手法により、1 つの説明変数から複数のダミ ー変数が生成される(手法:①ノンオーバーラッピング分類、②カイ二乗検定によるグル ーピング、③ピースワイズ線形分割、④オーバーラッピング分類)。 セットとは、それ らのダミー変数にオリジナル数値型変数を加えた計:5 種類の 手法単位の変数のグループ を意味する。 *4 AR: 理論上の最大値の何%を予測できるかという指標。領域 B÷(領域 A+領域 B) ゲインズ チャート 100 90 累 積 レ ス ポ % ン ス 者 比 率 領域 80 A 70 60 領域 B 50 40 30 モデル結果に基づくコンタクトの場合 ランダムコンタクトの場合 実績から得られる理論上の最大曲線 20 10 ( ) 0 10 20 30 40 50 60 70 80 90 100 累積見込み顧客比率 ( %) *5 送付効果をはかるため一部送付しない人(CONTROL)も設定:比較のために何もアク ションをとらないグループを一般に CONTROL と呼ぶ。 *6 スポンサー系列:ディストリビューターのスポンサー活動の結果、ディストリビュータ ーのネットワークが構築される。あるディストリビューターからそのスポンサー、さらに そのスポンサー、.....と遡っていく系列を、スポンサー系列と呼ぶ。 *7 PDCA(Plan- Do- Check- Action)サイクル:生産管理や品質管理などの管理業務を計 画通りスムーズに進めるための管理サイクル・マネジメントサイクルの一つ。PDCAサ イクルという名称は、サイクルが Plan- Do- Check- Action の四段階からなることから、そ の頭文字をつなげたものである。 15 - 90 ー

95.

ターゲット判別に有効な 2 変数間の選言的合成変数の自動抽出 谷岡日出男 株式会社ニイウス金融エンジニアリング・グループ 理事(データマイニング技術担当) Automatic Generation of Effective Disjunctive Explanatory Variables for Decision Tree Analysis Hideo Tanioka Counselor, NIWS Financial Engineering Group,Inc. Keyword: Data Mining, Disjunctive Explanatory Variables 1. 概要 決定木はターゲット出現率を予測するために用いられるデータマイニングの代表的手法の 1つである。一般に決定木により得られるターゲット判別ルールは説明変数間をAND条 件で組合せた形の条件部を持つプロダクションルール形式で表現され、説明変数間をOR 条件で組合せた形は条件部に出現しない。 ここで、説明変数間の値をOR条件で結んで定義する合成変数を「選言的合成変数」と呼 ぶこととすると、選言的合成変数は決定木の予測精度を上げ、データから得られる知見を 豊かにする可能性を持つと考えられる。本稿では、候補説明変数の中から、ターゲット判 別に有効な選言的合成変数を抽出する方法を論じ、SASアプリケーションとして構築し た内容を紹介する。 2. 紹介 選言的合成変数の具体例をあげよう。 ある住宅販売会社では、チラシ、DM、モデルルームその他のさまざまな営業活動により獲 得した顧客データベースから、どのような属性を持つ顧客がこの住宅販売会社の過去の販 売情報への関心が強いかを分析し、今後は、関心の強い属性を持つ会員に対して集中的に アプローチを図りたいと考えているとする。 分析データは、顧客データベースからランダムに抽出した一部(500 件)とし、顧客属性情 1 - 91 ー

96.

報(年齢、性別、現在居住中の住居区分、職種区分など)と過去のダイレクトメールへの 反応有無が記録されているものとする。 さて、これらの属性変数の中で、8 個のカテゴリ値を持つ「住居区分」と 9 個のカテゴリ値 を持つ「職種区分」を選択し、カテゴリ間の組合せによって定義される 8*9=72 個のクロス セルごとの該当件数と平均反応率を集計した表を作成すると、表 1.1 のようになったとする。 表1.1 住居区分と職種区分の2変数クロスセルにおける該当件数と目的基準反応率 住居区分 件数 反応率 件数 2公団 反応率 件数 3社宅 反応率 件数 4借家 反応率 件数 5賃マ 反応率 件数 6賃ア 反応率 件数 7寮 反応率 件数 8他 反応率 件数 計 反応率 1戸建 1事務 件数 反応率 29 0.0% * 8 0.0% 6 0.0% 4 50.0% 15 0.0% 19 47.4% * 2 0.0% 0 0.0% 83 13.3% * 2営業 件数 反応率 51 5.9% * 9 0.0% 14 7.1% 9 33.3% 24 16.7% 23 34.8% 5 0.0% 0 0.0% 135 14.1% * 3労務 件数 反応率 41 2.4% * 5 0.0% 10 10.0% 24 16.7% 22 4.5% 21 42.9% * 7 0.0% 2 0.0% 132 12.1% * 4運転 件数 反応率 12 0.0% 5 0.0% 3 0.0% 3 0.0% 7 14.3% 6 16.7% 1 0.0% 0 0.0% 37 5.4% * 職種区分 6教師 5技能 件数 件数 反応率 反応率 3 5 0.0% 0.0% 1 0 0.0% 0.0% 0 0 0.0% 0.0% 0 1 0.0% 0.0% 5 2 0.0% 0.0% 10 0 30.0% 0.0% 1 0 0.0% 0.0% 1 0 0.0% 0.0% 21 8 14.3% 0.0% * 7自営 件数 反応率 35 54.3% * 2 0.0% 1 0.0% 10 50.0% * 15 20.0% 3 33.3% 0 0.0% 2 50.0% 68 42.6% * 8接客 件数 反応率 7 0.0% 0 0.0% 1 0.0% 0 0.0% 3 33.3% 1 0.0% 1 0.0% 0 0.0% 13 7.7% * 欠損 件数 反応率 1 0.0% 0 0.0% 0 0.0% 0 0.0% 0 0.0% 1 100.0% 1 0.0% 0 0.0% 3 33.3% * 計 件数 反応率 184 12.5% * 30 0.0% * 35 5.7% * 51 27.5% * 93 10.8% * 84 38.1% * 18 0.0% * 5 20.0% 500 16.4% (注:*印はクロスセルまたは周辺セル反応率の値が全体平均反応率(16.4%)に対して 10%有意水準で差 があることを示している。) 上記各クロスセルの該当件数と反応率を図示すると、図 1.1 のようになる。 2 - 92 ー

97.

(注:図中数字は各セルの該当件数、円の大きさは件数を反映している。平均反応率より大きい場合に赤 色の塗りつぶし、そうでない場合に白抜きで表示している。) 図 1.1 は該当件数が 1 件以上あったすべてのクロスセルの件数と反応率を表示しているが、 もしも、セル反応率が平均反応率と 10%有意差があると判定されたセルのみを表示すると、 図 1.2 のようになる。 3 - 93 ー

98.

図 1.2 は図 1.1 の中で平均反応率と統計的に有意差が認められない反応率を持つセルは撹乱 要因とみなして無視した場合の反応率パターンを表している。図 1.2 の反応率パターンから、 {住居が「6 賃ア」または職種が「7 自営」}の対象を選択すると、高い反応率を持つ集団 が得られそうであり、(実際に計算すると、この集団は 149 件、反応率 40.3%となる。)逆 に、この条件に該当しない残りの対象は低い反応率を持つことが期待できる。(同様に計算 すると、この対象は 351 件、反応率 6.3%となる。) {住居が「6 賃ア」または職種が「7 自営」}という対象選択表現は、2 変数間の値をOR条 件で結合する形式であるため「選言的」であり、反応率の差異を説明するための合成説明 変数の一種と考えられるため、「選言的合成変数」と呼ぶこととする。 一般に、2 変数間の選言的合成変数は、 OR(変数1、変数2)= {(変数 1=”変数 1 の値 1”)OR(変数 1=” 変数 1 の値 2”)OR…OR(変数 1=” 変数 1 の値 m”)} OR{(変数 2=” 変数 2 の値 1”)OR(変数 2=” 変数 2 の値 2”)OR…OR(変数 2=” 変数 2 の値 n”)} ただし、m>=1 かつ n>=1 という形式で表現される。 4 - 94 ー

99.

なお、2 変数を 3 変数以上に拡張することも容易である。 反応率が高い有効な選言的合成変数が抽出できた場合の利点としては、以下の 2 点が考え られる。 1つは、有効な選言的合成変数は決定木モデルに採用される可能性が高く、選言的合成変 数を使わなかった場合と比較してモデルの判別力が高くなる可能性がある点である。もう 1 つは、選言的合成変数は決定木モデルの基本操作である変数間の逐次的な連言的結合(A ND条件による結合)では表現できない論理的結合を含むため、データの奥に潜むターゲ ット分布構造を、より的確に把握できる可能性がある点である。 本稿は以下の構成をとっている。次の項で選言的合成変数の有効性を定義し、その次に有 効な選言的合成変数の自動抽出手順の概要を簡単に述べる。後半は提案する有効な選言的 合成変数抽出を行う SAS アプリケーションプロトタイプについて紹介し、最後に今後の課 題について述べる。 3.有効な選言的合成変数の定義 2 変数の選言的合成変数のターゲット判別における「有効性」を以下のとおり定義する。 E(OR(X,Y))<min(E(X),E(Y)) ただし、 X,Yは説明変数、 OR(X,Y)は 2 変数XとYから定義される選言的合成変数、 E()は()内の変数または合成変数を用いてデータを分割後のターゲット出現率に関す るエントピー値 を表す。 つまり、選言的合成変数の有効性は、元となっている 2 個の説明変数それぞれを用いて 2 つのグループに対象を分割したときのいずれの分割方法よりも、選言的合成変数を用いた 分割方法の方が、ターゲット/非ターゲットの混ざり具合の違いがグループ間で大きいと 判定されるか否かによって判定されるということである。 前述の住居と職種から作成した選言的合性変数(OR(住居,職種) )の有効性を判定して 5 - 95 ー

100.

みよう。表 1.1 から元の 2 変数、合成変数それぞれについて、2 分割後のエントロピー値を 計算すると、以下のようになる。 住居区分 6賃ア 4借家 8他 1戸建 5賃マ 3社宅 2公団 7寮 計 職種 7自営 欠損 5技能 2営業 1事務 3労務 8接客 4運転 6教師 計 件数 応答率 分割先 84 38.1% 51 27.5% 高反応 5 20.0% 184 12.5% 93 10.8% 35 5.7% 低反応 30 0.0% 18 0.0% 500 16.4% 件数 件数 応答率 分割先 68 42.6% 高反応 3 33.3% 21 14.3% 135 14.1% 83 13.3% 132 12.1% 低反応 13 7.7% 37 5.4% 8 0.0% 500 16.4% 件数 OR(住居,職種) 分割先 6賃ア OR 7自営 高反応 その他 低反応 計 応答率 エントロピー 140 33.6% 0.9207 360 9.7% 0.4601 500 16.4% 0.5891 応答率 エントロピー 71 42.3% 0.9826 429 12.1% 0.5328 500 16.4% 0.5967 件数 応答率 エントロピー 149 40.3% 0.9725 351 6.3% 0.3380 500 16.4% 0.5271 (注:分割先ごとのエントロピー=p*log(p)-(1-p)*log(1-p) の式で与えられる。ただし、log の底は 2 に設 定している。分割後の平均エントロピーは 2 つのエントロピー値の件数の重み付き平均として計算する。) 計算結果を比較すると、 E(OR(住居,職種))=0.5271 < min(E(住居)=0.5891,E(職種)=0.5963) したがって、OR(住居,職種)は住居、職種で分割する場合より小さいエントロピー値 となっているので、有効な選言的合成変数と判定される。 4.有効な選言的合成変数の抽出ステップ 基本的なステップは、以下のとおりである。 6 - 96 ー

101.

(1) すべての可能な説明変数の組合せについて目的変数とのクロスセル反応率データを 作成する。 (2) 前述した統計的基準により、平均反応率との差が有意でないと判定されるクロスセ ルを除外した反応率パターンを作成する。 (3) 上記反応率パターンから選言的合成変数を抽出する。 (4) 抽出アルゴリズムは例示したような直感的方法をとっている。抽出した選言的合成 変数の有効性をチェックし、有効な合成変数定義のみを残す。 なお、 (3)、 (4)が常に見つかるとは限らない。 (2)の統計的基準を動かすことにより、 (3)の抽出数は変動する。 (1)の組合せ数は変数の数に対し 2 乗のオーダーで増加する ため、変数の数が多い場合の効率的な計算アルゴリズムが重要となるが、現時点では特に 考慮していない。 5.SAS プロトタイプアプリケーションの作成 SAS マクロ言語を用いて選言的合成変数の自動抽出を行うプロトタイプアプリケーション を作成した。 (以下はパラメータ設定を行い、サブルーティン呼出しを行うメイン処理部) 00001 %macro OR(data=,kijun=,target=,varlist=,out=_outdata_,outifstr=,outtbl=,clim=95, 00002 print=1,cat=1,tree=1,maxl=4,grp=);/* target が文字変数の場合は "" で囲んで指定すること */ 00003 00004 options nonotes nomprint 00005 options msglevel=N; 00006 00007 %global targvar; 00008 00009 %let targvar=%str(&kijun); 00010 00011 %chkparms; 00012 %if &parmerr=y %then %goto eeefff; 00013 %put %str(); 00014 %put %nrstr(パラメータチェックをパスしました.); 00015 %put %str(); 00016 %put %str(入力データセット(data)=&data,); 00017 %put %str(基準変数名(kijun)=&kijun,); 00018 %put %str(ターゲットクラス値(target)=&target,); 00019 %put %str(分析変数リスト(varlist)=&varlist,); 00020 %put %str(平均出現比率と有意差を持つターゲットおよび非ターゲットクラスの信頼性基準(clim)=&clim,); 00021 %if &outifstr=%str() %then %put %nrstr(OR 合成変数作成プログラム(outifstr) ... 作成しない,); 00022 %else %put %str(OR 合成変数作成プログラム(outifstr)=&outifstr,); 00023 %if &outtbl=%str() %then %put %nrstr(AIC 分析結果表(outtbl) ... 作成しない,); 00024 %else %put %str(AIC 分析結果表(outtbl)=&outtbl,); 00025 %if &print=1 %then %put %str(AIC 分析結果表の画面出力(print) ... 作成する,); 00026 %else %put %str(AIC 分析結果表の画面出力(print) ... 作成しない,); 00027 %if &tree=1 %then %put %str(ツリー比較分析(tree)=1 ... 行う,); 00028 %else %put %str(ツリー比較分析(tree)=0 ... 行わない,); 7 - 97 ー

102.
[beta]
00029 %put %str(CPA パラメータ 最大分割レベル(maxl)=&maxl,);
00030 %if &grp=%str() %then %put %str(CPA パラメータ 最小成員数=自動=min【10000,int[件数/{2^(maxl+1)}]】);
00031 %else %put %str(CPA パラメータ 最小成員数(grp)=&grp,);
00032 data _null_;
00033
_hajime=datetime();
00034
call symput("_hajime",compress(put(_hajime,datetime24.)));
00035 run;
00036 %put %str();
00037 %put 分析開始時刻:&_hajime;
00038 %put %str();
00039 %catdef2(data=&data,x=&varlist,userlib=_userlib_,pmethod=ENTROPY,y=&kijun,y2=,mode=R);
00040 %cpaconv2(motodata=&data,userlib=_userlib_,bunseki=_bunseki_);
00041 /* ターゲットを2値に変換 */
00042 data _bunseki2_;
00043
set _bunseki_;
00044
if &kijun=&target then _kijun="1";else _kijun="0";
00045 run;
00046 %search(data1=_bunseki2_,kijun=_kijun,target="1",varlist=&varlist,out=_outdata_,outifstr=&outifstr);
00047 %if &_NDISJ>=1 and &cat=1 %then %do;
00048
%put %str(AIC 分析を開始します.);
00049
%put %str();
00050
%if &outtbl ne %str() or &print=1 %then %do;
00051
%CATOR(data=_outdata_,kijun=_kijun,keep=&varlist,outfile=&outtbl,print=&print);
00052
%end;
00053
%if &tree=1 %then %do;
00054
%put %str();
00055
%put %str(ツリー作成を開始します.);
00056
%put %str();
00057
%if &grp=%str() %then %do;
00058
%let grp_mod=%eval(&_N/(2**(&maxl+1)));
00059
%if &grp_mod>10000 %then %let grp_mod=10000;
00060
%put 最小成員数条件を&grp_mod.に変更しました.;
00061
%end;
00062
%else %let grp_mod=&grp;
00063
%TREE(kijun=&kijun,target=&target,varlist=&varlist,maxl=&maxl,grp=&grp_mod);
00064
%end;
00065 %end;
00066 data _null_;
00067
_owari=datetime();
00068
_duration=intck("second",input(symget("_hajime"),datetime24.),_owari)/60;
00069
call symput("_owari",compress(put(_owari,datetime24.)));
00070
call symput("_jikan",compress(put(_duration,12.1)));
00071 run;
00072 %put %str();
00073 %put %str(OR 探索マクロの実行が終了しました.);
00074 %put %str();
00075
00076 options notes;
00077
00078 %put 分析開始時刻 : &_hajime;
00079 %put 分析終了時刻 : &_owari;
00080 %put 分析実行時間 : &_jikan.分;
00081 %eeefff:
00082 %mend OR;

898
103.

実行すると、説明変数リスト(varlist=)に指定した説明変数の中から 2 変数の選言的合成変 数を抽出できたかどうかを報告し、できた場合は、以下の出力を行う。 (1) 合成変数作成プログラムステートメントのテキスト出力(outifstr=) (2) AIC基準によるターゲットとの関連分析表(outtbl=) (3) 決定木の生成と判別力(ターゲット再現率)の比較 実行例: options nonotes nomprint; %or(data=testdat500,kijun=yesno,target="1", varlist=SEI AGE SETAI JUUKYO NYUUKYO GYOOSHU SHIGOTO KINNEN ,clim=90,outifstr=c:\temp\outifstr.txt,outtbl=c:\temp\outtbl.xls); options notes; (1) 合成変数作成プログラムステートメントのテキスト出力(outifstr=) この例では、2 個の選言的合成変数が抽出された。(_COMBNO9 と_COMBNO13) if JUUKYO='6 賃ア' or SHIGOTO='7 自営' then _COMBNO9='1'; else _COMBNO9='0'; label _COMBNO9='JUUKYO|SHIGOTO 住居区分|仕事内容'; if NYUUKYO='01T02' or SHIGOTO='7 自営' then _COMBNO13='1'; else _COMBNO13='0'; label _COMBNO13='NYUUKYO|SHIGOTO 入居年数|仕事内容'; (2) AIC基準によるターゲットとの関連分析表(outtbl=) 下表のように、varlist に指定した説明変数、および抽出した有効な選言的合成変数 (_COMBNO で始まる変数)とターゲットとの関連分析結果を AIC 基準により、関連の強 い順に表示する。 9 - 99 ー

104.

YESNO その他 1 件数 横% 件数 横% 1 _COMBNO9 JUUKYO|SHIGOTO 住居区分|仕事内容 AIC=-78.9062 OTHER 329 93.7 22 6.3 06|07 89 59.7 60 40.3 2 JUUKYO 住居区分 AIC=-38.1862 01:1戸建 161 87.5 23 12.5 02:2公団 30 100.0 0 0.0 03:3社宅 33 94.3 2 5.7 04:4借家 37 72.5 14 27.5 05:5賃マ 83 89.2 10 10.8 06:6賃ア 52 61.9 32 38.1 07:7寮 18 100.0 0 0.0 08:8他 4 80.0 1 20.0 3 _COMBNO13 NYUUKYO|SHIGOTO 入居年数|仕事内容 AIC=-30.707OTHER 316 90.0 35 10.0 02|07 102 68.5 47 31.5 4 SHIGOTO 仕事内容 AIC=-21.6553 01:1事務 72 86.7 11 13.3 02:2営業 116 85.9 19 14.1 03:3労務 116 87.9 16 12.1 04:4運転 35 94.6 2 5.4 05:5技能 18 85.7 3 14.3 06:6教師 8 100.0 0 0.0 07:7自営 39 57.4 29 42.6 08:8接客 12 92.3 1 7.7 09:x 2 66.7 1 33.3 5 NYUUKYO 入居年数 AIC=-15.5969 01:00 35 70.0 15 30.0 02:01T02 69 75.0 23 25.0 03:03T05 87 87.9 12 12.1 04:06T10 63 81.8 14 18.2 05:11T15 48 98.0 1 2.0 06:16T20 36 92.3 3 7.7 07:21T 57 90.5 6 9.5 08:x 23 74.2 8 25.8 6 GYOOSHU 業種区分 AIC=-4.02096 01:1製造 127 76.5 39 23.5 02:2土建 25 83.3 5 16.7 03:4金融 2 66.7 1 33.3 04:6サービス 264 87.7 37 12.3 7 SEI 性別 AIC=0.968579 01:f 114 86.4 18 13.6 02:m 304 82.6 64 17.4 8 KINNEN 勤続年数 AIC=1.35052 01:00 58 79.5 15 20.5 02:00T01 244 83.0 50 17.0 03:02T03 77 91.7 7 8.3 04:04T05 1 100.0 0 0.0 05:x 38 79.2 10 20.8 9 SETAI 世帯 AIC=1.368001 01:s 238 85.0 42 15.0 02:w 175 82.5 37 17.5 03:x 5 62.5 3 37.5 10 AGE 年齢 AIC=5.556571 01:18T24 81 89.0 10 11.0 02:25T29 62 80.5 15 19.5 03:30T39 86 86.0 14 14.0 04:40T49 104 83.2 21 16.8 05:50T59 64 80.0 16 20.0 06:60T 21 77.8 6 22.2 分析項目 カテゴリ (3) 決定木の生成と判別力(ターゲット再現率)の比較 抽出した選言的合成変数(_COMBNO9)が決定木の第一分岐に出現しており、選言的合成 変数を用いなかった場合の決定木と比較して、ターゲット判別力もやや高くなっている。 (AR(Accuracy Ratio)値が改善している) 10 - 100 ー

105.

11 - 101 ー

106.

6.まとめと今後の課題 ターゲット判別に寄与する有効な選言的合成変数のメリットや抽出方法について述べ、SAS アプリケーションプロトタイプを紹介した。説明変数が多い場合の高速処理などが課題と して残されており改善を行いたい。 END 12 - 102 ー

107.

実務家にわかりやすい 不動産賃料の推定モデル 小 野 潔 三菱東京 UFJ 銀行 中小企業部 How much does this apartment rent for ? Kiyoshi Ono Small & Medium Enterprise Banking Division, The Bank of Tokyo-Mitsubishi UFJ,Ltd. 要旨 近年、日本でも成長してきた不動産投資ファンドは、複数マンションを投資対象にす る。その配当の原資は不動産の賃料であるため、投資案件を決定する際に、短時間かつ 低コストで賃料を推定できる不動産賃料の推定モデルが注目されている。 不動産賃料の推定モデルは、ロジスティック回帰、ニューラルネットワーク等が利用 されるが、不動産の実務家にはわかりづらい。決定木の構造ツリーは、統計の専門家で ない実務家でも感覚的に理解しやすい。しかし決定木はカテゴリデータの分析に利用さ れるが、賃料のような連続値の推定に不向きである。 そこで本件研究では、連続値(賃料)を直接求めるのでなく、「与えた賃料が割安かそ れとも割高か」を推定する2値判別問題に帰着させた。そして賃料(閾値)を複数設定 することで、正確な賃料の推定を可能にした。その結果、構造ツリーと割安/割高表を 用いることで直感的にわかりやすい(可読性の高い)推定モデルの構築に成功した。 キーワード: 1. データマイニング 不動産の賃料推定モデル 決定木 研究の位置づけ 近年、東証上場した REIT をはじめてとする不動産ファンドが日本に急速に広まった。不動産ファン ドの配当金は賃料を原資とするため、賃料の推定が重要である。不動産鑑定士は正確な賃料を調査する が、大型物件の調査は時間もコストも要する。また投資ファンドは投資対象物件の調達コストを低くす るために、複数の中古マンションを抱き合わせで購入するケースも多く、しかも短時間で投資判断をす ることも多い。そのため、不動産の賃料モデルが注目されている。 不動産の賃料推定モデルは 1970 年代からニューラルネットワークやロジスティック回帰を用いる研 究がされてきたが、実務家のニーズが高くなく、学術対象でしかなかった。しかし実務家のニーズの高 まりから、米国で精度が高い不動産の賃料推定モデルが開発され、実務運用が始まった。 2. 実務家にわかりやすい分析手法 多くの実務家は統計学にあまりなじみがなく、統計の専門家が構築する複雑なモデルでは理解しづら い。モデルの精度の観点では推定モデルの誤差を最小限にすることが重要であるが、モデルの可読性の - 103 ー

108.

観点では利用者のわかりやすさが重要なテーマになる。今回は不動産の実務家にわかりやすいモデルと いう観点から、決定木による新しい分析手法を開発した。 モデルの誤差を最小限にするには、Support Vector Machine や Neural Network やロジスティック 回帰の方が、決定木よりも優れた結果を得やすい。一方、決定木のツリー構造から導かれる If- Then ル ールは、業務の実務家にもわかりやすく、何よりもそのルールの良し悪しを実務家が判断できる点が優 れている。ただ決定木はカテゴリデータの分析に使われ、賃料のような連続値の推定に不向きである。 そこで本件研究では連続値(賃料)を直接算出する代わりに、与えられた賃料が割安と割高のどち らのカテゴリーに含まれるかを推定する2値判別問題に帰着させる。具体的には割安/割高の境界値 (=閾値)を 10 万円とした場合、月賃料が 10 万円以上を割高とし、10 万円未満を割安とする目標変 数を設定する。次に賃料の分布から複数の閾値(6 万円、8 万円、10 万円、12 万円、14 万円、16 万 円、18 万円、20 万円、25 万円)を設定し、閾値ごとの決定木で割安/割高を判定する。最後に割安/ 割高の結果を表にまとめれば実務家にわかりやすい賃料推定ができる。その結果、構造ツリーと割安 /割高表を用いることで、統計の専門家でなくとも直感的にわかりやすい(可読性の高い)推定モデ ルの構築に成功した。 3. デ ー タ の 概 要 本稿は、日本不動産金融工学学会が主催した 2007 年第 1 回コンペティションで発表した内容に基づ く。コンペティションでは、推定モデル構築のために賃料を含む 540 レコードと、競技用の賃料を含ま ない 150 レコードが提供された。なお競技用は賃料を公表されていないため、本稿では 540 個で作成し たモデルを論及する。 不動産の月額賃料を目標変数(=従属変数)とすると、メインの説明変数は 32 種類あり(表 1 参照)、 それ以外に設備の有無データが約 100 種類存在する(表 2 参照)。設備データは生データで使うことがで きないので、設備の有無をフラグ変数(1 or 0)に変換する。また類似した設備をグループ化する。例 えば冷房・暖房・エアコンなどは空調施設とし、また洗面所も洗面台も同じグループに分類する。 賃料(円/月) 管理費 所在地名2 徒歩(m) バス停名称 築年 駐車場料金 専有面積 部屋数 番地 徒歩(分) 建物名称 築月 緯度 礼金月数 登録日 建物名 バス(分) 地上階層 部屋数 経度 敷金月数 県名称 沿線名称 停歩(m) 地下階層 間取タイプ 保証金月数 所在地名1 駅名称 停歩(分) 所在階 駐車場有無 表 1 目標変数(賃料)+説明変数(32 種類) 冷房 ロフト BT同室 洗濯機置場 浄水器 ベッド エアコン 暖房 給湯 CATV 洗面所 管理人常駐 浴室乾燥機 浴室乾燥機 洗面台 BS 端末 ベランダ 管理人日勤 床暖房 カウンターキッチン 浴トイレ別 エレベータ シャワー 収納ベッド エアコン 洗濯乾燥機 宅配BOX オートロック BT別室 収納スペース 管理人巡回 風呂 食器乾燥機 表 2 設備データ(約 100 種類、一部略) - 104 ー 車庫 ・・・・・

109.

加工データは 1 部屋当りの面積(=専有面積/部屋数)、初期費用(礼金月数+敷金月数+保証金月数)、 設備数、駐車場有無フラグ等を作成した。説明変数に採用しない変数には以下のものがある。緯度・経 度は土地価格を不動産データベースから得るためのキーである。しかし不動産関係者以外は入手しづら い情報のため、説明変数から除いた。また名称(沿線名称、駅名称、所在地、バス亭名称、建物名称、 県名称、所在地名)も説明変数から除いた。 4. デ ー タ 処 理 4.1. 高い相関を有する変数の処理 回帰分析モデルでは、説明(独立)変数の相互間に高い相関を有する変数は、データに採用できない。 例えば徒歩(m)と徒歩(分)を採用すれば、多重共線問題を生じるおそれがある。回帰分析による多重共線 問題は逆行列を求める過程で生じる。共線関係が存在すると、それらの相関行列から求める固有値の中 に 0 または極めて 0 に近い固有値が発生する。その結果、回帰係数の推定値が算出不能か、あるいは他 の影響をうけて実際よりも極端に大きい推定値を算出してしまう。決定木分析は逆行列を求めないので 共線問題は生じないが、説明変数間に強い相関があると採用変数に偏りが発生し、不安定なツリー構造 になる。例えば賃料が距離に相関に強い相関があれば、上層の分岐に徒歩 10 分で分岐し、その直下層 で徒歩 700m(=10 分*70m)近辺で分岐する可能性がある。この分岐状態が続くと、徒歩(分)と徒歩(m) のみの偏った変数選択になる。本来、下層では上層で選択した変数以外の変数で分岐した方が、安定性 が高いことが知られている。本モデルでは一般人がわかりやすい徒歩(分)を採用する。 5. 構 造 ツ リ ー 表 3 に決定木の設定パラメータを示す。分割基準に Gini 値を用いるので、SAS/Enterprise Miner で は CART と類似した決定木を得られる。(注:SAS/Enterprise Miner は CART のアルゴリズムを採用 していない) 9 個の決定木のうち、閾値 10 万円と 20 万円の構造ツリーを図 1&2 に示す。左図の構造ツリーと右 図の説明力の大きさを示す円グラフから、面積が 7 割以上の説明力を有することがわかる。決定木の葉 数(カテゴリ数)は、右下図から把握でき、ほぼ 10 枚以下で精度が収束していることがわかる。 設備は構造ツリーの下層に出現するが、あまり要因として効いていない(図に表示されていない)。 賃料と設備の集計から、低賃料ほど設備数が多いことが判明した。10 万円以上の物件ではバス・トイレ・ エアコン等をわざわざ設備に明示しないのに対して、6万円位の物件では細かい設備もアピールしてい ることが判明した。 低額物件は距離(徒歩)も重要であるが、高額物件ではもともと駅そばに所在するケースが多いため に、分岐条件には表れない。一方、高額物件では「部屋数よりも部屋の単位面積」や「見晴らしの良い 高層階」が分岐条件になる。 学習データ数:検証データ数 = 表 3 決定木の設定パラメータ - 105 ー 8:2

110.

面積 面積 面積 徒歩 徒歩 初期費用 面積 図 1 閾値 10 万円の割安/割高の構造ツリー 収束点 面積 面積 階数 部屋当りの面積 面積 図 2 閾値 20 万円の割安/割高の構造ツリー (備考)右の円グラフの角度が顧客割合を示し、それに該当する左の構造ツリーのカテゴリ ーを点線矢印で結んでいる。 6. SAS / Enterprise Miner によるモデル構築 モデル構築は SAS/Enterprise Miner ver4.1 を用いた。図 9 に SAS/Enterpricse Miner のモデル構築の遷移 図を示す。今回は 9 個のモデルを作成したため、 複数の横ラインが存在する。簡単に SAS/Enterprise Miner によるモデル構築手順を紹介する。 最初にデータをクレンジングし、縦 540 行、横 140 列(主変数+加工変数)から構成するスプレッド シートを作成し、SAS データセットに変換する(左端のデータベース)。次にデータを学習データと検 証データに分割し([データ分割])、決定木分析([ツリー])を行う。[アセスメント]ではモデルの評価 を行う。前述の図 1&2 は[アセスメント]で行われた。[スコア]では賃料を予測するデータを構築モデル に当てはめることができ、その結果は右端の[INSIGHT]から照会できる。 - 106 ー

111.

図 3 7. 結 SAS/EnterpriseMiner によるモデル構築の遷移図 果 下表は 9 個のモデルで物件の賃料の割高・割安を判断し、まとめたものである。推定賃料は「割安」 と「割高」の閾値の間に存在する(左表の薄色)。実測値と推定値の集計から、モデルはやや「割安」 に判定することが判明した。そこで賃料の推定値は「割高」と判定した境界の閾値を採用した。 さらに誤差率が 20%以上乖離した物件を精査したところ、駅が深く関係していることが判明した。つ まり山手線内部の六本木地区や青山などの一部地区は、推定賃料はかなり低めに算出される。そのため、 特別地区の賃料は推知値に、20%を上乗せするルールを創設した。 全データ 540 個の誤差の平均平方和は、16.98%であった。 表 4 (表の補足) 割 安 / 割 高 表 表左側の薄色部分は「割安」「割高」の変化の境界値を表す。 表右側の濃色部分は誤差率 20%以上を表す。 - 107 ー

112.

8. 考 察 表題の「実務家にわかりやすい不動産賃料の推定モデル」は、①決定木の構造ツリーと、②割安/割高 表を指す。[構造ツリー]は、低賃料と高賃料の要因の差異が明らかにし、[割安/割高表]は実務家でも容 易に賃料を導くことができる。 当初、割安/割高表では割安と割高が混合するケースが多く発生すると予想したが、実際には混合ケー スがわずか数%しかなかった。混合ケースとは表4で[安安高安安高高]と高・安が不規則に並ぶことを 指す。今回は割安/割高表がうまく機能した例と言える。なお割安・割高が混合した場合は、対応ルール で機械的に推定賃料を算出したが、ルールが未完成のため本稿では論じない。 一般にモデルと精度と可読性は、通常、相反することが多い。本稿のモデルはコンぺティションで 5 位に入賞したが、満足できる精度を得られたとは言えない。そこで改善案を示す。簡単にモデルの精度 を改善するには、モデル数を増やすこと、つまり閾値きざみを1万円にすることであろう。しかし最終 結果の割安/割高表に混合するケースが増加するので、判定ルールが課題になる。また本研究では、名称 を説明変数に採用しなかったが、テキストマイニングにより知識を得られる可能性が高い。例えば、建 物名称から特定のマンションの賃料が、推定値よりも高く設定されていることが発見できれば、ルール で賃料を補正できる。 本モデルの推定値が大きく外れたグループは、40 万円以上の高額物件である。データ数も少ないこと もあり、正しく判別するモデルを開発できなかった。これについては他の参加者も同様であった。決定 木は、目標変数と高い相関を有し、大きい偏りの分布を有する変数を最初にモデル化をするため、少数 データの配慮があまりできない。設備データなどの少数データを考慮するには、少数データの判別も可 能な遺伝子アルゴリズムなどを試みる必要があろう。 本研究の分析法は、複数の不動産の実務家から「わかりやすい手法」と評価されたことを、最後に付 け加える。モデルの精度を高めるか、可読性を高めるかは、モデル開発者の悩むところであり、結論は つかないが、少なくとも統計学になじみがうすい実務家には、可読性が高い方が喜ばれることは確かで ある。 9. 謝 意 日本不動産金融工学学会には、SAS ユーザー会への投稿・口頭発表を快く許可して頂きました。ここ に当学会へ謝意を申し上げます。 10. 参 考 文 献 z 丹後俊郎,山岡和枝,高木晴良,“ロジスティック回帰分析”,朝倉書店,1996. z J.R.キンラン,“AI によるデータ解析”,トッパン,1995. z 小野潔,今野浩編集,“データマイニング:金融工学辞典”,pp434-437,朝倉書店,2004. z 小野潔,田中穂積編集,“人工知能学辞典”,共立出版,2005. z 小野潔,“最新金融データマイニング事情”, pp36-40,週刊金融財政事情 12 月 4 日号,2006. - 108 ー

113.

臨床試験データの加工における SAS/Proc SQL の活用 ―事例:データセット併合と図表作成― ○岩崎 晋也、髙田 康行、矢島 勉 医薬開発部 持田製薬株式会社 To make use of Proc SQL for processing datasets of Clinical Trials ‐Examples : to merge datasets and to make up tables ‐ ○Shinya Iwasaki, Yasuyuki Takata, Tsutomu Yajima CLINICAL DEVELPOMENT, MOCHIDA PHARMACEUTICAL CO.,LTD. 要旨 SAS/Proc SQL は、SAS データセットからのデータ抽出や SAS データセットの結合など に便利なプロシジャである。そこで、臨床試験から得られた複数のデータセットの併合と統 計解析や図表作成のためのデータ加工において Proc SQL を活用することを試みた。 本発表では、Proc SQL の初心者を対象とし、事例を用いて Proc SQL の活用方法を報告 する。特に、データ加工において、Proc SQL を利用した場合とデータステップおよび Proc SQL 以外のプロシジャを利用した場合を比較することで、Proc SQL の利点を示す。最後に、 Proc SQL をより便利なプロシジャとするための機能の追加を要望する。 キーワード: Proc SQL、SQL、データ加工、データセット併合 1. はじめに 医薬品の承認申請のためには、臨床試験から得られた複数のデータセットを併合し、図表 を作成する必要がある。Proc SQL は、 「SAS データセットからのデータ抽出や SAS データ セットの結合」などといったデータ加工に便利なプロシジャである。そこで、データ加工に おいて Proc SQL を活用することを試みた。本発表では、Proc SQL の初心者を対象に、Proc SQL を用いたデータ加工について、実際に活用した事例を用いて紹介する。 2. SQL と Proc SQL Structured Query Language (SQL) は、1970 年代に IBM により開発された構造化問い 合わせ言語であり、現在では多くのリレーショナルデータベースで標準的に利用されている。 SAS システムにおいて SQL を利用するためのプロシジャが Proc SQL である。臨床試 験で得られたデータはリレーショナルデータベースに保存されることが多い。そのリレーシ ョナルデータベースで標準的に利用されている SQL を Proc SQL によって SAS システ ムでも利用可能となる。つまり、ほぼ同様のプログラムをリレーショナルデータベースと SAS システムの双方で用いることが可能となり、便利である。 1 - 109 ー

114.

3. Proc SQL の構文 1 つのデータセットを加工して、1 つのデータセットを作成する場合の基本的な Proc SQL の構文を以下に示す。 Proc SQL ; create table 作成データセット名 select as 元のデータセット名.変数名 1, 元のデータセット名.変数名 2 from 元のデータセット名 where データ抽出の条件 1 group by グループ分け having データ抽出の条件 2 order by ソート変数 as 変更後の変数名 2 ; 上記構文の基本的な使い方は以下の通りである。 ・ create table 作成データセット名 as 作成するデータセットの名称を定義する。 ・ select 元のデータセット名.変数名 1, 元のデータセット名.変数名 2 as 変更後の変数名 2 作成するデータセットに保存する変数を定義する (データステップでは keep ステー トメントに相当する)。 元のデータセットにおける変数名を指定した後に「as」を加え、変更後の変数名を記 載することで、作成するデータセットに保存する変数の変数名を変更することが可能 である (データステップでは rename ステートメントに相当する)。 基本的に作成するデータセットに保存する全ての変数を定義する必要がある。元のデ ータセットに存在する全ての変数をそのまま用いる場合には「*」で代用することも可 能である。定義された変数名の順でデータセットが作成されるため、変数の並び順を 変更することが簡単である。 ・ from 元のデータセット名 元のデータセットを指定する (データステップでは set ステートメントに相当する)。 ・ where データ抽出の条件 1 元のデータセットからデータを抽出する条件を指定する。 ・ group by グループ分け 集計する場合などの状況においてグループ分けの条件を設定する。 ・ having データ抽出の条件 2 元のデータセットからデータを抽出する条件を指定する。集計するための関数を利用 2 - 110 ー

115.

して条件を指定する場合には、 「where」ではなく「having」で指定する。 ・ order by ソート変数 データのソートに用いる変数を指定する。Proc SQL では、データセット作成と同時 にデータをソートすることが可能である。 上記の Proc SQL で作成したプログラムをデータステップおよび Proc SQL 以外のプロ シジャで作成する場合は以下のようになる。 Data 作成データセット名 ; set 元のデータセット名 ; where データ抽出の条件 1 ; rename 変数名 2 = 変更後の変数名 2 ; keep 変数名 1 if データ抽出の条件 2 ; 変更後の変数名 2 ; run ; Proc sort data=作成データセット名 ; by ソート変数 ; run ; Proc SQL の基本的な構造を理解すると、複数の工程を 1 工程にすることができるため、 プログラム作成においてエラーを少なくするという利点がある。また、変更箇所を見つけや すいため、変数名の変更や条件の変更を行なう際に変更漏れを少なくするという利点がある。 なお、本発表においては、Proc SQL では「Proc SQL ;」~「;」 、データステップでは「Data」 ~「run;」 、Proc SQL 以外のプロシジャでは「Proc」~「run;」を 1 工程と表現する。 3 - 111 ー

116.

4. Proc SQL の活用事例 4.1 事例①:データセットの併合 ~ソートされていない 2 つのデータセットを併合する~ 臨床検査の測定値と、項目ごとに設定された臨床検査の基準値のデータを併合することを 考える。データステップおよび Proc SQL 以外のプロシジャで併合する場合のフローと、測 定値データセットおよび基準値データセットのイメージは以下の通りである。 基準値 データセット 測定値 データセット 性別ごとの対応 ソート ソート データのマージ SASデータセット ソート プロシジャによる処理 データステップによる処理 併合データセット 図 4.1.1 データステップおよび Proc SQL 以外のプロシジャで併合する場合のフロー 表4.1.2 測定値データセットのイメージ 項目 被験者 性別 項目名 測定値 番号 1 M 1 総コレステロール 256 1 M 4 中性脂肪 176 1 M 3 HDLコレステロール 22 1 M 2 LDLコレステロール 146 2 F 1 総コレステロール 245 2 F 3 HDLコレステロール 22 2 F 4 中性脂肪 171 2 F 2 LDLコレステロール 148 3 M 4 中性脂肪 199 ・・・ 表4.1.3 基準値データセットのイメージ 項目 下側 上側 項目名 性別 番号 基準値 基準値 1 総コレステロール . 150 220 2 LDLコレステロール . 70 130 3 HDLコレステロール M 40 85 3 HDLコレステロール F 40 95 4 中性脂肪 . 50 145 表4.1.4 併合データセットのイメージ 項目 下側 上側 被験者 性別 項目名 測定値 番号 基準値 基準値 1 M 1 総コレステロール 256 150 220 1 M 2 LDLコレステロール 146 70 130 1 M 3 HDLコレステロール 22 40 85 1 M 4 中性脂肪 176 70 130 2 F 1 総コレステロール 245 150 220 2 F 2 LDLコレステロール 148 70 130 2 F 3 HDLコレステロール 22 40 95 2 F 4 中性脂肪 171 70 130 3 M 1 総コレステロール 253 150 220 ・・・ 4 - 112 ー

117.

データステップで by ステートメントを用いてデータセットを併合する際には、各々のデ ータセットを事前にソートしておく必要がある。それに対して、Proc SQL には外部結合や 内部結合と呼ばれる機能があり、各々のデータセットを事前にソートせずに併合することが 可能である。 利点 1:併合する各々のデータセットを事前にソートしておく必要がない。 Proc SQL では、order by を用いることにより、データセットの併合と同時にデータをソ ートすることが可能である。そのため、データセットの併合後に Proc sort で改めてソート することはせずに、Proc SQL のみで目的に応じた並び順にすることが可能である。 利点 2:データセットの併合と同時にデータをソートすることが可能である。 Proc SQL の外部結合と呼ばれる機能を使うと、併合するキー変数 (Proc SQL では on で 指定し、データステップで merge ステートメントを用いる場合は by ステートメントで指 定する) に対して複数のオブザベーションが存在する場合、全ての組み合わせを発生させる ことが可能である。また、併合前の 2 つのデータセットに同じ変数名が存在する場合、デー タステップでマージするとその変数名のデータは上書きされてしまうのに対して、Proc SQL では単純に上書きされてしまうことはない。 利点 3:データセットを併合する際に、同じ変数名が存在する場合、 単純にデータを上書きしてしまうことはない。 表4.1.5 外部結合を使った併合したデータセットのイメージ 項目 下側 上側 被験者 性別 項目名 測定値 性別 番号 基準値 基準値 1 M 1 総コレステロール 256 . 150 220 1 M 2 LDLコレステロール 146 . 70 130 1 M 3 HDLコレステロール 22 M 40 85 1 M 3 HDLコレステロール 22 F 40 95 ← 基準値データセットに 1 M 4 中性脂肪 176 . 「性別」のデータが存在し、 70 130 2 F 1 総コレステロール 245 . かつ測定値データセットの「性別」 150 220 2 F 2 LDLコレステロール 148 . と値が異なるオブザベーションは 70 130 2 F 3 HDLコレステロール 22 M 40 85 ← 結合データセットから削除する 2 F 3 HDLコレステロール 22 F 40 95 2 F 4 中性脂肪 171 . 70 130 ↑測定値データセットの「性別」 ↑基準値データセットの「性別」 5 - 113 ー

118.

【プログラムの比較】 Proc SORT data=測定値データセット ; by 項目番号 性別 ; run ; Data 基準値データセット 2 ; set 基準値データセット ; if 性別ごとに基準値がある場合 then そのまま出力 ; if 性別ごとに基準値がない場合 then 性別ごとに基準値を出力 ; run ; Proc SORT data=基準値データセット 2 ; by 項目番号 性別 ; run ; Data 併合データセット ; merge 測定値データセット 基準値データセット 2 ; by 項目番号 性別 ; keep 被験者 項目番号 項目名 測定値 下側基準値 上側基準値 ; run ; Proc SORT data=併合データセット ; by 被験者 項目番号 ; run ; Proc SQL ; create table 結合データセット as select 被験者, 測定値データセット.性別 1), 項目番号, 項目名, 測定値, 下側基準値, 上側基準値 測定値データセット left join 2) 基準値データセット 測定値データセット.項目番号 = 基準値データセット.項目番号 3) 基準値データセット.性別 = . or 測定値データセット.性別 = 基準値データセット.性別 4) order by 被験者, 項目番号 ; from on where 1)「性別」は測定値データセットと基準値データセットの双方に存在する。そのため、どち らのデータセットの変数を用いるかを明示する。 2)「from A データセット left join B データセット」は A データセットと B データセットで 一致したオブザベーションに加えて A データセットで一致しなかったオブザベーションも 全て抽出する外部結合を行なう。 3)「on A データセット.変数=B データセット.変数」は外部結合や内部結合を行なう際のキー 変数を指定する。各々の変数名が一致していなくても結合可能である。 4)「where 条件式」で抽出するデータセットの条件を示す。 以上のように、データステップおよび Proc SQL 以外のプロシジャを用いる場合には 5 工 程必要である工程数が、Proc SQL を用いることにより 1 工程に節約することができる。 6 - 114 ー

119.

4.2 事例②:統計解析または図表を作成するためのデータ加工 ~投与開始時の測定値が投与開始時の平均値よりも高い被験者のデータを部分集団とし て抽出する~ 症状が重い (投与開始時の測定値が投与開始時の平均値よりも高い) 被験者のデータを部 分集団として抽出することを考える。データステップおよび Proc SQL 以外のプロシジャで 抽出する場合のフローと、測定値データセットのイメージは以下の通りである。 投与開始時の測定値の抽出 平均値の計算 測定値 データセット ソート データのマージ 被験者の特定 抽出条件の指定 データのマージ データの抽出 SASデータセット ソート プロシジャによる処理 データステップによる処理 抽出データセット 図 4.2.1 データステップおよび Proc SQL 以外のプロシジャで抽出する場合のフロー 表4.2.2 測定値データセットのイメージ 項目 被験者 項目名 時点 測定値 番号 1 1 総コレステロール 0 256 1 1 総コレステロール 8 237 1 1 総コレステロール 16 284 1 1 総コレステロール 24 309 2 1 総コレステロール 0 245 2 1 総コレステロール 8 254 2 1 総コレステロール 16 261 2 1 総コレステロール 24 266 3 1 総コレステロール 0 253 表4.2.3 抽出データセットのイメージ 項目 被験者 項目名 時点 測定値 平均値 番号 1 1 総コレステロール 0 256 250.095 ←投与開始時(時点=0)の測定値が 1 1 総コレステロール 8 237 250.095 投与開始時の平均値より高い 1 1 総コレステロール 16 284 250.095 ので抽出データセットに残す 1 1 総コレステロール 24 309 250.095 2 1 総コレステロール 0 245 250.095 ←投与開始時の測定値が 2 1 総コレステロール 8 254 250.095 投与開始時の平均値より低い 2 1 総コレステロール 16 261 250.095 ので抽出データセットに残さない 2 1 総コレステロール 24 266 250.095 3 1 総コレステロール 0 253 250.095 ・・・ 7 - 115 ー

120.

変数方向のデータの平均値を求めることは、SAS 関数の mean を用いることでデータス テップでも可能である。しかし、オブザベーション方向のデータの平均値を求めるためには、 Proc MEANS などの別のプロシジャを用いる必要がある。また、retain ステートメントを 用いたオブザベーション方向の累計の計算により、データステップでもオブザベーション方 向の平均値を求めることは可能であるが、個々の測定値と求めた平均値を比較するためには 別工程の処理が必要である。それに対して、Proc SQL では、集計するための関数を用いる ことで、個々の測定値とオブザベーション方向の平均値を比較することが可能となる。 利点 4:集計するための関数を用いることで個々の測定値と オブザベーション方向の平均値を比較することが可能である。 【プログラムの比較】 Proc SORT data=測定値データセット ; by 被験者 時点 ; run ; Proc MEANS data = 測定値データセット ; where 時点 = 0 ; var 測定値 ; output out = PMEAN mean = MEAN ; run ; data _null_ ; set PMEAN ; call symput("PMEAN",MEAN) ; run ; data SUBJ ; set 測定値データセット ; where 時点 = 0 and 測定値 > &PMEAN. ; keep 被験者 ; run ; data 抽出データセット ; merge 測定値データセット SUBJ(in = a) ; by 被験者 ; if a ; run ; Proc SQL ; create table 抽出データセット as select 被験者, 時点, 測定値 from 測定値データセット where 被験者 in (select 被験者 1) from 測定値データセット where 時点 = 0 having 2) 測定値 > avg(測定値) 3) ) order by 被験者, 時点 ; 8 - 116 ー

121.

1) 条件式として抽出する被験者を select 以下の記述で特定する。 2) 集計するための関数を条件式に用いる場合は「having 条件式」を利用する。 3) avg (変数) はオブザベーション方向の平均値を求める関数である。 以上のように、データステップおよび Proc SQL 以外のプロシジャを用いる場合には 5 工 程必要である工程数が、Proc SQL を用いることにより 1 工程に節約することができる。 9 - 117 ー

122.

5. より便利なプロシジャとするための SAS 社への要望 今回、Proc SQL を用いたデータ加工の実施にあたって、より便利なプロシジャとするた めの SAS 社への要望を示す。 <SAS 社への要望> 4.2 において、平均値を求める関数を用いた場合を事例として示した。しかしながら、部分 集団としてデータを抽出する際には、中央値や四分位点で分類することも多い。そのため、 分位点を求めることが可能な関数は利用価値が高いと思われる。 要望事項:分位点を求めることが可能な関数を始めとして、 Proc MEANS や Proc UNIVARIATE の OUTPUT ステートメントで 出力可能な統計量を求めることが可能な関数を追加する。 表5. Proc SQLで利用可能な集計関数 関数 内容 平均 AVG, MEAN COUNT, FREQ, N 非欠損値数 修正済平方和 CSS 変動係数 CV 最大値 MAX 最小値 MIN 欠損値の数 NMISS t検定の p値 PRT 範囲 RANGE 標準偏差 STD 標準誤差 STDERR 合計 SUM 重み変数の合計 SUMWGT Student の t検定 T 無修正平方和 USS 分散 VAR 10 - 118 ー

123.

6. おわりに 臨床試験データの加工において Proc SQL を活用することを試みた結果、工程数を節約す ることができた。Proc SQL の活用は、複雑なデータを加工することが必要とされる場合に おいても、複数の工程を 1 工程にすることができるため、プログラム作成においてエラーを 少なくすることが期待できた。また、変更箇所を見つけやすいため、変数名の変更や条件の 変更を行なう際に変更漏れを少なくすることが期待できた。ただし、SAS システムで統計解 析や図表を作成するためのデータ加工を行なう際には、途中データを確認しながら進めてい くと誤りがなく安全である。Proc SQL では、1 工程で処理を進めてしまうため、途中で誤り がないかどうか注意しなければならない。 最後に、臨床試験データの加工において、Proc SQL がより便利なプロシジャとするため の要望を示した。Proc SQL を活用することによって、より便利に臨床試験データの加工を 行なうことができるようになれば幸いである。 謝辞 本稿をまとめるにあたり,数々の有意義なご助言を頂いた持田製薬株式会社 舟喜光一氏、 萩野篤司氏、林水紀氏に感謝申し上げます。 参考文献 1) SAS(R) 9.1 SQL Procedure User's Guide <http://support.sas.com/onlinedoc/913/docMainpage.jsp > 2007/06/30 現在 2) 「SAS による SQL 入門」テキスト 3) Kirk Paul Lafler (2004) PROC SQL: Beyond the Basics Using SAS®. SAS Institute Inc. 11 - 119 ー

124.

付録. SAS プログラム (SAS Ver 9.1 日本語版) *-- 利用するフォーマットの指定 --*; proc format ; value LBTEST 1 = "総コレステロール " 2 = "LDLコレステロール" 3 = "HDLコレステロール" 4 = "中性脂肪 " ; value SEX 1 = "M" 2 = "F" ; run ; *-- 測定値データの発生 --*; data WORK1 ; label ID = "被験者" SEX = "性別" LBTESTCD = "項目番号" LBTEST = "項目名" VALUE = "測定値" ; do ID = 1 to 10000 ; SEX = put(ranbin(12345,1,0.5) + 1,SEX.) ; do LBTESTCD = 1,4,3,2 ; LBTEST = put(LBTESTCD,LBTEST.) ; do WEEK = 0, 8, 16, 24 ; if LBTESTCD = 1 then VALUE = round(250 - 2 * week * rannor(3568+week) + 10 * rannor(9856) ) ; if LBTESTCD = 2 then VALUE = round(150 - 0.3 * week * rannor(6325+week) + 8 * rannor(1352) ) ; if LBTESTCD = 3 then VALUE = round( 30 + 0.1 * week * rannor(6932+week) + 5 * rannor(8256) ) ; if LBTESTCD = 4 then VALUE = round(180 - 1.2 * week * rannor(1529+week) + 11 * rannor(4526) ) ; output ; end ; end ; end ; run ; *-- 基準値データ --*; data NORM ; input LBTESTCD SEX $ LO_NRM HI_NRM ; label LBTESTCD = "項目番号" SEX = "性別" LO_NRM = "下側基準値" HI_NRM = "上側基準値" ; cards ; 1 . 150 220 4 . 50 145 2 . 70 130 3 M 40 85 3 F 40 95 ; run ; 12 - 120 ー

125.

*----- 事例1:ソートされていない2つのデータセットを結合する --*; ***** データステップを用いる場合 *****; Proc SORT data=WORK1 out=DATAS1 ; by LBTESTCD SEX ; run ; data DATAS2a ; set NORM ; *-- 性別のごとに基準値が無い場合にデータを作成する。順番に注意 ; if SEX not in (" ",".") then output ; else do SEX = "M","F" ; output ; end ; run ; Proc SORT data=DATAS2a out=DATAS2 ; by LBTESTCD SEX ; run ; data DATAS3 ; merge DATAS1 DATAS2 ; by LBTESTCD SEX ; run ; Proc SORT data=DATAS3 out=DATAS4 ; by ID LBTESTCD WEEK ; run ; ***** Proc SQLを用いる場合 *****; Proc SQL ; create table SQL1 as select WORK1.ID, WORK1.SEX, WORK1.LBTESTCD, WORK1.LBTEST, WORK1.WEEK, WORK1.VALUE, NORM.LO_NRM, NORM.HI_NRM from WORK1 left join NORM on WORK1.LBTESTCD = NORM.LBTESTCD where NORM.SEX in (" ",".") or WORK1.SEX = NORM.SEX order by ID, LBTESTCD, WEEK ; quit ; /* 作成するデータセット名を指定 */ /* 作成する項目名を指定 */ /* WORK1にNORMを条件付で結合する */ /* 項目のコードが一致する場合 */ /* 基準値で性別が無いか、性別ごとのデータを併合する */ /* データセット作成と同時にデータを並び替える */ Proc COMPARE BASE=SQL1 COMPARE=DATAS4 ; title "事例1:Proc SQLを用いて作成したデータセットとデータステップで作成したデータセットの比較" ; run ; title ; 13 - 121 ー

126.

*----- 事例2:開始時の測定値から算出されたサブグループ集団のデータを抽出する -----*; ***** データステップを用いる場合 *****; Proc SORT data=WORK1 out=DATAS11 ; by ID LBTESTCD WEEK ; run ; *-- 開始時データから平均値を求める --*; Proc MEANS data=WORK1 ; where LBTESTCD = 1 and WEEK = 0 ; /* 開始時の総コレステロール値でサブグループを計算 */ by LBTESTCD ; var VALUE ; output out=PMEAN mean=MEAN ; /* 仮にデータセットを作成 */ run ; data _null_ ; set PMEAN ; call symput("PMEAN",MEAN) ; /* 条件に用いる値をマクロ変数としてデータ化 */ run ; data SUBJ ; set DATAS11 ; where LBTESTCD = 1 and WEEK =0 ; /* 開始時の総コレステロール値のデータのみを残す */ by LBTESTCD ; if WEEK = 0 and VALUE > &PMEAN. ; /* 開始時の測定値が平均値より大きい被験者の特定 */ run ; data DATAS12 ; merge DATAS11 SUBJ(keep=ID in=a) ; by ID ; if a ; /* in=データセットオプションで必要な被験者のみ特定 */ run ; Proc SORT data=DATAS12 out=DATAS13 ; by LBTESTCD ID WEEK ; /* 利用する順番でソート */ run ; ***** Proc SQLを用いる場合 *****; Proc SQL ; create table SQL11 as select WORK1.ID, WORK1.SEX, WORK1.LBTESTCD, WORK1.LBTEST, WORK1.WEEK, WORK1.VALUE from WORK1 where ID in (select ID from WORK1 where WEEK = 0 and LBTESTCD = 1 having VALUE > avg(VALUE) ) order by LBTESTCD, ID, WEEK ; quit ; /* 作成するデータセット名を指定 */ /* 作成する項目名を指定 */ /* 抽出するIDを指定する */ /* 抽出するIDの条件を求める際に利用するデータの特定 */ /* 抽出するIDを残すための条件を指定 */ Proc COMPARE BASE=SQL11 COMPARE=DATAS13 ; title "事例2:Proc SQLを用いて作成したデータセットとデータステップで作成したデータセットの比較" ; run ; title ; 14 - 122 ー

127.

SAS マクロライブラリの構築/管理/運用 田村 洋介 臨床統計・プログラミング部 アストラゼネカ株式会社 SAS Macro Library of the programmers, by the programmers, for the programmers Yousuke Tamura Statistics & Programming Department, AstraZeneca K.K. 要旨 弊社の解析部門の SAS マクロライブラリの構築/管理/運用事例を紹介する。 マクロライブラリの構築の準備、管理方法、運用する上での注意点、問題点及び、マクロライブラ リの構築/管理/運用を通じて発生した副産物を提示する。 マクロライブラリの現況を述べ、問題点について、対策を検討する。 また、マクロライブラリの将来的なリスク及び、マクロライブラリによる SAS の学習効果について考 察する。 キーワード:マクロ、ライブラリ、効率化、バリデーション 1. はじめに 2004 年当初の時点で、弊社では、いくつかの共用されている SAS マクロ、Microsoft Office で 作成されたアプリケーションが存在したが、使用する都度、動作確認を含む簡単な確認作業をして、 利用していた。SAS マクロライブラリに関しては、運用ルールが検討されたことがあったが、運用に は至っていなかった。 部門内のプログラマ全員が、使用することを前提としたマクロが作成されたことを契機として、マク ロの作成者、SAS の上級者らが中心になって、SAS マクロライブラリを構築することとなった。 本稿では、クライアント Windows 2000/ SAS 8.2 の環境で、弊社の解析部門の SAS マクロライブ ラリの構築/管理/運用事例を紹介する。 - 123 ー

128.

マクロライブラリの構築の準備に始まり、個々のマクロの作成、ライブラリへの登録、ライブラリの 利用及び、バリデーションのプロセスに伴う文書整備を挙げ、実際に運用する上での注意点、問題 点、及び、これらの活動を通じて発生した副産物を提示する。 問題点について、対策を検討し、将来的なリスクを検討する。 また、マクロライブラリの有用性をプログラマの教育上の効果について考察する。 2. 構築/管理/運用 2.1 方針 最初に、マクロライブラリを構築する上での方針を決めた。 まず、必須の規則は極力、少なくすることを目指した。マクロライブラリの構築中は、作業時間も 確保し、意欲もあるため、問題なく実施/確認できる規則が、運用に入ってから作業工数/品質上、 困難/破綻することを避けるためである。 また、マクロのバリデーションの品質を上げることより、使用されているマクロを追跡可能にしてお くことを重視した。 問題を発生させないことを重視すると、規則は増え、厳密/煩雑になり、マクロを開発/保守するプ ログラマも、利用者の利便性も損なう。セーフティネットとして、問題が発生した際に、影響する範囲 を特定できることを重視することとした。 2.2 目標 構築する際には、マクロの利用者、作成者、マクロライブラリ管理者毎に目標を想定した。 マクロの利用者にとって、事前の準備/作業が少なく、正しい使用方法、危険な使用方法、使用 するべき個所/範囲が判りやすく、Fool Proof にできていて、ただし問題があったら、サポートが得ら れて、当然、煩雑な作業を軽減し、さらには、興味がわく機能/動作が実装されているマクロが望ま しい。 マクロの作成者にとって、面倒な規則や冗長な手続きがなく、明確で有用な開発/標準化手法が 提示されて、どれだけ、どのようにマクロが使用されているか追跡可能で、利用者/他の作成者から フィードバックが受けやすく、有限責任で、さらには、インセンティブが明示的に存在すれば、モチ ベーションが上がる。 マクロライブラリ管理者にとって、管理作業が楽で、マクロの利用者/作成者からフィードバックを 受けやすく、どれだけ、どのようにマクロが使用されているか追跡可能で、有限責任で、さらには、 インセンティブが明示的に存在するマクロライブラリが良いマクロライブラリである。 これらの目標をすべて満たすことが望ましいが、難しいようであれば、どれを重視するかの選択 が、マクロライブラリの構築/管理/運用時に求められる。 - 124 ー

129.

2.3 環境 アクセス権の設定を行った部門ファイルサーバ上に構築した。 チェックアウト、チェックイン、履歴管理といった機能があるプログラム管理 Tool/System の導入も 検討したが、初期費用、教育、保守といったコストと、マクロライブラリが、どれだけ利用、発展する か不明な状況でのベネフィットを考慮して、導入しないこととした。 上記の方針、及び環境から、シンプルなマクロライブラリの構成となっている。 2.4 マクロの登録、公開、利用 マクロを作成し、ライブラリに登録し、利用する流れは以下になる。  マクロを作成したら、登録フォルダに、マクロと仕様書をおいて、マクロライブラリ管理者経由 か、直接、バリデーション担当者に連絡する。  適切にバリデーションを行い、問題なければ、バリデーション結果を作成し、マクロライブラリ 管理者に連絡する。問題あれば、マクロの作成者に連絡し、修正を検討する。  マクロライブラリ管理者が、バリデーション結果を確認し、問題なければ、マクロを公開フォ ルダに、移動する。問題あれば、バリデーション担当者に連絡し、修正を検討する。 図 1 は問題なく利用までいたるプロセスを示している。 また、問題のあるマクロの開発/公開を停止する場合、管理者は連絡し、マクロを登録/公開フォ ルダから廃棄フォルダに移動する。 マクロを利用する場合は、公開フォルダから利用者がコピーしてから利用する。 - 125 ー

130.

図 1 マクロの登録、バリデーション、公開、利用のプロセス 登録 作成者 マクロ 仕様書 ▼ 登録フォルダ 公開フォルダ 利用フォルダ 公開フォルダ 利用フォルダ Validation Validation担当者 Validation結果 ▼ 登録フォルダ マクロ 仕様書 公開 管理者 登録フォルダ マクロ 仕様書 公開フォルダ 利用フォルダ Validation結果 利用 利用者 登録フォルダ 公開フォルダ マクロ 仕様書 Validation結果 - 126 ー 利用フォルダ マクロ

131.

2.5 マクロの作成 マクロの作成に当たっての規則は以下になっている。  マクロ名は C_*********(任意)01(Version 番号)とする。  マクロ名=ファイル名とする。1つのファイルに複数のマクロを含むことはできない。  紛らわしい/重複したマクロが存在しないか確認する。  できるだけ、マクロのプログラムヘッダーに、以下の情報を含むマクロの仕様を記述する。 管理情報 仕様 作成日付、作成者、更新日、更新者、SAS Version 機能、目的、パラメタの説明、マクロの履歴、参照先 使用上の注意、制限事項、必要事項、事前準備、禁則事項 マクロによって読み取り/設定/作成される場合は、以下を記述 マクロ中で使用しているマクロ Read/Write/Update される Local/Global マクロ変数、Option、Libname、 Filename 一時的なデータセット/変数 使用する外部ファイル 実行例 マクロ/マクロ変数/マクロパラメタをはじめとする、一時的なデータセット/変数等の命名ガイドライ ンを作成した。このガイドラインは、現在も逐次、改定されており、固定された必須の規則ではない。 内容 使用しても良い省略形 名前の統一 中間生成物 処理の範囲 例 Dataset->DS/ Variable->Var Make/ Create/ Produce-> Make 中間生成物は__temp 等"__"アンダースコア 2 文字開始 特定の処理を完結し、なんらかの成果物を生成する->C_Make**01 特定のステートメントを記述する際に利用する->C_**InDatestep01 また、以下のような場合、マクロがバージョンアップされることを想定している。  バグが発見された  機能に変更があった(追加/削除)  実行環境のバージョンアップに伴い、機能は変更しないが、マクロに修正の必要がある この場合、マクロ名は、C_*********(任意)01 から C_*********(任意)02 となる。 2.6 バリデーション マクロのバリデーション用に4つのテンプレートを用意した。 名前 Validation Plan Test Script User Report Validation Report 用途 マクロの想定される使用状況、重要性に基づき、バリデーション方法を選択す る。例:レビュー/ロジカルチェック/出力のチェック/ダブルプログラミング 具体的なチェック方法と期待される結果を記述し、 マクロの実行結果を記録し、期待される結果と比較して、問題ないか検討する マクロを実行して、結果を記録する。問題/要望があれば、記録しておく。 上記のファイルを元に、最終的なバリデーション結果を記録する 今後、予想される機能拡張や問題点、要望があれば、記録しておく。 - 127 ー

132.

バリデーションに関しては、レベルを 3 段階から選べる。 レベル 3 は最も厳しく、バリデーションを行う必要があるマクロであることを示す。ほとんどのマク ロはこのレベルになる。 プログラミング作業を補助するマクロ等の、成果物に直接関わることのないマクロのバリデーショ ンはレベル 2 でも良い。 そもそも、まだバリデーションする必要のな い/できないマクロのバリデーションはレベル 1 となる。実際の使用に耐えない、又は致命 的な問題がある状態のマクロを登録したい場 合、このレベルとなる。そのようなマクロでも 各レベルで必要な文書 レベル Validation Test Plan Script 3 ○ ○ 2 ○ × 1 ○ × User Report △ ○ × Validation Report ○ × × 登録することにより、利用者からのフィードバ ックを得られることを期待してレベル 1 が選ばれる。 上記以外にも関連文書や、バリデーションのプログラム、実行結果等が存在する場合は、上記 のファイルに添付するか、保管場所を明示しておく。これらは、マクロのバージョンアップの場合、 再利用できる/するべきであり、更に、バグが発見された場合には、何故、そのバグをバリデーション 時に検知できなかったか調査時に調べる手がかりとなるので、必須とした。 2.7 管理者の作業 マクロライブラリが運用に入って以降の、管理者の作業は、主に調整役である。  マクロの公開前にバリデーション作業が適切に行われているか確認する。  バグが発見された場合、利用者を特定して、マクロの作成者、利用者と協力して、対応する。  新しいマクロの要望が挙がった場合、要望の仕様化、作成者の決定、マクロの作成、バリデー ション担当者の決定、バリデーション作業に対して、必要であれば協力する。  新しいマクロが公開されたら、利用者に知らせる。必要であれば、説明会を開く。  マクロライブラリの運用に関する意見を検討する。  マクロの使用頻度を計測する。 また、マクロライブラリの管理/運用時に使用する Tool を整備した。  マクロライブラリ中のマクロを一括で指定したフォルダにコピーする VBS Script  マクロがバージョンアップした場合、古いマクロを、コピーしているか、管理者が一括でチェック するための VBS Script  新しいマクロ/マクロライブラリへの要望を出すための Mail テンプレート、Excel ファイル - 128 ー

133.

2.8 副産物 マクロライブラリを構築/管理/運用する過程で、以下のような副産物も得られた。 副産物 部門ファイルサーバの標準化 理由 マクロの使用フォルダを特定し、バグの発見時の影響範囲 を特定するため。 コーディングガイドラインの更新 マクロライブラリの規則が整備されるのにあわせて、現状に 合わない部分が改訂された。 SAS マクロライブラリの構築経験が生かせると共に、SAS マ クロと協調して動作する、Microsoft Office のアプリケーショ ンも、作成され始めたため。 マクロの使用頻度を計測するため。 マクロの使用状況を確認するため。 SAS マクロ 以外の為のバリデーシ ョン用プロセス、テンプレート SAS プログラム検索 Tool 3. 評価 3.1 現況 2007/6 月現在、公開されているマクロ数は 62 個になっている。ただし、特定の機能を実現する のに、複数のマクロを作成している場合もあり、機能単位では 46 個となっている。 現在、作成、バリデーション中となっているのは、機能単位で 6 個ある。 部門内のプログラマは 8 人で、作成した経験があるのは、4 人となっている。 バリデーションの経験者は、6 人であるが、他部門で SAS の経験者が行ったこともある。 同様な理由で、利用者は、13 人いる。ブログラマ以外の同部門内の統計/解析担当者が 3 人、 他部門で 2 人、利用者がいる。 3.2 傾向 公開されているマクロについて、いくつかのパラメタを指定すれば、ある作業が終了するような、 相対的に大きなマクロは少なく、データ加工の補助となるような、相対的に小さなマクロの方が多い。 上述の SAS プログラム検索 Tool を用いて調べた結果、利用頻度について、相対的に大きなマ クロの方が高い。ただし、マクロによっては、一括で特定の処理を行うものもあり、このようなマクロは、 個々のデータセットで使用されるマクロより、利用回数が少なくて当然ではある。 以上から、相対的に大きなマクロは作成、バリデーションに伴う作業量も大きく、公開に至りにく いが、公開されれば、その機能性、必要性から利用されやすく、相対的に、小さなマクロは作成、 バリデーションに伴う作業量は小さく、多くは公開に至るが、その機能性、必要性に比較して、使用 方法を覚える必要がある等のデメリットが、利用に妨げになっている傾向が見て取れる。 また、マクロの作成者、バリデーション担当者を経験は、SAS の経験の長さではなく、業務の状 況に依存している。 - 129 ー

134.

SAS の経験/理解に乏しくとも、前述した相対的に小さなマクロは作成、バリデーションできる。バ リデーションできる人数が多く、必要な時間は短めである。 相対的に大きなマクロの作成、特にバリデーションは SAS の経験豊富な担当者が当たるべきで あるが、バリデーションできる人数が少なく、必要とする時間は長くなる。 マクロの作成者、バリデーション担当者となる際の制約は、機会と時間となっているので、SAS の 経験が豊富なプログラマばかりが、マクロの作成者、バリデーション担当者となっていない。 3.3 課題/問題点 当初、目標に掲げたが、至っていない点は以下である。 マクロの利用者にとって、危険な使用方法、使用するべき個所/範囲が判りやすくなっていない。 Fool Proof も確保できていない。 マクロの作成者にとって、明確で有用な開発/標準化手法は存在せず、マクロの作成方法は。各 人の能力に強く依存している。一度、問題が発生すれば、問題解決まで拘束されているため、有 限責任とは云いがたい。また、マクロ作成による明示的なインセンティブがない。 マクロライブラリ管理者は、作成者と同じような状況で、有限責任でなく、明示的なインセンティブ がない。 また、マクロライブラリ運用後、以下の点から、バリデーション作業の質が統一されていないことが 問題になった。  バリデーション作業そのものが、適切に行えていない、抜け漏れがある。  バリデーション作業は適切でも、記録の残し方に問題がある。  チェック用のプログラムの実行が、自動化されていない。 3.4 今後の対策 上記の課題/問題点に関して、対策を検討中である。 危険な使用方法、使用するべき個所/範囲が判りやすくなっていない点について、以下の対策を 検討している。  仕様書/マクロのヘッダーには、使用上の注意を作成者が書くが、それらに加えて、バリデ ーション担当者の気付いた問題、予想される危険な点を追記する。これらは Validation Report 中に記載されていることもあるが、マクロの利用者が利用する時に、全ての関連文書 に目を通すのは現実的でないため、一番見やすい、マクロのヘッダーに記録する。  仕様や注意点の記述されているマクロのヘッダーを簡易に確認できるように、マクロのヘッ ダーを確認するコマンドスタイルマクロも提供する。  命名ガイドラインに盛り込み、マクロ名から危険性が確認できるようにする。 - 130 ー

135.

マクロの作成者、マクロライブラリの管理者にとって、有限責任になっていない点について以下 の対策を検討している。現時点で、マクロの作成者、マクロライブラリの管理者から、問題として挙 がっていないが、今後、新たな作成者、管理者を得るために必要と思われる。  問題が発生した場合に、利用者の希望する解決までの日数と、マクロの作成者、マクロライ ブラリの管理者が予想する解決までの日数を明示し、対応を検討するプロセスを定義する。 マクロを使用しない、1 週間後に対応する等の対応を関係者、協議の上、決定する。  マクロの作成者に加えて、バリデーション担当者も対応することとする。対応する人数が増 えれば、対応に要する人/時間のボトルネックを解消しやすくなる。  部門内プログラマ全員に、利用者、作成者、バリデーション担当者のすべてを一度は経験 させる。管理者も期間毎に変更する。公開されたマクロを作成した、若しくはバリデーション を行った経験のない利用者にとって、マクロの使用方法/仕様/機能に満足いかないことがあ るのは、当然である。同様に、作成者、バリデーション担当者に利用者の求めているマクロ 及び仕様書を常に提供できないことも当然である。すべての立場を経験すれば、関係者の 納得性の高い対応が取れることを期待している。 マクロの作成者、マクロライブラリの管理者にとっての明示的なインセンティブに関しては、利用 者のインセンティブを含めて、対策を検討している。  何らかの物品の授受。判りやすいが、現在、マクロの利用回数、作成回数、バリデーション 回数等しか計測できないため、授受を成立させる指標として、上記のいずれか、若しくは複 合になると考えている。これらの指標は、そのマクロによって、どれほど効率化したかの直接 の指標となり得ないと考えており、効率化を測る計測可能な指標が発見され、授受に関わる コストの引き受け先ができれば、実行する予定である。  上記と同様の方法で、物品の授受ではなく、業務として評価する。現時点では、物品の授 受以上に実現が難しいと考えている。  前年のマクロの利用回数、作成回数、バリデーション回数等を元にポイントを算出し、順位 をつける。マクロライブラリ内での何らかの決定、作業に関して、調整が必要になった場合 は、順位を考慮に入れて、判断する。若しくは、順位のみで判断する。これは極端であるが、 時間を節約する意味で、効率的である。しかし、前年度に順位が低い/新規に参加したプロ グラマのモチベーションを減退させる可能性があり、実行に至っていない。 上記の他に、マクロライブラリ発展のため、以下を検討中である。  年間でマクロの利用回数、作成回数、バリデーション回数を元にポイントを算出し、公表する。  各人の机に、ポイントに応じて、ブロックを積み上げる。  新マクロ/機能のニュースレターを発行する。有用なものついては、作成者にコメントを集め、 事例集にしていく。 - 131 ー

136.

4. 考察 4.1 将来的なリスク 上記で検討した対策を、すべて行い、上手くいった場合、マクロの公開数は増え、利用者、作成 者も増え、マクロライブラリは発展するはずである。以下の点を懸念している。  簡単に作れて、バリデーションできて、使えるマクロばかりが増える。  大量にマクロがあり、適切なものを選べなくなる。同様に同じようなマクロがいくつもある。  マクロライブラリの管理者の作業が増大する。 現時点での、公開されたマクロは機能単位で 46 個である。この程度であれば、管理者がすべて のマクロに目を通すことも可能で、問題が発生しても対応しやすい。 マクロライブラリの各種規則や、命名ガイドライン、ヘッダーの書き方、バリデーション方法等を、 変更しても、今であれば、対応可能であるが、公開数が、100 個を越えてくると、予想が難しくなる。 今後の対応として、現時点の問題/課題に対する対策を実行するのであれば早急に行う。 また、今後、必須の規則は、増加させず、ガイドラインを充実させる方針としている。 4.2 マクロライブラリによる効率化、高品質化 効率について、測定可能な指標が得られていないため、定量的に求めることは難しいと考えて いる。 マクロ化により、長いプログラムを記述する工数を削減したという主張も、そのようなマクロの使用 頻度、マクロの作成、公開に費やされた時間を考慮する必要がある。 更にそもそも、そのマクロで行った処理そのものが必要なのかさえ考慮する必要がある。例えば、 弊社で、マクロライブラリを作成する発端となってのは、SAS の出力を ODS 経由で、MS Word のフ ァイルに変換するマクロである。MS Word で出力して欲しいという要望の元、開発され、現在も、一 番使用されているが、そのマクロがなければ、そもそも MS Word に出力するという要望を棄却し、 他の方法を試したはずである。 バリデーションの高品質化についても、疑問が残る。弊社では、ダブルプログラミングで成果物 のバリデーションを行うことが多いが、その中で使用されているマクロのバリデーション作業の質が 高いことが、成果物を作成した プログラム全体のバリデーション作業の質にどれだけ寄与するかは 、 一般的に求めることが難しいと思われる。 これらの懐疑は、マクロライブラリに費やされるリソース/コスト/時間と実際に得られた効果のバラ ンスが悪い場合に発生する。 より省力化して、マクロライブラリを構築/管理/運用できるか、もっと多くの効果が得られれば問題 ではなくなる。より大量の利用者がいて、且つ、利用者自身が管理作業をわずかに分担できればよ い。残念ながら弊社内のプログラマだけでは難しいが。 - 132 ー

137.

4.3 マクロライブラリの学習効果 SAS では、効率的にプログラムを記述する機能として、マクロが提供されている。"効率的に"とい う表現は、プログラムを記述する上で、マクロが必須ではないことを示している。 %let ステートメントや Call symput/ symget といったマクロ変数を操作する機能及び、%Substr 等 のマクロ関数についても、必須ではないと云える。ただし、極めて冗長且つ、本質的でないプログラ ムを書くことに耐える必要がある。 一般的にいっても、筆者の個人的経験からいっても、相対的に、プログラムが長いほど、そのプ ログラムが、意図/期待と異なる動作=いわゆるバグを引き起こしやすくなる。同様に、同じプログラム を長期間/高頻度で使用するほど、バグを引き起こしやすくなる。 従って、マクロ=効率的にプログラムを記述する機能は、プログラムを一度書いて、使用するだけ であれば、必須ではない。プログラムを管理、使用、改訂していく上で必須の機能であると云える。 同時に、プログラムを含む、ソフトウェアの品質特性として上げられる、6 つの特性(機能性、信頼 性、使用性、効率性、保守性、移植性)について、一般的にいっても、筆者の個人的経験からいっ ても、品質特性に優れたプログラム=良いプログラムを読むほど、相対的に、良いプログラムが書け るようになる。同様に、レビューを受けるほど、良いプログラムをかけるようになる。 従って、良いプログラムを読む/自分の書いたプログラムをレビューしてもらうことは、プログラマの 教育/能力向上に対して有用である。 以上をあわせると、マクロライブラリが存在し、プログラマがそれらのマクロを見ることができる環境 は、プログラマの教育、プログラムの作成において、効果が期待できるはずである。 上述の SAS プログラム検索 Tool を用いて、マクロの作成/利用状況を調査し、考察した。 4.3.1 マクロ変数に関して プログラマのマクロ変数への理解度は、かなり向上したと思われる。 マクロライブラリが運用に至る前に、%Global 、%Local ステートメントを用いて、明示的に、Local マクロ変数と Global マクロ変数を使い分けたマクロを作成したプログラムは無かった。これは使う必 要が無かった場合も多数含まれると思われるが、個人内でプログラムを再利用する場合でも、問題 になる可能性があるので、使い分けた方がよい。 運用後は、%Global 、%Local ステートメントを用いてマクロ変数のスコープを管理するマクロが 大量に作成されている。 4.3.2 マクロ作成に関して プログラマのマクロの実行制御への理解度は、向上したと思われる。 マクロライブラリが運用に至る前に、複雑な入れ子構造をもつマクロはほとんど存在しなかったが、 制御の難しい、複雑な入れ子構造をもつマクロが登録されはじめている。 マクロ中で生成される中間生成物の作成、取り扱いに関する新手法も出現した。 - 133 ー

138.

 Proc SQL の使用により、効率的に中間生成物のデータセットを作成  Proc SQL と Dictionary Table を用いて、マクロ変数を効率的に作成  中間生成物のマクロ変数を、マクロ関数を組み合わせて無くす 4.3.3 継続的な学習に向けて マクロの作成/利用状況から調査したため、マクロライブラリ以外の学習効果に対する要因が排 除できていないが、上記でマクロライブラリの存在が、プログラマの教育、プログラムの作成におい て、効果的である傍証を挙げた。 期待される効果は、マクロの作成者が新しい技術を組み込んで、マクロ化し、公開されることで、 その技術が、他の作成者、マクロの利用者に伝わることによって発生する。 効率的に記述された、良いプログラムを読む利用者と、レビューを受ける作成者、双方に効果が 期待できるが、これは、当然ながら、プログラムを読んで理解でき、レビューすることができる利用者 と、読んでわかるプログラムと、レビューされることができる作成者が必須である。 単なるアルゴリズムであれば、利用者は理解しないと使いがたいが、マクロであれば、適切なサ ンプルコードが読めれば、中身が判らなくても使用できる。 マクロの作成者から、それ以外のプログラマへ技術が伝わっていない場合、詳細に読みこなさな い利用者だけの問題ではない。マクロの作成者も、マクロによってもたらされる効果/結果を中心に、 仕様を書き、マクロを作成するため、マクロ内で用いられる技術について、詳細に説明する機会が ない。 利用者がマクロの説明を読んで、利用する過程を通じて、学習できて、レビューすることができる 環境になっていないことが、現時点で問題となっているわけではないが、マクロライブラリが関係者 を含めて発展する上で、検討が不可避と考えている。 5. 終わりに 個人的に、プログラムの作成を含む、プログラマの生産性の効率化、学習について、興味があり、 マクロライブラリの管理者として、関われたことは非常に有意義な経験であったと思っている。 同時に、構築準備中、目にするマクロライブラリに関する資料、システムが、当時の我々には、オ ーバースペックであるため、取り入れることができなかった点が多々あった。 本稿で、紹介した事例が、これからマクロライブラリを構築/改訂される際に参考になれば幸いで ある。 参考文献 竹田眞、佐藤智美(2001) 社内マクロライブラリの構築について〜SAS プログラムバリデーション に対する試み〜 SUGI-J 2001 - 134 ー

139.

SQL プロシジャの利用 −安全性の集計を題材に− ○中村 竜児 株式会社インクリース研究所 Effective use of SQL procedure ― derived from summary of Safety ― Ryoji Nakamura INCREASE CO,LTD. 要旨 SAS には DATA ステップという強力なデータ編集環境があり、これで事足りてしま うため、SQL はあまり使用されていないようであるが、SQL プロシジャを使用すると、 DATA ステップなら複数ステップかかるところを 1 ステップで済ませることが可能であ る。本稿では DATA ステップとの比較を交えながら、SQL プロシジャが有効な場面を 探っていく。 キーワード : Data ステップ、SQL プロシジャ 1 変数の定義 1.1 ATTRIB ステートメントと SELECT 文節 変数を定義するために DATA ステップ上で ATTRIB ステートメントを利用すると、次の様に 記述することができる。 data ae ; attrib subjid length=$20. label='被験者 ID' aeseq length=8. label='有害事象番号' aesoc length=$10. format=$soc̲. label='SOC' aept length=$10. format=$pt̲. label='PT' aestdten length=$20. label='発現日' aesev length=8. format=aesev̲. label='重症度' aeout length=8. format=aeout̲. label='転帰' aerel length=8. format=aerel̲. label='因果関係' ; delete ; run ; - 135 ー

140.

SQL プロシジャの場合は次の様になる。 proc sql ; create table ae ( subjid char(20) aeseq int aesoc char(10) aept char(10) aestdten char(20) aesev int aeout int aerel int ) ; quit ; label='被験者 ID', label='有害事象番号', format=$soc̲. label='SOC', format=$pt̲. label='PT', label='発現日', format=aesev̲. label='重症度', format=aeout̲. label='転帰', format=aerel̲. label='因果関係' 1.2 割り当てステートメントと SELECT 文節 計算により新しい変数を導出する場合、DATA ステップでは割り当てステートメントを使用す るが、SQL プロシジャでは、SELECT 文節に記述する。 proc sql ; create table data2 as select data1.*,input(aestdten,yymmdd10.) as aestdt from data1 ; quit SQL プロシジャでは、SELECT 文節に列記された変数しか作成されるデータセットに格納 されないため、上記プログラムでは「data1.*」と記述することでデータセット data1 に含まれる 全ての変数を指定している。 途中計算の結果を一時的な変数に格納する場合、DATA ステ ップであれば KEEP、 DROP ステートメントやデータセットオプションによってその変数を結果データセットからはず すことができるが、SQL プロシジャでは SELECT 文節内に記述する以上、結果データセット には含まれてしまう。その場合は関数のネストなどにより 1 行で書ききるか、後節で扱うサブクエ リを利用することになる。 DATA ステップでは割り当てステートメントと他のステートメント(条件分岐やループなど)を 組み合わせて様々な編集・変数導出が行えるが、SQL プロシジャは全てを SELECT 文節に 記述しなければならないので直感的に分かり難いことがある。例えば DATA ステップにおける SECT ステートメントは SQL プロシジャでは SELECT 文節の中で CASE キーワードを記述 することになる。 case when 条件 1 then 値 1 (when 条件 2 then 値 2) else 値 3 end as 変数名 以下例題 select data1.*, case when aesev=3 then 1 else 0 end as sae - 136 ー

141.

2 縦結合 SQL プロシジャによる縦結合は DATA ステップとは全く違った動きをするため注意が必要 である。まずは例題をもとに DATA ステップの動きを確認しておく。 2.1 DATA ステップによる縦結合 次の 3 つのデータセットを結合する。 x y z id x id x id z 1 1 2 3 x1 x1 x2 z3 1 2 3 y1 y2 z3 1 2 3 z1 z2 z3 DATA ステップの SET ステートメントによる縦結合の結果は次のようになる。 data new ; set x y z ; run ; < 出力 > id x z 1 1 2 3 1 2 3 1 2 3 z1 z2 z3 x1 x1 x2 z3 y1 y2 z3 行は SET ステートメントで指定した順に出力されており、列は列名の同じものどうしにまとめ られている。 2.2 SQL プロシジャによる縦結合 SQL プロシジャでは SELECT 及び FROM 文節を伴う一連のオブザベーション抽出命令 文をセット演算子でつなげることによって縦結合を行う1。 proc sql ; select * from データセット 1 セット演算子 select * from データセット 2 ; 2.2.1 UNION 演算子 UNION 演算子による結合は 2 つのデータセットの重複行を削除しソートされる。また列位 置が同じものどうしを同じ列に落とし、列名の違いは区別しない。 proc sql ; select * from x 1 本稿では UNION,OUTER UNION という 2 つの演算子のみ扱う。他に EXC EPT(1 つめのテーブルに存在し て 2 つめ以降のテーブルに存在しない行を出力)と INTERSECT(全てのテーブル に共通する行を出力)というの がある。 - 137 ー

142.

union select * from y union select * from z ; quit ; < 出力 > id x -----------------1 x1 1 y1 1 z1 2 x2 2 y2 2 z2 3 z3 UNION ALL と 記 述 す る と 重 複 行 も 移 送 さ れ ソ ー ト は さ れ な い 。 ま た 、 UNION CORRESPONDING と記述すると共通の変数しか移送されない。 2.2.2 OUTER UNION 演算子 1 番目のデータセットの全ての行の後に 2 番目のデータセットの全ての行が挿入されるのは UNION ALL と同じであるが、列も全て別の列として格納される点が異なる。 proc sql ; select * from x outer union select * from y outer union select * from z ; quit ; < 出力 > id x id x id z ---------------------------------------------------------1 x1 . . 1 x1 . . 2 x2 . . 3 z3 . . . 1 y1 . . 2 y2 . . 3 z3 . . . 1 z1 . . 2 z2 . . 3 z3 CORRESPONDING キーワードを使用すると同じ列はそのまま同じ列として出力される。 proc sql ; select * from x outer union corresponding select * from y outer union corresponding select * from z ; quit ; /* 出力 */ id x z ---------------------------1 x1 1 x1 2 x2 3 z3 1 y1 2 y2 3 z3 1 z1 2 z2 3 z3 この結果は DATA ステップと同じである。 - 138 ー

143.

3 横結合 ここでも例題を元に DATA ステップの結果から見てみる。 3.1 マッチマージ 次の 2 つのデータセットを結合する。 x y id x id y 1 2 3 4 x1 x2 x3 x4 1 2 5 y1 y2 y5 DATA ステップの MERGE ステートメントによるマッチマージの結果は次のようになる。 data new ; merge x y ; by id ; run ; < 出力 > id x y 1 2 3 4 5 x1 x2 x3 x4 y1 y2 y5 2 つのデータセットは BY 変数の値の同じものどうしが結合され、新しく作成されたデータセ ットの行は x∪y となる。 3.2 内部結合 SQL プロシジャではまず、FROM 文節に横結合したいデータセットをカンマ区切りで列記 することにより、全てのデータセットの全ての行の組み合わせを行としてもつデータセットを作 成する(これをデカルト積という)。 proc sql ; select x.*,y.* from x,y ; quit ; < 出力 > id x id y -------------------------------------1 x1 1 y1 2 x2 1 y1 3 x3 1 y1 4 x4 1 y1 1 x1 2 y2 2 x2 2 y2 3 x3 2 y2 4 x4 2 y2 1 x1 5 y5 2 x2 5 y5 3 x3 5 y5 4 x4 5 y5 - 139 ー

144.

SQL プロシジャでは WHERE 文節によりデカルト積からキー変数の値が同じものを選択す る。 proc sql ; select x.*,y.* from x,y where x.id=y.id ; quit ; < 出力 > id x id y -------------------------------------1 x1 1 y1 2 x2 2 y2 2 つのデータセットで id の値が同じもの行のみが出力される。つまり出力行は x∩y となる。 DATA ステップでは 2 つのデータセットでキー変数の名前は同じでなければならなかったが、 SQL プロシジャではその必要はない。また DATA ステップの後の BY ステートメントは DATA ステップで指定した全てのデータセットに共通なキー変数名のみを指定してその値が等しいも のどうしを結合するものであったが、SQL プロシジャによる WHERE 文節では結合の条件式 を指定するので次の例のように DATA ステップでは 2 ステップ必要なところを 1 ステップで結 合できる。 データセット one と two は id1 を、データセット two と three は id2 をキー変数として結合 する。 id1 one one id1 two id2 two id2 three three 1 2 1 2 1 1 2 2 1 2 3 4 11 12 23 24 1 2 3 4 31 32 33 34 proc sql ; select one.id1,two.id2,one,two,three from one,two,three where one.id1=two.id1 and two.id2=three.id2 ; < 出力 > id1 id2 one two three -----------------------------------------------1 1 1 11 31 1 2 1 12 32 2 3 2 23 33 2 4 2 24 34 3.3 外部結合 外部結合は 2 つのデータセットを比較し、結合条件に一致した行及び、どちらかのデータセ ットの一致しない行を返す結合方法である。FROM 文節で指定した 2 つのデータセットのどち らのデータセットの一致しない行を返すかによって左外部結合、右外部結合の 2 種類ある。さ らには両方のデータセットの一致しない行も返す外部結合を完全外部結合という。 /* 左外部結合 */ from データセット 1 left join データセット 2 on 条件式 /* 右外部結合 */ - 140 ー

145.

from データセット 1 right join データセット 2 on 条件式 /* 完全外部結合 */ from データセット 1 full join データセット 2 on 条件式 完全外部結合の例のみをあげる。 proc sql ; select x.id,x,y from x full join y on x.id=y.id ; /* 出力 */ id x y ---------------------------1 x1 y1 2 x2 y2 3 x3 4 x4 . y4 出力される行は DATA ステップのマッチマージと同じであるが、変数 id はデータセット x か ら来ているので、5 オブザベーション目が Null になっていることに注意。 4 サブクエリ サブクエリは SQL 文のネストと言える。オブザベーションをデータセットから直接抽出するの ではなく抽出結果に対してさらなる操作を加える場合に利用される。 4.1 WHERE 文節上のサブクエリ 他のデータセットにおいて抽出条件を満たすオブザベーシ ョンを抽出したい場合は 、 WHERE 文節上に SELECT 文節で始まる SLQ 文を記述する。 次の例は、年齢 60 歳以上(年齢を入力した変数 age は患者背景のデータセット demo の 中にある)の症例の有害事象を抽出する。 proc sql ; select * from ae where subjin in (select subjiid from demo where age>=60) ; 4.2 FROM 文節上のサブクエリ 前節の例で、年齢をも出力したい場合、年齢の変数 age を SELECT 文節に列記する必要 がある。そのために WHERE 文節上に記述したサブクエリーを FROM 文節に記述する。 proc sql ; select ae.*,demo2.age from ae, (select subjiid from demo where age>=60) as demo2 where ae.subjid=demo2.subjid ; - 141 ー

146.

5 安全性の集計への応用 5.1 臨床検査値異常値一覧 臨床検査値のデータセットは次のような構造になっているとする。フォーマット”SEII_”は「1: 異、2:L、3:H」と割り当てているものとする。 # 変数 タイプ 長さ 出力形式 入力形式 ラベル ----------------------------------------------------------------------1 subjid 文字 20 $40. $40. 被験者 ID 2 lbtestid 数値 8 検査項目名 3 visitnum 数値 8 Visit 番号 4 lborres 文字 20 $40. $40. 測定値 5 lbnrind 数値 8 SEII̲. 検査結果正異 観察期間中に異常値が認められた検査項目について、全期間の測定値を出力する。SQL プロシジャにより必要なオブザベーションを抽出後、TRANSPOSE プロシジャにより横へ展開 する。 proc sql ; create table lab1 as select d1.subjid,d1.lbtestid,visitnum, left(compress(lborres)¦¦' '¦¦compress(put(lbnrind,seii̲.))) as lab from sugi.lab as d1, (select subjid,lbtestid,max(lbnrind) from sugi.lab group by subjid,lbtestid having max(lbnrind)>0) as d2 where d1.subjid=d2.subjid and d1.lbtestid=d2.lbtestid order by subjid,lbtestid,visitnum ; quit ; proc transpose data=lab1 out=lab2 ; by subjid lbtestid ; id visitnum ; var lab ; run ; 5 行目、サブクエリで、「異・H・L」と判定された測定ポイントが 1 ポイントでもある検査項目を 抽出しており、GROUP BY 文節で指定したように被験者 IDと検査項目名でユニークとなって いる。7 行目の HAVING 文節は GROUP BY 文節でグループ化されたオブザベーションの 中からの抽出条件である。WHERE 文節は元データからの抽出条件で、必ず GROUP BY 文節の前に記述し、ここで抽出されたものについてグループ化を行い、さらに条件を満たすグ ループのみを抽出するのであれば、GROUP BY 文節の後に HAVING 文節を記述する 2。”max(lbnrind)=0”は全期間を通じて lbnrind が Null、つまり正常であることを意味するの で、7行目のような論理式となる。 FORM 文節に記述された 2 つのデータセット(1 つはサブクエリ)は同じ定義の変数を持つ。 SELECT 文節で「データセット名.変数名」と記述して、どちらのデータセットから抽出したもの かを区別している。 9 行目の ORDER BY 文節はソート順である。8 行目までの処理を経たデータセットに対し て ソ ート をかける。 こ こで指定した変数は そ のま ま BY 変数と して 使 えるの で、すぐ に TRANSPOSE プロシジャを実行することができる。 2 例えば、被験者内で投与記録が繰り返されているデータセットで、年齢 60 歳以上の中で 500mg 以上投与され た被験者を抽出したい場合、「60 歳以上」という条件を WHER E 文節に記述し、被験者でグループ化して、「総投 与量 500mg 以上」という条件を HAV ING 文節に記述する。 - 142 ー

147.

5.2 有害事象要約表 重症度・症状別(SOC、PT)の発現症例数、発現率を集計する。有害事象データセットの構 造は 1.1 節の例題の通りとする。 proc sql ; create table ae1 as select aesoc,aerel, compress(put(count(subjid),8.))¦¦'('¦¦ compress(put(count(subjid)/all*100,8.1))¦¦')' as c from (select aesoc,subjid,min(aerel) as aerel from sugi.ae group by aesoc,subjid) as d1, (select count(subjid) as all from sugi.demo) as d2 group by aesoc,aerel outer union corresponding select aesoc,aept,aerel, compress(put(count(subjid),8.))¦¦'('¦¦ compress(put(count(subjid)/all*100,8.1))¦¦')' as c from (select aesoc,aept,subjid,min(aerel) as aerel from sugi.ae group by aesoc,aept,subjid) as d1, (select count(subjid) as all from sugi.demo) as d2 group by aesoc,aept,aerel order by aesoc,aept,aerel ; quit ; proc transpose data=ae1 out=ae2 ; by aesoc aept ; id aerel ; var c ; run ; 2 行目から 8 行目が SOC についての処理である。FROM 文節では 2 つのサブクエリを記 述している。1 つめ(d1)は被験者 ID と SOC でグループ化して、同一被験者で同一 SOC が 発現している場合は重症度の重い方を抽出している。そしてその抽出結果に対して SOC 毎 に発現症例数をカウントしているのである。2 つめ(d2)は総症例数を持ってくるため、背景の データセットの被験者 ID をカウントしている。このように GROUP BY 文節を指定しない集計 クエリでは前オブザベーションを 1 グループにして集計を行う。この 2 つのサブクエリには結合 キーとなる変数が存在しないため、全体の SQL 文の中に WHERE 文節は存在しない。 10 行目から 16 行目は PT について同一の処理をしている。この 2 つの結果を 9 行目の OUTER UNION CORRESPONDING で縦結合している。 17 行目の ORDER BY 文節は前節の例と同じである。このように縦結合した場合でも結合 後のデータセットに対してソート順を指定できる。DATA ステップと SORT プロシジャを 1 ステ ップで実行するようなものである。 結果は次のようになる。 - 143 ー

148.

5.3 投与記録 最後に安全性の集計からはそれるが、オブザベーションをずらした再帰結合の例として、投 与記録のロジカルチェックの例を挙げる。データセットexpos の変数の定義は次の通りである。 # 変数 タイプ 長さ 出力形式 入力形式 ラベル ----------------------------------------------------------------------1 subjid 文字 20 $40. $40. 被験者 ID 2 visitnum 数値 8 Visit 番号 3 exstdt 数値 8 $40. YYMMDD10. 投与開始日 4 exendt 数値 8 $40. YYMMDD10. 投与終了日 n 回目と n+1 回目投与を比較して n 回目投与終了日と n+1 回目投与開始日の比較を行 う。 proc sql ; create table expos as select d1.subjid,d1.visitnum,d1.exendt,d2.exstdt, case when d1.exendt>d2.exstdt then 1 else 0 end as flag from sugi.expos as d1, sugi.expos as d2 where d1.subjid=d2.subjid and d1.visitnum=d2.visitnum-1 ; quit ; 4 行目 FROM 文節で同じデータセットを 2 回指定して、それぞれに別名を付ける。5 行目 の WHERE 文節で d1 の n 行目と d2 の n+1 行目を結合している。SQL ではデータセット名. 変数名と表記するため、予め RENAME する必要がない。3 行目の CASE キーワードで n 回 目投与終了日と n+1 回目投与開始日の逆転をチェックしている。 6 まとめ Excel などで集計を行う場合、途中の計算結果を一度セルに落として、そこを参照して続き の計算を行うことがよくある。DATA ステップはこのような途中経過をおきながらの処理を簡単 に行えるが、SQLプロシジャは同じような機能のステートメントを複数記述するという概念がなく、 単一の SELECT、FROM、WHERE 文節で構成させるため、ロジックをいっきに書き上げな くては成らない。このような特徴が、複雑な変数処理を行う際には DATA ステップに吉と出て、 複雑なデータセットの結合を行う際には SQL プロシジャが有効になると思われる。 参考文献 (1) Combining and Modifying SAS Data Sets ・ Examples、SAS Institute Inc. (2) Base SAS ソフトウェア SQL プロシジャ 使用法およびリファレンス、SAS Institute Japan 株式会社 - 144 ー

149.

Web 上からの SAS コード自動生成 作花一志 松本真一 * 京都情報大学院大学 南野公彦 * 現バンテック株式会社 要旨 昨年の SAS ユーザー学術総会で発表した数値計算用の SAS コード作成法を統 計解析・多変量解析に広げたのでその結果を報告する。本小文では回帰分析の 場合を例として述べる。 はじめに 現在 SAS に関する書籍は多数発行されているが,本学に導入されている Ver 9.1 対応のものはなく,特にグラフ描画機能について解説している書籍はない。 またヘルプファイルも十分日本語化されていないので,SAS を学びにくい状況 にある。 そこで SAS プログラミングの手間を省くために,Web 上でデータを入力しボ タンを押すだけで SAS コードを生成する手法を開発した。開発はプログラミン グの簡単さ,修正や追加が行いやすい点から PHP で行った。PHP のバージョ ンは 5.1.6,apache のバージョンは 2.2.3 である。 これによって Web 上からデータセットの作成・編集,各種グラフの描画,統 計計算,多変量解析などの SAS コード自動生成化ができるようになり,今後本 学で SAS を学ぶ学生達に役立つことと期待される。 本研究は松本の課程修了プロジェクト(修士論文)の一部であり,下記にア ップロードされている。 http://web1.kcg.edu/~m05w0013/sas.php 1 - 145 ー

150.

コードの自動生成 下記のプログラムは(1)CSV ファイルからデータを読み込んで,データセット を作り,(2)変数間の相関関係を調べ,(3)重回帰分析を行い,(4)散布図を描くも のである。ところが太字の部分はデータが変わっても共通であるので,それ以 外の部分だけを入力することによって SAS コードを生成できる。 図1 SAS コード それには必要な部分の項目を Web より入力し,予め用意しておいた SAS コー ドのテンプレートを書き換えるという方法を採った。生成されたコードはサー バに保存され,それをダウンロードして実行させる。これにより次の項目につ いて自動生成が可能になった,さらに増やしていく予定である。 データセット:作成・追加・修正・統合など グラフ描画 :棒グラフ 円グラフ 散布図 3D グラフなど 統計解析 :基本統計量 相関分析 ソートなど 多変量解析 :回帰分析 主成分分析 など 図2,図3,図4はその実行過程の手順である。 2 - 146 ー

151.

図2 web 画面[1] 図3 web 画面[2] 3 - 147 ー

152.

実際には次のような手順で行う。 ①画面左のメニューから作成したい SAS ファイルをクリックする。 ②画面右にコード作成画面が表示されるので,必要な情報を入力,選択する。 ③コード作成ボタンをクリックする。 ④SAS コードがサーバーに作成され,テキストエリアにコードが表示される。 ⑤Download ボタンをクリックすると作成された SAS コードが SAS ファイルと してダウンロードできる。 ① ② ③ ④ ⑤ 図4 web 画面[3] 次に上記の4つのプロセスについて詳しい解説を行う。 4 - 148 ー

153.

データセット この画面は外部データをインポートする場合に使用する。 ① データにつける名前を入力する。 ② 参照ボタンを押してインポートするデータを選択する。データが csv ファイ ルの場合はチェックを入れる。 ③ 読み込むデータファイルが 1 行目からデータがある場合は 1 を入力する。1 行目に変数のラベルが入力され,2 行目からデータがある場合は 2 を入力す る。 ④ 読み込んだデータの変数名を入力する。データが文字列の場合,変数名の後 に$を付ける。 ① ② ③ ④ 図5 データファイルから読み込み 相関分析 この画面はデータの相関分析を行う場合使用する。 ① 分析するデータセット名を入力する ② 調べる値を変数全部か変数を指定する。 ① ② 図6 相関関係 5 - 149 ー

154.

回帰分析 この画面はデータの回帰分析を行う場合使用する。 ① 分析するデータセット名を入力する ③ 目的変数と説明変数を入力する。重回帰分析を行う場合,変数はスペース 区切りで入力する。 ① ② 図7 回帰分析 散布図 この画面は散布図(主に回帰分析の散布図)を作成する。 ① 散布図を作成するデータセット名を入力する。 ② 散布図のタイトルを入力する。 ③ 目的変数(y 軸の値)と説明変数(x 軸の値)の変数名を入力する。 ④ プロットする点の形と色を選択する。 ⑤ 点を結ぶ線の種類と線の色を選択する。 ⑥ 回帰直線の色を選択する。 ⑦ 回帰式を表示するかをチェックする。 図8 散布図 ① ② ③ ④ ④ ⑤ ⑤ ⑥ ⑦ ⑥ ⑦ 6 - 150 ー

155.

参考文献 [1] 遠藤健治著,“Excel,SAS,SPSS による統計入門”,培風館,1996 [2] 田中克明著,“経済・経営分析のための SAS 入門”,有斐閣,1994 [3] 竹内啓監修,芳賀敏郎・野澤昌弘・岸本淳著,“SAS による回帰分析”, 東京大学出版会,1996 [4] 野宮大志郎・池周一郎・稲葉昭英・杉野勇編著,“SAS プログラミングの基礎”, ハーベスト社,2004 [5] 小幡卓・堀合啓一著,“事例で分かるパソコンデータ分析入門 回帰分析編”, 技術評論社,1999 [6] “SAS プログラミング”,SAS Institute Japan 株式会社,2005 [7] 作花一志“Introduction of SAS Programinng”, http://web1.kcg.edu/~sakka/ST/SASPRO/index.htm, [8] http://www.yc.musashi-tech.ac.jp/~masako/sda/syll.html,武蔵工業大学 [9] “データ解析 B”,http://www.ie.reitaku-u.ac.jp/~tak/datB/,麗澤大学 [10] 松本真一,京都情報大学院大学課程修了プロジェクト,2007 7 - 151 ー

156.

SAS BI Server 環境での統計解析システム開発事例 佐藤 耕一 / 石田 和也 株式会社タクミインフォメーションテクノロジー 情報解析部 統計解析グループ Development case of Statistical Analysis System in SAS BI server environment Koichi Satoh / Kazuya Ishida Statistics Analysis Group Intelligence Analysis Dept. Takumi Information Technology Co., Inc. 要旨 SAS BI Server 環境で稼動する統計解析システムの開発事例を紹介します。現在、SAS 前臨床パッケージをはじめ、SAS を解析エンジンとした、様々な統計解析システムが利 用されています。当社では、Part11、CSV に対応した統計解析システムという基本コン セプトを掲げ、SAS BI Server 環境での統計解析システムの開発に着手しました。この システムは、100 種類の統計手法のリリースを目標に、バリデーションと認証を意識し たシステム環境でのシステムの提供を考えました。システム開発時とシステム運用時の Part11、CSV への対応方法、SAS BI Server 環境でのシステム開発手法、EG、AMO を利 用したユーザーインターフェースの可能性などのトピックとともに開発事例を紹介致 します。 キーワード:SAS BI Server 非臨床 統計解析 1. 開発ポリシー SAS 前臨床パッケージの開発やサポートの実績と、多くの開発経験から、SAS を利 用した統計解析ツールとして、求められる要件や機能を、システムの開発ポリシーに反 映しました。今回ご紹介する統計解析システムは、主に非臨床(前臨床)の分野をター ゲットとし、以下の開発ポリシーを掲げました。 - 152 ー

157.

① システムのセキュリティ強化 ② CSV(Computer System Validation)への対応 ③ Part11 への対応 ④ 使いやすいユーザーインターフェースの提供 ⑤ システムの移植性と拡張性の向上 ⑥ 豊富な検定手法の提供 上記開発ポリシーを実現するためには、SAS BI Server 環境で稼動するシステムの構 築が最適な方法であるとの結論になりました。 2. システム要件と実現方法 開発ポリシーとして掲げた、システム要件と機能を実現する方法についての概要を説 明します。 2.1. システムのセキュリティ強化 SAS BI Server 環境は、ユーザーのログイン認証、リソースの権限設定など、基本的 なセキュリティ機能が備わっています。これらの認証や権限に関する全ての情報は、予 めメタデータに登録し、Metadata Server のプロセスによって管理することができます。 認証プロバイダーは、ホスト認証(Windows、UNIX など)を標準サポートし、さらに Metadata Server は LDAP や MS AD の認証プロバイダーもサポートしているため、認証 に関する要件は十分であると判断できます。 Figure2.1 - 153 ー

158.

2.2. CSV(Computer System Validation)への対応 CSV 全体を網羅するためには、計画フェーズから移行フェーズまでのバリデーショ ン計画を立案する必要があります。今回の開発側の責任範囲としては、以下のフェーズ と作業内容を対象としています。 ・要求フェーズ :システム要件の合意 ・設計フェーズ :機能仕様の作成(DQ) ・構築フェーズ :テスト計画 ・テストフェーズ:IQ 計画と報告、OQ 計画と報告 また、変更管理計画、障害管理計画、ドキュメント管理計画については、開発全体の共 通フェーズとして開発側の作業となります。その他、PQ計画と報告などはユーザーの 責任範囲となりますが、お互いの協力のもとで全体のバリデーション計画を策定します。 2.3. Part11 への対応 Part11に関する対応項目は、以下の要件をサポートします。 ① 監査証跡 データ管理システムとしての機能は搭載しないため、データの作成、変更、削除 などに関する監査証跡は要件には含みません。実行する検定プログラムに関しても パッケージ化したプログラムを利用することになるため、プログラムの変更に関す る履歴情報の保持は、システム要件として搭載する必要はありません。統計解析シ ステムに必要な監査証跡の要件は、検定プログラム実行時の入力データ、出力デー タ(出力結果) 、実行ログを、実行プロセス単位に保存できることであると認識して います。これらの情報は、SAS/Integration Technologies(以下、SAS IT)の Publishing Framework の機能を利用して、圧縮ファイル形式(ZIP 形式)のファイルとしてシ ステムが自動保存します。この機能により解析結果の整合性、信頼性、再現性を保 証します。 ② 情報セキュリティ ユーザー認証については、前述の通り、SAS BI Server 環境に実装されています。 SAS を利用するユーザーは、必ず SAS BI Server 環境へのログインが必要になり、 。 ログイン情報は、SAS BI Server 環境のログファイルに保存されます(Figure2.2) - 154 ー

159.

Figure2.2 また、リソースへのアクセス権限についても、入力対象のデータファイルや実行プ ログラムに対して権限を設定し、ユーザーまたはグループごとにアクセス制御や実 行制御の定義が可能です。 Figure2.3 - 155 ー

160.

設定できる標準の権限は、メタデータに関する権限とリソース(プログラムやデー タ)に関する権限に分かれ、以下の合計8項目になります。 (1) メタデータに関する権限 ・ メタデータの読み込み ・ メタデータの書き込み ・ メタデータのチェックイン (2) リソースに関する権限 ・ 読み込み ・ 書き込み ・ 作成 ・ 削除 ・ 管理者 また、上記権限項目以外に、新たに権限項目を新規追加することも可能です。それ ぞれの権限には、ユーザーまたはグループごとに「許可」と「拒否」を設定します。 ③ 電子署名 検定プログラムの実行時に作成される「出力データ(出力結果) 」 「実行ログ」には、 プログラムを実行した日時、ユーザーID、実行プログラム、実行時のパラメータ情 報などの履歴情報(電子認証情報)をシステムが自動的に付与します。 その他、上述の監査証跡に関する記録のコピーやバックアップに関しても、権限の与 えられた作業者のみがアクセス可能なように設定が可能です。 2.4. 使いやすいユーザーインターフェースの提供 ユーザーインターフェースは、システム要件の中では、大変重要であると考えていま す。操作が簡単で、直感的で使いやすく、操作のトレーニングに多くの時間を費やすこ とのないユーザーインターフェースが理想です。始めの計画段階では、Stored Process の SAS コードのパラメータ定義により作成される標準画面をインターフェースとする ことを予定していましたが、操作性をさらに追及し、カスタムタスクのインターフェー スを採用することに決定しました。ベースとなる SAS のツールは、SAS Enterprise Guide4.0(以下、EG)と SAS Add-In for Microsoft Office(以下、AMO)です。この2つ のツールにインターフェース画面としてのカスタムタスクを組み合わせます。 - 156 ー

161.

Figure2.4 全ての操作は、マウスを使用したポイント&クリックおよびドラッグ&ドロップにて 行い、ウェイザード形式(Figure2.4)とタブの組み合わせにより検定手法の選択やパラ メータの設定を行います(Figure2.5)。 Figure2.5 - 157 ー

162.

2.5. システムの移植性と拡張性の向上 システムは、2つのコンポーネントで構成されます。ひとつは SAS BI Server 環境の メタデータ情報を含むシステム全体の制御に関する部分で、もうひとつは個別の統計解 析と検定の SAS プログラムです。前者の場合、ユーザー環境によりメタデータへの登 録情報はある程度可変となりますが、登録情報そのものはそれほど多くありません。さ らに、本システムだけの利用を前提とすると、運用時にメンテナンスが必要になるのは、 ユーザー情報のみ対象となります。後者は、統計解析、検定手法ごとに独立したプログ ラムとなるため、例えば、検定手法の機能修正や新規追加を実施する場合、プログラム に手を入れるのは、対象となる検定手法のみとなり、再バリデーションの作業も対象と なる個別の検定プログラムに限定されます。従いまして、統計解析、検定手法の移植性 や拡張性に優れたシステム構成となります。 2.6. 豊富な検定手法の提供 本システムは、SAS 前臨床パッケージの統計解析、検定手法の種類と機能仕様を基本 的に引き継ぎます。前述のシステムの拡張性が優れている点から、統計解析、検定手法 の修正や新規追加に柔軟に対応でき、あらゆる手法のニーズに迅速、かつシステム運用 への少ないインパクトで実現が可能です。 3. 機能仕様と実現方法 システムの機能仕様とその実現方法について、いくつかの機能に絞り、開発時の背景 を踏まえて紹介します。 3.1. 検定手法の修正と追加 前述した通り、統計解析、検定手法は、SAS 前臨床パッケージの手法を引き継ぎます が、これまでの SAS 前臨床パッケージの Q&A の対応内容と、新たなユーザー様からの 指摘事項を踏まえて、いくつかの機能修正と新規検定手法の追加を検討し、リリースす る予定です。機能追加、機能修正については、以下の点において実施します(一部の内 。 容。Table3.1) - 158 ー

163.

手法分類 手法名 変更点・内容 予備解析 Bartlett 検定 分散が 0 の群に対する対処 対応のある 2 群データの解析 2 群の差の Wilcoxon の符号付き順位和検定 計算法が例数により変わる点を明記 一因子実験データの解析 Wilcoxon 検定 正確検定の他、近似検定を追加 用量反応性 2 値応答データの Cochran-Armitage 検定(近似法/Exact 検定選 正確検定での自由度の表示について 解析 択) 生存時間解析 カプランマイヤー法ログランク検定(多群の 具体的な統計量の名称を表示 比較) Table3.1 また、数手法の新規検定手法の追加と、決定樹による検定フローの機能を追加する予 定です。検定手法のプログラム修正や追加は、SAS マクロプログラムの修正と追加とな り、この作業に関しては、SAS BI Server 環境には修正による影響がありません。しか し、Stored Process の同時利用を検討していますので、Stored Process を利用する場合に は、メタデータへの登録が必要になるため、SAS BI Server 環境に多少のインパクトが 発生します。 3.2. 検定プログラムのバリデーション 統計解析、検定プログラムは、検定ごとの機能仕様書の作成とテスト項目の作成、IQ 計画と報告、OQ 計画と報告の手順に従い、ダブルプログラミングによるバリデーショ ン作業を実施します。この手続きにより、信頼性を保証した質の高いプログラムと解析、 検定結果の提供を目指します。 3.3. 入力データの制御 SAS BI Server 環境にてデータにアクセスする場合は、基本的には、メタデータにラ イブラリとデータの登録を行う必要があり、登録されたデータに対してのみ、アクセス 制御が行われます。しかし、本システムでは、ユーザーインターフェースのベースとし て、EG と AMO を利用すること、さらに探索的にデータを解析の場合の利便性を考慮 し、メタデータに登録されていない、クライアント環境に保存されているデータについ - 159 ー

164.

ても解析対象としてアクセスすることを可能にしました。前述の Stored Process の機能 だけを利用した場合は、クライアントのデータを利用することはできませんが、SAS IT の機能により実現が可能です。 Figure3.1 入力データは、SAS データセットと EXCEL ファイルを対象とし、AMO 利用時には 。 EXCEL のシートに入力されたデータも解析対象データとなります(Figure3.1) 3.4. メタデータリポジトリ 本システムに依存しないユーザー登録情報などの企業情報に関しては、Foundation リ ポジトリにメタデータ情報を登録します。その他、本システムに依存するメタデータ情 報は、新たにカスタムリポジトリを作成し、情報の登録を行います。この登録作業は、 システムインストール時の IQ 計画により実施されます。 3.5. 必要なソフトウェア SAS BI Server 環境でのシステム稼動に必要なソフトウェアを示します。 - 160 ー

165.

① サーバー環境 ・ SAS BI Sever ・ SAS/STAT ② クライアント環境 ・ EGまたはAMO(どちらかでも可) ・ MS Office 2003または2000(EXCELのみでも可) ・ NET Framework1.1 ・ JRE1.4.1 ・ SAS Package Reader AMO の利用ユーザー数は限定されていないため、利用ユーザーが多い場合には、費 用対効果は、大いに期待できます。また、SAS 言語のプログラミング環境をユーザーに 提供する場合、EG を利用することになります。過去のバージョンから SAS のインター フェースとして馴染み深いディスプレイマネージャシステムと比較しても、同等以上の SAS 言語のプログラミング環境を提供していますので、パワーユーザーにも、ほとんど 抵抗なく EG を利用していただけます。 4. 今後の方針と可能性 SAS BI Server 環境におけるシステムについて、今後の可能性をまとめます。 4.1. CSV と Part11 への対応 CSV および Part11 への対応は、近い将来、非臨床の分野でも必須条件になると思わ れます。SAS BI Server 環境は、CSV および Part11 に対応した機能を予め搭載している 訳ではなく、既存機能の組み合わせにより、ある程度の対応が可能となります。従いま して CSV および Part11 の全ての要件に対応するのは現段階では難しく、今後の SAS の バージョンアップや機能拡張に期待することになります。 - 161 ー

166.

4.2. システムの運用について SAS BI Server 環境リリース後のシステム運用に関しては、特に大きなボリュームに なる作業は発生しません。通常実施されるシステムのバックアップ作業がメインの運用 作業となります。システムのバックアップは、メタデータ情報を含むシステム関連ファ イルを対象とします。スケジューラーによる夜間のコールドバックアップとして実施す る、一般的なバックアップ処理で問題はありません。 4.3. SAS BI Server 環境の可能性 今後の SAS BI Server のバージョンアップによる機能拡張の情報のいくつかは、既に アナウンスされているが、細部にわたる全体像を把握するまでには至っていません。し かし、現時点の機能においても必要最低限の機能を有しているため、システム開発に関 する垣根は、かなり低くなったとの感想を持ちます。非 BI 環境でのデータやプログラ ムの標準化がなされている場合、その仕組みを BI 環境に移植することは、それほど多 くの労力を必要としないと考えます。 Stored Process の機能は、簡単な定義で大きな成果を望めるため、時間が許せば、エン ドユーザーにもシステム開発を可能にする環境が提供されています。ユーザーインター フェースに関しても、EG はパワーユーザーからエンドユーザーまで利用ができるため、 今後の SAS の標準インターフェースになることが予想されます。コンシューマー用に は AMO を標準インターフェースすることにより、利用者が増えることが予想されます。 おわりに 今回は非臨床向けの SAS BI Server 環境でのソリューションをご紹介いたしましたが、 次のターゲットとして、市販後調査の定型帳票を出力するシステムを考えており、合わ せて金融、マーケティングでの経済統計解析システムに発展させる構想を練っています。 今後の SAS ソフトウェアの機能拡張に期待しております。 - 162 ー

167.

酵素阻害薬の阻害定数の非線形最小二乗法による 推定法の性能評価 〇山崎亜紀子1),久米英介2),田中澄子3),浜田知久馬4),吉村功4) 1) 田辺製薬株式会社 薬理研究所安全性薬理課 2) 田辺製薬株式会社 研究本部研究企画部 3) 田辺製薬株式会社 探索研究所 4) 東京理科大学工学部経営工学科 Statistical performance evaluation for estimation of inhibition constant using least square method 〇Akiko Yamazaki1), Eisuke Kume2), Sumiko Tanaka3), Chikuma Hamada4), Isao Yoshimura4) 1) Safety Pharmacology Section Pharmacology Research Laboratories, Tanabe Seiyaku Co.,Ltd. 2) Strategic Research Planning & Management Div. Research Headquarters, Tanabe Seiyaku C o.,Ltd. 3) Discovery Research Laboratories, Tanabe Seiyaku Co.,Ltd. 4) Department of Management Science Faculty of Engineering, Tokyo University of Science 要 旨 酵素阻害薬の重要な評価項目の一つである阻害定数 (Ki) の推定法について,慣用的・伝 統的に使用し続けられている直線回帰法 (従来法) と統計学的に望ましい手法である非線形 最小二乗法とを,モンテカルロシミュレーション実験によって定量的に性能比較した.本稿 では競合阻害のみを前提とした.変数変換後,2段階で回帰直線を外挿してKiを求める従来 法は,非線形最小二乗法より約数百倍以上も大きな平均二乗誤差 (MSE) を示した.よって 両法の推定精度の違いは顕著であり,非線形最小二乗法の有用性が明示された.非線形最小 二乗法による推定はSAS NLINプロシジャにより実行できるので,そのプログラム例と出力 結果についても解説する. キーワード: 阻害定数,NLINプロシジャ,非線形最小二乗法,Lineweaver-Burkプロット 1.研究背景と目的 近年,創薬研究の効率化へ向けて薬理試験のデータ解析法の標準化が必要とされるように なってきていることから,田辺製薬社内における薬理試験データの生物統計解析手法につい て調査し,整理を行った.その過程において,実験家が慣用的・伝統的に行ってきたデータ 解析法の中で現在の科学的水準では統計学的に適切とは言い難いものがあることがわかって 1 - 163 ー

168.

きた.本稿ではその一例として「酵素阻害定数の推定法」を取り上げ,推定法の性能評価を 行って対処法を明らかにする. 本稿の対象となる酵素阻害実験の理論の概略を以下に説明する.酵素は生物の体内で起こ るほとんどの化学反応に対して触媒の役割を果たす.酵素の働きを受ける生体内物質を基質 と呼び,基質が酵素の働きを受けて生成物となるのが酵素反応である.酵素阻害薬は,酵素 反応による生成物が疾患に関与している場合,反応を触媒する酵素を阻害することによって, その生成物の量を抑制して疾患を改善させる.酵素阻害薬は基質と競合することによって生 成物の産生を抑制する場合が多い.具体例として高血圧症治療薬タナトリルを挙げて説明す る.この薬剤は酵素の一種であるアンジオテンシン変換酵素 (ACE) を特異的に阻害するこ とによって,基質 (アンジオテンシンI) から昇圧作用のある生成物 (アンジオテンシンII) が生成されるのを抑制して降圧作用を示す.このように酵素は生体内の様々な物質の生成 に関与するため,酵素阻害薬は薬剤開発の重要なターゲットとなっている. 実際に酵素反応を評価する際は,生体外 (in vitro) で生成物の合成される反応速度を測定 して指標とする.酵素の濃度を一定とし,横軸に基質濃度 (S) ,縦軸に反応速度 (V) をと るとSの増加に伴いVが増加し,最高反応速度 (Vmax) に漸近することが知られている (図11) . Vmax 反応速 度 V Km 基質濃度 S 図1-1 基質濃度と反応速度の関係の模式図 VがVmaxの1/2に達する基質濃度は酵素濃度に関わらず一定であり,Michaelis定数 (Km) と 呼ばれ,各々の酵素に特有の値をもっている.Kmは酵素と基質の結合親和性の強さを示し ている.これらの関係は (1) のMichaelis-Menten式で示される1). Michaelis-Menten式 V= Vmax × S Km + S (1) 一方,酵素阻害薬 (以下,阻害薬) が存在する場合には,阻害薬が酵素と結合して酵素の 濃度が減少するために反応速度は減少する.ただし,競合阻害薬では基質濃度を増していけ 2 - 164 ー

169.

ば最終的には最高反応速度 (Vmax) まで達する.すなわちVmaxは変化せずKmが増大する (図 1-2) . Vmax 阻害薬(-) 阻害薬(+,低用量) 阻害薬(+,高用量) Km 1 Km 2 Km3 図1-2 阻害薬が存在する場合の反応速度のイメージ図 そのため,どの程度Kmを増大させるかを阻害薬の作用強度として評価している.つまり Kmを2倍にするのに必要な阻害薬濃度を阻害定数 (Ki) として,阻害定数 (Ki) の数値の大 小で阻害薬の作用強度が評価できる.すなわち阻害定数 (Ki) を阻害薬の薬効評価項目とし て用いるのである. 阻害定数 (Ki) の推定方法としては,非線形式である (1) の Michaelis-Menten 式を基に残 差二乗和を最小にするように非線形最小二乗法で推定するのが統計学的に適切と考えられる. 2 章で詳細を示す.しかし計算環境が整っていなかった 20 世紀前半に,直線回帰を用いた 二段階推定法 (以下,従来法と呼ぶ) が考案された.2 章で従来法の詳細も示す.現在では 従来法を用いるべきではないとの指摘もあるが 2),実際には薬理試験の現場では社内外を問 わず従来法を利用している例が多い 3) 4) 5).国内製薬企業における阻害定数 (Ki) の推定方 法の現状を把握するため,2006年度にアンケート調査を行った.製薬企業の非臨床部門にお ける標準的な統計解析ソフトであるEXSAS (株式会社アームシステックス) のユーザーを 対象とし,12社13部門から回答を得た結果を表1に示す. 表1 阻害定数 (Ki) の推定方法に関するアンケート結果 推定方法 回答数 従来法 7 非線形最小二乗法 0 両法とも行う 4 実験をしていない 2 計 13 実験を行っていると回答した全ての企業において従来法が使用されており,非線形最小二 3 - 165 ー

170.

乗法のみを使用している企業は一つもないことがわかった.よって国内の製薬企業では非線 形最小二乗法の普及が進んでいないことがアンケート調査からも示唆された. 非線形最小二乗法をより普及させるためには,実験家を納得させられる根拠を示せれば良 いのではと考えた.そこで,実際の実験条件に即して従来法と非線形最小二乗法の性能を定 量的に比較し,非線形最小二乗法の必要性を明らかにすることを本稿の目的とする.また非 線形最小二乗法による推定はSAS NLINプロシジャを用いて実行することができるため,プ ログラムの例と出力結果の読み方についても解説を行う. 2. 酵素阻害反応のモデルによる推定法 2.1 非線形最小二乗法によるKiの推定方法 (2-1)式は, (1) の Michaelis-Menten 式に基づき,阻害薬の任意の濃度 Ii (i=1,2,…m) にお いて基質濃度を Sj (j=1,2,…n) に定めて行った場合の反応速度 Vij の関係式である.なお,本 稿では競合阻害のみを前提とする.酵素阻害実験は Ii と Sj とを数段階変えた二元配置型で, Ii,Sj に対する Vij を測定し,Km,Ki,Vmax の 3 つのパラメータを推定する.(2-1)式は Ii,Sj に対して,Vij は非線形関数になることを示している.したがって,適当な誤差モデルの下 で最尤法を適用するのが標準的な推定法と考えられる. Vij = Vmax ×S j I ⎞ ⎛ S j + Km⎜1 + i ⎟ Ki ⎠ ⎝ + U ij (2-1) 誤差Uij が独立に期待値0,分散σ2 の正規分布に従うとすると,最尤法は非線形最小二乗 法と等価になるので,SAS NLINプロシジャを適用することによって各パラメータを推定す ることが可能となる6). なお実際の酵素阻害実験データを分析したところ,反応速度の増加とともに誤差が増大す る傾向が見られた.よって誤差が等分散とは言えない可能性が高いと考えられる.そこで右 に裾を引いた分布である点を考慮し,誤差が対数正規分布に従うと仮定した場合の検討も行 った. 2.2 従来法によるKiの推定方法 従来法による阻害定数 (Ki) などの推定法を示す.まず,(2-1)式において阻害薬の濃度がi 水準の際のMichaelis定数 (Km) をKmiと表すと,(2-2)式で表現できる. I ⎞ ⎛ Kmi = Km⎜1 + i ⎟ Ki ⎠ ⎝ (2-2) 4 - 166 ー

171.

その上で阻害薬の濃度をi水準に固定して(2-1)式を変形する.(2-3)式のようにSij,Vijをとも に逆数をとると1/Sijに対する1/Vijの一次式となり,直線回帰分析によって求めた直線のy切片 が1/Vmax, x切片が -1/Kmiに相当する.よって最小二乗法によって直線をあてはめ,両切片を 変換することによりVmax, Kmiを簡便に求めることが可能である.これをLineweaver-Burkの 両逆数プロット (以下,Lineweaver-Burkプロット) と呼ぶ7).従来法型のプロットは他の手 法も存在するが,本稿ではLineweaver-Burkプロットのみを示す. Kmi 1 1 1 = + × Vij Vmax Vmax S ij (2-3) さらに Ki を従来法で推定するには,以下の方法をとる 8). まず阻害薬の濃度ごとに,Lineweaver-Burk プロットを作成する.その結果,図 2.2-1 のよ うに,阻害薬濃度によって傾きが異なる直線となるので,その傾き (slope) を算出する. slope は(2-3)式より Kmi Vmax に等しい.ここまでを本稿では便宜的に「第一段階」と呼ぶ. 次に,図 2.2-2 のように阻害薬濃度を横軸,第一段階で求めた slope を縦軸に取ってプロ ットを行う.式を(2-4)で示す.回帰分析 (最小二乗法) により求めた直線の x 切片が-Ki に 相当するため,Ki を推定することができる.これを便宜的に「第二段階」と呼ぶ. Kmi Km Km = + × Ii Vmax Vmax Vmax × Ki 0 nM 0.4 1/V Lineweaver-Burk 2nd plot 0.025 30 nM 0.3 (2-4) 10 nM 0.02 0.2 3 nM 0.015 0.1 線形 (0 nM) 0.0 -10-0.1 0 10 20 Kmi Vmax 0.01 線形 (3 nM) 0.005 線形 (10 nM) 0 -10 0 -0.005 線形 (30 nM) 20 30 I(nM) I(nM) 1/S 図 2.2-1 第一段階プロットの模式図 10 -Ki 図 2.2-2 第二段階プロットの模式図 従来法の主要な統計学的問題点としては,反応速度の誤差に等分散性が認められたとして も逆数変換することによって等分散でなくなること,適切な信頼区間の構成が困難であるこ と,基質濃度を 3-5 点しか取らないので直線の推定が不安定であること,本来は阻害薬濃度 にかかわらず一定となる Vmax が阻害薬濃度ごとに異なって推定されることが挙げられる. 5 - 167 ー

172.

3. NLINプロシジャによる非線形最小二乗法のプログラム SAS NLINプロシジャによる非線形最小二乗法のプログラムを示す.変数iとsはそれぞれ 阻害薬と基質の濃度を表している.NLINプロシジャではPARAM文でKm,Ki, Vmaxの3つの パラメータの初期値を設定する. 表3-1 NLINプロシジャによる非線形最小二乗法のプログラム例 data data; do i=0,2,3.5,5,7; do s=0.6,0.8,1.2; input y @@; output; end;end; cards; 8.958 10.525 13.056 6.607 8.003 10.468 5.276 6.539 8.955 4.302 5.339 7.488 3.208 4.044 6.114 ; proc nlin data=data; parms km=0.8 ki=1.8 vmax=30; model y=vmax*s/(km*(1+i/ki)+s); output out=out p=p r=res; 実行結果の出力例は表3-2のようになる.Km,Ki,Vmaxの3つのパラメータの推定値が各々 出力され,阻害定数は3.0972であり,その95%信頼区間は2.4484~3.7460であることがわか る. 表3-2 NLINプロシジャによる非線形最小二乗法の出力結果例 Approx Parameter Estimate Approximate 95% Confidence Std Error Limits km 1.1346 0.2081 0.6812 1.5880 ki 3.0972 0.2978 2.4484 3.7460 vmax 25.8910 2.6370 20.1455 31.6365 6 - 168 ー

173.

4. シミュレーション実験の方法 従来法と非線形最小二乗法の性能比較のため,モンテカルロシミュレーション実験による 定量的な検討を行った.以下に方法を示す.本稿におけるシミュレーションの条件と酵素阻 害反応のパラメータは,実際に著者らの勤務する田辺製薬の研究所内で行われている酵素阻 害実験の実験条件,およびその結果得られた反応速度データを参考に設定した. 推定の良さの評価指標として,両方法における真値からの偏り (bias) と平均二乗誤差 (以 下,Mean Squared Error(MSE)と呼ぶ) を比較することとする.偏りは,Kiの真値をθ,シ ミュレーション反復回数をnとした時,シミュレーション反復回数k回目の推定値 θˆk の偏り ( ) とし,b ( θˆ ) , ….. b ( θˆ ) ,….. b ( θˆ ) の中央値b ( θˆ ) medで定義す る.MSEは,偏りと同様の仮定からm ( θˆ ) = (θˆ − θ ) とし,m ( θˆ ) , ….. m ( θˆ ) ,….. m をb ( θˆk ) = θˆk − θ k 1 n 2 k k 1 k ( θˆn ) の平均値m ( θˆ ) meanで定義する. シミュレーション実験の手順は以下となる. 1) 真の基質-反応速度曲線に Michaelis-Menten 式を仮定する.実際の酵素阻害実験データの 結果を参考に,シミュレーション実験を 7 パターン (A~G) 行うこととする.まず各パラ メータ (Ki, Vmax, Km) の真値を設定する.また実験条件も実際の実験を参考として基質濃度 を 3-4 水準,阻害薬濃度を 4-6 水準に設定し,繰り返し実験回数を 3 回とする. 2) モデルの誤差を正規分布と仮定し,期待値0, 分散σ2の正規乱数を発生させて仮想的な反 応速度データを作成する.ここで,誤差の分散 σ2の大きさは実際の酵素阻害実験データの ばらつきを参考に設定した. モデルの誤差 ε ~N (0, σ 2 ) 3) 非線形最小二乗法 (3章で示したNLINプロシジャ) ,従来法 (SASのREGプロシジャを用 いる) をあてはめて,それぞれのKi推定値 θˆk を求める. 4) 上記2) , 3) の手順を1000回繰り返す. 5) 両方法における偏り (bias, b( θˆ )med) ,MSE (m( θˆ )mean) を計算して比較を行う. また,誤差が等分散とは言えない可能性が高いことを考慮して,S.D.が平均値の大きさに 比例して増加する対数正規分布と仮定した場合のシミュレーション実験も行った.正規分布 の際の実験との相違事項 (第 2)項) を以下に示す. 2) モデルの誤差に対数正規分布を仮定し,変動係数CVを一定にした上で対数正規乱数を発 生させ,仮想的な反応速度データを作成する.ここで変動係数CVの大きさは,実際の酵素 7 - 169 ー

174.

阻害実験データの平均値とばらつき (S.D.) を参考に設定した.なお,2) 以外は上記の誤差 を正規分布とした場合と同一である. 対数正規分布のモデル式を (4-1)式で示す. Vmax ×S j Vij = I ⎞ ⎛ S j + Km⎜1 + i ⎟ ⎝ Ki ⎠ ε ij ~N 0, σ 2 ( 5. × (1 + ε ij ) (4-1) ) シミュレーション実験の結果 実験名A~Gの7パターンのシミュレーション実験を行い,偏り (bias) ,MSEを算出した. シミュレーション条件と得られた結果を表5-1,表5-2に示す. 正規分布によるシミュレーション実験では誤差の大きさを2通りに変えて行った.最初は 実際のデータの誤差分散 (σ 2) を参考として利用した.しかし詳細は後述するが,この条件 では従来法では外れ値の影響が大きく,MSEを評価しづらくなることがわかった. そのため,1回目に設定した誤差分散の1/10~1/100に分散を再設定した場合も検討した. 表5-1 シミュレーション条件と実験結果 (正規分布.実データに即した誤差の大きさ) シミュレーション条件 実験名 A B C V max 27.6 25.1 3.8 Km 1 0.86 13.8 0.2 0.2 0.03 σ2 Ki (真値) 3.3 5.2 4.6 非線形最小二乗法によるKi推定値 平均値 中央値 標準偏差 bias MSE 3.30 3.28 0.24 -0.024 0.057 5.21 4.59 5.17 4.6 0.42 0.79 -0.026 -0.0038 0.18 0.62 D 38.1 0.07 1.2 2.5 E 33 0.08 2 3.2 F 480 106 130 48 G 292 40 140 2.51 2.51 0.24 0.0061 0.058 3.23 3.21 0.47 0.013 0.22 48.1 47.6 5.94 -0.35 35.2 11.0 10.9 1.96 -0.113 3.83 11 従来法によるKi推定値 平均値 中央値 標準偏差 bias MSE 4.55 3.61 18.7 0.31 351 10.6 6.40 30.59 1.2 963 5.56 5.01 6.06 0.41 37.60 4.81 31.5 86.2 17.3 3.92 3.96 57.8 11.0 81.19 689.96 821.4 245.5 1.42 0.76 9.81 -0.016 6590 476375 675477 60271 比(従来法/非線形最小二乗法) MSE 6158 5350 60.6 113621 2165341 19190 15737 8 - 170 ー

175.

表5-2 シミュレーション条件と実験結果 (正規分布.誤差を小さくした場合) シミュレーション条件 実験名 A V max 27.6 Km 1 0.02 σ2 0.1 1回目のσ 2 との比 Ki (真値) 3.3 B 25.1 0.86 0.02 0.1 5.2 C D 38.1 0.07 0.12 0.1 2.5 E 3.8 13.8 0.003 0.1 4.6 5.2 4.59 5.19 4.6 0.13 0.24 -0.008 -0.0013 0.0178 0.062 2.5 2.5 0.076 0.0027 0.0058 3.21 3.21 0.146 0.0062 0.0213 5.37 4.64 5.31 4.6 1.12 0.669 0.11 -0.0022 1.28 0.45 2.77 2.68 1.2 0.18 1.51 3.89 3.64 2.12 0.44 4.95 48.2 48.1 2.27 0.081 5.17 11.15 11.08 1.197 0.082 1.455 260 232 15 38 33 0.08 0.2 0.1 3.2 F 480 106 1.3 0.01 48 G 292 40 1.4 0.01 11 非線形最小二乗法によるKi推定値 平均値 3.30 中央値 3.29 標準偏差 0.075 bias -0.0075 MSE 0.0057 48.0 11.0 48.0 11.0 0.586 0.196 -0.033 -0.0069 0.344 0.038 従来法によるKi推定値 平均値 中央値 標準偏差 bias MSE 3.35 3.32 0.393 0.016 0.157 比(従来法/非線形最小二乗法) MSE 表5-3 28 71.9 7.2 シミュレーション条件と実験結果 (対数正規分布) シミュレーション条件 実験名 A B C V max 27.6 25.1 3.80 Km 1.0 0.86 13.8 CV 0.0028 0.057 0.064 Ki (真値) 3.3 5.2 4.6 非線形最小二乗法によるKi推定値 平均値 3.30 中央値 3.29 標準偏差 0.15 bias -0.0073 MSE 0.023 D 38.1 0.07 0.048 2.5 E 33.0 0.08 0.09 3.2 F 480 106 0.018 48 G 292 40 0.084 10.9 11.0 2.06 -0.042 4.23 11 5.21 5.16 0.57 -0.040 0.32 4.58 4.55 0.84 -0.048 0.71 2.51 2.51 0.18 0.0061 0.034 3.22 48.0 3.21 48.0 0.42 1.31 0.0092 -0.0023 0.18 1.71 5.52 5.33 1.46 0.125 2.23 4.88 4.75 1.57 0.146 2.55 2.53 2.52 0.38 0.021 0.149 3.36 3.30 0.86 0.099 0.76 48.3 48.2 2.89 0.20 8.45 12.8 12.0 6.21 0.94 41.7 3.59 4.38 4.22 4.94 9.86 従来法によるKi推定値 平均値 中央値 標準偏差 bias MSE 3.34 3.33 0.33 0.029 0.112 比(従来法/非線形最小二乗法) MSE 4.87 6.97 実データに即した誤差を設定したシミュレーション実験 (表 5-1) において非線形最小二 乗法を用いた場合,真値からの偏りは最大でも-0.35 で誤差変動の範囲内であり,偏りがな いことがわかる.これは真の基質-反応速度関係に非線形の Michaelis-Menten 式を想定し, 9 - 171 ー

176.

誤差が正規分布に従うときに理論的に偏りがない非線形最小二乗法を用いて推定しているの で当然のことである.一方,従来法では偏りがどの実験でも大きく (-0.016~9.81) ,Ki を 過大評価している傾向があることがわかった.MSE については違いがかなり顕著に現れて おり,従来法は非線形最小二乗法に比較して 60.6~2165341 倍もの大きな値を示し,推定精 度が到底許容できない程良くないことが示された.原因に関する考察は後述する. 誤差分散を小さくしたシミュレーション実験 (表5-2) において非線形最小二乗法を用いた 場合,真値からの偏りは最大でも-0.033であり,1回目の結果と同様に偏りがないことが示 された.従来法では偏りが実験条件Cを除いて正で (-0.0022~0.44) ,誤差分散を小さくし てもKiを過大評価する傾向に変わりがないことがわかった.MSEについてはより傾向が顕著 に現れており,従来法の結果は非線形最小二乗法と比較して7.2~260倍もの大きな値を示し た. また対数正規分布を仮定したシミュレーション実験 (表5-3) において非線形最小二乗法を 用いた場合,真値からの偏りは最大でも-0.048であり,正規分布での結果と同様に偏りがな いことが示された.従来法では偏りが正で (0.021~0.94) ,対数正規分布においてもKiを過 大評価する傾向に変わりがないことがわかった.しかしMSEについては,誤差に正規分布 を用いた場合と比較して相対的に従来法の推定精度が向上し,従来法と非線形最小二乗法と の比は全実験で10倍未満と小さくなった.それでも非線形最小二乗法が従来法より推定精度 が高い結果には変わりなかった.原因に関する考察は後述する. 6. 考察 最初に正規分布を仮定した実験結果に関して考察する.表5-1で従来法でのMSEがかなり 大きな値をとったのは,発生させたデータから推定した阻害定数が異常なほど外れた値とな ることがあり,それが従来法でのMSEに大きな影響を及ぼしたことが原因と考えられる. 表5-1における結果の中で,シミュレーションによる従来法での推定において阻害定数が異 常なほど外れた値となった実例を2種類提示する.表5-3にKiの真値,および従来法と非線形 最小二乗法におけるKi推定値を示し,図5-1と図5-2にそれらのデータのLineweaver-Burkプロ ットを示す.図5-3に2種類のデータの第二段階プロットを示す. 表5-3 異常データ1,2におけるKiの真値および両方法での推定値 Ki データ1 Ki 真値 3.30 3.30 従来法 53.4 22.6 3.21 3.53 非線形最小二乗法 データ2 10 - 172 ー

177.

阻害薬濃度(uM) 0 1.5 3 6 9 12 0.25 1/V 0.2 0.15 0.1 0.05 0 -0.5 0 .5 1 1.5 1/S 図5-1 異常データ1のLineweaver-Burkプロット 阻害薬濃度(nM) 0 1.5 3 6 9 12 0.25 1/V 0.2 0.15 0.1 0.05 0 -0.5 0 .5 1 1.5 1/S 図5-2 異常データ2のLineweaver-Burkプロット 0.125 事例 1 2 0.1 傾き 0.075 0.05 0.025 0 0 2.5 5 7.5 阻害剤濃度 10 12.5 図5-3 異常データ1,2の第二段階プロット[図2.2-2 参照] 11 - 173 ー

178.

表5-3より,これらのデータでは従来法では真値からかなり異なるKi推定値を出しており, 原因を図から考察する.図5-1,図5-2から,理論どおりなら阻害薬の濃度が上がるにつれて回 帰直線の傾きが大きくなるはずであるが (y切片(Vmax)は一定) ,そのようにはなっていない ことがわかる.しかも各阻害薬の濃度ごとに3点の基質濃度しかないのにy切片の異なる直線 を別々にあてはめているので,傾きの推定が不安定になっている. また図 5-3 からも,明らかに阻害薬濃度に対して傾きが単調増加せずに 2 次関数的な傾向 があることがわかる.従来法ではこのようなデータに無理に直線をあてはめ,外挿して x 切片により阻害定数を求めるため,2 次関数的な傾向があれば真値からかなり異なる結果を 出す.シミュレーションで発生させたデータには,時としてこのような現実の酵素阻害実験 には有り得えない程異常に外れたデータが発生する場合が生じ,MSE が大きくなってしま う.原因として誤差を正規分布と仮定したためである可能性が考えられるが,詳細は後述す る.これに対し非線形最小二乗法では,表 5-3 の結果から,いずれも真値に近く推定できて いることがわかる.これは,このような外れた値のあるデータ例においても全データの情報 を有効に使って Ki を推定しているためと考えられる. 次に,対数正規分布を仮定した実験結果に関して考察する.本稿では頁数の関係で結果を 割愛するが,2.1 項でも述べたように,実際の酵素阻害実験データでは反応速度 (V) が大き いほど,データのばらつき (S.D.) も大きくなるという顕著な傾向が見られた.そのため, 誤差分散を一定とした正規分布 (等分散性) の仮定より,V に比例的に誤差分散が増大する 対数正規分布の方がより現実の酵素阻害実験データを反映することができると考えられる. よって対数正規分布を仮定したシミュレーション実験も行うことにした.その結果,従来法 の MSE は相対的に明らかに向上したので,従来法の推定精度が劣りすぎた正規分布での結 果に比較すると,現場で行われている酵素阻害実験の結果に近いものとなったと考えられる. しかしそれでも,非線形最小二乗法の MSE の方が全実験において小さかったので,非線形 最小二乗法の有用性には変わりがなかった. また図 5-1,図 5-2 の従来法プロットにて,阻害薬濃度が高い箇所で直線の傾きが異常にな ってしまった理由は,実際のデータでは阻害薬濃度を高くすると阻害薬の影響で反応速度が 小さくなり,傾向としてばらつき (S.D.) も小さくなるにもかかわらず,一定の誤差分散を 持たせたシミュレーションデータの逆数変換を行った結果,誤差が過大となったためではな いかとも考察される. 理論的には逆数変換すると S.D.が平均の 2 乗に比例して大きくなる場合に等分散になる ので,S.D.が平均に比例する場合にも逆数変換することで等分散に近づく場合がある.その ことが,従来法の精度が改善した主要な原因と考えられる. 非線形最小二乗法は等分散性の正規分布を仮定した場合に推定値の分散が最小になること が知られている.より現実のデータを反映した対数正規分布においても非線形最小二乗法が 従来法より精度が高いことを示せたことは,本研究の重要な成果と言える. 12 - 174 ー

179.

最後に,従来法の性能が良くない理由を以下にまとめる.まず,従来法では全データ情報 を一括してパラメータ推定を行っていないことが性能の良くない大きな原因と考えられる. 第一段階で阻害薬の濃度ごとに Vmax, Km を推定しており,仮に阻害薬の濃度を m とすると, 第一段階で 2m 個ものパラメータを推定している.しかも別々に直線をあてはめるので競 合阻害薬であれば本来等しいはずの Vmax が一定とならない.さらに,基質が 3 水準程度し かないにもかかわらず,実験ごとに直線をあてはめるので推定が不安定となるのも原因と考 えられる.その上,外挿を行って切片からパラメータを推定する手法であるので,推定の不 安定さが更に誇張されてしまう.以上の考察,およびシミュレーション実験による定量的な 性能比較の結果からも,本研究によって非線形最小二乗法の有用性が明示された. 7. まとめ 現実の酵素阻害実験に即したシミュレーション実験により,従来法は非線形最小二乗法 に比較して正規分布での検討では数百倍以上もの大きなMSEを持ち,性能が良いとは言え ない結果となった.一方,非線形最小二乗法は推定値の偏りはなくてMSEが大変小さいこ とがわかった.現実のデータに近い条件の対数正規分布を仮定した検討においても,非線形 最小二乗法は推定値の偏りはなくてMSEも従来法より数倍以上小さく,推定精度が優れて いることが示された. 以上から,阻害定数 (Ki) の推定法に関して,多くの製薬企業が今でも慣例的に使ってい ると推測される従来法と非線形最小二乗法とを定量的に性能比較すると,従来法は推定精度 が良いと言えないと結論できる.それに対して非線形最小二乗法は推定精度が優れていて有 用性が高い.よって,今後は薬理試験の現場においても非線形最小二乗法を標準法とするの が望ましいと提言する. 非線形最小二乗法を普及させる対処法の一環として,本稿で示した NLIN プロシジャのプ ログラムを製薬企業の非臨床部門における標準的な統計解析ソフト EXSAS(株式会社アーム システックス)の機能として組み込んでいただくことを検討・協議している.実現すれば簡 便に各社の非臨床部門の実験家が非線形最小二乗法を使用できるようになる. なお本研究では競合阻害を前提としており,そのモデルが正しいことを仮定しているが, 非競合阻害,あるいは不競合阻害であった場合にはモデルを変更する必要がある.その評価 と対処法の検討については今後の検討課題である. 13 - 175 ー

180.

謝辞 東京理科大学大学院工学研究科経営工学専攻山口俊和教授には,本研究をまとめるに際し て数々の貴重なご助言をいただきました.厚く御礼を申し上げます. 鳥居薬品株式会社顧問の松本一彦博士には,本研究の初期段階におきまして数々のご指導 および貴重なご助言をいただきました.深く御礼申し上げます. 東京理科大学大学院工学研究科医薬統計コース2006年度修了生の皆様,その他修士課程や 博士課程の皆様,およびスタッフの皆様からも,多岐にわたってご助言やご支援をいただき, 大変感謝しております. また,統計解析ソフトEXSASのユーザー皆様には,現状分析のためのアンケートに快く ご協力いただき,感謝いたします. 東京理科大学大学院への通学,および本研究に際して,環境を整えて業務上の配慮と支援 をいただいた元田辺製薬株式会社研究本部研究企画部長遠藤俊夫博士,研究企画部主幹部員 清水良博士,および研究企画部皆様にも心より感謝いたします.酵素阻害実験データを提供 くださった薬理研究所の皆様,また現在の職場環境において業務上の配慮をいただいた薬理 研究所安全性薬理課の皆様へも深く御礼申し上げます. 参考文献 1) Michaelis L, Menten H. Die Kinetik der Invertinwirkung. Biochemische Zeitschrifit 1913; 49: 333-69. 2) Motulsky H, Christopoulos A. Fitting Models to Biological Data Using Linear and Nonlinear Regression. New York: Oxford University Press, Inc; 2004. 3) Perzborn E, Strassburger J, Wilmen A, Pohlmann J, Roehrig S, Schlemmer KH, et.al. In vitro and in vivo studies of the novel antithrombotic agent BAY 59-7939-an oral, direct Factor Xa inhibitor. J Thromb Haemost 2005; 3: 514-21. 4) Hirai H, Shibata H, Kawai S, Nishida T. Role of 1-hydroxybenzotriazole in oxidation by laccase from Trametes versicolor. Kinetic analysis of the laccase-1-hydroxybenzotriazole couple. FEMS Microbiol Lett. 2006 Dec; 265(1): 56-9. 5) Dogan S, Turan P, Dogan M. Some kinetic properties of polyphenol oxidase from Thymbra spicata L. var.spicata.(in press) Biochemistry 2006; 41(12): 2379-85. 6) 浜田知久馬監修, 臨床評価研究会基礎解析分科会著. 実用 SAS 生物統計ハンドブック. サイエンティスト社; 2005. 7) Lineweaver H, Burk D. The Determination of enzyme dissociation constants. J Am Chem Soc 1934; 56: 658-66. 8) 大野素徳. 酵素実験法 1. 廣川書店; 1993. 14 - 176 ー

181.

母集団薬物動態解析における 異常個体の統計的検出法 長谷川千尋1),浜田知久馬2) 1)小野薬品工業株式会社 2)東京理科大学 A statistical method to detect specific individuals on population pharmacokinetic analysis Chihiro Hasegawa1), Chikuma Hamada2) 1)Ono pharmaceutical co.,ltd. 2)Tokyo university of science 発表構成 „ はじめに „ 母集団薬物動態解析 „ 影響度統計量(influence statistics) „ 研究目的 „ 解析モデル „ 影響度統計量について „ シミュレーションによる性能評価 „ まとめ 参考文献 - 177 ー 2

182.

はじめに[13,14] „ 投与された薬物の体内動態 ⇒ 薬物動態 „ 薬物動態パラメータによって評価 „ 薬物動態パラメータ „ 分布容積 Vd „ 消失速度定数 kel „ etc« 血液中薬物濃度 データを用いて 推定 ⇒ 体内 ①吸収 ②分布 消失 (③代謝・④排泄) 図: 薬物の体内動態 3 血液中薬物濃度データのイメージ 時点(j) 個体(i) 1 2 ・・・ m 1 y11 y12 ・・・ y1m 2 y21 y22 ・・・ y2m : : : ・・・ : n yn1 yn2 ・・・ ynm yij: 測定された経時血液中薬物濃度データ (以下,血中濃度) - 178 ー 4

183.

薬物動態解析の種類[12,14] „ 標準的な薬物動態解析 „ 個体ごとの薬物動態パラメータを推定 „ 母集団薬物動態解析 „ 個体を変量効果と仮定し,個体が抽出された母集 団における薬物動態パラメータの平均や分散(母 集団パラメータ)を推定 „ 非線形混合効果モデルを適用 5 異常個体の検出 „ スクリーニングとしての評価 „ 測定ミスの起こった個体 ⇒ 解析から除外 „ 他と異なる体質をもつ個体 ⇒ 薬効・副作用の強く出ることが予想される個体 (特異体質)の発見 „ 現状の検出法 „ 実施上の理由や血中濃度の時間推移グラフ から評価することが多いが,確立していない - 179 ー 6

184.

現状の検出法の問題点と解決案 „ 血中濃度の時間推移グラフ 血中濃度 相対的に血中濃度推移が 異なるか? (Pg/ml) 時間(hour) „ 個体数が多いと見逃しの危険が生じる „ 統計学的かつ定量的な異常性の評価指標の 必要性 ⇒ 影響度統計量の適用 7 影響度統計量[1,3,6] „ ある個体を除いた場合のモデルの変化 „ 影響度統計量の値によって個体の異常性を評価 (影響度統計量 大 ⇒ 異常性 大) „ 影響度統計量は複数提案されている „ 母集団薬物動態解析においてどの統計量が適切 であるかは明らかでない „ 線形混合効果モデルの影響度統計量を 非線形モデルに拡張 - 180 ー 8

185.

本研究の目的 „ 母集団薬物動態解析における影響度統計量 の適用に関する指針の検討 „ 異常個体に関して複数の異常パターンを想定 „ ある事例に基づいたシミュレーションによる,各影 響度統計量の性能評価 „ SAS 9.1 „ NLMIXED,IML プロシジャ 9 記号の定義 U: 解析から除いたオブザベーション集合 (添え字の(U)はU を除いたときの状態を表す) l(): 対数尤度関数 \: 全パラメータ集合 p: 母平均パラメータ数 E: 母平均ベクトル(p×1) E i: 個体i のパラメータベクトル(p×1) C(E i , tij): 個体i の時点j における血中濃度の予測値 q: 母分散パラメータ数 T: 母分散パラメータベクトル(q×1) - 181 ー 10

186.

対象データ „ 点滴静注した場合の血中濃度データ „ ある事例に基づいた仮想データ „ 点滴時間(Tin): 30分 血中濃度 (Pg / ml) 時間(hour) 11 解析モデル „ 血中濃度推移 „ 点滴静注の1-コンパートメントモデル ^ ` k0 1  exp( k (eli)t ij ) (i ) (i ) Vd k el C(ȕi , t ij ) ^ ( t ij d Tin ) ` ( t ij ! Tin ) ȕi § k (eli) · ¨ ( i) ¸ ¨V ¸ © d ¹ CTin exp  k (eli) (t ij  Tin ) CTin ^ ` k0 1  exp( k (eli) Tin ) (i ) ( i) Vd k el k0 (=Dose / Tin): 点滴速度 - 182 ー 12

187.

解析モデル(続) „ 個体内モデル log y ij log C(ȕi , t ij )  H ij H ij ~ N(0, V 2H ) yij: 血中濃度データの実測値 „ 個体間モデル log ȕ i § § log P k el · § Vk2 § log k (eli) · ¨¨ ¨ el ¨ ¸ ¸ ~ N , ¨ log V ( i) ¸ ¨ ¨© log P Vd ¸¹ ¨ 0 d ¹ © © © P k el ȕ P Vd T ș 0 · ·¸ ¸ N log ȕ, ¦ 2 ¸ V Vd ¹ ¸¹ V 2 k el V 2 Vd V 2 T H 13 母集団パラメータの推定 „ 対数尤度を最大とするE E ,6,VH を推定 n log – ³ f ( y i1,˜ ˜ ˜y im | ȕi , V H2 )Z(ȕi | ȕ, ¦)dȕi i 1 „ 多重積分の方法 „ 線形一次近似法 „ Gauss 求積法 など „ 推定方法 „ 準ニュートン法 など - 183 ー 14

188.
[beta]
NLMIXED プロシジャによる推定プログラム
ods output ParameterEstimates=&EST;
影響度統計量を算出する
ods output FitStatistics=&FIT;
ためのデータセット掃き出し
ods output CovMatParmEst=&COV;
proc nlmixed data = DATA method=firo tech=quanew cov;
parms kel=&kel Vd=&Vd s2_kel=&s2_kel s2_Vd=&s2_Vd s2=&s2;
bounds s2_kel>0 , s2_Vd>0 , s2>0;
keli = kel * exp(b_kel) ; *keli = exp(logkeli);
Vdi = Vd * exp(b_Vd ) ; *Vdi = exp(logVdi);
tif = 0.5; k0 = dose/tif;
if (time <= tif) then pred = k0*(1-exp(-keli*time))/(Vdi*keli);
else pred = (k0*(1-exp(-keli*tif))/(Vdi*keli))*exp(-keli*(time-tif));
if pred ne 0 then logpred = log(pred); else logpred = .;
model logC ~ normal(logpred , s2);
random b_kel b_Vd ~ normal( [0,0] , [s2_kel , 0 , s2_Vd] ) subject = id;
run;

15

影響度統計量の算出法[9,10]
„ 逸脱統計量

Likelihood Deviance LD(U)

„ 各個体を除いたときのモデル全体への影響に関す

る統計量

LD(U)

Ö  l( U) ȥ
Ö ( U) `
2^l ȥ

l(): 対数尤度関数
\: 全パラメータ集合

„ PRESS 統計量(Predicted Sum of Squares)
„ 「各個体を除いたときの集団予測値」からの

実測値の乖離に関する統計量

PRESS

¦ y ij  C ȕÖ (U) , tij

2

E (U): 個体U を除いた
ときのE

iU

- 18416

189.

影響度統計量の算出法(続) „ Cook の距離 D „ 各個体を解析から除いたときのパ パラメータ推定値 の変化 D(ȕ) D(ș ) >@ Öȕ  ȕÖ T vaÖ r ȕÖ  ȕÖ  ȕÖ (U ) (U) p >@ Öș  șÖ T vaÖ r șÖ  șÖ  șÖ ( U) (U ) E: 母平均パラメータベクトル T: 母分散パラメータベクトル 17 影響度統計量の算出法(続) „ COVTRACE,COVRATIO „ 各個体を解析から除いたときのパラメータの推定 精度の変化 „ COVRATIO: 1に近いほど異常性が小さい >@ > @ COVTRACE (ȕ )  trace§¨ v aÖ r ȕÖ v aÖ r ȕÖ (U ) ·¸  p © ¹ COVRATIO(ȕ ) det(v aÖ r[ȕÖ (U ) ]) det(vaÖ r[ȕÖ ]) COVTRACE (ș ) *det( ) は行列式を表す COVRATIO(ș ) - 185 ー >@ > @  trace§¨ v aÖ r șÖ v aÖ r șÖ (U ) ·¸  q © ¹ det(vaÖ r[șÖ (U ) ]) det(vaÖ r[șÖ ]) 18

190.
[beta]
影響度統計量の算出手順
Step 1. 全データセットを用いて母集団薬物
動態解析を行い,母集団パラメータと
その分散共分散行列,モデルの対数尤
度をデータセットに掃き出す
Step 2. 全データセットから1人分のオブザベー
ションを除外したものを作成し,これを
用いてSTEP 1 と同様の操作を行う
Step 3. Step 2 の操作を全個体分行う
Step 4. Step 13 で求めた値を用いて各個体
を除いたときの影響度統計量を算出
19

例: Cook の距離 D(E
E ) の算出プログラム
data FIXED_COV; set &COV; where parameter in ('kel','Vd');
data STOCK;delete;run; /* 空のデータセットを用意 */
%do ex=1 %to &n;
Cook には各個体を
data PER_COOK; set COOK; where id_ex=&ex; 除いたときの
proc iml;
ȕÖ  ȕÖ (U ) の各要素が格納
use work. FIXED_COV; read all var {kel Vd};
use work. PER_COOK; read all var {id_ex delta1 delta2};
p=2;
delta_vec¶
delta_vec=delta2||delta1;
は ȕÖ  ȕÖ (U)
V=kel||Vd;
D=delta_vec*inv(V)*delta_vec`/p; /* Cook の距離の算出 */
create work.RESULT var{D id_ex}; append;
run;quit;
Vは
data STOCK; set STOCK RESULT; run;
%end;

>@

vaÖ r ȕÖ

- 18620

191.

シミュレーションによる 影響度統計量の性能評価 シミュレーションの概要 „ シミュレーションの目的 „ 様々な状況下で,どの影響度統計量の性能が 良いのか評価すること „ LD,PRESS,Cook D,COVTRACE,COVRATIO „ Cook D,COVTRACE,COVRATIOはE E ,T 双方 について „ 合計8つの統計量に関して評価 „ シミュレーション回数: 1000回 - 187 ー 22

192.

シミュレーション条件 血中濃度の測定時点数(m): 8 „ 0 , 0.5 , 0.75 , 1 , 1.5 , 2.5 , 3 , 4.5 時間 „ 5 時点の場合も検討(結果は省略) „ 総個体数(n): 101人 ( 100人: 正常個体 1人: 異常個体 ) „ 母集団パラメータ „ 母集団平均: Pkel = 0.30 PVd = 0.04 „ 母集団分散 „ 個体間V2kel = 0.222 V2Vd = 0.172 „ 個体内: VH = 0.102 „ 23 性能評価の指標 „ 偽陽性割合5%のときの感度 感度 TP u 100 TP  FN (%) 真 判断 異常 正常 異常 TP FP 正常 FN TN - 188 ー T: true F: false P: positive N: negative 24

193.

シミュレーションで想定する状況 異常個体のパターンを次のように設定 „ 状況1: 特定の薬物動態パラメータの値が他の個体と大きく異 なる „ 状況1-A: kel の母平均が他の個体の2倍 „ 状況1-B: Vd の母平均が他の個体の2倍 „ 状況2: ある1時点の血中濃度値が他の個体と大きく異なる „ 4時点目の血中濃度の母平均が他の個体の2倍 „ 4時点目以外の場合も検討 „ 状況3: 1人だけ異なるモデル(2-コンパートメントモデル)に従う (結果は省略) 25 結果: 状況1(kel,Vdをそれぞれ2倍) 感度(%) 表: 感度(%) 統計量 / 状況 ①LD(U) 1-A 1-B 46.3 23.7 ②PRESS 16.9 82.5 ③Cook D(E) 93.3 96.2 ④Cook D(T) 88.3 95.2 ⑤COVTRACE(E) 84.2 90.7 kelを2倍 Vdを2倍 ⑥COVRATIO(E) 84.2 90.7 ⑦COVTRACE(T) 82.5 88.8 ① ② ③ ④ ⑤ ⑥ ⑦ ⑧ - 189 ー ⑧COVRATIO(T T) 82.7 89.0 26

194.

状況1の考察 „ 全体的に D(E) の感度が高い „ 異常個体を除いたときの母平均パラメータの推定 値の変化が大きい ⇒異常個体として母平均パラメータの値を変えてい るので,予想通りの結果 27 結果: 状況2(外れ値が存在する場合) 感度(%) 表: 感度(%) 統計量 ①LD(U) 93.9 ②PRESS 60.7 ③D(E) 17.6 ④D(T) 99.9 ⑤COVTRACE(E) 8.4 ⑥COVRATIO(E) 10.2 ⑦COVTRACE(T) 68.6 ① ② ③ ④ ⑤ ⑥ ⑦ ⑧ - 190 ー ⑧COVRATIO(T T) 73.9 28

195.

状況2の考察 „ D(T T) の感度が高く,D(E) の感度が低い „ 異常個体を除いたときの Tに関する変化が大きい 表: 異常個体を除いたときのパラメータ推定値の変化の平均±標準偏差(SD) E T 母集団パラメータ kelの母平均( hr -1 ) 変化(平均±SD) 平均/SD 13.4±7.3 1.8 Vdの母平均( kl ) 1.4±0.7 2.0 kelの母標準偏差 ( log(hr -1) ) 35.0±27.1 1.3 Vdの母標準偏差( log(kl) ) 27.8±28.5 1.0 誤差の標準偏差 ( log(Pg/ml) ) 78.5±16.1 4.9 (×10-5) 29 シミュレーションのまとめ „ 感度が最も高いと示唆された影響度統計量 „ 状況1: 母平均に関するCook の距離( D(E) ) „ 状況2: 母分散に関するCook の距離( D(T) ) 2種類のCook の距離を 使い分けるのが望ましい - 191 ー 30

196.

事例への適用 Cook の距離の算出結果 D(ș ) D(ȕ ) 個体番号100 個体番号66 解析から除いた個体番号 解析から除いた個体番号 „ 個体番号66,100 の特徴を検討 - 192 ー 32

197.

D(E E ) によって検出した「個体番号66」の特徴 „ 分布容積Vd が大きく血中濃度が低いにもかかわらず, 消失がゆるやか(kel が小さい) 血中濃度(Pg/ml) „ Vd: 集団平均の1.5倍 kel: 集団平均の0.5倍 個体番号66 集団の平均値±SD 時間(hour) 図: 個体番号66 と集団平均の血中濃度推移 33 D(T T) によって検出した「個体番号100」の特徴 血中濃度(Pg/ml) „ 5時点目以降の血中濃度が集団内で最も低い 個体番号100 集団の平均値±SD 時間 (hour) 図: 個体番号100 と集団平均の血中濃度推移 - 193 ー 34

198.

まとめ „ 母集団薬物動態解析における影響度統計量に よる異常個体検出 „ 影響度統計量の性能評価 „ 2つのCook の距離の使い分けが望ましい 35 各影響度統計量の性能 状況1 状況2 状況3 LD(U) × ○ △ PRESS × △ × D(E) ◎ × ◎ D(T) ○ ◎ ◎ COVTRACE(E) △ × ○ COVRATIO(E) △ × ○ COVTRACE(T) ○ ○ ○ T) COVRATIO(T ○ ○ ○ 相対評価 ◎: 最も良い ○: 良い - 194 ー 異常個体として „ 状況1: 特定の薬物動 態パラメータの値が他 の個体と大きく異なる „ 状況2: ある1時点の血 中濃度値が他の個体 と大きく異なる „ 状況3: 1人だけ異なる 血中濃度推移(2-コン パートメントモデル)に 従う △: 普通 ×: 悪い 36

199.

おわりに „ 本研究は他の事例に基づいたシミュレーション による検討も行っており,その結果の傾向は本 発表で示した傾向と同様 „ NLMIXED プロシジャ実行時にデータセットを 掃き出せば,IML プロシジャ+DATA ステップ により簡単に影響度統計量を算出できる „ スクリーニング時,PMS において有用 37 主要参考文献 [1] Beckman RJ, Nachtsheim CJ, Cook RD. Diagnostics for Mixed Model Analysis of Variance. Technometrics 1987; 29:413-426. [2] Cook RD. Detection of Influential Observations in Linear Regression. Technometrics 1977; 19: 15-18. [3] Cook RD. Assessment of Local Influence. Journal of Royal Statistical Society 1986; 48:133-169. [4] Cook RD, Weisberg S. Residuals and Influence in Regression. Chapman & Hall: New York, 1982. [5] Demidenko E. Mixed Models Theory and Applications. WILEY-INTERSCIENCE: New Jersey, 2004. [6] Demidenko E, Stukel TA. Influence Analysis for Linear Mixedeffects Models. Statistics in Medicine 2005; 24:893-909. [7] Kenneth GK, Matthew MH. Design Evaluation for A Population Pharmacokinetic Study Using Clinical Trial Simulations: A Case Study. Statistics in Medicine 2001; 20:75-91. - 195 ー 38

200.

主要参考文献(続) [8] Lesaffre E, Verbeke G. Local Influence in Linear Mixed Models. BIOMETRICS 1998; 54:570-582. [9] Ronald C, Larry M P, Wesley J. Case-Deletion Diagnostics for Mixed Models. Technometrics 1992; 34:No. 1 38-45. [10] Schabenberger O. Mixed Model Influence Diagnostics. SUGI 29. [11] Verbeke G, Molenberghs G 編, 松山裕, 山口拓洋 編訳. 医学統計の ための線型混合モデル. サイエンティスト社, 2001. [12] 緒方宏泰. 医薬品開発における臨床薬物動態試験の理論と実践. 丸善株式会社, 2004. [13] 杉山雄一, 山下伸二, 加藤基浩. ファーマコキネティクス. 南山堂, 2003. [14] 矢船明史, 石黒真木夫. 母集団薬物データの解析. 朝倉書店, 2004. 39 - 196 ー

201.

臨床薬理試験における反復投与による蓄積性に関する統計 学的評価 張 方紅 グラクソ・スミスクライン株式会社 バイオメディカルデータサイエンス部 Assessing Accumulation of Repeat Dose Using Statistical Method in Clinical Pharmacological Study Fanghong Zhang GlaxoSmithKline K.K. Biomedical Data Science Department 概要 薬物動態を評価するための臨床薬理試験には,単回投与試験と反復投与試験がある.単回投与試験 では生物学的利用性や薬物動態の線形性を評価する.反復投与試験では薬物動態パラメータの変化や 定常状態の確認,蓄積性の有無について検討する (「医薬品の臨床薬物動態試験について」p.6) .単 回投与試験における薬物動態解析,特に薬物動態パラメータの用量比例性に関する研究やレビュー論 文が数多く存在する (例えば,Gough et. al. 1995, 橋本・他, 2001, 緒方, 2004). 一方,反復投与試 験における薬物動態解析については,臨床実務統計家のための文献はまだ少ない.そこで,本稿では 反復投与による蓄積性の評価に焦点を当て,いくつかの解析手法をレビューするとともに,SAS プ ログラムを紹介する.特に,欠損値が存在する場合,各手法の取り扱いの違いを紹介する. キーワード: 反復投与試験,薬物動態パラメータ,蓄積係数,欠損値,MIXED プロシジャ 1 反復投与試験 1.1 投与と採血スケジュール 反復投与試験は,臨床で予想される投与方法と投与スケジュールを考慮して行う.初回投与時には被 験者の薬物動態プロフィルを評価できるサンプリング数とする.中間投与時においては,トラフ濃度に 相当する時点で何回かサンプリングする.最終投与時あるいは定常状態においては,消失速度・蓄積性・ 線形性を評価できるだけの時点数とする (「医薬品の臨床薬物動態試験について」p.6) . 1.2 解析目的と解析項目 反復投与による蓄積性を評価するため,薬物動態パラメータについて,最終投与時 (DayX) と初回投 与時 (Day1) との比較を行う. 薬物動態パラメータ AUC (area under the concentration-time curve 薬物の血漿中濃度−時間曲線 下面積) と Cmax (maximum observed concentration 最高血漿中濃度) 等を用い,蓄積性を評価するこ とができる.以下の 2 種類の蓄積係数が利用されている (例えば,Kaiser, et. al., 1999). Ro = AUC(dayX) , AUC(day1) R[Cmax ] = Cmax (dayX) . Cmax (day1) ただし,AUC は,時点 0 から投与間隔の終点 τ までの AUC である.蓄積性がなければ,Ro と 1 - 197 ー

202.

R[Cmax ] は1となる.解析方法としては,Ro と R[Cmax ] の 90 % 信頼区間を求め,1が含まれるかど うかにより,蓄積性の有無を推測する.以下に 3 つの信頼区間を求める方法を紹介する. 2 解析手法 薬物動態パラメータ AUC と Cmax は,対数正規分布に従うと仮定することがよくある.対数を取る と,例えば, log(Ro ) = log (AUC(dayX)) − log (AUC(day1)) となり,問題は,log AUC または,log Cmax の最終投与時と初回投与時との差の信頼区間を求めること に帰着する. 同一被験者に対して,2 回 (Day1, DayX) 測定され,経時測定データ (repeated measures data) とな るので,経時データの解析手法を適用できる.測定が 2 回という特殊な経時データ解析となるので,い くつかの解析手法の関係を明示的に示すことができる.それらの関係について数理的に整理することが 本稿の目的の 1 つである.経時データ解析は,1) 多変量分散分析,2) 単変量分散分析,と 3) 線形混合 モデル解析など手法がある (SAS Institute Inc., 2004).多変量分散分析は,同じ被験者の 2 回の測定値 を 1 つのベクトルに並べて,複数の被験者の測定値を行列に配置させ,解析を行う.手法 1) の多変量 分散分析は,2 つの時点 (Day1, DayX) の比較という特殊な場合,対応のある t 検定となる (高橋・他, 1989, p.226-227).また,測定値を反応変数とし,時点 (Day1, DayX) と被験者を因子とみなすとき, 単変量分散分析となる.ただし,被験者はブロック因子である.被験者を固定効果,または,ランダム 効果をみなすことによって,方法 2) の単変量分散分析と方法 3) の線形混合モデルとなる.蓄積性を推 測するための信頼区間は,利用する標準誤差の算出方法によって,3 つの求める方法がある.すなわち, 1) 対応のある t 検定に基づく信頼区間, 2) 単変量分散分析に基づく信頼区間, 3) 線形混合モデルに基づ く信頼区間である. yij を i 番目の被験者での第 j 投与日 (Day1, DayX) の AUC (Cmax ) の対数とする.yij は,互いに 独立な正規分布に従い,yij ∼ N (µj , σ 2 ) と仮定する.ここで,i = 1, · · · , n; j = 1, 2 である. 問題は, µ2 − µ1 の信頼区間を求めることとなる. 2.1 欠損値がない場合 まず,欠損値がない場合について,これらの方法の関係を説明する. 2.1.1 対応のある t 検定に基づく信頼区間 di = yi2 − yi1 とし,di は独立同分布 N (µd , σd2 ) に従う. ただし, µd = µ2 − µ1 , i = 1, · · · , n. 対応のある t 検定に基づく信頼区間は以下になる. CI1 = µ̂d ± SE1 tα/2 (n − 1) ただし,µ̂d = d¯ = ∑n i=1 di /n. µ̂d の標準誤差は以下になる.     SE1  =  σ̂ 2    d = σ̂ √d n n 1 ∑ ¯2 (di − d) n − 1 i=1 2 - 198 ー (1)

203.

2.1.2 単変量分散分析に基づく信頼区間 被験者をブロック,時点 (Day1, DayX) を固定効果とする乱塊法モデルは以下になる. yij = µ + αi + βj + ²ij , i = 1, · · · , n; j = 1, 2. (2) ただし,µ,αi ,βj は,それぞれ,一般平均,被験者効果と時点効果を表すしている.問題はパラメー タの差 β2 − β1 の信頼区間に帰着する.β̂2 − β̂1 = µ̂2 − µ̂1 .β̂2 − β̂1 の標準誤差を求める必要がある. 2 モデル分散 σw を推定するため,データの変動を以下のように分解する. n ∑ 2 ∑ 2 (yij − ȳ·· ) = 2 n ∑ i=1 j=1 2 (ȳi· − ȳ·· ) + i=1 n ∑ 2 ∑ 2 (yij − ȳi· ) i=1 j=1 右辺の第 1 項は被験者間変動,第 2 項は被験者内変動を表している.被験者内変動を計算してみると n ∑ 2 ∑ 2 (yij − ȳi· ) = 2 i=1 j=1 )2 n ( ∑ yi1 − yi2 2 i=1 1∑ 2 d 2 i=1 i n = となる.一方,時点間の変動は以下になる. n ∑ 2 ∑ 2 2 2 (ȳ·j − ȳ·· ) = n (ȳ·1 − ȳ·· ) + n (ȳ·2 − ȳ·· ) = i=1 j=1 n ¯2 d 2 被験者内変動から時点間変動を引くと,残差変動となる.よって,残差平方和は以下になる. n n 1 ∑ 2 n ¯2 1∑ ¯2 di − d = (di − d) 2 i=1 2 2 i=1 残差平方和を自由度 n − 1 で割ると,モデル分散の推定値となる. 2 σ̂w = n 1 1 ∑ ¯ 2 = 1 σ̂ 2 (di − d) 2 n − 1 i=1 2 d (3) 残差平方和を算出する別の方法としては,モデル (2) を繰り返しのない 2 次元配置分散分析とみなし, 残差平方和として被験者と時点との交互作用を算出すればよい.直接計算すれば,式 (3) が得られる. β̂2 − β̂1 の標準誤差は √ SE2 = 2 2 σ̂ = n w √ 1 2 σ̂ = SE1 n d よって,方法2は,方法1と同じ標準誤差が利用され,同じ信頼区間が得られることがわかる. 2.1.3 線形混合モデルに基づく信頼区間 被験者をランダム効果とし,時点 (Day1, DayX) を固定効果とするモデルは以下になる. yij = µ + pi + βj + ²ij , i = 1, · · · , n; j = 1, 2. (4) ただし,µ,pi ,βj は,それぞれ,一般平均,被験者効果と時点効果を表すしている.²ij と pi は独立 で,²ij ∼ N (0, σe2 ), pi ∼ N (0, σp2 ) とする. σe2 は被験者内分散,σp2 は被験者間分散である.問題は依 然パラメータの差 β2 − β1 の信頼区間に帰着する.欠損値がない場合,β̂2 − β̂1 の分散は 2 2 σ n e となり,信頼区間の算出には被験者内分散を利用することになる.単変量分散分析法と異なって,線形混 合モデルでは,分散成分 σp2 , σe2 に対する推定は,最小二乗法ではなく,最尤推定 (ML) 法,または,制限付 3 - 199 ー

204.

き最尤推定 (REML) 法が利用されている.しかし,被験者内偏差, yi1 − ȳi· = (²i1 − ²i2 )/2, i = 1, · · · , n は,個体間効果 pi を消去し,独立で正規分布 N (β2 − β1 , σe2 /4) となる.yi1 − ȳi· (i = 1, · · · , n) の平均 2 偏差平方和は σe2 の推定となる.結局は,モデル (2) の σ̂w となる.したがって,欠損値がない場合,方 法 3) と方法 2),そして方法 1) とも同じ結果を導くことが分かる. 2.2 欠損値がある場合 欠損値がない場合,3 つの方法は同じ信頼区間を導くことが前の節で示されている.しかし,欠損値 がある場合,状況が変わる.以下,同じ被験者に対する 2 回の測定のうち,片方しかデータがない場合, 3 つの方法の取り扱い方の違いを紹介する. 方法 1) は,2 回測定値の差を取るということで,2 回の測定値が揃えている被験者のみを対象とする. これはいわゆる Complete Case Analysis を行うこととなる (SAS Institute Inc., 2004). 方法 2) は,欠損値があっても,得られているデータをすべて用いた解析でき,いわゆる available case analysis を行う (高橋,他, 1989, p.238).しかし,2 回しか測定していないため,片方しかデータ がない被験者は,被験者内変動に寄与しない.例えば,i 番目の被験者に対して,Day1 しか測定値がな い場合,ȳi· = yi1 ,i 番目の被験者内変動は yi1 − ȳi· = 0 となる.よって,i 番目の被験者は信頼区間の 算出に寄与せず,結果的に方法 1) と同じで,Complete Case Analysis を行うこととなる. 方法 3) は,欠測のある被験者を除いてしまう Complete Case Analysis と異なり,すべてのデータ を用いて解析を行う.これは,尤度に基づく欠測を無視した解析 (likelihood-based ignorable analysis) と呼ばれている (SAS Institute Inc., 2004). 2.3 利用される SAS プロシジャ SAS には経時データ解析のため, GLM プロシジャと MIXED プロシジャが用意されている. 方法 1) は,被験者を行に,時点 (day1, dayX) を列に並べたデータ構造が必要となる.多変量分 散分析を行うため,GLM プロシジャの REPEATED ステートメントを利用することとなるが,2 つ の時点 (Day1, DayX) の比較という特殊な場合は,対応のある t 検定となり,TTEST プロシジャや UNIVARIATE プロシジャを利用することができる. 方法 2) は,オブザベーション数がすべての被験者の測定数となるようなデータ構造が必要となる. GLM プロシジャや,固定効果を指定しない MIXED プロシジャを利用することができる. 方法 3) は,方法 2) と同じ,オブザベーション数がすべての被験者の測定数となるようなデータ構造 が必要となる.MIXED プロシジャで,被験者をランダム効果を指定して解析を行う. 数値例を用いたプログラムの詳細は,当日紹介する. 3 考察 本稿では臨床薬理試験における反復投与による蓄積性の評価の方法について整理した.これらの方法 は蓄積性の有無に対する判断の目安として利用されている.欠損値がない場合, 3 つの方法は同じ結果 を導くので,シンプルで解釈しやすい 2 つの投与日の差の信頼区間を示せば十分である.一方,欠損値 が存在する場合,第 1 相臨床試験は,被験者が少ないので,得られるデータを全部を使いたいというこ とであれば,混合効果モデルを利用すればよい.しかし,2 つの時点の中 1 つしか測定できず,残る1 つのデータを利用する価値があるかについては,検討する必要がある. 4 - 200 ー

205.

参考文献 Gough, K., Hutchison, M., Keene, O., Byrom, B., Ellis, S., Lacey, L., McKellar, J. (1995). Assessment of dose proportionality: Report from the statisticians in the pharmaceutical industry/Pharmacokinetics UK joint working party. Drug Inf. J., 29, 1039-1048. Kaiser, H., Aaronson, D., Dockhorn, R., Edsbäcker, S., Korenblat, P., Källén, A. (1999). Doseproportional pharmacokinetics of budesonide inhaled via Turbuhaler. Br J Clin Pharmacol, 48, 309-316. 厚生労働省医薬局審査管理課長 (2001) 医薬品の臨床薬物動態試験について.医薬審発第796号 http://www.nihs.go.jp/mhlw/tuuchi/2001/010601-796/010601-796.pdf 橋本敏夫,笠井英史,山田雅之,榊秀之,半田淳,滝沢毅,平田篤由 (2001) 臨床薬理試験における薬物 動態の線形性に関する統計学的評価. 薬物動態, 16(3), 224-252. SAS Institute Inc. (2004). Longitudinal Data Analysis with Discrete and Continuous Responses Course Notes Cary, NC 27513, USA 高橋行雄,大橋靖雄,芳賀敏郎 (1989). SAS による実験データの解析.東京大学出版社 緒方 宏泰 (2004) 臨床薬物動態試験の理論と実験.丸善, p.44-46 5 - 201 ー

206.

質的交互作用検定の多地域共同治験への応用 1 1 1 ○都地昭夫 ,長谷川貴大 ,田崎武信 ,森川馨 塩野義製薬株式会社 解析センター 2 1 国立医薬品食品衛生研究所 安全情報部 2 Application of qualitative interaction tests to multi-regional clinical trials 1 1 1 2 Akio Tsuji , Takahiro Hasegawa , Takenobu Tasaki , Kaoru Morikawa Biostatistics Dept., Shionogi & Co., LTD. 1 Division of Safety Information on Drug, Food and Chemicals, National Institute of Health Sciences 2 要旨 多地域国際共同治験では全地域を合わせた全体の試験結果と各地域での試験結果との間に おける整合性が問題となる.特に質的交互作用は深刻な問題を提起する.質的交互作用の 検定として Gail-Simon 検定と Push back 検定が知られている.この2つの検出力を評価した 結果,どちらの検出力も低いことが確認された.この難点を補うため新たに許容基準(min τ)を導入した.この考え方の多地域共同治験への応用を検討した. キーワード:国際共同治験,質的交互作用 1. はじめに SAS を用いて臨床データの解析を行う際の参考書として,Dmitrienko et al. (2005)は貴重であ る.この第 1 章では層別化によって交絡因子の影響を小さくする解析を扱っており,連続 値応答,カテゴリカル応答,事象生起までの時間で示される応答それぞれに対する層別解 析の方法と,臨床試験で注意すべき治療と層の交互作用について議論されている.ここで は交互作用の議論に着目する.臨床試験では,治療効果 (治療差) の方向に影響を与えない 層間の治療効果の違いを表す「量的交互作用」は非常によくみられ,すべての層において 治療効果が一定であるような試験はめったにみられない.一方で,真の治療効果の方向が 層間で異なることを表す「質的交互作用」については,試験全体の結果の解釈に影響を与 え,治療効果の解析にも影響を及ぼすことになる.したがって,治療と層との間に真の交 互作用が あっ たとし ても, 量的 交互作 用と質 的交互 作用 とを区 別する 必要が ある. Dmitrienko et al. (2005) は質的交互作用の存在を検定する Gail-Simon 検定および Push back 検定に関する最新のレビューと SAS のマクロプログラムを与えている. 一方,近年注目されている多地域国際共同治験では,全地域を合わせた全体の試験結果と 1 - 202 ー

207.

各地域での試験結果との間での整合性が問題となる.ある地域で治療効果の逆転現象が起 こった場合,それが偶然によるものなのか質的交互作用があったことによるものなのかを 区別する必要がある.平成 19 年 3 月に独立行政法人 医薬品医療機器総合機構 (以下,総合 機構と略す) より出された「国際共同治験に関する基本的考え方 (案) について」 (以下, 「国際共同治験の考え方 (案) 」と略す) では,地域間で試験結果に整合性があるように多 地域国際共同治験の症例数を設計する 2 つの考え方が示されている.ここでは,このうち の 1 つの方法で症例数が設計される場合を考察し,Gail-Simon 検定および Push back 検定を 用いた治療と地域の質的交互作用について検討した.その結果,どちらの検定も検出力が 低いことが確認された. そのため,質的交互作用の程度を量的に表す新たな許容基準(min τ)を導入し, Gail-Simon 検定および Push back 検定を用いて min τを評価した.その結果,min τは 2 つ の検定が誤って質的交互作用ありとする第Ⅰ種の過誤率,および検出力を比較する指標と しても利用可能であることが分かった. 2. 2.1. 国際共同治験での症例数設計方法 「国際共同治験の考え方 (案) 」の見解 平成 19 年 3 月に総合機構より出された「国際共同治験の考え方 (案) 」では,国際共同治 験を実施するにあたって懸念される事項について,現時点における総合機構の見解が述べ られている.その中で特に注目すべきは,国際共同治験の症例数設計方法に関して以下の 4 つの留意点が挙げられていることである(以下,原著より抜粋).  全集団での結果を前提とした症例数の設定も可能であり,日本人の部分集団において 統計的な有意差を検出するだけの検出力を必ずしも確保する必要はない.  仮に日本人の部分集団での結果が,全集団での結果と著しく乖離している場合には, その理由を検討すべきであり,場合によっては更なる臨床試験の実施も考慮する必要 があるかもしれない.  全集団での結果と日本人集団での結果に一貫性が得られるよう計画すべきである.  症例数については,一般的に推奨できる方法は現時点で確立されておらず,実施地域 の数,試験規模,対象疾患,全体での症例数と日本人症例数とのバランス等を考慮し て決定することが必要である. 更に,国際共同治験を計画する際に全集団と日本人集団における結果の比較可能性を考慮 した症例数設計方法として,連続値応答のプラセボ対照試験を想定して,2 つの考え方が提 示されている. 方法 1 2 - 203 ー

208.

プラセボ群と治験薬群での群間差を D,その場合の全集団での群間差を Dall ,日本人集 団における群間差を Djapan とすると,Djapan / Dall > πが成立するような確率が 80%以上 となるように日本人症例数を設定する.πについては,適切な値を設定する必要がある が,一般的には 0.5 以上の値をとることが推奨される.この方法では,日本人症例数を 最小にしようとすると,全体での症例数が増加し,全体での症例数を最小にしようとす ると日本人症例数が増加するという関係が認められる. 方法 2 全集団におけるプラセボ群と治験薬群での群間差を Dall ,例えば 3 地域が試験に参加し, 各地域でのプラセボ群と治験薬群での群間差をそれぞれ D1 ,D2 ,D3 とすると,D1,D2 , D3 が全て同様の傾向にあることを示す.例えば Dall > 0 であれば,D1 ,D2 ,D3 のいずれ の値も 0 を上回る確率が 80%以上となるように症例数を設定する.この方法では,各地 域から均等に症例数を集積した場合に,確率が高くなるという傾向があり,全体の症例 数を変更することなく日本人症例数を検討することが可能である. 2.2. 方法 2 の条件を満たす症例数設計 2 群比較の国際共同治験の症例数を設計する際,治療効果に地域間差がないことを仮定し, 全地域を対象に有意水準,検出力,効果サイズを設定して 1 群あたりの例数を算出するこ とが考えられる.この状況に対して,各地域の治療効果の推定量が同じ方向となる確率を 求めることができれば,方法 2 の条件を満たしているかを確認できる.Li et al. (2007) は, それぞれの地域における各群の症例数は等しいことを仮定し,「治療効果が各地域で均一な 場合に,少なくとも1つの地域で逆転現象が観測される確率」を以下の式で示している. s  Np j    Pr at least one D j  0, 1  j  s  1      2  j 1    (1)  ここに,地域 j  j  1,  , s  での治療効果は正規分布 N  ,  2 に従うとし,地域 j の症例分配 比率と観測される効果をそれぞれ pj と Dj ,全地域を併せた 1 群あたりの症例数を N とする. したがって,各地域の症例分配比率によって,逆転現象が観測される確率は影響を受ける ことが分かる. 有意水準を両側 0.05 とし,効果サイズを 0.25 または 0.50,検出力を 80%または 90%とし たときの全地域での 1 群あたりの症例数を表 1 に示した. 表 1.全地域での 1 群あたりの症例数 効果 サイズ 0.25 0.50 検出力 80% 90% 253 338 64 86 3 - 204 ー

209.

そして,上記のように全地域での症例数が設計された 3 地域からなる国際共同治験を考え, 3 地域の症例分配比率が (0.33, 0.33, 0.33) または (0.10, 0.10, 0.80) のとき,治療効果が 3 地 域で均一な場合に少なくとも1つの地域で逆転現象が観測される確率を(1)式で求め,その 結果を表 2 に示した. 表 2.治療効果が 3 地域で均一な場合に, 少なくとも1つの地域で逆転現象が観測される確率 各地域への 症例分配比率 (0.33, 0.33, 0.33) (0.10, 0.80, 0.10) 効果サイズ 0.25 検出力 80% 90% 14.9% 8.8% 34.3% 28.2% 効果サイズ 0.50 検出力 80% 90% 14.6% 8.5% 34.0% 27.9% 各地域への症例分配比率が等しい場合(0.33, 0.33, 0.33),逆転現象が観測される確率はいず れも 20%を下回り,方法 2 の条件を満たしていた.一方で,各地域への症例分配比率が偏 っている場合(0.10, 0.80, 0.10)には 20%を超えており,与えられた症例分配比率によって は,全地域での症例数設計のみで十分な場合もあることが分かった. 3. 質的交互作用の検定 Gail and Simon (1985) および Ciminera et al. (1993) によって提案された質的交互作用の存在 を検定する方法が,Dmitrienko et al. (2005) の第 1 章で紹介されている.そこでは,それぞ れの方法の理論的な背景に加え,SAS のマクロプログラムと適用例が示され,具体的な解 析手順を分かりやすく理解できるように工夫が凝らされており,とても有用であった.以 下に,それぞれの検定方法についてまとめる. 3.1. Gail-Simon 検定 Gail and Simon (1985) は,以下のような多変量の象限に関する仮説 (multicovariate orthant hypotheses) に基づき質的交互作用の検定の問題を定式化することを提案した.ここに,層 の数を m,層 i i  1,  , m における真の治療効果,治療効果の推定量と標準誤差をそれぞれ  i , d i , si とする.真の治療効果のベクトルが,m 次元パラメータ空間の正象限に布置す る,すなわち, O   1  0, ,  m  0 であるか,負象限に布置する,すなわち, O    1  0,  , m  0 4 - 205 ー

210.

であれば,質的交互作用は存在しないと言える.Gail and Simon (1985) は,質的交互作用が ないという帰無仮説を検定するための尤度比検定について述べ,それが,   Q  min Q  , Q   c で表されることを示した.ここに, Q  および Q  は, m d i2 d i2  Q   2 I d i  0, Q   2 I di  0 i 1 si i 1 si  m で与えられ,c は適当な棄却限界値,I(·)は指示関数を表し, Q  および Q  は,それぞれ正 と負の治療効果の寄与を要約する統計量である.また,Gail and Simon (1985) は,これらの Q 統計量が,カイ 2 乗分布の加重和に基づく分布に従うことを示している.この分布を用 いて,尤度比に対する p 値を計算するために,以下の式が導かれている. m 1 p   1  Fi Q Bin i, m1 0.5 i 1 ここに, Fi  x  は自由度 i のカイ 2 乗分布の累積分布関数であり, Bini , m 1 (0.5)は成功確率を 0.5 とする m-1 回の試行で i 回成功する 2 項分布の確率関数である.この検定は,Q  と Q  の 両方が十分に大きい場合に限って,質的交互作用はないという帰無仮説が棄却されるとい う意味で,両側検定となる. また,Gail-Simon 検定は,(i) 真の治療効果がすべて正であるか否か,(ii) 真の治療効果 がすべて負であるか否か,を検定する片側検定へ容易に拡張できる.(i)の尤度比検定に対応 する p 値は, p   1  Fi Q Bin i, m 0.5 m  i 1 となる.同様に,(ii)を検定するための尤度比検定の p 値は,次式で与えられる. p   1  Fi Q Bin i, m 0.5 m  i 1 3.2. Push back 検定 Ciminera et al. (1993) は,次のような考えに基づいて,質的交互作用の検定法を説明してい る.特定の層で観測された治療効果が他の層での効果と矛盾しているか否かは,規準化し た治療効果を順序付け,適切に定義した順序統計量の分布から計算される期待値と比較し て決める.これによって,各層の治療効果が均一であるという仮定の下で,どの層が期待 値よりも極端な観測値を持つ層であるかが分かるようになる. 3.1 節と同じように, d i と si を,それぞれ層 i i  1,  , m での治療効果の推定量とその標 準誤差とする.Ciminera et al. (1993) は,以下のような手順による質的交互作用の検定を提 案した. 1. d 1 , , d m の中央値を計算し,それを m で表す.  i   d i  m si , i  1, , m を計 5 - 206 ー

211.

算し,観測された治療効果を規準化偏差 (standardized deviation) に変換する. 2. 順序付けた規準化偏差  (1)     ( m ) を考え,調整 (push back) した規準化偏差  i   (i )  ti を定義する.ただし, t1 , , t m は,正規分布もしくは t 分布に従う順序 統計量に基づく push back 調整量である. ( i )  ti の符号と  (i) の符号が異なる場合 には,  i  0 とする. 3. 元の尺度に戻した偏差 (destandardized deviation),d m*  si  i  m, i  1, , m を計算 する.そして, d 1* , , d *m の中に異なる符号のものがある場合には,それを質的交 互作用のある証拠と解釈する. Ciminera et al. (1993) は,正規分布と t 分布に基づいて push back 調整量を計算するための, いく通りかの方法について述べている.Push back 検定の検出力は, t1 , , t m が正規分布に 従う順序統計量の中央値に基づくとき,すなわち, 1  3i  1  ti    , i  1, , m  3m  1  が成り立つとき最大になる.ただし,   x  は標準正規分布の累積分布関数である.一方, t 分布の百分位点を使うと,検出力が最小になる.この場合,    Tvi 1 Bi, m1 i1   : d i  m  1 1 t i  Tvi Bi ,m i1 1    : d i  m 0:m が奇数かつ i  m  1 2 i  1, , m   である.ただし,Tvi x は自由度が v i  n1i  n 2 i  2 の t 分布の累積分布関数, Bi ,mi 1 x はパ ラメータが i と m  i  1 であるベータ分布の累積分布関数,α は事前に規定した百分位点とす る.Ciminera et al. (1993) は,α = 0.1 の使用を推奨し,この値で質的交互作用が誤って検出 される確率は 10%であることを示している. 4. 質的交互作用検定の多地域共同治験への応用 4.1. 各地域の治療効果が等しい場合 4.1.1. シミュレーションの方法 ここでは,各群の症例数が等しい 2 群比較の 3 地域からなる国際共同治験を想定した.各 地域の治療効果は共通に効果サイズが 0.25 または 0.50 である正規分布に従うとし,3 地域 の症例分配比率を (0.33, 0.33, 0.33) または (0.10, 0.10, 0.80) とした.そして,全地域での治 療効果の検定を有意水準は両側 0.05,検出力は 80%または 90%で行うことを考え,それに 対応させて全地域での症例数が設計されるものとした.このとき,全地域での 1 群あたり の症例数は表 1 のとおりであった.このように,効果サイズ,症例分配比率,検出力の異 なる 8 通りの国際共同治験それぞれで,対応する必要症例数について観測される応答を乱 数で発生させた.それらに対して,Gail-Simon 検定および Push back 検定を適用し,治療と 6 - 207 ー

212.

地域の質的交互作用の有無を検定した.Gail-Simon 検定は有意水準 0.10 で,Push back 検定 は α = 0.1 で実施した.上記の操作を 8 通りの設定それぞれで 1,000 回繰り返し,質的交互 作用があると判断された割合を評価した. 4.1.2. シミュレーションの結果 8 通りの各国際共同治験において,1,000 回の繰り返しによるシミュレーションで得られた 結果を表 3 に示した.Gail-Simon 検定では,誤って質的交互作用ありと判定してしまう確率 は 0.10 と期待されたが,8 通り全てでそれよりも低い結果であった.一方,Push back 検定 では,誤って判定してしまう確率は 3.2 節より 0.10 と期待されたが,各地域へ等しく症例 が分配されていた場合にはそれよりも低い結果であった.しかし,症例分配比率が (0.10, 0.10, 0.80) の場合には,期待された確率にほぼ等しかった.また,全般的に Push back 検定 よりも Gail-Simon 検定の方が保守的であった. 表 3.質的交互作用ありと判定された割合:各地域の治療効果が等しい場合 質的交互作用 の検定 Gail-Simon 検定 各地域への 症例分配比率 (0.33, 0.33, 0.33) (0.10, 0.10, 0.80) 効果サイズ 0.25 検出力 80% 90% 0.001 0.001 0.005 0.003 Push back 検定 (0.33, 0.33, 0.33) (0.10, 0.10, 0.80) 0.020 0.097 4.2. 治療と地域間に質的交互作用がある場合 4.2.1. シミュレーションの方法 0.016 0.078 効果サイズ 0.50 検出力 80% 90% 0.001 0.000 0.005 0.006 0.023 0.108 0.010 0.092 4.1 節では,各地域の治療効果が等しい場合を想定したため,シミュレーションで検出され た質的交互作用の割合は第Ⅰ種の過誤率と解釈できると考えられた.次に Gail-Simon 検定 と Push back 検定の検出力を評価するためには様々な質的交互作用の状況を想定する必要が あった.そこで,簡単のため,下記に示すようなτを導入することで,まずは 3 地域のう ち 2 地域の治療効果が等しく,残り 1 地域のみで治療効果の方向が異なる状況における Gail-Simon 検定と Push back 検定それぞれの検出力を評価することとした. まず,4.1 節で想定した 8 通りの国際共同治験を想定する.次に,各試験で 3 地域の治療 効果を求め,観測された効果が最も小さい地域を選択する.そして,図 1 のようにその地 域の治療効果からあるτを差し引き,Gail-Simon 検定と Push back 検定それぞれで質的交互 作用ありと判定される最小のτ (以後,min τ) を求める.8 通りの国際共同治験の設定そ れぞれで min τを求める操作を 1,000 回繰り返し,min τの分布を評価した.min τが小 さければ,他の地域と治療効果の方向が異なる大きさが小さくても質的交互作用を検出で きるので,検出力は高いと解釈できる. 7 - 208 ー

213.

各地域の治療効果 Δ/σ Δ/σ τを引く 治療効果が 最小の地域 0 0 図 1.min τの求め方 4.2.2. シミュレーションの結果 8 通りの各国際共同治験において,1,000 回の繰り返しによるシミュレーションで得られた 結果を表 4 に示した.8 通りすべてにおいて,Push back 検定の方が Gail-Simon 検定よりも min τの平均値は小さく,Push back 検定の方が検出力は高いことが示唆された.特に,Push back 検定の min τの平均値は効果サイズと似た値であったことから,方向が異なる治療効 果の大きさが小さくても質的交互作用を検出できることが示唆されたのに対し,Gail-Simon 検定で質的交互作用を検出するためにはある程度の大きさが必要であると考えられた.ま た,Gail-Simon 検定では各地域の症例数に偏りがある場合に比べ,均一であるほうが min τ の平均値は小さく,各地域の症例数は等しい方が検出力は高いと解釈された.一方,Push back 検定では症例分配比率による影響は見受けられなかった. 表 4.min τの分布 効果サイズ 0.25 質的交互作用 各地域への 検出力 の検定 症例分配比率 80% 90% Gail-Simon 検定 (0.33, 0.33, 0.33) 0.433 (0.114) 0.413 (0.100) 0.00 - 0.78 0.00 - 0.69 (0.10, 0.10, 0.80) 0.511 (0.179) 0.479 (0.155) 0.00 - 1.12 0.00 - 0.92 効果サイズ 0.50 検出力 80% 90% 0.851 (0.234) 0.806 (0.204) 0.00 - 1.52 0.07 – 1.38 0.995 (0.379) 0.932 (0.343) 0.00 - 2.12 0.00 – 2.12 Push back 検定 0.505 (0.224) 0.503 (0.199) 0.00 - 1.20 0.00 – 1.09 0.459 (0.291) 0.460 (0.274) 0.00 - 1.35 0.00 – 1.45 (0.33, 0.33, 0.33) 0.256 (0.111) 0.259 (0.098) 0.00 - 0.61 0.00 - 0.54 (0.10, 0.10, 0.80) 0.233 (0.144) 0.234 (0.129) 0.00 - 0.69 0.00 - 0.62 表中の値は,上段:平均値 (標準偏差),下段:最小値 - 最大値を示す. 4.3. 確認 前節までで,Gail-Simon 検定と Push back 検定の違いが示唆された.ここでは,特に具体的 な検出力を評価するため,正規分布に従う各地域の効果サイズが 0.5 で一定としたときに必 要な全地域の 1 群あたりの症例数 64 例とする 3 地域からなる国際共同治験を想定した.こ 8 - 209 ー

214.

こに,各地域の症例分配比率を (0.33, 0.33, 0.33) と等しくおき,1 地域の効果サイズを-0.5, -0.25, -0.125, 0.0, 0.125, 0.25, 0.5 と変化させ,残りの 2 地域の効果サイズを 0.5 に固定した. この下で観測される応答を乱数で発生させ,Gail-Simon 検定および Push back 検定を適用し, 治療と地域の質的交互作用の有無を検定した.Gail-Simon 検定は有意水準 0.10 で,Push back 検定はα = 0.1 で実施した.上記の操作を 7 通りの設定それぞれで 1,000 回繰り返し,質的 交互作用があると判断された割合を評価した. また,少なくとも 1 つの地域で治療効果の 逆転が観測された割合も評価した. その結果を表 5 に示した.Gail-Simon 検定よりも Push back 検定の方が検出力は高いこと が確かめられ,min τを用いた評価の妥当性を確認できた.また,少なくとも 1 つの地域 で逆転現象が観測されたケースのうち,Push back 検定で質的交互作用を検出できた割合は 60〜80%ぐらいであった.1 地域の効果サイズが負になる状況 (-0.125,-0.25,-0.5) での検出 力は,いずれの検定方法においても高くなく,min τの導入で Gail-Simon 検定より検出力 が高いと予想された Push back 検定でさえ,他地域の効果サイズと正負が大きく逆転してい る状況で検出力は 80%程度であった.一方で,1 地域の効果サイズが 0.0, 0.125, 0.25 である 場合は,質的交互作用でなく量的交互作用がある状況に対応するが,Gail-Simon 検定では有 意水準を保てているのに対し,Push back 検定では誤って質的交互作用が検出される割合が 10%を超える場合があった. それぞれの状況に対して min τの分布を求めた.その結果を表 6 に示す.min τの平均 値は,どの状況においても Gail-Simon 検定より Push back 検定のほうで小さかった.1 地域 の効果サイズを小さくするに従い,すなわち質的交互作用の生じる確率が上がるにつれ, どちらの検定方法においても min τは小さくなることがわかった. 表 5.少なくとも 1 つの地域で逆転現象が観測された割合と, Gail-Simon 検定および Push back 検定で質的交互作用ありと判定された割合 各地域の効果サイズ (0.5, 0.5, 0.5) (0.25, 0.5, 0.5) (0.125, 0.5, 0.5) (0.0, 0.5, 0.5) (-0.125, 0.5, 0.5) (-0.25, 0.5, 0.5) (-0.5, 0.5, 0.5) 逆転現象(>=1 地域) 0.148 0.317 0.408 0.529 0.695 0.811 0.959 9 - 210 ー Gail-Simon 検定 0.000 0.003 0.015 0.018 0.065 0.147 0.366 Push back 検定 0.023 0.074 0.145 0.229 0.403 0.531 0.803

215.

表 6.min τの分布 各地域の効果サイズ Gail-Simon 検定 Push back 検定 (0.5, 0.5, 0.5) 1.109(0.313) 0.725 (0.325) 0.27-2.00 0.00-1.59 (0.25, 0.5, 0.5) 0.833(0.308) 0.465(0.297) 0.00-1.96 0.00-1.59 (0.125, 0.5, 0.5) 0.718(0.306) 0.368(0.273) 0.00-1.69 0.00-1.36 (0, 0.5, 0.5) 0.611(0.292) 0.275(0.246) 0.00-1.68 0.00-1.27 (-0.125, 0.5, 0.5) 0.476(0.293) 0.178(0.218) 0.00-1.48 0.00-1.10 (-0.25, 0.5, 0.5) 0.381(0.290) 0.124(0.185) 0.00-1.39 0.00-1.02 0.186(0.217) 0.034(0.095) 0.00-1.26 0.00-0.85 (-0.5, 0.5, 0.5) 表中の値は,上段:平均値 (標準偏差),下段:最小値 - 最大値を示す. 5. まとめ Dmitrienko et al. (2005)によると,質的交互作用の検定法である Gail-Simon 検定と Push back 検定を正式に比較している文献は公表されていないとのことである.最近,国際共同 治験への関心が高まり,治療と地域間の量的あるいは質的交互作用の評価に注目が集まっ てきている.しかし,現在,国際共同治験に関する話題の中で活発に議論されているのは, 症例数設計についてであり,まだ試験結果の解釈まで十分な議論がなされていないと考え られた. そこで今回,国際共同治験において Gail-Simon 検定と Push back 検定を適用し, 治療と地域間の質的交互作用の評価を行うことの妥当性をシミュレーションにより検討し た. 各地域の効果サイズが均一な状況の下で,誤って質的交互作用があると判定される確率は Gail-Simon 検定より Push back 検定のほうが高かったが,最大でも,期待される確率以下と 考えられた.また,質的交互作用がある状況の下では, Push back 検定の方が Gail-Simon 検定より検出力は高い傾向にあることが認められた.一方,量的交互作用がある状況の下 では,Gail-Simon 検定は有意水準を保てていたが,Push back 検定では誤って質的交互作用 があると判定してしまう確率が期待より高くなっていた. min τは,1 つの地域で治療効果がどれくらい小さくなれば質的交互作用を検出できるか を定量的に示すことから,質的交互作用の程度(質的交互作用の起こりやすさ)を示すと 考えられる.しかしながら,min τは検出力の低い質的交互作用の検定に依存して決まる 量であるため,大きめに算出されていると考えられる.より検出力の高い検定法を利用す れば,更に小さい min τが観測されると予想される.また,min τは治療効果と同一の単 位を持つため,全地域を併合した試験全体での治療効果 Dall で割ることにより基準化すれば, 10 - 211 ー

216.

より一般的な許容基準として新たな質的交互作用の検定法の開発や,多地域共同治験では 質的交互作用を加味した例数設計への利用が期待される. 参考文献 [1] Alex Dmitrienko, Geert Molenberghs, Christy Chuang-Stein, Walter Offen. (2005). Analys is of Clinical Trials Us ing SAS: A Practical Guide. SAS Institute Inc. [2] Gail,M. and Simon,R. (1985). Testing for qualitative interactions between treatment effects and patient subsets. Biometrics, 41, 361-372. [3] Ciminera,J.L., Heyse,J.F., Nguyen,H.H. and Tukey,J.W. (1993). Tests for qualitative treatment-by-center interaction using a ‘Pushback’ procedures. Statistics in Medicine, 12, 1033-1045. [4] Zhengqing Li, Christy Chuang-Stain, Cyrus Hoseymi. (2007). The probability of observing negative subgroup results when the treatment effect is positive and homogeneous across all subgroups. Drug Information Journal, 41, 47-56. [5] 独立行政法人 医薬品医療機器総合機構. (2007). 国際共同治験に関する基本的考え方 (案)について (平成 19 年 3 月). 11 - 212 ー

217.

MMRM 解析と LOCF 解析の比較 1 ○馬場裕子 1 ,落合俊充 1 ,山田忠明 1 ,田崎武信 ,森川馨 塩野義製薬株式会社 解析センター 2 1 国立医薬品食品衛生研究所 安全情報部 2 Comparison of performance between MMRM and LOCF analysis 1 1 1 1 2 Yuko Baba , Toshimitsu Ochiai , Tadaaki Yamada , Takenobu Tasaki and Kaoru Morikawa Biostatistics Dept., Shionogi & Co., LTD. 1 Division of Safety Information on Drug, Food and Chemicals, National Institute of Health Sciences 2 要旨 欠測を伴う経時データの解析方法として,LOCF による最終時点でのt検定(LOCF 解析) が代表的である.しかし,LOCF 解析は推定値にバイアスが入るため,問題であることも 知られている.その代替法として欠測補完をしない経時反復の混合効果モデルに基づく最 終時点での解析(MMRM 解析)が考えられる.そこで,LOCF 解析と MMRM 解析の性 能をシミュレーションにより比較した.別に,MMRM 解析を主に臨床試験をデザインす るとき,症例数の設定において,前相試験の成績を用いてシミュレーションを行うことが 考えられる.このとき,前相試験の成績からコアの情報を抽出し,想定値を見積もる方法 について考察した. キーワード:LOCF,MMRM,ユークリッドノルム 1 はじめに 主要評価項目が所与の投与期間を通して経時的に観測される臨床試験において,ベース ラインから最終時点までの変化量を主要変数とする場合を考える.被験者を一定期間追跡 する試験では,試験からの脱落等により,最終時点での主要評価項目が欠測となることが ある.主解析(最終時点における変化量の群間比較)で脱落例を解析対象から除けば,検 出力低下の原因ともなり,ITT の原則にも反する.脱落例も解析対象に含めるためには, 脱落例の最終時点の値を補完する必要がある.その代表的な手法は,LOCF(Last Observation Carried Forward)であろう.LOCF を用いたt検定に基づく解析(以降,LOCF 解析と記載 する)は,簡便でもあるため臨床試験で広く用いられている.しかし,LOCF は,主要評 価項目の値が脱落後も一定であると仮定できる場合のみ妥当と考えられるため,多くの状 況では,LOCF 解析は推定値にバイアスが入り問題であることも知られている[1].欠測値に 対処する別の方法として,欠測補完をしない経時反復の混合モデル(Mixed Model Repeated 1 - 213 ー

218.

[2] Measures)に基づく解析(以降,MMRM 解析と記載する)が考えられる .欠測メカニズ ムが MAR(Missing At Random)あるいは MCAR(Missing Completely At Random)であれば, [3] この解析では欠測値を意識せずに尤度が立てられる ため,LOCF 解析に比べて欠測値の影 響が緩和される.本稿では,推定値のバイアス,検出力,第 1 種の過誤の各観点から,LOCF 解析と MMRM 解析の性能をシミュレーションにより評価する.また,主要評価項目の時 点間の相関が解析結果に与える影響についても検討する.なお,SAS による不完全データ [4] の解析に関する最新のテキストとして Dmitrienko et al. (2005)の第 5 章 がある. 別に,臨床試験を計画する際には,関心のあるパラメータの推定値やそのバラツキの情 報が必要となる.そして,MMRM 解析を主解析とするような場合は,シミュレーション により必要症例数の検討を行うことが考えられる.そのシミュレーションで用いる想定値 は,前相の試験成績に基づいて決めることになるが,そのデータには,欠測値の影響等に よりその試験特有のノイズが混入している可能性がある.このため,前相の試験成績をそ のまま用いるのではなく,ノイズを取り除いた後に,次試験の計画に用いるほうがよいか もしれない.ここでは,経時的に観測される変数の分散共分散行列の推定に着目し,前相 の試験成績からコアとなる情報を抽出する方法について考察を加える. 2 MMRM 解析 群 i (i  A, B) の症例 j ( j  1,  , n ) における主要評価項目のベースライン(時点 0)か ら時点 k (k  1, , p ) までの変化量を y ijk とする.このとき,以下の混合モデルを考え る. y ijk    Groupi  Time k  Groupi  Timek   ijk . (1) ただし,  は全平均, Groupi は群 i に対する固定効果, Time k は時点 k に対する固定 効果, ijk は平均 0,分散 k の正規分布に従う誤差とする.SAS の Mixed プロシジャで 2 は,以下のプログラムを実行することによってモデル(1)をあてはめることができる.な お,誤差の共分散構造を Unstructured とした場合のものである. PROC MIXED DATA=DATASET; CLASS GROUP TIME ID ; MODEL Y = GROUP TIME GROUP*TIME REPEATED TIME / SUB=ID RUN; 2 - 214 ー TYPE=UN ; ;

219.

3 LOCF 解析と MMRM 解析の比較 3-1 シミュレーションで想定したデータ 欠測値を含む経時データの解析において,LOCF 解析と MMRM 解析の性能をシミュ レーションにより評価する.ここでは,ベースライン(時点 0)から最終時点(時点 4)まで の計 5 時点で主要評価項目が観測される状況を想定し,最終時点での変化量を 2 群間で 比較することを考える.いま,時点 1 から時点 4 までの各群の変化量の平均値と分散を それぞれ表 1,表 2 とする. 表 1.各時点における群ごとの平均値及び群間差 群 時点 1 時点 2 時点 3 時点 4 A群 0.5 1.0 2.0 3.0 B群 0.8 1.5 3.0 4.5 群間差 0.3 0.5 1.0 1.5 表 2.各時点における両群に共通の分散 時点 1 時点 2 時点 3 時点 4 0.16 0.64 1.69 4.00 また,時点間の相関の強さが解析結果に与える影響を検討するために,誤差の相関構 造として次の 3 通り(相関が弱い: R1 ,中間: R2 ,強い: R 3 )を仮定する. 0.30 0.25 0.20  0.60 0.55 0.50  0.90 0.85 0.80   1  1  1       1 0 .30 0 .25  1 0 .60 0.55  1 0.90 0.85   0 .90  0.60  0.30 R1   ,R  ,R  0.25 0.30 1 0.30  2  0.55 0.60 1 0.60  3  0.85 0.90 1 0.90        1  1  1   0 .80 0 .85 0.90  0.50 0.55 0 .60  0.20 0.25 0 .30 このとき,相関行列 R1 , R 2 , R 3 と表 2 の各時点における分散から求めた分散共分散行列を それぞれ Σ 1 , Σ 2 , Σ 3 とする. 3-2 シミュレーション手順 3 通りの分散共分散行列 Σ 1 , Σ 2 , Σ 3 についてそれぞれ以下のシミュレーションを行 う.なお,以降のシミュレーションでは,SAS V9 を用いた. ① 完備データを作成する. 想定した平均ベクトル及び分散共分散行列をもとに,4 変量正規乱数を 1 群あた り n 例( n =30,40)発生させる.そこに,すべての症例に対し,ベースライン における変化量 0 を付加する.これらの値を完備な経時データとみなす.なお, 最終時点での変化量の平均の群間差が 1.5,変化量の分散が 4.0 の仮定のもとで, 1 群 30 例あるいは 40 例集積するときの t 検定の検出力は,それぞれ 81.5%,91.2% 3 - 215 ー

220.

である. ② 欠測データを作成する. 生成した完備データに欠測を発生させ,欠測値を含む経時データを生成する. 1) 時点 t (t  1,・・・,4) における観測値を Yt とする.このとき,時点 t で欠測とな る確率 pt を logit ( pt )  2  2.8Yt 1 とおく.ここで,係数-2 及び-2.8 は,最終時点での欠測率が 20%程度となる ように設定した.ただし,両群に共通の方式で欠測を発生させるため,観測 値が全体的に低い A 群の欠測率の方が B 群より多少高くなる.なお,このよ うに発生させた欠測値のメカニズムは,MAR(Missing At Random)に相当 する[5].MAR は,欠測が未観測値に依存しないことを意味し,いまの場合で は直前の観測値のみに依存している. 2) 1)で求めた確率 pt を用いて二項乱数を発生させ,その値が 1 であれば時点 t で 欠測とする. 3) 時点 t で欠測となれば,時点 t 以降すべての時点で欠測とする. ③ LOCF 解析と MMRM 解析を行う. 欠測データに,LOCF 解析または MMRM 解析を適用する.ここでは,最終時点 (時点 4)での変化量の群間比較に着目する.なお,MMRM 解析では,共分散構 造に Unstructured(以降,UN と記載する)と First-Order Autoregressive(以降,AR と記載 する)のそれぞれを指定する. ④ LOCF 解析と MMRM 解析の性能の比較を行う. ①から③を 5000 回繰り返す.ここでは,検出力,推定値のバイアスの点から 2 つの解析方法を相対評価する. 1) 経験検出力を求める. 各解析方法を適用したときの経験検出力を求める.ただし,有意水準は両側 0.05 とする.具体的には,5000 組のシミュレーションデータに対して,上記の 解析方法を適用して p 値が 0.05 より小さくなる割合を求める. 2) バイアスを求める. 各解析方法を適用したときの最終時点での平均値及び分散の推定値をそれぞ れ μˆ  ( ˆ A , ˆ B ) t , ˆ 2 とする.そして,推定値と真値( μ t  (  A ,  B )  (3.0,4.5) ,  2  4.0 )との差を求める.つまり,平均値のバイアス E ( ˆ A )   A , E ( ˆ B )   B と,分散のバイアス E (ˆ 2 )   2 をそれぞれ求める. 4 - 216 ー

221.

3-3 シミュレーション結果 前節のシミュレーションより求めた経験検出力,平均値及び分散のバイアスをそれ ぞれ表 3,表 4 及び表 5 に示した.また,両群の平均値が等しい,つまり各時点の変 化量の平均値に群間で差がないことを想定して第 1 種の過誤を求めた結果を表 6 に示 した. MMRM(TYPE=UN)を適用した場合,経験検出力は,時点間の相関の強さによ って,症例数が 30 例の場合で(弱,中,強)=(72.3%,73.5%,75.5%),症例数が 40 例の場合で(弱,中,強)=(83.5%,84.8%,86.5%)となった.このことから,MMRM (TYPE=UN)では,相関が強くなるにつれて,検出力が高くなることが示唆された. 一方,LOCF 解析を適用した場合,症例数が 30 例の場合で(弱,中,強)=(65.2%, 61.6%,58.9%),症例数が 40 例の場合で(弱,中,強)=(77.8%,74.9%,72.8%)であっ た.相関が強くなるにつれて,検出力が低くなった. また,LOCF 解析及び MMRM (TYPE=UN)解析を適用した場合の第 1 種の過誤は, 共に 5%程度であった. バイアスについて,LOCF 解析の場合,相関が強くなるにつれてバイアスは小さく なったが,全体的に MMRM(TYPE=UN)解析を適用した場合と比べて大きかった. このことから,相関の強さに関わりなく,推定精度は LOCF 解析に比べ MMRM 解析 の方が良いと判断した.欠測メカニズムが MAR のとき,尤度に基づく MMRM 解析 は妥当な解析手法であることが,このシミュレーション結果から確認された. 欠測データに MMRM(TYPE=AR)解析を適用した場合,検出力は MMRM(TYPE =UN)解析のときより高くなったが,第 1 種の過誤も 5%をはるかに越えた.表 5 よ り,MMRM(TYPE=AR)解析での分散のバイアスが負の方向に大きかったことから, この原因として分散の過小推定の影響が考えられた.本シミュレーションで仮定した 共分散構造は無構造であるため,この結果は,共分散構造の誤指定による影響とも考 えられた. 表 3.解析方法別の経験検出力 標本サイズ 相関 60(1 群あたり 30) LOCF 解析 80(1 群あたり 40) MMRM 解析 UN AR LOCF MMRM 解析 解析 UN AR 弱 65.2% 72.3% 89.7% 77.8% 83.5% 95.3% 中 61.6% 73.5% 89.5% 74.9% 84.8% 95.1% 強 58.9% 75.5% 89.4% 72.8% 86.5% 95.3% 5 - 217 ー

222.

表 4.解析方法別の平均値のバイアス(真値:A 群で 3.0,B 群で 4.5) 標本サイズ 中 強 80(1 群あたり 40) LOCF 解析 MMRM 解析 LOCF MMRM 解析 UN AR 解析 UN A群 -0.626 -0.001 0.067 -0.624 0.004 0.071 B群 -0.683 -0.006 0.020 -0.682 -0.007 0.019 A群 -0.531 -0.003 0.131 -0.529 0.004 0.137 B群 -0.646 -0.005 0.049 -0.644 -0.006 0.048 A群 -0.445 -0.004 0.174 -0.446 0.001 0.178 B群 -0.610 -0.003 0.071 -0.608 -0.004 0.070 相関 弱 60(1 群あたり 30) 群 AR 表 5.解析方法別の分散のバイアス(真値:4.0) 標本サイズ 相関 60(1 群あたり 30) 80(1 群あたり 40) LOCF MMRM 解析 LOCF MMRM 解析 解析 UN AR 解析 UN AR 弱 1.446 0.025 -1.435 1.445 0.024 -1.449 中 1.384 0.028 -1.371 1.386 0.028 -1.383 強 1.242 0.025 -1.174 1.243 0.029 -1.189 表 6.解析方法別の第 1 種の過誤 標本サイズ 相関 4 60(1 群あたり 30) 80(1 群あたり 40) LOCF MMRM 解析 LOCF MMRM 解析 解析 UN 解析 UN AR AR 弱 5.0% 5.1% 22.5% 5.1% 5.0% 21.6% 中 5.1% 4.7% 22.0% 5.3% 4.9% 20.8% 強 5.0% 4.8% 19.8% 5.2% 4.9% 19.2% コア情報の抽出 4-1 想定値の設定におけるコア情報の抽出方法 臨床試験において MMRM 解析を主解析とするとき,上述のようなシミュレーション により次試験の必要症例数を検討することが考えられる.このときのシミュレーション での想定値は,多くの場合,前相試験の成績をもとに設定すると思われる.しかし,前 相試験のデータから算出した平均値や分散共分散行列をそのまま用いては,前相試験の データに依存しすぎるため,例えば,欠測による影響等によるその試験特有のノイズを 含めてしまう事が懸念される.そこで,前相試験からコアとなる情報を抽出し,想定値 6 - 218 ー

223.

として用いる方法を考察した.具体的に, p 個の観測時点からなる経時データを考え, その平均ベクトル及び分散共分散行列をそれぞれ μ, Σ とする.ここで,分散共分散行列 Σ をもとに作成した完備データに欠測を発生させ,これを前相試験のデータとみなす. そして,この欠測値を含むデータから分散共分散行列 Σ pre が得られたとする.本節では, このような想定のもとで,分散共分散行列のコアとなる情報 Σ を抽出する 2 つの方法を 検討し,前相試験の成績をそのまま,すなわち Σ pre を用いた場合(方法 1 と記載する) とで,想定値として用いる分散共分散行列の適切性を比較する.検討するコア情報の抽 出方法として,分散共分散行列の主成分近似を用いた方法(方法 2 と記載する),相関行 列の主成分近似と分散の平滑化を用いた方法(方法 3 と記載する)を以下に示す. 4-1-1. 分散共分散行列の主成分近似:方法 2 ① Σ pre の 固 有 値 ,固 有 ベク ト ルを 求 め る. こ のと き , 固有 値 を大 き い順 に , λ1,・・・,λp とし,その固有値に対する固有ベクトルを a1,・・・, a p とする. ② 固有値の累積寄与率が 0.98 以上となる固有値及び固有ベクトルを用いて,新たな p k 行列 A を求める.つまり,  i i 1    0.98 となる k ( k  1,・・・,p ) に対し, i A  1a1a1  ・・・  k a k a k  とする. i 1 ③ ランク落ちを避けるため, cI ( c :定数)を加えた Σ core  A  cI を抽出された分散共分散行列とする.このとき c は恣意的に設定する. 4-1-2. 相関行列の主成分近似と分散の平滑化:方法 3 ① Σ pre の相関行列を R pre とし,各時点の標準偏差を st とおく. ② R pre に対して,4-1-1 節と同様に主成分近似した行列 A を求める.  r11  A r  1p   r1 p    r pp  とする. ③ 標準偏差 st (t  1, , p ) に 3 次スプライン関数を当てはめ平滑化を行う.ここで求 めた新たな標準偏差を ŝt とする. ④ ②と③で求めた A と ŝt (t  1, , p ) から想定値 Σ core を求める.つまり,  sˆ1sˆ1r11  Σ core     sˆ sˆ r  p 1 p1 sˆ1 sˆ p r1 p    sˆ p sˆ p r pp  とする. 7 - 219 ー

224.

4-2 シミュレーション手順 コア情報の抽出方法の妥当性の検討にあたり,表 2 に示した各時点の分散と 3-1 節で 示した相関行列 R2 から求まる分散共分散行列 Σ を真の情報と仮定する.このとき,以下の シミュレーションにより,コア情報を抽出する方法の適切性を相対評価する. ① 表 1 の平均ベクトル及び分散共分散行列 Σ をもとに,4 変量正規乱数を 1 群あたり n 例( n =50)発生させる.これらの値を完備な経時データとみなす. ② 欠測を発生させる.この欠測値を含むデータを前相試験のデータとみなす.なお,欠 測の発生の手順は 3-2 節の②と同様に行う. ③ 抽出方法ごとに分散共分散行列 Σ 1 , Σ 2 , Σ 3 を推定する.な お,方法 2 では , c  0.005 とする. ④ ③で求めた それぞれの分散共分散行列 Σ core ( Σ core  Σ 1 , Σ 2 , Σ 3 ) について ,真の 分散共分散行列 Σ との類似性を検討する.ここで,類似性の指標には,距離を測る指 標であるユークリッドノルムを用いる.具体的には,抽出した分散共分散行列 Σ core と真 の分散共分散行列 Σ から ,それぞれ相関行列 R core , R 及び各時点における分散の ベクトル V core ,V を算出する.そして,相関行列 R core と R の差のユークリッドノルム d R  d ( Σ core , Σ )  Σ core  Σ と,各時点における分散のベクトル V core と V の差のユークリッドノルム d V  d (Vcore ,V )  Vcore  V をそれぞれ求める.なお,  d11   D  d  p1 d1 p   , d pp  としたときユークリッドノルムは, d D  p d i , j 1 2 ij  tr ( D t  D ) で表される.つまり,分散共分散行列を相関行列と分散ベクトルに分けて,それぞれ のユークリッドノルムにより,分散共分散行列の類似性を比較する. d R 及び d V が 0 に 近い程,分散共分散が類似していると判断する. ⑤ ①から④を 1000 回繰り返す. ⑥ ユークリッドノルム d R 及び d V のそれぞれの分布を調べる. 8 - 220 ー

225.

4-3 シミュレーション結果 前節のシミュレーション手順に基づいて求めたユークリッドノルム d R 及び d V の要約統 計量(平均値,標準偏差,中央値,四分位範囲)を抽出方法別に表 7 に示す.また,抽出方 法別に d R 及び d V のヒストグラムを図 1 及び図 2 に示す. まず,相関行列の類似性では,相関行列の主成分近似を行う方法 3 でのノルムの平均 値は 0.140 であり,前相試験のデータそのままの分散共分散を用いる方法 1 でのノルムの 平均値 0.168 と比べ少し小さくなった.一方,分散の類似性では,方法 1 と方法 3 でのノル ムの平均値はそれぞれ 0.583,0.670 であった.方法 2 も含め,これら 3 つの方法でのノル ムの平均値に大きな違いはなかったと言える.以上のことから,今回考察した分散共分 散の 2 つの推定方法の有用性はあまりうかがえなかった.しかし,ノルムの標準偏差に ついては,そのままの分散共分散を用いるよりは,主成分近似を行ったほうが,相関行 列及び分散でともに小さくなった.これらの値もあまり大きな違いではないが,近似す ることで多少バラツキを抑えることができるのかもしれない. 表 7.相関行列及び分散のノルムの要約統計量 d V :分散 d R :相関行列 方法 平均値 標準偏差 中央値 四分位範囲 平均値 標準偏差 中央値 四分位範囲 1 0.168 0.097 0.143 0.128 0.583 0.401 0.479 0.510 2 0.198 0.071 0.192 0.097 0.583 0.400 0.479 0.512 3 0.140 0.044 0.139 0.044 0.670 0.315 0.572 0.367 方法 1 方法 2 図 1.相関行列の差のユークリッドノルム d R の分布 9 - 221 ー 方法 3

226.

方法 1 方法 2 方法 3 図 2.分散の差のユークリッドノルム d V の分布 5 まとめ 欠測を伴う経時データにおける最終時点の 2 群比較の方法として,MMRM 解析と LOCF 解析の性能を比較した.本稿では特に,時点間の相関の違いに注目し,1群あた りの症例数を 30,40 例として 2 つの解析方法の比較を行った.シミュレーションにより 経験検出力を求めた結果,MMRM 解析では,相関が強くなるにつれて検出力は高くな った.一方,LOCF 解析を適用した場合,相関が強くなるにつれて,検出力が低くなっ た.また,時点間の相関の強さに関わりなく,LOCF 解析より MMRM 解析を適用した 方が検出力は高くなることが示唆された.推定値のバイアスの点では,MMRM 解析を 適用した場合,相関の違いによるバイアスの変化は見て取れず,バイアスは常に小さな 値であった.一方,LOCF 解析を適用した場合,相関が強くなるにつれて,バイアスは 小さくなった.全体的に LOCF 解析では MMRM 解析よりバイアスが大きく,推定精度 の点からも MMRM 解析が妥当と思われた. ただし,MMRM 解析では共分散構造の指定に注意する必要があった.今回のシミュ レーションでの想定値の共分散構造は無構造であったが,Autoregressive(1)と誤指定した場 合,分散が過小推定されていることが伺えた.そのため,検出力及び第 1 種の過誤が膨張した. 次に,前相試験の成績から主要変数の分散共分散行列を見積もる方法について検討した . 例えば,前相試験で欠測値等の影響を受けていると,データから求めた分散共分散行列は,前 相試験特有のノイズを含んでいることになり,不適切でないかと考えたからである.本稿では,前 相試験に依存しすぎないように,データから求めた分散共分散行列の主成分近似を行うこと で,分散共分散行列のコア情報を抽出することができないかを検討した.真の分散共分 散行列と新たに見積もった分散共分散行列の類似性を評価するための指標として,相関 行列と分散にわけて,それぞれの差のノルムを用いた.ノルムの平均値は,相関行列で は相関行列の主成分近似を行う抽出方法を適用したほうが小さくなり,分散ではそのま まの値を用いたほうが小さくなった.しかし,これらの値に大きな差はなかった.また, 今回用いた指標が,分散共分散行列の類似性を十分に評価できているかについても疑問 が残り,それらも含めさらに検討する必要があると考えられる. 10 - 222 ー

227.

参考文献 [1] 渡辺秀章・田崎武信(2006).臨床評価における統計上の論点:欠測値の諸問題.計量生物学.27 巻特別号, S33−S44. [2] Mallinckrodt, C.H., Kaiser, C.J., Watkin, J.G., Molenberghs, G. and Carroll, R.J.(2004).The effect of correlation structure on treatment contrasts estimated fro m incomp lete clinical trial data with likelihood-based repeated measures compared with last observation carried fo rward ANOVA .Clinical Trials,1,477-489. [3] 松山裕・山口拓洋編訳(2001).医学統計のための線形混合モデル-SAS によるアプローチ-.サイエ ンティスト社[Verbeke, G. and Molenberghs, G.(1997). Linear M ixed Models in Practice: A SAS Oriented Approach. Springer-Verlag ]. [4] Dmitrienko, A., Molenberghs, G., Chuang-Stein, C. and Offen, W. (2005). Analysis of Clin ical Trials using SAS: A pract ical gu ide. SAS Institute Inc. Cary, NC, USA. [5] Fit zmaurice, G. M., Laird, N.M . and Ware, J. H. (2004). Applied Longitudinal Analysis, Wiley. 11 - 223 ー

228.

Co-primary endpointsに対する多重性の調整 1 1 1 ○山田忠明 ,北西由武 ,田崎武信 ,森川馨 塩野義製薬株式会社 解析センター 2 1 国立医薬品食品衛生研究所 安全情報部 2 Multiplicity adjustment for co-primary endpoints 1 1 1 2 Tadaaki Yamada , Yoshitake Kitanishi , Takenobu Tasaki , Kaoru Morikawa Biostatistics Dept., Shionogi & Co., LTD. 1 Division of Safety Information on Drug, Food and Chemicals, National Institute of Health Sciences 2 要旨 臨床試験において,興味ある検定が 1 つに限られることはまずない.複数の検定は必然で あり,検定の多重性が問題になる.何らかの優先順序がプロトコルで規定されると,その 順序と多重性の調整を調和させる必要がある.これらの問題に対する最新の SAS テキスト として Dmitrienko et al.(2005)の第 2 章がある.その特徴は,個別の検定における生のp値を 出発点とする方法に注目していること,さらに閉検定手順の原理を全面に出していること である.この章のレビューを踏まえたうえで,私たちが実際に直面した,相関をもつ co-primary endpoints の問題で,多重性を調整するために考えた一つのアプローチを紹介する. キーワード:多重比較,多重エンドポイント,Bonferroni 法,閉検定手順 1.Bonferroni の多重調整 Dmitrienko et al.(2005)の第 2 章は Bonferroni 法から出発している.それは個々の検定結果と しての生の p 値を調整する方法であり,Bonferroni の不等式を基礎にする.いま, E i が真で   ある確率を P ( E i ) とする.このとき,E1 ,  , E k の少なくとも 1 つが真である確率 P i 1 E i に k ついて次の不等式(1)が成り立つ.   k P i 1 E i   P (E i ) k (1) i 1 帰無仮説族を {H 1 ,  , H k } , E i を正しい帰無仮説 H i が誤って棄却される事象と考えれば,   (1)式の左辺 P i 1 E i は正しい帰無仮説のうち少なくとも 1 つが誤って棄却されてしまう n 確率,すなわち族単位での第 1 種の過誤である. P ( E i )   / k とすれば,(1)式は 1 - 224 ー

229.

  k k i 1 i 1 P i 1 E i   P (E i )    / k   k となる.つまり,族単位での第 1 種の過誤を 以下として,k 個の仮説の検定を行う場合に は,個々の検定の有意水準を  / k と調整すればよい. 2.Dmitrienko et al.(2005)の第 2 章のレビュー 多重比較のテキストとして,Dmitrienko et al.(2005) の Analysis of Clinical Trial Using SAS の 第 2 章が新しい.その前半では多重比較,後半では多重エンドポイントが議論されている. 2.1 閉検定手順と判定行列 多重性を調整する一般原理の 1 つに閉検定手順がある.閉検定手順では,ある要素仮説が 棄却されるためには,それ自身が水準αで棄却されるだけでなく,それを含意する他のす べての帰無 仮説もそ れぞれ 水準αで 棄却され ていなけ ればな らない. ここで, H 12  H 1  H 2 は H 1 と H 2 を含意している.すなわち, H 12 であれば H 1 である.3 つの要素 仮説 H 1 , H 2 , H 3 から成るすべての積仮説は H 12 , H 13 , H 23 , H 123 である.ただし,H 12  H 1  H 2 , H 13  H 1  H 3 , H 23  H 2  H 3 ,H 123  H 1  H 2  H 3 で ある.要素仮説とそれらのすべての積仮説からなる集合 {H 1 , H 2 , H 3 , H 12 , H 13 , H 23 , H 123 } を 閉じた族と呼ぶ.このとき仮説 H i ( i  1, 2,3) を含意するすべての仮説および H i のそれぞれを 比較あたりの有意水準  で検定する.閉検定手順を用いると,族全体の第 1 種の過誤を比 較あたりの有意水準  で制御できる.3 つの要素仮説 H 1 , H 2 , H 3 についての含意関係を図 1 に示す. 閉検定手順を実行するために,表 1 のような判定行列が便利である.判定行列の各行は 閉じた族内の要素仮説あるいは積仮説に対応している.2 列目にはそれぞれの仮説に対する p 値の計算式を表示している.表右側の 3 列は、積仮説に含意される仮説が示されている. そして,2 列目に示した積仮説の p 値を,含意される仮説の列に配置する.含意されない仮 説の p 値は 0 とする.元の要素仮説の調整 p 値は,その仮説とその仮説を含意する積仮説 に対する p 値のうち最大のものに等しい.つまり, H 1 , H 2 , H 3 の調整 p 値をそれぞれ ~ p ,~ p , ~p とすると, 1 2 3 ~ p1  max{ p123 , p12 , p13 , p1 } ~ p  max{ p , p , p , p } 2 123 12 23 2 ~ p 3  max{ p123 , p13 , p23 , p3 } と な る. ~ p1 , ~ p 2 , ~p3 の そ れ ぞ れ を 有 意 水 準  と 比 較 す る . こ こ で , p m は 各 仮 説 H m ( m {1, 2,12,13,23,123}) に対する p 値であるが, H 12 のような積仮説については多重調整 が必要である.表 1 での多重調整は Holm の方法による. 2 - 225 ー

230.

図 1.含意関係(たとえば H 123  H 12 は H 123 が H 12 を含意していることを表す) 表 1.判定行列 積仮説 p123  3 min  p1 , p2 , p 3  H 123 p12  2 min  p1 , p 2  H 12 p13  2 min  p1 , p 3  H 13 2.2 含意される仮説 p値 H1 H2 H3 p123 p123 p123 p12 p12 0 p13 0 p13 0 p 23 p 23 H 23 p 23  2 min  p2 , p 3  H1 p1  p1 p1 0 H2 p2  p2 p2 H3 p 3  p3 0 0 0 0 0 p3 多重性を調整する検定方法 積仮説の検定を多重調整する方法として Bonferroni,Dunn-Sidak,Simes,Holm,Hommel, Hochberg がある.これらのうち Simes ,Holm, Hommel, Hochberg では, m 個の仮説 H j (1  j  m ) を生の p 値の大小で H ( j ) (1  j  m) と順序付けたあと,各仮説に対する有意水 準の値を変えて検定する.それぞれの検定方法による調整後の有意水準を表 2 に示す.な m お, は調整される前の有意水準である.Simes 法はグローバル帰無仮説  H j にしか適用 j 1 できないが,これを閉検定手順に適用できるように修正したものが Hommel である. 表 2.各検定法での有意水準の調整 (1  j  m) 検定法 種類 仮説 Bonferroni Single step Hj  /m Dunn-Sidak Single step Hj 1  (1   )1/ m Simes Single step H ( j) j / m Holm Step down H ( j)  (m  j  1) Hochberg Step up H ( j)  (m  j  1) 3 - 226 ー 有意水準の調整

231.

2.3 多重エンドポイント Dmitrienko et al.(2005)の第 2 章の後半では,エンドポイントが複数であるときの多重性の調 整が議論されている. m 個のエンドポイントの平均を, g 個の群間で比較するときのグローバル帰無仮説を   H  1k     gk , k  1,  , m とする.この仮説を検定する方法として,O' Brien の通常最小 2 乗法検定(Ordinary Least Square:OLS),一般化最小 2 乗検定(General Least Square:GLS),修正された GLS 検定 (Modified GLS:MGLS),順位和検定(Rank Sum:RS),Westfall-Young のリサンプリング (Bootstrap:BS)による検定がある. いま,群 i に属する個体 j におけるエンドポイント k の観測値 X ijk を正規化した値を Yijk  X ijk  a k sk ( a k と s k はエンドポイント k についてのそれぞれ平均値と標準偏差である) とする.このとき,OLS 検定では m 個のエンドポイントについての和 m  Yijk k 1 を個体ごとに求め,その和に対して 1 元配置分散分析を適用する.GLS 検定では m 個のエ ンドポイントについての加重和 m m   r tuYiju t 1 u 1 に対して 1 元配置分散分析を適用する.このときの重み r tu は,エンドポイント間の相関行 列の逆行列の第 (t, u) 成分である.しかし, r tu が負の値であったときは加重和および検定結 果の解釈が難しい.そこで,重みを r tt と単純化する.このとき, m  r tt Yijt t 1 に対して 1 元配置分散分析を適用する.これが MGLS 検定である. RS 検定は順位を用いたノンパラメトリックな検定である. g 個の群をプールした中での 観測値 X ijk の順位を R ijk とする.このとき, m 個のエンドポイントについての順位和 m  Rijk k 1 を個体ごとに求め,その和に対して 1 元配置分散分析を適用する. BS 検定は,まず,それぞれのエンドポイントに対する帰無仮説 H k (1  k  m) を検定して得 られる生の p 値を p k (1  k  m) とおく.これとは別に各エンドポイントについて,重複を許 して観測値 X ijk をリサンプリングし,ブートストラップ標本を生成する.それらの標本から 計算される p 値を Pk (1  k  m) とする.これを独立に B 回繰り返す.このとき,各エンドポ 4 - 227 ー

232.

イントに対する仮説の調整 p 値 ~ pk を ~ p  # min( P ,  , P )  p  / B, k  1,  , m k m 1 k と定義する.グローバル検定の p 値は min( p~1 ,  , ~ p m ) で求められる. 2.4 マクロ Dmitrienko et al.(2005)の第 2 章で紹介されている主なマクロは%GlobeTest と%GateKeeper の 2 つである.%GlobeTest は,2.3 節で説明した OLS,GLS,MGLS,RS のグローバル検定を 実行する.%GateKeeper は,紙幅の関係で説明を割愛したゲートキーピング手順を実行する. 3.Co-primary endpoints の多重調整 Co-primary endpoints の多重性による問題も臨床試験では多発する.高血圧試験での収縮期 血圧と拡張期血圧,あるいは短期と長期の 2 時点などを co-primary endpoints とするとき,そ れらは相関をもつと考えられる.相関を考慮しなければ,エンドポイントあたりの有意水 準を片側 2.5% / 2=1.25%とする Bonferroni 調整を適用することは自然である.しかし,相 関がある場合,有意水準を片側 1.25%とする Bonferroni 調整は保守的すぎる.そこで,相関 があると信じられる場合で,試験全体の第 1 種の過誤を 2.5%に抑えるためにエンドポイン トあたりの有意水準をどの程度にすればよいかをシミュレーションにより検討した.また, そのときのエンドポイントあたりの有意水準のもとでの検出力も算出した.同一データセ ットに OLS,GLS,MGLS,RS,BS 検定それぞれを適用し,その働きを t 検定の働きと比 較した. 検討結果の報告に先立ち,OLS,GLS,MGLS,RS 検定で,閉検定手順に基づく個々の 帰無仮説に対する調整 p 値の算出法を,2 群比較で 2 個のエンドポイントの場合を例として 簡単に述べる.群 i の第 j エンドポイントの平均を  ij (1  i, j  2) とする.個々の帰無仮説 H 1 : 11   21 , H 2 : 12   22 に対して,帰無仮説族は {H 12  H 1  H 2 , H 1 , H 2 } である.この とき,個々の仮説 H , H の調整 p 値 ~ p ,~ p は, 1 2 1 2 ~ p1  max p12 , p1 , p~ 2  max p12 , p 2  で算出される.つまり,表 3 の判定行列の右側にある対応する列の中で最大の p 値を求めれ ばよい.ただし, p12 , p1 , p 2 はそれぞれの積仮説についての検定における p 値である. 表 3.2 つのエンドポイントの場合の判定行列 積仮説 含意される仮説 p値 H1 H2 H 12 p12 : H 12 に対する検定 p12 p12 H1 p1 : H 1 に対する検定 p1 0 H2 p 2 : H 2 に対する検定 0 ~ p1  max{ p12 , p1 } p2 ~ p 2  max{ p12 , p 2 } 5 - 228 ー

233.

3.1 シミュレーションシナリオ 以下の想定のもとで,シミュレーションを行った. 1) 2 群比較で,症例数は 1 群あたり 150 例(計 300 例) 2) エンドポイントは 2 つで 2 変量正規分布に従い,それらのエンドポイント間の相関は 0 (独立)または 0.6 または 0.8 3) 各エンドポイントでの効果サイズは(エンドポイント 1,エンドポイント 2)=(0,0) (帰無仮説の場合)または(0.33,0.33)(対立仮説の場合) 4) 比較あたりの有意水準:1.25%,1.35%,1.45%,1.65%,1.85%,2.05%,2.25%,2.5% 5) 検定方法:t 検定,OLS,GLS,MGLS,RS,BS 検定 上記 2)と 3)の組み合わせ計 6 通りのそれぞれの相関および効果サイズのもとで,2 変量正 規乱数に基づくデータセットを 10000 組生成し,各組のデータに各検定を各有意水準で適 用した.具体的に,t 検定では表 3 の p1 と p 2 のそれぞれを有意水準 1.25%と,OLS,GLS,MGLS, RS,BS の各検定では,表 3 の ~ p と~ p のそれぞれを有意水準 2.5%と比較した.このとき,帰 1 2 無仮説が真の場合で第 1 種の過誤,対立仮説が真の場合で検出力を算出した.ここでの検 出力はいずれかのエンドポイントにおいて 2 群間で平均の差が有意であった割合(検出力 1) およびいずれのエンドポイントにおいてもその差が有意であった割合(検出力 2)の 2 通り とした.なお,1 群あたり 150 例は,有意水準を片側 2.5%とする 2 群比較で効果サイズ 0.33 をおよそ 80%の検出力で検定するために必要な症例数である. 3.2 シミュレーション結果 各検定における第 1 種の過誤を図 2−1,2−2,2−3,2−4 に,検出力 1 を図 3−1,3−2, 3−3,3−4 に,検出力 2 を図 4−1,4−2,4−3,4−4 に示す.横軸は比較あたりの有意水 準(%),縦軸は第 1 種の過誤(%)あるいは検出力(%)であり,黒は相関が 0,赤は 0.6, 青は 0.8 のときの結果である.なお,GLS と MGLS 検定での第 1 種の過誤と検出力は OLS 検 定の結果と等しいため,これらの図示は省略した.特に,比較あたりの有意水準が,t 検定 で 1.25%,その他の検定で 2.5%のときの第 1 種の過誤と検出力 1 と検出力 2 を表 4 に示す. 図 2-1 から,t 検定での第 1 種の過誤を 2.5%に抑えるための比較あたりの有意水準は,相 関が 0 のときは 1.25%,相関が 0.6 のときは 1.35%,相関が 0.8 のときは 1.45%であった. 相関が 0.6 のとき比較あたりの有意水準を 1.25%としたときの検出力 1 は 84.4%で,1.35% としたときの検出力 1 は 85.2%であり,有意水準を 0.1%だけ大きくすることで検出力 1 は 0.8%増加した.また,相関が 0.8 のとき比較あたりの有意水準を 1.25%としたときの検出 力 1 は 80.9%で,1.45%としたときの検出力 1 は 82.4%であり,有意水準を 0.2%大きくする ことで検出力 1 は 1.5%増加した.第 1 種の過誤は,OLS(GLS,MGLS)検定を除いて,よ く制御されていた. 検出力 1 は,相関の大きさによらず,t 検定で最も高く,次いで RS 検定,BS 検定,OLS (GLS,MGLS)検定の順に高かった.検出力 2 について,相関の大きさによらず,OLS(GLS, 6 - 229 ー

234.

MGLS)検定で最も高く,次いで t 検定,BS 検定,RS 検定の順に高かった. 図 2-2.OLS の第 1 種の過誤(%) 図 2-1.t 検定の第 1 種の過誤(%) (相関によらず値はすべて等しかった.) 図 2-3.RS の第 1 種の過誤(%) 図 2-4.BS の第 1 種の過誤(%) 図 3-2.OLS の検出力 1(%) 図 3-1.t 検定の検出力 1(%) (相関によらず値はすべて等しかった.) 7 - 230 ー

235.

図 3-3.RS の検出力 1(%) 図 3-4.BS の検出力 1(%) 図 4-2.OLS の検出力 2(%) 図 4-1.t 検定の検出力 2(%) (相関によらず値はすべて等しかった.) 図 4-3.RS の検出力 2(%) 図 4-4.BS の検出力 2(%) 8 - 231 ー

236.

表 4.多重エンドポイント検定の第 1 種の過誤と 2 つの検出力 検定 相関 エンドポイント 第 1 種の 検出力 1 検出力 2 係数 あたりの有意水準 過誤(%) (%) (%) 0 1.25 2.49 92.6 52.2 0.6 1.25 2.35 84.4 59.9 0.8 1.25 2.13 80.9 63.2 0 2.5 2.71 72.7 72.7 0.6 2.5 2.71 72.7 72.7 0.8 2.5 2.71 72.7 72.7 0 2.5 1.44 90.1 49.1 0.6 2.5 2.18 78.8 56.9 0.8 2.5 2.48 74.8 60.9 0 2.5 2.47 86.4 51.3 0.6 2.5 2.60 77.8 59.1 0.8 2.5 2.57 75.4 62.5 t 検定 OLS (GLS,MGLS) RS BS 3.3 OLS,GLS,MGLS 検定についての考察 すべてのシナリオで OLS,GLS,MGLS の第 1 種の過誤,検出力 1 および 2 は等しかった. Co-primary endpoints が 2 つある場合の相関行列を 1 R      1  とすると,その逆行列は R 1   1  1    1 2     1  である.よって,GLS では 2 2 1   r tuYiju  (r 11  r 21 )Yij1  (r 12  r 22 )Yij2  1   (Yij1  Yij2 ) t 1 u 1 に対して検定を行う.MGLS では 2  r tt Yijt  r 11Yij1  t 1 r 22 Yij2  1 1 2 (Yij1  Yij2 ) に対して検定を行う.つまり,2 つのエンドポイントの場合,OLS 検定で用いた Yij1  Yij 2 に 定数倍しているだけなので,相関によらずこれら 3 手法での結果は変わらないことは当然 である. 4.まとめ 臨床統計で直面する多重性の問題を取り上げ,Dmitrienko et al.(2005)の第 2 章をレビューし 9 - 232 ー

237.

た.また,相関のある 2 つの co-primary endpoints の問題で,エンドポイントあたりの有意 水準について検討した.相関が 0.6 のときエンドポイントあたりの有意水準を,独立である ときの 1.25%から 1.35%に引き上げると,いずれかが有意になる検出力 1 は 0.8%増加した. 相関が 0.8 のときエンドポイントあたりの有意水準を,独立であるときの 1.25%から 1.45% に引き上げると,検出力 1 は 1.5%増加した.相関があるとき,有意水準を 0.1%あるいは 0.2%引き上げることによる検出力の増分は意外に小さかった.また,Dmitrienko et al.(2005) で紹介されていた多重エンドポイントの手法を適用し,その働きを t 検定と比較した.その 結果,検出力 1 は,相関の大きさによらず,t 検定で最も高く,次いで RS 検定,BS 検定, OLS(GLS,MGLS)検定の順に高かった.いずれも有意になる検出力 2 は,相関の大きさ によらず,OLS(GLS,MGLS)検定で最も高く,次いで t 検定,BS 検定,RS 検定の順に 高かった. 5.参考文献 Alex Dmitrienko, Geert Molenberghs, Christy Chuang-Stein, Walter Offen. (2005). Analysis of Clinical Trials Us ing SAS: A Practical Guide. SAS Institute Inc. 以上 10 - 233 ー

238.

補遺1.Bonferroni の不等式(1)の証明 【証明】帰納法による. n  1 のとき, P ( E 1 )  P ( E1 ) n  2 のとき, P(E1  E2 )  P( E1 )  P(E 2 )  P(E1  E2 )  P( E1 )  P(E 2 ) , 0  P(E1  E2 )  1 等号成立は P (E 1  E 2 )  0 のときである.   k n  k のときに,不等式が成立するとすれば, P i 1 E i   P (E i ) k (2) i 1 このとき,  k 1      P  E   P E   P  E  E    P ( E )  P ( E )  P  E  E   (2)   P (E )  0  P  E  E   1 P i 1 E i  P i 1 E i  E k 1 k k i 1 k i 1 k 1 i k i 1 k 1 k 1 k 1 i k i i 1  k i 1 k 1 i i i 1  i k 1  等号成立は P i 1 E i  E k 1  0 のときである.よって,一般に不等式が成立する.そこで k の等号成立は i  j に対して, E i と E j が互いに排反であるとき成立する. 証明終わり 補遺 2.閉検定手順のコヒーレンス 広津千尋(2003).多重比較法と多重決定方式,pp.55-112[竹内啓,広津千尋,公文雅之,甘 利俊一(2003).統計学のフロンティア 2.統計学の基礎Ⅱ:統計学の基礎概念を見直す. 岩波書店.] ある仮説要素集合において,要素集合のあらゆる共通集合に対しそれぞれ有意水準  の検 定  を対応させる.任意の仮説 H  は,それに含まれるすべての帰無仮説が棄却されたとき のみ   を用いて検定されるものとすると,これは有意水準  の多重検定方式となる.すな わち,この手順で真である帰無仮説(の少なくとも 1 つ)が棄却される確率は  以下とな る. 【広津先生の証明】 事象 A,B を次のように定義する. A:任意の真である帰無仮説   が棄却される. B:真である帰無仮説の共通集合   が   によって棄却される. 11 - 234 ー

239.

検定によって   が棄却されるためには,それに含まれる   が棄却されていないといけな いから,A は B を包含する.すなわち,A∩B=A である.ところでφの有意水準はαであ るから Prob(A)=Prob(A∩B)=Prob(B)Prob(A|B)≦α×1=α が成立する. 証明終わり ------------------------------------------------------------------------------------------------------------------------閉検定手順のポイントを理解するために上記のスマートな証明を,要素仮説が H 1 と H 2 の 2つの場合で噛み砕いてみる. ・ H 1 と H 2 がともに真であるとき このとき H 1 を誤って棄却する確率 Pr( H 1 を棄却する)を考える.H 1 を誤って棄却するのは, 閉検定手順より, H1  H 2 を棄却した場合に限られる.したがって,Pr( H 1 を棄却する) ≦Pr( H1  H 2 を棄却する)である.H 1 と H 2 がともに真であるとき誤って H1  H 2 を棄却 する確率は,その適切な検定によって  以下に抑えられているはずである.したがって,H 1 と H 2 がともに真であるとき誤って H 1 を棄却する確率も  以下である. ・ H 1 のみが真であるとき この場合,真の帰無仮説を誤って棄却するのは H 1 を棄却することに限定される.その要素 仮説について適切な検定が用意されていれば,誤って真の帰無仮説 H 1 を棄却する確率は  以下である. ・ H 1 も H 2 も真でないとき どちらの仮説も偽であることから,誤って真の帰無仮説を棄却することはない. これらのことから,閉検定手順のポイントは要素仮説とそれらの積仮説のそれぞれに対し て有意水準  の検定が用意されていることである. 12 - 235 ー

240.

群逐次デザインの再考 ○浜口和人* 土屋佳英* 田崎武信* 森川馨** * 塩野義製薬株式会社 ** 国立医薬品食品衛生研究所 安全情報部 解析センター Reconsidering group sequential designs Kazuto Hamaguchi* /Yoshihide Tsuchiya* / Takenobu Tasaki* / Kaoru Morikawa** * Biostatistics Dept., Shionogi & Co., Ltd. ** Division of Safety Information on Drug, Food and Chemicals, National Institute of Health Sciences. 要 旨 SAS Press 社より出版されている Dmitrienko et al.(2005)の第 4 章では群逐次デザインや確率的 打ち切り法を始めとした中間データモニタリングで使用される方法論が総合的にかつ事例を用い て具体的に示されている.この章は,中間データモニタリングの統計的な課題についてマスターす るためのテキストとして秀逸である.本発表では,はじめに,Dmitrienko et al.(2005)の第 4 章のポイ ントを紹介する.さらに,群逐次デザインの特性を明らかにする試みの一つとして,提供されている SAS マクロプログラムを適用し,(固定標本デザインでの症例数を基準として)期待症例数の増分に 影響を及ぼす因子を探索する.その結果を踏まえ,中間解析のデザインと実践について考察する. キーワード:群逐次デザイン,期待症例数の増分 1.Dmitrienko et al.(2005) の第 4 章 Dmitrienko et al.(2005)の第 4 章は次の 3 節から構成されている. 4.1 節 はじめに 4.2 節 繰り返し有意差検定 4.3 節 確率的打ち切り検定 4.2 節では,O'Brien-Fleming 型と Pocock 型のデザインをその特殊ケースとして含む,Wang-Tsiatis 族の群逐次試験デザイン(Wang-Tsiatis,1987)について詳細なレビューがなされている.とくに,試 1 - 236 ー

241.

験薬の有効性だけでなく,有効性と無益性の両者を評価するための群逐次試験における必要症 例数と停止境界を計算する方法が示され,これらの方法を SAS 環境のもとで実際に適用すること を容易にする SAS マクロプログラムが提供されている.このことが,Dmitrienko et al.(2005)の最大 の特色となっている.具体的に,有効性の評価および有効性と無益性の評価を行うために種々の 群逐次試験のデザイン段階で使用できるマクロプログラム%EffDesign および%EffFutDesign,中間 のモニタリング段階で有効性の評価および有効性と無益性の評価を行う際に使用できるマクロプロ グラム%EffMonitor および%EffFutMonitor の 4 つのプログラムが提供されている.そして,それら のプログラムを,正規分布あるいは二項分布に従う主要エンドポイントをもつ臨床試験に適用した 事例が紹介されている. さらに,Lan and DeMets(1983)で提案された,第Ⅰ種の過誤の消費関数の接近法に基づく柔軟 なデータモニタリングの方法が論じられ,デザイン時とモニタリング時における第Ⅰ種の過誤の乖 離が例示されている.また,各モニタリングにおいて治療差に対する繰り返し信頼区間を計算する 方法と,最終解析においてバイアスを調整した点推定値および信頼区間を計算する方法が説明さ れている. 4.3 節では,確率的打ち切り法として知られる臨床試験の中間モニタリングに使用される方法が紹 介されている.試験を終了時点まで継続することが有益であるか否かを決定するためのルール,す なわち無益性のルールを決定する場面で,確率的打ち切り法をどのように適用するかが説明され ている.また,条件付き検出力検定(頻度論のアプローチ),予測検出力検定(Bayes 論と頻度論と の混合アプローチ),予測確率検定(Bayes 論のアプローチ)による無益性の評価が,正規分布あ るいは二項分布に従う主要エンドポイントをもつ臨床試験への適用事例付きで紹介されている.こ こでも,それらの方法を SAS 環境のもとで適用するための SAS マクロプログラム,すなわち条件付 き 検 出 力 に 基 づ い て 無 益 性 の ル ー ル を 構 築 す る た め に 使 用 で き る %CondPowerLSH と%CondPowerPAB,そして予測検出力と予測確率に基づいて無益性のルールを構築するために 使用できるそれぞれ%BayesFutilityCont と%BayesFutilityBin のプログラムが提供されている. 2.中間解析の事例 Dmitrienko et al.(2005)の第 4 章では,繰り返し有意差検定で 2 つ,確率的打ち切り検定で 2 つ の中間解析の事例が紹介されている.ここでは,原著になかった試みとして,中間データモニタリン グのプロセスを実況中継風に解説する.例として「重症敗血症患者を対象にした臨床試験」をとり あげる. この試験での主要評価項目は投与 28 日後の生存率であり,この生存率を指標にして試験薬群 のプラセボ群に対する優越性を示すことが試験の目的である.有効中止あるいは無効中止を意図 する中間解析を,最大症例数の 20%と 66%が集積された時点で 2 度実施することが,デザイン段 階で計画された.そして,有効性のモニタリング用に O’Brien-Fleming 型,無益性のモニタリング用 に Pocock 型の停止境界を利用することが計画された.試験薬群とプラセボ群の生存率は,それぞ 2 - 237 ー

242.

れ 76%と 70%と想定された.デザインの段階で,計画した各解析時点における症例数と有意水準 は%EffFutDesign を適用して求めることができる.表 1 にそれらの結果を示す. 表 1.重症敗血症患者を対象にした臨床試験におけるデザイン 試験薬群 プラセボ群 有意水準 有意水準 [有効性] [無益性] 中間解析1 (20%集積) 216 216 0.0000 0.4469 711 711 0.0108 0.1004 1078 1078 0.0309 0.0309 中間解析2 (66%集積) 最終解析 実際の臨床試験において,上記の集積目標通りの症例数で中間解析が実施されることは少ない. そこで患者の集積状況に応じて,有意水準を適応的に変更することが必要である.Lan and DeMets(1983)で提案された過誤消費関数の方法論を採用すると,有意水準を適応的に決定する ことができる.過誤消費関数のアプローチにおける有意水準は,Dmitrienko et al.(2005)の第 4 章 で提供されているマクロプログラム%EffFutMonitor を適用して求めることができる. 実際の第 1 回目の中間解析での集積症例数が,試験薬群とプラセボ群でそれぞれ 220 例と 216 例であった.とすれば,この状況下での有意水準は表 2 のようになる.( )内はデザイン時の症例 数もしくは有意水準を示している. 表 2.第 1 回目の中間解析の集積症例数とデザイン段階の有意水準 試験薬群 プラセボ群 有意水準 有意水準 [有効性] [無益性] 中間解析1 220 216 0.0000 0.4447 (デザイン時) (216) (216) (0.0000) (0.4469) また,第 1 回目の中間解析時の解析結果を表 3 に示す. 表 3.第 1 回目の中間解析の結果 試験薬群 中間解析1 164/220 プラセボ群 152/216 有意水準 有意水準 検定結果 [有効性] [無益性] p値 0.0000 0.4447 0.1646 3 - 238 ー 判定 試験

243.

[74.5%] [生存率] 継続 [70.5%] 中間解析における有効性と無益性の評価は次のように行う. 中間解析時では, p 値 < 有意水準[有効性] : 有効中止 有意水準[有効性] : 試験継続 ≦ p 値 < 有意水準[無益性] p 値 ≧ 有意水準[無益性] : 無効中止 に従う. 最終解析では, p 値 < 有意水準 : 優越性を示せた 有意水準 ≦ p 値 : 優越性を示せなかった に従う.ただし,最終解析では,有意水準[有効性]と有意水準[無益性]は同じ値をとるため,単に 有意水準と表記している. 第 1 回目の中間解析での p 値(0.1646)は有意水準[有効性](0.0000)と有意水準[無益性] (0.4447)の間の値をとっているため,試験は継続され,中止の判断は次の中間解析にゆだねられ た.第 2 回目の中間解析は集積症例が約 66%に到達した段階で実施された.第 2 回目までの中 間解析の集積症例数と有意水準及び中間解析の結果を表 4 と表 5 に示す. 表 4.第 2 回目までの中間解析の集積症例数と有意水準 試験薬群 プラセボ群 有意水準 有意水準 [有効性] [無益性] 中間解析1 220 216 0.0000 0.4447 (デザイン時) (216) (216) (0.0000) (0.4469) 中間解析 2 715 715 0.0092 0.0561 (デザイン時) (711) (711) (0.0108) (0.1004) 表 5.第 2 回目までの中間解析の結果 試験薬群 中間解析1 プラセボ群 164/220 152/216 [生存率] [74.5%] [70.5%] 中間解析 2 538/715 526/715 [生存率] [75.2%] [73.6%] 有意水準 有意水準 検定結果 [有効性] [無益性] P値 0.0000 0.4447 0.1646 0.0092 0.0561 0.2336 判定 試験 継続 無効 中止 第 2 回目の中間解析では,p 値(0.2336)は有意水準[無益性](0.0561)よりも大きな値をとっている. そのために本試験は第 2 回目の中間解析で無効中止の判断がくだされた. 4 - 239 ー

244.

3.期待症例数の増分に及ぼす因子の探索 SAS マクロプログラム%EffDesign を適用し,群逐次デザインでの期待症例数の,固定標本デザ インでの症例数からの増分に対して影響を及ぼす因子を探索した. %EffDesign は,Wang-Tsiatis 族の停止境界に基づき,早期に優越性を検出するための群逐次 デザインを検討する際に用いるマクロプログラムである.マクロプログラムの引数として,「中間解析 のタイミング(FRACTION)」,「効果サイズ(EFFSIZE)」,「検出力(POWER)」,「片側の第 1 種の過誤 (ALPHA)」,「Wang-Tsiatis 族デザインの停止境界の形状パラメータ(RHO)」,「計画した中間モニタ リングにおける停止境界と停止確率を保存するための SAS データセット名(BOUNDARY)」及び 「指定した効果サイズに対する逐次検定の検出力と平均症例数を保存するための SAS データセッ ト名(SIZEPOWER)」を与えることで,表 6 のような結果を得ることができる.Pocock 型の境界を要求 するときは停止境界の形状パラメータ(RHO)を 0.5,O'Brien-Fleming 型の境界を要求するときは RHO を 0 とすればよい. 表 6:作成されるデータセットの内訳 SAS データ 変数名 セット名 BOUNDARY 変数のもつ意味 ANALYSIS 解析番号 SIZE 群あたりの症例数 検定統計量の尺度上での片側停止境界,すなわち TESTSTBOUNDARY PVALBOUNDARY z 統計量の停止境界 p 値の尺度上での片側停止境界,すなわち片側 p 値の 停止境界 治療効果がないという帰無仮説の下で,その時点の解析 PROBH0 で試験が中止される確率 治療効果がないという帰無仮説の下で,その時点までの CUMPROBH0 解析で試験が中止される(累積)確率 指定した効果サイズに対応する対立仮説の下で,その時 PROBH1 点の解析で試験が中止される確率 指定した効果サイズに対応する対立仮説の下で,その時 CUMPROBH1 SIZEPOWER EFFSIZE 点までの解析で試験が中止される(累積)確率 効果サイズ 指定した効果サイズに対応する逐次検定での群あたりの AVESIZE POWER 平均症例数 指定した効果サイズに対する逐次検定の検出力 5 - 240 ー

245.

ここでは,以下の 3 つの事柄を検討し,群逐次デザイン適用時の(固定標本デザインでの症例数を 基準とした)期待症例数の増分に及ぼす影響因子を探索した. m 回の中間解析が計画されている 臨床試験における期待症例数は m ∑N p + N k =1 k k max m ⎛ ⎞ ⎜1 − ∑ p k ⎟ ⎝ k =1 ⎠ と与えられる.ただし, N k は第 k 回目の中間解析時の解析対象例数, N max は本試験の最大症 例数である.また, p k は第 k 回目の中間解析時の中止確率である. 固定標本デザインに対する期待症例数の増分を(期待症例数-固定標本サイズ) / 固定標本サ イズと定義し,以降ではこれを単に期待症例数の増分もしくは減少分とよぶ.ここでは,以下の仮 定をおいた. ・ 2 群の並行群間比較試験で群逐次デザインを検討する. ・ 有効中止のみを検討する(無効中止は考えない). ・ デザイン時の想定効果サイズを,実際のモニタリング時でも変更しない. ・ 主要評価項目は連続量で正規分布に従う. ・ 検出力は 80%,有意水準は片側 2.5%とし,効果サイズとして 0.20,0.30,0.40,0.50 の 4 通り を考える. ・ 停止境界は O’Brien-Fleming 型および Pocock 型とする. 以下に 3 つの検討内容を示す. 【検討 1】1度の中間解析を計画するデザインにおける中間解析のタイミング 1 度の中間解析を計画するデザインにおいて,中間解析を実施するタイミングを変化させる.そ して,タイミングが期待症例数の増分に及ぼす影響を検討する.中間解析を実施するタイミングとし て,最大症例数に対する集積症例の割合が,20%,25%,30%,33%,40%,45%,50%,60%, 67%,70%,80%,90%になる時点を考える. 【検討 2】2 度の中間解析を計画するデザインにおける中間解析のタイミング 2 度の中間解析を計画したうえで,中間解析を実施するタイミングを変化させ,タイミングが期待 症例数の増分に及ぼす影響を検討する.中間解析を実施するタイミングとして,最大症例数に対 数する集積症例の割合が,(第1回中間解析計画時,第2回中間解析計画時)の順に,(33%,67%), (25%,50%),(25%,75%),(50%,75%),(40%,60%),(40%,80%),(60%,80%)となる各場合を 考える.上記の中間解析の実施タイミングを左から順にパターン 1,パターン 2,…,パターン 7 とす る. 【検討 3】 n 回の中間解析を等間隔で計画するデザインにおける適切な n の値 6 - 241 ー

246.

n 回 (n = 1, 2, 3, Λ , 10) の中間解析を計画する.各中間解析は症例数において等間隔の時 点で実施されるとする.このとき,中間解析の回数 n が期待症例数の増分に及ぼす影響を検討す る. 4.解析結果 4.1 【検討 1】の解析結果 効果サイズごとの解析結果を図 1 に示した.横軸は中間解析のタイミング,縦軸は増分とした. 図1.1度の中間解析を計画するデザインにおける中間解析のタイミングと増分の関係 増分は O’Brien-Fleming 法,Pocock 法のいずれにおいても一峰性の減少を示した.効果サイズ に関わらず,O’Brien-Fleming 法では 70%の,Pocock 法では 50%の被験者集積段階で中間解析 を実施した場合の減少分が最も大きいことが示唆された.被験者集積段階に応じ, O’Brien-Fleming 法では,-12%~0%の減少分が,Pocock 法では-16%~-2%の減少が期待される ことが示唆された. 4.2 【検討 2】の解析結果 効果サイズごとの解析結果を図 2 に示した.横軸は中間解析のタイミング(パターン),縦軸は増 分とした. 7 - 242 ー

247.

図 2.2 度の中間解析を計画するデザインにおける中間解析のタイミングと増分の関係 パターン 1:(33%,67%),パターン 2:(25%,50%),パターン 3:(25%,75%),パターン 4:(50%,75%) パターン 5:(40%,60%),パターン 6:(40%,80%),パターン 7:(60%,80%) 効果サイズにかかわらず,減少分は同様の傾向を示した.O’Brien-Fleming 法では,パターン 4 すなわち(50%,75%)の症例集積段階で中間解析を実施すれば,最も減少分の大きい事が示唆さ れた.いっぽうの Pocock 法では,パターン 1 もしくはパターン 4 すなわち(33%,66%)もしくは (50%,75%)の集積段階で,最も減少分が大きかった.O’Brien-Fleming 法では,被験者集積段階 に応じ,-17%~-10%の減少分が,Pocock 法では-18%~-15%の減少が期待される.1 度の中間解 析を実施する場合よりも,減少分が大きく,減少分のばらつきも小さい. 4.3 【検討 3】の解析結果 効果サイズごとの解析結果を図 3 に示した.横軸は中間解析の回数,縦軸は増分とした. 8 - 243 ー

248.

図 3.等間隔で中間解析を計画するデザインにおける中間解析の回数と増分の関係 効果サイズにかかわらず,減少分の傾向は同じであった.O’Brien-Fleming 法と Pocock 法ともに 中間解析の回数が 4 回までは中間解析の回数の増加とともに,増分は減少を示した.しかし,中間 解析の回数が 5 回以上になるに従い,さらなる大きな減少は示されなかった. 4.まとめ 1度の中間解析を計画する場合には,O’Brien-Fleming 法,Pocock 法のいずれにおいても,増 分は一峰性の減少を示した. O’Brien-Fleming 法では 70%,Pocock 法では 50%の被験者集積段 階で中間解析を実施した場合の減少分が最も大きいことが示唆された. いっぽう,2度の中間解析を計画する場合には,O’Brien-Fleming 法では,パターン 4 すなわち (50%,75%)の症例集積段階で,Pocock 法では,パターン 1 もしくはパターン 4 すなわち(33%,66%) もしくは(50%,75%)の集積段階で,中間解析を実施すれば,最も減少分の大きい事が示された. 1 度の中間解析を実施する場合よりも,減少分が大きく,減少分のばらつきも小さかった. 中間解析を等間隔で実施する場合には, O’Brien-Fleming 法と Pocock 法ともに中間解析の回 数が 4 回までは中間解析の回数の増加とともに,増分は減少を示した.しかし,中間解析の回数が 5 回以上になるに従い,さらなる大きな減少は示されなかった. 上記の結果はいずれも,効果サイズによらず同様の傾向を示した. 9 - 244 ー

249.

5.参考文献 1.Dmitrienko, A. , Molenberghs, G., Chuang-Stein,C., Offen, W. (2005). Analysis of Clinical Trials using SAS: A practical guide.SAS Institute Inc. Cary, NC, USA Chapter 4 : Interim Data Monitoring(pp.177-267) 2.Lan, K.K.G., DeMets, D.L.(1983). Discrete sequential boundaries for clinical trials. Biometrika 70 , 659-6643. 3.Wang, S.K., Tsiatis, A.A.(1987). Approximately optimal one-parameter boundaries for group sequential trials. Biometrics 43 , 193-199. 10 - 245 ー

250.

ノンパラメトリックO’Brien法の 臨床試験データへの応用 ○野島俊秋 田口奈緒子 五所正彦 菅波秀規 興和株式会社 臨床解析部 Application of non-parametric O'Brien method to clinical trial data Toshiaki Nojima MS , Naoko Taguchi , Masahiko Gosho MS , Hideki Suganami Ph.D Clinical Data Science Dept. , Kowa 1 本発表の内容 緑内障と評価指標 „ 評価指標の問題点 „ ノンパラメトリックO’Brien法 „ シミュレーションによる検出力比較 „ まとめ „ 2 - 246 ー

251.

緑内障 緑内障は,視神経と視野に特徴的変化を有し, 通常,眼圧を十分に下降させることにより視神経 障害を改善もしくは抑制しうる眼の機能的構造的 異常を特徴とする疾患である. „ 成人の失明原因の上位である. „ 40歳以上の日本人の緑内障有病率は、5.0%と 推測されている. „ „ „ „ 日本緑内障学会.緑内障診療ガイドライン(第2版).2006 Iwase A , et al. The prevalence of primary open-angle glaucoma in Japanese: the Tajimi Study. Ophthalmology. 2004 Sep;111(9):1641-8. Yamamoto T , et al. The Tajimi Study report 2: prevalence of primary angle closure and secondary glaucoma in a Japanese population. Ophthalmology. 2005 Oct;112(10):1661-9. 3 視野 4 - 247 ー

252.

視野検査 „ 視野検査では、視野に対して数十の測定 点を設定し、それぞれの測定点において 知覚される最小輝度で視機能を表現 „ „ ハンフリー視野計では76点を測定 各測定点における、年齢補正した正常値と 被験者の感度閾値との差をdBで表示した 値(TD値)を出力 5 北澤克明、山本哲也 監訳.緑内障診療のた めの自動静的視野計測.医学書院.2001 6 - 248 ー

253.

緑内障の評価指標 „ MD値 „ TD値(年齢補正した感度)の重み付き平均 ハンフリー自動視野計から算出される „ 全体的な視野の狭窄具合を示す „ マイナス方向に大きいほど視野感度が悪い „ 7 緑内障の進行の評価① „ MD slope法 広く用いられている方法 „ MD値の時間への回帰係数を評価項目とする 方法 „ 検査回数が少ないと外れ値の影響を受けや すい „ 緑内障の悪化は全体的に進行する訳ではな いので、MD値では視野の局所的変化を見逃 してしまう可能性がある „ 8 - 249 ー

254.

緑内障の進行の評価② „ クラスター別 MD slope法 76点すべてのTD値を1つにまとめるのではな く、生理学的、病理学的に関連性のあるTD値 をいくつかのグループ(クラスター)に分ける方 法 „ 各クラスター毎に、クラスター別TD平均値の 時間への回帰係数を算出する „ クラスター毎に検定を行う場合には検定の多 重性が生じる „ 9 緑内障データにおける外れ値 „ ある時点以降のデータが測定されていない „ „ 脱落例など 最終測定の値が外れ値である MD MD ここで脱落 時間 時間 10 - 250 ー

255.

ランダム化比較試験 介入の治療効果を評価したい „ ITT(Intention-to-treat)解析はランダム化した 被験者すべてを用いて解析を行うのが原則 „ 被験者を除外するのではなく、何らかの値を 用いる „ 測定点が少なくてもITTの原則の下ではデータを 用いる必要がある „ 外れ値の存在を認めた解析方法 „ 11 動機と目標 MD slope法には局所的な変化が埋もれてしまう ことや外れ値の影響を受けやすいといった問題 点が生じる。 „ クラスター別 MD slope法では検定の多重性が 生じる。 „ „ これらに有効であろうと予測される、 ノンパラメトリックO’Brien法を緑内障における 視野進行の評価に用いることの検討を行う。 12 - 251 ー

256.

O’Brien法と他の方法 „ O’Brien法は他の方法と比較し以下の様 な特徴があると思われる。 MD slope法は外れ値の影響を受けやすいた め、O’Brien法の方が検出力が高いのではな いか „ クラスター別MD slope法は多重性の問題が 生じるが、O’Brien法により対応可能である „ 13 O’Brien法① 計量値データから構成される多項目データを1つ の指標に統合 „ 2つの方法 „ „ パラメトリックO’Brienスコア „ „ ノンパラメトリックO’Brienスコア „ „ データの標準化を行い、標本分散共分散行列を用いて総合 指標となる重み付き和を算出 データを順位変換し総合指標となる順位和を算出 O'Brien PC. Procedures for comparing samples with multiple endpoints. Biometrics. 1984 Dec;40(4):1079-87. 14 - 252 ー

257.

O’Brien法② „ 正規性の仮定が成り立たないと想定され る場合やサンプルサイズが小さい場合 „ „ ノンパラメトリックな方法を推奨 緑内障データにはしばしば外れ値が見ら れる →ノンパラメトリックO’Brienスコアを用いた方が 検出力が高いと考える 15 ノンパラメトリックO’Brien法 の説明① „ クラスター別TD平均値を利用 „ 数学的な相関および、生理学的、病理学的な考慮し15クラス ターに分け、クラスター別TD平均値を算出 2 1 4 5 9 8 13 14 „ 3 2 5 6 10 9 7 11 12 11 15 Suzuki Y, et al. Mathematical and optimal clustering of test points of the central 30degree visual field of glaucoma. J. Glaucoma. 2001 Apr;10(2):121-8. 16 - 253 ー

258.

ノンパラメトリックO’Brien法 の説明② クラスター別 TD平均値 回帰係数 を 算出 時間 „ クラスター別TD平均値の時期に対する 回帰係数を算出 17 ノンパラメトリックO’Brien法 の説明③ ID cluster1 cluster2 cluster3 1 42 12 10 2 11 2 66 3 23 39 29 4 57 41 51 ・・・ cluster14 cluster15 34 29 36 40 44 25 19 17 各回帰係数を順位変換 cluster O’Brienスコア 392 531 636 704 全クラスタの 順位の総和 O¶Brienスコア „ 回帰係数を順位変換し、全クラスター順位の 総和をO’Brienスコアとする。 18 - 254 ー

259.

シミュレーションによる比較① „ シミュレーションに用いたデータ TD値の時点内、時点間の分散共分散構造を 与えることは困難 →既存のデータからのブートストラップサンプリ ングを行う „ „ 現在進行中の臨床試験データの一部を利用 ⇒自然なクラスター間、クラスター内分散共分散 構造を利用 19 シミュレーションによる比較② „ 検討内容 同一のデータセットに対して、MD slope法、 ノンパラメトリックO’Brien法それぞれで群間 比較を行う „ それぞれの方法での検出力の比較のために、 任意の例数における検出力曲線を作成する „ „ 検出力=有意になった回数/シミュレーション回数 „ „ 両側検定, 有意水準 5% シミュレーション回数:10,000回 20 - 255 ー

260.

シミュレーションデータの作成 „ Proc Surveyselectの利用 „ 重複を許した復元抽出の実行 proc surveyselect data = dat01 method = urs seed = &seed sampsize = 50 rep = 10000 out = result outhits; strata Group ; run ; ←復元抽出なのでursを指定。 ←seedの指定 ←サンプルサイズの指定。例えば50例 ←繰り返しの回数を指定。例えば50例の抽出を10000回 ←復元抽出による重複レコードを残す 21 シミュレーションと SASプロシジャ n n 2×n 復元再抽出により 2×n例のデータセットを作成 症例単位でSampling ・・・・ Proc Surveyselect ・・・・ ・・・・ 10,000 乱数を与え、ソートを行い、 Proc Rank 前半をGroup1、後半をGroup2とした クラスター別MD値の時期に 対する回帰係数を順位変換 群間比較を行うために2群の データに任意の群間差を与えた Δ=0,0.2,0.3,0.4 22 - 256 ー

261.

結果: 検出力曲線(群間差=0) 第一種の過誤確率 (%) MD slope O’Brien 23 結果: 検出力曲線(群間差= 0.2) 検出力(%) MD slope - 257 ー O’Brien 24

262.

結果: 検出力曲線(群間差= 0.3) 検出力(%) MD slope O’Brien 25 結果: 検出力曲線(群間差= 0.4) 検出力(%) MD slope - 258 ー O’Brien 26

263.

考察 „ MD slope法とノンパラメトリックO’Brien法の違い クラスタリング „ 順位変換 „ „ 検出力が異なる理由 „ クラスタ別TD平均値1~15の平均値の方がMD値よりも SDが小さい ⇒クラスタリングが重要 „ クラスタ1~15の平均値とMD値の平均値が異なる ⇒クラスタ1~15の平均値とMD値では重み付けが異なる 27 まとめ 緑内障の評価指標 „ トレンド解析における問題点 „ 検査点が少ないと外れ値の影響を受けやすい „ 局所的な変化を見逃してしまう „ 多重性 „ „ ノンパラメトリックO’Brien法の検討 順位変換 „ クラスタを考慮 „ 多次元データを1次元に集約 „ ⇒今後の視野試験の解析において 効率のよい解析方法として期待される - 259 ー 28

264.

今後 臨床試験データに対して、ノンパラメトリック O’Brien法による解析が実施される。 „ MD slope法とノンパラメトリックO’Brien法の 性能比較を実データを用いて検証する。 „ 29 BackUp 30 - 260 ー

265.

O’Brien法: ノンパラメトリックな方法を推奨 „ We recommend the nonparametric test for general use, particularly if the variables are not normally distributed or the sample size is small. There is little loss of efficacy when variables are normally distributed, and gains in power may be considerable otherwise. 31 - 261 ー

266.

メタアナリシスの功罪-MIXEDプロシジャによるメタアナリシス と公表バイアスへの対応 ○ 浜田知久馬* * 東京理科大学工学部経営工学科 Merit and demerit provided by meta-analysis Meta-analysis using MIXED procedure and countermeasure on publication bias Chikuma Hamada Tokyo University of Science 1-3, Kagurazaka, Shinjyuku-ku,Tokyo, 162-8601 要 旨 近年,EBMの重要性が医学界に浸透した.しかしながらEBMで利用される医薬情報の中には玉石が 混交している.それぞれのエビデンスの価値を正しく判断して,玉と石を見分けることが医療従事 者には要求されている.エビデンスの分類において,単独の無作為化臨床研究の1bに対して,無作為 化臨床試験のメタアナリシスは1aと,最上位のエビデンスとして評価されている.通常,無作為化臨 床研究では,疾患のステージ等の重要な予後因子の分布が確率的に群間で均一になることが期待で き,これにより群間の比較可能性が保証されるが,一つの無作為化臨床研究で有意な結果が出たか らといって,広い対象集団全体に対して治療法が有効であるかどうかは保証できない.一方,複数 の研究を対象にメタアナリシスを行った場合,研究間で治療効果が均一であるかを評価することが できる.対象患者や,投与期間,投与量,併用方法等が微妙に異なった研究間で治療効果の変動が 小さく,同様の効果が認められれば,結果は一般化しやすく,広い集団に対して有効な治療である と評価できる.つまり,結果がどこまで一般化できるか(一般化可能性)を評価できるという点で, メタアナリシスは単独の無作為化臨床研究より優れている.研究間で治療効果が不均一である場合, その原因についてメタ回帰によって検討する必要がある. メタアナリシスでは方法論上,公表バイアス(publication bias)という非常に重要なバイアスの 影響を受ける可能性がある.統計的に有意な研究はそうでないものに比べて,公表されやすい傾向 にある.したがって公表された論文のみを収集してメタアナリシスを行うと,結果は有意な方向に 偏る.公表バイアスの統計学的な対処法としては既に多くの方法が提案されているが,本稿では大 きく3種類に分類する.第一の方法は,視覚的な評価や,統計学的検定による公表バイアスの検出 である.第二の方法は,公表バイアスが存在するときの結論の頑健性を評価するために感度分析を 行うことである.第三の方法は,公表バイアスを調整した統合効果を推定するものである. 本発表ではチュートリアルとして,MIXEDプロシジャを用いた固定効果モデル,変量効果モデル, メタ回帰の手順を示し,公表バイアスの対処法について解説する. キーワード:meta-analysis, meta-regression, publication bias, meta-regression 1.メタアナリシスの歴史と現状 - 262 ー

267.

医学分野では,最近メタアナリスの数が爆発的に増大している.Lau et al.(1998) は1970年代 にはわずか16のメタアナリシスが発表されたに過ぎなかったのが,1980年代には279,1990年から1 992年にかけては134,1996年だけで500以上が発表されていることを報告している.著者が医薬文 献の最大のデータベースMedlineで meta-analysis をキーワードとして検索した結果,1996年で は833件だったものが,10年後の2006年には3698件と4倍以上に増加していた.キーワードに a-analysis met という単語を含んでいる論文を検索したので,メタアナリシスについての方法論的研 究も含まれているが,メタアナリシスに関する関心が医学分野で高まっているのは疑いのないとこ ろである.EBM(Evidence Based Medicine)の流れの中で,現在では複数の無作為化臨床試験のメタ アナリスが,科学的証拠能力が最も高いとされている(Sackett et al.(2000),The American Socie 論文件数 ty of Clinical Oncology(1997)). 4000 3500 3000 2500 2000 1500 1000 500 0 1995 1997 1999 2001 2003 2005 2007 年 図1. メタアナリシスをキーワードとした医学論文数の経年変化 医学研究におけるメタアナリシスの意義は,1つの医学上の問題に対し独立に複数行われた研究 を統計学的に併合することによって,サンプルサイズの制約のため単独の研究では立証しにくい1) から5)の問題に答えることである(Whitehead(2002)). 1)治療効果についてより精度の高い推定値を得る. 2)あらかじめ設定したサブグループでの治療効果を評価する. 3)個別の研究では検出力が不十分である副次的な評価指標について効果を評価する. 4)特定のサブグループにおける安全性あるいは,稀な副作用発現率を精度高く評価する. 5)効果の研究間の変動について評価することによって,効果の一般化可能性について検討する. 通常単独の無作為化臨床研究で有意な結果が出たとしても,厳密な患者の適格基準・除外基準を 設けるため,対象患者集団は狭く,また薬剤の投与方法も厳密に規定されるので,広い集団につい て,投与条件等が多少異なったときに結果が再現できるかは判断できない.これに対してメタアナ リシスでは複数の研究を収集するので,対象患者の適格基準や,投与方法は研究ごとに異なること になる.このとき複数の研究で,薬剤効果が類似していれば,多少条件が変わっても結果は再現性 2 - 263 ー

268.

があり,一般化可能性が示唆されることになる.これに対して研究間変動が大きい場合は,全体で 有意であっても,患者層や投与条件が異なると効果の大きさが異なってくるので,一般化して広い 集団について同様の治療効果を再現できると結論付けることはできない.研究間で効果の異質性が 大きい場合に,特に効果の強い研究グループ・条件を特定できれば,臨床上の新たな仮説を提示し テーラーメード医療につながる重要な情報が得られる可能性もある. 本稿ではメタアナリスを理解する上で数理について2節で述べ,3節ではMIXED プロシジャによる メタアナリシス,4節で公表バイアスに対する統計学的対処法を示し,5節では公表バイアスに関す る最近の動向について述べる. 2.メタアナリシスの数理 メタアナリシスで統合効果を推定するためのアプローチは,2つに分類できる.固定効果モデル (fixed-effect model)と変量効果モデル(random-effect model)である.前者は,各研究で真の効 果の大きさは等しく,研究間で効果の推定値が異なるのは誤差的変動によるとみなす.後者は,研 究間で真の効果の大きさはある値を中心にして分布すると考える.更に変量効果モデルを拡張し, 研究間変動の要因を探索するため,効果の大きさと研究ごとに異なる対象患者,投与期間,投与量 等の研究の特徴を固定効果によってモデル化するメタ回帰(meta-regression)が行われることも多 くなっている. Hackshaw(1997)は受動喫煙と肺癌の関係を評価したメタアナリシスを行った.本稿ではメタアナ リシスの例題として,女性のみを対象とした37研究のデータを用いる.34個のケース・コントロー ル研究と3個のコホート研究から構成され,前者はオッズ比,後者は相対リスクを指標として統合 効果を計算した.本稿では,オッズ比と相対リスクを合わせて,リスク比とよぶことにする.この データについてはhttp://www.meta-analysis.com/で入手可能である. 1)固定効果モデル(fixed-effect model)(Mk 〜N(μ,Vk )) K個の研究結果を統合する場合で説明する. 各研究で,2群の平均値の差,オッズ比,ハザード比などの効果の推定値が得られており,これを M k (k=1,2,・・・,K)と表すことにする(オッズ比,ハザード比は通常対数変換してから効果を統合す る).本稿ではE[M k ]=0のとき効果がなく,帰無仮説が成立することを想定する.K個の効果指標を 統合するための素朴な方法は,Mk の算術平均を計算することである.各研究で症例数が大きく異な らないときは,算術平均はそれほど悪くはないが,研究間で症例数が大きく違い,推定精度が異な る場合は,単純な算術平均ではなく,推定精度が高い研究には大きな重みを与え,低い研究には小 さな重みを与える重み付き平均を計算する方が合理的である.各研究に与える重みをWk とすると, 重み付き平均Mは(1)式で表すことができる. K M  W  M k k 1 k (1) K W k 1 k この重み付き平均が固定効果モデルでのメタアナリシスで推定する統合効果Mとなる. 問題はどのような重みW k を与えるかであるが,一般にはMk の分散Vk の逆数に比例するようにWk を 定めると,統合効果の分散が重みの和(ΣWk )一定の下で最小になる.もし研究間で誤差的変動の大 きさが等しく,等分散性が成り立てば,Mk の分散は,各研究の症例数nk の逆数に比例するので,Wk は症例数nk そのものに設定すればよい. W k を1/ V k とした場合,統合効果の分散V[M]は簡単な数式演算により(2)式のようになることが示 3 - 264 ー

269.

される. V [M ]  1 K  Wk  k 1 1 (2) K 1  k1 Vk V k の小さな研究を収集する,または多くの研究を集めるとV[M]の分母ΣWk が大きくなるので,V [M]が小さく精度の高い推定を行なうことができる.これがメタアナリシスの利点である. M とV[M]から統合効果の有意性検定のZ統計量を導き,またMの信頼区間を構成することができる. M Z V [M ] 1 , CI : M z/ 2 V [ M ]  M z/ 2 K W (3) k k 1 正規近似を行なう場合,Z統計量を,正規分布の%点と比較することによって検定を行なうこと ができる.またzα / 2 は正規分布の上側α/2%点である.両側95%信頼区間を構成したい場合は, 正規分布の上側2.5%点である1.96を用いればよい. 研究ごとに,効果の大きさMk の2乗をその分散Vk で割ると,帰無仮説の下で自由度1のカイ2乗分 布にしたがう統計量χk 2 が構成できる.K個の独立な研究についてχk 2 を足し合わせると,完全帰無 仮説(E[Mk ]=0(k=1,2,・・・,K))の下で,自由度Kのカイ2乗分布にしたがう統計量χ2 が導ける.この χ2 は次のように分解することができる. K    k 2 k 1 2 K M  k k 1 V k 2 K (M k  M ) M2    Z2 Q Vk k 1 k 1 V k K 2 (4) すなわち, 全体のχ 2 は,重み付き平均Mの0からの隔たりを測るZ統計量の2乗と,重み付き平均から 個々の効果指標のズレを計る統計量Qに分解できる.Q統計量は(5)式のようなMk の重みつき平方和 として表すこともできる. K Q  Wk (M k  M ) 2 (5) k 1 完全帰無仮説の下でχ2 ,Q,Z2 はそれぞれ自由度K,K-1,1のカイ2乗分布にしたがう.研究間で真の 効果が均一であるかは,Qを自由度K-1のカイ2乗分布と比べることで検定を行うことができる.た だしQ統計量に基づく異質性の検定は一般に検出力が低いことに注意する必要がある. 次に受動喫煙データについて固定効果のメタアナリシスの適用例を示す. 正規近似がよくなるようにリスク比を対数変換してから統合効果を計算するとM=0.186となり,9 5%信頼区間は0.113〜0.258となる .元のスケールに戻すと,リスク比とその95%の信頼区間は1.20 (1.12〜1.29)となり,それほど強い効果ではないが,受動喫煙によって肺癌のリスクが増大するこ とがわかる.Z=5.02で統合効果はp<0.00001と高度に有意であり,また研究間の効果の異質性のQ統 計量は47.52で,自由度36のカイ2乗分布と比較すると,p=0.10と5%水準で有意ではないが,弱い研 究間変動が存在することがわかる. 固定効果モデルでは効果の大きさの推定値Mk の研究間の分布がN(μ,Vk )の正規分布にしたがうこ とを想定している.研究間の効果の大きさの違いは推定誤差の範囲で生じ,真値はμに等しいこと を仮定している. 2)変量効果モデル(random-effect model) (Mk 〜N(μ,Vk +τ2 )) 変量効果モデルでは,各研究の真の効果E[Mk ]が期待値μ,分散τ2 の正規分布N(μ,τ2 )にしたが 4 - 265 ー

270.

っていることを仮定する.このとき効果の大きさの推定値Mk の分布はN(μ,Vk +τ2 )となる. 研究間分散τ 2 を推定するには最尤法などの方法もあるが,反復計算が必要であり,モーメント 法によって推定するのが簡便である.この方法では前述の研究間の効果の異質性を評価するQ統計 量を利用して,τ2 を次のように推定する.  2 Q  ( K  1)   K K W  k 1 k Wk (6) 2 k 1 K W k k 1 Qは帰無仮説H0 :E[M1 ]=E[M2 ]=・・・=E[MK ]の下では,自由度K-1のカイ2乗分布にしたがい,この 分布の期待値はK-1である.この期待値よりもQが大きい場合は,研究間変動が存在することを意味 するのでτ 2 の推定値は正の値をとる.QがK-1を下回る場合は,τ2 の推定値は負の値となるがこの 場合には0で置き換える.この方法は考案者にちなんで,DerSimonian and Laird法とよばれる(Der Simonian and Laird(1986)).τ2 の推定値が求まると,変量効果モデルに基づいた統合効果MR は(7) 式のように推定される. K  Mk V  MR  K k 1 k 1  k 1 V [M R ]  K  2 *   2 Vk   1 K  k 1 W M k (7) K W * k k 1  K 1 Vk   k k 1  2 1 W (8) * k k 1  2 固定効果モデルの重み1/Vk に対して,変量効果モデルの重みはW* k =1/(Vk +  )と  2  2  の分だけ小さくなる.   0 の場合は,固定効果モデルの場合と重みが等しくなり,結果は完 全に等しくなる.分散を計算するときの分母の重みが少し小さくなるので,V[MR ]は固定効果モデ ルの分散V[M]と比べて大きくなり,これに伴い,変量効果モデルでは固定効果に比べて統合効果が  2 有意になりにくくなり,また信頼区間の幅が広がる.  に比べてVk が相対的にかなり小さければ, 各研究の重みは,症例数に依存した分散Vk に関係なく,全ての研究でほぼ等しくなる.  2 受動喫煙データに変量効果モデルを適用すると,   0.01992 と推定され,対数リスク比を指 標とした統合効果は0.216となる.各研究の重みが少しずつ低くなることにより,95%信頼区間は0. 122〜0.311と少し広くなる. 3)メタ回帰(MK 〜N(xk T β,Vk +τ2 )) 実際のメタアナリシスでは変量効果モデルを拡張して,研究間変動の要因を探索するため,効果 の大きさと研究ごとに異なる対象患者,投与期間,投与量等の研究の特徴を示すベクトルxk の関係 を固定効果によってモデル化することがある.このとき効果の大きさの推定値MK の分布にN(xk T β,V k +τ 2 )を想定してメタ回帰を行うことになる(Houwelingen et al.(2002)).メタ回帰の詳細につい ては,メタアナリシスの標準的な教科書を参照されたい(Sutton et al. (2000),Whitehead(2002) 5 - 266 ー

271.

表1. 受動喫煙データと固定効果モデルによる解析プログラム data smoking; input study e se @@;v=se**2;w=1/v;int=1; cards; 1 0.2310 0.1000 2 -0.0300 0.1120 3 -0.2360 0.1270 4 0.1660 0.1370 5 0.1820 0.1500 6 0.5010 0.1800 7 0.3720 0.1820 8 0.0580 0.1840 9 0.1740 0.1900 10 0.1480 0.1910 11 0.5070 0.2000 12 0.2070 0.2130 13 0.1040 0.2580 14 0.0770 0.2670 15 0.0300 0.2670 16 0.4380 0.2770 17 0.4190 0.2820 18 -0.2880 0.2820 19 0.0950 0.2940 20 0.7560 0.2980 21 0.1740 0.2990 22 0.4820 0.2990 23 0.6980 0.3130 24 0.4700 0.3370 25 0.7700 0.3520 26 0.5070 0.4190 27 -0.3010 0.4250 28 -0.2230 0.4390 29 0.0300 0.4660 30 0.7280 0.4770 31 0.1820 0.4810 32 0.8500 0.5410 33 0.8200 0.5630 34 -0.2360 0.5820 35 0.9360 0.6310 36 0.4190 0.6960 37 0.7030 0.7350 ; proc mixed data=smoking method=ml; class study; model e=int/ s cl ddf=1000 noint; repeated /group=study; parms (.01000)(.01254)(.01613)(.01877)(.02250) (.03240)(.03312)(.03386)(.03610)(.03648) (.04000)(.04537)(.06656)(.07129)(.07129) (.07673)(.07952)(.07952)(.08644)(.08880) (.08940)(.08940)(.09797)(.11357)(.12390) (.17556)(.18063)(.19272)(.21716)(.22753) (.23136)(.29268)(.31697)(.33872)(.39816) (.48442)(.54023)/eqcons=1 to 37; ods output solutionf=out; 3.MIXED プロシジャによるメタアナリシス MIXEDプロシジャは,正規分布型の計量型データに対してモデル化するプロシジャであるが,研 究ごとに要約された効果の指標を用いてメタアナリシス(summary data meta-analysis)を実行する 6 - 267 ー

272.

ことができる.MIXED プロシジャを用いて,前述の固定効果モデル,変量効果モデルを仮定したメ タアナリシスを行う方法,およびメタ回帰によって研究間変動の要因を評価する方法を紹介する. なお,表1のように各研究の効果の推定値とその分散がデータセットとして与えられた状況を考え る. 1)固定効果モデル(fixed-effect model) (Mk 〜N(μ,Vk )) MIXED プロシジャは線形混合モデル(linear mixed model) を用いた解析を行うためのプロシジ ャであるが,広範な機能を利用して,メタアナリシスを行うこともできる. repeated /group=study; のように,MIXED プロシジャのREPEATED文のGROUP=オプションで研究を表す変数を指定することで, 研究ごとに分散構造が異なることを指定できる.またMIXED プロシジャのPARAMS文で,変量成分の 初期値を指定することができるが,EQCONS オプションを指定することで,初期値に分散を固定し 推定の対象外にすることができる.このREPEATED文とPARAMS文を組み合わせることで,効果の大き さの推定値M k の研究間の分布がN(μ,Vk )の正規分布にしたがうようにモデル化することができる. すなわちデータから分散を推定するのではなく,分散をVk に固定できる.固定効果モデルに基づく, 受動喫煙のメタアナリシスのプログラム例は表1のようになる.データセットSMOKINGは研究が1つ の観測値に対応し,37研究から成り立ち,変数Eが対数リスク比,SEがその標準誤差を表している. MODEL文におけるddf=1000の指定は,誤差の自由度を大きくして,正規近似に基づいた推測を行う ための指定である.この指定を行わないと自由度がN-1=36のt分布に基づいた検定,信頼区間の構 成を行うが,個別データを直接の解析対象としているわけではないので実際の自由度はもっと大き い.各研究で症例数がある程度大きければ,効果の推定値の分布は,正規近似が可能である.MODE L文で,全ての研究で共通に1をとる変数INTを指定する.この変数は全ての研究に共通の統合効果 μに対応する. repeated /group=studyによって,研究ごとに効果の推定値の分散が異なり,その 分散の値(SEの2乗)を37研究分PARAMS文で初期値として指定し,eqcons=1 to 37によって,初期値 から動かさないように分散を固定している.出力結果は表2のようになる.対数リスク比を統合した 点推定値は0.1858となり,95%信頼区間は0.1132〜0.2583となる .効果の大きさ自体はそれほど大 きなものではないが,検定の結果は高度に有意になることがわかる.F値はZ統計量である5.02を2 乗したものである.t統計量,F統計量が出力されるが,誤差の自由度が1000と十分大きいので,そ れぞれのp値は正規分布,自由度1のカイ2乗分布に基づいて計算しているとみなすことができる. 表2. 固定効果モデルによる解析結果 Solution for Fixed Effects Standard Effect Estimate Error DF t Value Pr > ¦t¦ Alpha Lower Upper int 0.05 0.1132 0.2583 0.1858 0.03698 1000 5.02 <.0001 Type 3 Tests of Fixed Effects Num Den Effect DF DF F Value Pr > F int 1 1000 25.24 <.0001 ODS文でメタアナリシスの結果得られた推定値をデータセットに出力することができる.出力デ ータセットの変数を加工することで,対数リスク比をリスク比に変換できる.変換のプログラムは 表3のようになる. 表3.ODS出力の加工プログラム data out;set out; 7 - 268 ー

273.

estimate=exp(estimate);lower=exp(lower);upper=exp(upper); proc print; 出力結果は表4のようになる. 表4.ODS出力の加工結果 OBS Effect Estimate 1 int 1.2041 DF 1000 tValue 5.02 Probt <.0001 Alpha 0.05 Lower 1.1199 Upper 1.2940 元のスケールに戻すと,リスク比とその95%の信頼区間は1.2041(1.1199〜1.2940)となる. 研究間の効果の異質性を検討すするためには,変数studyをMODEL文で固定効果として指定する必 要がある.プログラム例は表5のようになる. 表5.研究間の効果の異質性検定のプログラム proc mixed data=smoking method=ml; class study; model e=study/ s cl ddf=1000 ; repeated /group=study; parms (.01000)(.01254)(.01613)(.01877)(.02250) (.03240)(.03312)(.03386)(.03610)(.03648) (.04000)(.04537)(.06656)(.07129)(.07129) (.07673)(.07952)(.07952)(.08644)(.08880) (.08940)(.08940)(.09797)(.11357)(.12390) (.17556)(.18063)(.19272)(.21716)(.22753) (.23136)(.29268)(.31697)(.33872)(.39816) (.48442)(.54023)/eqcons=1 to 37; ods output solutionf=out; 出力結果は次のようになる. 表6.研究間の効果の異質性検定の出力 Type 3 Tests of Fixed Effects Num Den Effect DF DF F Value Pr > F study 36 1000 1.32 0.1001 研究間の効果の異質性の検定のp値は0.1001と5%水準で有意ではないが,弱い研究間変動が存在 するようである.F統計量1.32に自由度36をかけると47.52となり,これは研究間の異質性のQ統計 量に一致する. 重み付き平均と異質性のQ統計量を計算するだけなら,MEANSプロシジャで,WEIGHT文を使用する ことで可能である.プログラムは表7のようになる. 表7. MEANSプロシジャによる重み付き解析のプログラム proc means data=smoking mean css; var e;weight w;run; WEIGHT文で分散の逆数を重みとして指定することで,重み付き平均が計算される.CSSは平方和を計 算する指定であるが,(5)式が示すように,Q統計量は重み付き平方和であり,CSSはQ統計量に一致 する.実行結果は表8のようになる. 平均値が統合効果M,修正平方和がQ統計量に相当する. 表8. MEANSプロシジャによる重み付き解析の出力 8 - 269 ー

274.

分析変数 : e 平均値 修正平方和 ---------------------------0.1857706 47.5156167 ---------------------------2)変量効果モデル(random-effect model) (Mk 〜N(μ,Vk +τ2 )) 変量効果モデルに基づく,受動喫煙のメタアナリシスにおけるプログラムは表9のようになる. 表9. 変量効果モデルによる解析プログラム proc mixed data=smoking method=ml; class study; model e=int/ noint s cl ddf=1000 ; random int/subject=study s ; repeated /group=study ; parms (0) (.01000)(.01254)(.01613)(.01877)(.02250) (.03240)(.03312)(.03386)(.03610)(.03648) (.04000)(.04537)(.06656)(.07129)(.07129) (.07673)(.07952)(.07952)(.08644)(.08880) (.08940)(.08940)(.09797)(.11357)(.12390) (.17556)(.18063)(.19272)(.21716)(.22753) (.23136)(.29268)(.31697)(.33872)(.39816) (.48442)(.54023)/eqcons=2 to 38; ods output solutionf=out; MODEL文で,全ての研究で共通に1をとる変数INTを指定する.この変数は研究間の効果の母平均 μに対応する.またRANDOM文を追加することで,変量効果として研究間変動τ2 の存在をモデル化し ている. PARAMS文では,研究間変動τ2 と各研究の効果の推定値の誤差分散Vk の計38個の初期値を指 定する必要がある.研究間変動τ2 の初期値を0と置いているが,τ2 は推定の対象であるので,初期 値で固定しているのは,2番目から38番目の分散である(eqcons=2 to 38). 出力結果は表10のようになる. method=mlを指定しているので,最尤法によって研究間分散τ2 を推定する.結果は初期値0に対 して,0.01992に推定される.これに対し,研究ごとの効果の分散は初期値に固定されたままで出 力される.対数リスク比は0.2164,その95%の信頼区間は0.1220〜0.3109と出力される.信頼区間 は固定効果モデルの場合と比べて少し拡がってしまう. 表10. 変量効果モデルによる出力結果 Covariance Parameter Estimates Cov Parm Subject Intercept study Group Estimate 0.01992 9 - 270 ー

275.

Residual study 1 0.01000 Residual study 2 0.01254 Residual study 3 0.01613 : Solution for Fixed Effects Standard Effect int Estimate Error DF t Value Pr > ¦t¦ Alpha Lower Upper 0.2164 0.04814 1000 4.50 <.0001 0.05 0.1220 0.3109 Type 3 Tests of Fixed Effects Num Den Effect DF DF F Value Pr > F int 1 1000 20.21 <.0001 3)メタ回帰(MK 〜N(xk T β,Vk +τ2 )) メタ回帰を行う場合,表9のプログラムでMODEL文で=の後ろで,切片項を表す変数INTに加えて研 究単位で異なる値をとる共変量を固定効果として指定する.固定効果によって研究間変動が説明で きれば,研究間分散τ2 は小さく推定されるようになる.メタ回帰のMIXEDプロシジャによる実際の 実行方法については,大腸癌の補助化学療法についての長谷川等(2005)の適用例を参照されたい. 4.公表バイアスに対する対処 メタアナリシスでは方法論上,公表バイアス(publication bias)という非常に重要なバイアスの 影響を受ける可能性が高い.有意な結果が得られた研究と,そうでない研究があったときにどちら が公表されやすいかは自明なことである.研究論文では新規性が要求されるので,有意な結果の方 が採択されやすくなる.これを公表バイアスとよぶ.したがって公表された研究のみを収集してメ タアナリシスを行なうと,結果は有意な方向に偏ることになる. 公表バイアスは狭義には,出版のされ方に関するバイアスであるが,ここでは広義の意味で公表 バイアスを「研究の選択バイアス」と定義することにする.公表バイアスについて,Egger and Sm ith(1998)は表11のように分類した. 表11.公表バイアスの分類(Egger and Smith, 1998) Publication bias(出版バイアス) English language bias(英語バイアス) Database bias(データベースバイアス) Citation bias(引用バイアス) Multiple publication bias(多重投稿バイアス) Bias in provision of data(データ提供に関するバイアス) 公表バイアスの統計学的な対処法としては既に多くの方法が提案されているが,ここでは大きく 3種類に分類する.第一の方法は,視覚的な評価や,統計学的検定による公表バイアスの検出であ る.第二の方法は,公表バイアスが存在するときの結論の頑健性を評価するために感度分析を行う ことである.第三の方法は,公表バイアスを調整した統合効果を推定するものである. 10 - 271 ー

276.

4.1 公表バイアスの検出 公表バイアスについて視覚的に評価するためのプロットがいくつか提案されているが,最もよく 用いられるのがfunnelプロットである(図2参照).このプロットは各研究の効果の推定値を横軸, 縦軸に効果の推定精度の逆数をとったものである. funnelプロットの軸の選び方には例えば各研 究の症例数を縦軸にとることもあり,軸の選択肢とそれぞれの利点・欠点についてはSterne and E gger(2001)がまとめている.オッズ比を評価指標とした場合,オッズ比を横軸に,オッズ比の標準 誤差の逆数をとることが多い.あるいはオッズ比の代わりに対数オッズ比をプロットすることもあ る.オッズ比が1を下回るとき,薬剤効果があることを想定すると,症例数が大きく精度がよい研究 は,上方でほぼ真値の近くに布置される.これに対し推定精度が悪い研究は, 下方で真値を中心に 広い範囲に分布するはずであるが,公表バイアスがなければ左右対称にばらつくはずである.症例 数が少なく,ネガティブな研究が隠される傾向がなければ,全体的には,漏斗(funnel)を逆さにし 効果の標準誤差の逆数 効果の標準誤差の逆数 たような三角形になる.これに対し公表バイアスが存在すると,右下の部分が欠け非対称形になる. positive neg ative positive 治療効果( M ) 治療効果( M ) 公表バイアスなし 公表バイアスあり negative 図2.funnelプロットと公表バイアス 医学研究における公表バイアスの診断方法としてfunnelプロットの利用はBegg and Berlin(198 8)の論文によって促進された. Rothstein et al.(2005)がLancetなどの5つの主要な医薬ジャーナ ルのメタアナリシスをレビューした結果,funnelプロットの利用が近年, 劇的に増えていることが 示されている.funnelプロットの利用は1993〜1996年は5%未満であったが,2001年と2002年は45% を越えていた.更にEgger et al.(2003)は,少なくとも一つ以上の未公表論文を含む,58のメタア ナリシスで,未公表研究を除いてfunnelプロットを作成するとより左右非対称性が顕著になること を報告している. ただしfunnelプロットによって公表バイアスが評価できる前提として,精度が小さい研究から大 きな研究まである程度,縦軸がばらつく必要がある.観察研究のように,症例数設計が行いにくい 場合は,精度は相対的に大きくばらつくはずであるが,無作為化臨床試験のように厳密な症例数設 計を行う場合は,精度が研究間でばらつきにくいため,funnelプロットによる公表バイアスの視覚 11 - 272 ー

277.

的検討は困難となる. funnelプロットは左右対称であれば横軸と縦軸の相関は0になる.公表バイアスが存在する場合 は,オッズ比が1を上回り,症例数が少ない研究結果は公表されにくく,右下方部分が欠けるので, funnelプロットは左右対称でなくなり,相関が生じる.したがって相関係数が0かを検定し,棄却 されれば,有意な公表バイアスが存在することになる.Begg and Mazumdar(1994)は,効果の推定 値の分散が1になるように基準化した上で,funnelプロットのKendallの順位相関係数を計算し, 公表バイアスの有無を検定することを提案している.SASではKendallの順位相関係数の計算はCORR プロシジャを用いて可能である.またEgger et al.(1997)はradialプロット(横軸:分散Vの平方根, 縦軸:正規化検定等計量Z)に基づいた,公表バイアスの検定方法を提案している.しかしながら公 表バイアスだけがfunnelプロットの非対称性の理由ではないことに注意しなければならない.例え ばEgger et al.(2003)はサンプルサイズが小さな研究は,大きな研究と比べて,平均してデザイン 効果の標準誤差の逆数 と解析の質が高くなく,その結果としてfunnelプロットが非対称になる可能性を指摘している. 効果の大きさ(logRR) 図3.受動喫煙データのfunnelプロット 受動喫煙のメタアナリシスのfunnelプロットを図3に示す.横軸に対数リスク比,縦軸に標準誤 差の逆数をとっている.左下方の研究が欠けて左右非対称になっている.サンプルサイズが小さく, 受動喫煙が肺癌に対する下げる場合は,公表されにくくなるのが原因と考えられる.Begg and Maz umdar法を適用し,Kendallの順位相関係数が有意に0と異なるか検定すると,p=0.21と5%水準で有 意とならないが,Egger法ではp=0.024と有意になり,公表バイアスの影響が危惧される. 4.2 結論の頑健性の評価(感度分析) 英語では failsafe N あるいは file-drawer number の解析とよばれる. メタアナリシスで有意な結果が得られても,ネガティブな研究が隠されたことによって有意にな った可能性がある.そこで有意な結果を覆すのに必要なネガティブな論文数(failsafe N)を推定す ることによって,検定結果の頑健性を評価する方法が提案されている.failsafe Nが大きいと,相 当大きな公表バイアスがない限りは,結論は覆らないわけで,研究の収集にもれがあっても結論は 安全ということになる.あるいは研究者の引き出しの中に眠っているネガティブな研究を引っ張り 12 - 273 ー

278.

出す問題ということで file-drawer problem とよばれる.Rosenthal(1979)はネガティブな研究 が,片側検定でp値が0〜1に一様に分布する場合を想定した.以下これをRosenthal法とよぶ.Rose nthal(1979)では,片側有意水準α%で有意な結果を覆すのに必要な未公表研究数Nは(9)式によって 推定される.ここで 2  K  Zk  M N   k 1   K , Z k  k  Z  Vk   (9) ここでZα は標準正規分布の上側α%点である. これに対しIyengar and Greenhouse(1988)はネガティブな研究は有意にならないので,p値が有 意水準α〜1に一様分布すると想定した.これがIyengar and Greenhouse法である.有意な結果を 覆すのに必要な研究数が十分大きければ,公表バイアスによって,数研究程度が隠されていたとし ても有意という結論が覆ることはなく,検定結果の頑健性が示されることになる. 受動喫煙のメタアナリシスの failsafe N を計算してみると,Rosenthal法では398,Iyengar and Greenhouse法では103研究であり,これはメタアナリシスの対象研究数37よりかなり大きいの で,公表バイアスで隠れたネガティブな研究があったとしても,有意な関連があるという結論が覆 ることはなさそうである.この他にも複数のp値を併合するFisher法で有意差が観察されなくなる のに必要な failsafe N を用いることも提案されている(Rothstein et al. (2005)).受動喫煙 のメタアナリシスではこの方法の 4.3 failsafe N は79研究となる. 公表バイアスを調整した統合効果の推定 検定結果の頑健性を評価するだけでなく,統合効果の推定値が公表バイアスによって,どの程度 影響を受けているか感度分析を行う必要がある.このため公表のメカニズムに何らかの明示的なモ デルをおいて, 公表バイアスを調整した統合効果の推定を行う. 1) Selection model(選択モデル)法 公表バイアスを調整するには,観察される研究の効果が,公表される段階で選択される過程につ いてモデル化する必要がある.これを selection model とよぶ.このモデルでは,選択過程を規 定するために1つ以上のパラメータを持つ.一般的にこれらのパラメータの値は未知である.一つの 方針は観察された研究データを用いて,パラメータを推定することである.しかしながら, ction model sele のパラメータをデータから推定することは困難であり,特に対象研究数が少ないと きは不可能に近い. これに対する一つの対処法は,公表バイアスの影響を調整した統合効果を計算するに当たっ て, selection model のパラメータに特定の値を解析者自身が指定することである.これによ り,統合効果の推定に特定の大きさの公表バイアスが与える影響を評価することが可能になる. Iyengar and Greenhouse(1988)はメタアナリシスの selection model を記述するために重み 関数を用いた.Mを研究の選択がない場合の効果の大きさを表す確率変数とし,その密度関数をf(m ¦θ)とする.θが効果の大きさを規定するパラメータである.選択過程と観察された効果指標Mの 尤度への寄与を示すために非負の重み関数w(m¦ω)を導入する.w(m¦ω)はパラメータωによって, 効果指標Mが与えられたときの相対的な公表のされやすさを規定する.このとき観察された効果指 標Mの重み付きの確率密度関数g(m¦θ,ω)は 13 - 274 ー

279.

g (m |  ,  )  w( m |  )  f (m |  ) (10)  w(m |  )  f (m |  )dm となる.w(m¦ω)が1でなければ,選択過程のない確率密度関数f(m¦θ)と選択過程がある(10)式の 密度関数g(m¦θ,ω)が異なり,この違いが公表バイアスをモデル化していることになる.任意の重 み関数について,観察された研究の効果を用いて,g(m¦θ,ω)をθとωの両方について最大化する ことで,θの最尤推定量を求めることができる.大きく分けて2種類の重み関数がメタアナリシス では提案されている.一つは重みが片側p値あるいはそれと等価であるがZ統計量のみに依存するモ デルである(Hedges(1992).Iyengar and Greenhouse(1988)).これに対し,他方のモデルは観察さ れた効果の大きさの推定値Mとその分散Vの別々の関数として重みが表される(Copas(1999),Copas a nd Shi(2001)) 前者の最も単純なモデルは,(11)式のようにp値を区分して,階段状の関数として重みを定義す るものである. 例えば重み関数を 1 , if 0.00  p  0.05,  , if 0.05  p  0.10,  w( p)   2 3 , if 0.10  p  0.50,  4 , if 0.50  p  1.00 (11) と定義して受動喫煙データに適用すると,対数リスク比に相当する統合効果の推定値は0.130と低 下する.また95%の信頼区間は-0.123〜0.383となり,有意でなくなる.ただし,この例ではωにつ いても,推定の対象にしているので,推定が非常に不安定である.実際重みωの大きさはp値に対 して単調には減少してなかった. selection model では,このように公表メカニズムを明示的 に想定する必要があるが,現実には正確な公表メカニズムを特定するのは困難である. 2) Trim and fill法 Dual and Tweedie(2000)は特定の公表メカニズムを仮定する必要がないtrim and fill法を提案 した. 前述のように公表バイアスが存在しなければfunnelプロットは左右対称になる.そこで非対 称なプロットを対称にするのに必要な研究数(未公表論文数の推定値)を推定し,その分だけ研究 を削除(trim)して,その後削除した研究をfunnelプロットに左右対称に配置し(fill),人工的に 左右対称にした後で効果の再推定を行う方法である(図4参照).Dual and Tweedie(2000)は 負の二 項分布に基づいて,対称にするのに必要な研究数の推定法を提案している. 14 - 275 ー

280.

左右対称になるように左右に fill 効果の標準誤差の逆数 左右対称になるように右から trim 効果の大きさ(logRR) 図4.受動喫煙データに対するtrim and fill法の適用結果 左右対称に近づけた後で,効果の推定値が大きく変化するようであれば,公表バイアスの影響を 強く受けているし,そうでなければ公表バイアスの影響は小さいといえる.trim and fill法は,M etaWin等のメタアナリシスの専用ソフトウエアで利用可能であり,また汎用的な統計パッケージSA Sでもマクロが提供されている(松岡,浜田(2003)).受動喫煙データにtrim and fill法を適用する と,解析対象となった研究数37に対して,左右対称にするために7つの研究が必要であると推定さ れた.右から効果の大きさ(logRR)の順に7つの研究を削除し(trim に統合効果を中心に左右に7つの研究を追加したところ(fill 図4左),左右対称になるよう 図4右),対数リスク比は0.174, 95% の信頼区間は0.077〜0.270と少し小さくなった. ただしSterne(2000)はシミュレーション実験によって公表バイアスがなくても,trim and fill 法は誤差変動によって過剰に補填する傾向があることを示している.またTerrin et al.は(2003) 研究間で効果の異質性が存在すると,trim and fill法の調整は不適切になることを報告している. 3) Copas and Jackson 法 selection model の妥当性は,仮定した重み関数すなわち公表メカニズムの妥当性に依存す るし,trim and fill法は公表バイアス以外の理由でも左右非対称になったり,未公表研究数の推 定が不安定になる等の問題がある.これに対し,Copas and Jackson(2004)はあらゆる公表メカニズ ムの中で最悪の場合のバイアスの大きさを推定する方法を提案し,バイアスの最大値の絶対値は, n  l  1  n   Vk    bias   1 n   n  l    Vk 0 .5 (12) となることを示した.ここでnは公表された研究数,lは未公表の研究数,Vk は観察された研究の効 果の分散の推定値,φ()は標準正規分布の確率密度,Φ()は標準正規分布の累積確率を表す. lが大きく,また分散Vが大きいときは,偏りは大きくなる.未公表研究数をある範囲に想定し て,統合効果が最悪でどの程度,公表バイアスの影響を受けるか感度分析を行う方法である. 15 - 276 ー

281.

表12. Copas and Jackson 法のプログラム data smoking;set smoking; s1=1/se;s2=1/se**2;z=e/se; proc summary data=smoking;var s1 s2;output out=out sum=; data out;set out; s=s1/s2;n=37; do l=1 to 37; percent=n/(l+n); z=pdf('normal',probit(percent)); b=z*s/percent; output; end; proc gplot; plot b*l; 最大のバイアス(b) symbol1 i=spline v=star; 未公表研究数(l) 図5.未公表研究数と最大のバイアス 受動喫煙の例で,未公表研究数lを1から37まで変化させたときの,対数リスク比のバイアスの 最大値の算出プログラムを表12に結果を図5に示す.l=37で半分の研究が未公表として隠されてい る場合は,バイアスの大きさは最大で0.15程度になる.これに対し固定効果モデルの対数リスク比 は0.186であるので,バイアスを除くと対数リスク比は0.036となる.したがって公表バイアスの影 響によって,受動喫煙は見かけ上肺癌のリスクをあげている可能性が大きい.これに対し,l=5の ときバイアスは0.04程度であり,未公表研究数がこの程度であれば,公表バイアスの影響は大きく ないといえる.ただしこの方法を適用するには未公表研究数を想定する必要がある. 16 - 277 ー

282.

4)松岡の方法 松岡の方法は,公表確率(pp)がp値の増加に対して単調減少し,確率的に変化することを想定す る(Matsuoka et al.(2007)).Z統計量に対して,片側p値は単調に減少するので,Z統計量と公表確 率の間にロジスティック関数を想定する.松岡の方法では公表される確率の逆数で重みを付けて, 公表されにくい(p値が大きい)研究の重みを大きくする.このように公表確率をモデル化すると, Z のすべての取りえる値域[-∞,∞]に対して,公表確率の値域は[0,1]に収まる. pp  1 1  exp( a  b  Z ) (13) ロジスティック関数のパラメータaとbについては,いくつかの研究で,統計学的に有意な研究は そうでない研究に比べて数倍公表されやすいことが報告されている.Easterbrook et al.(1991)が, 5つの倫理委員会に研究計画が提出された1215の臨床研究を評価した結果では,有意な研究はそう でない研究に比べて,オッズ比で3倍程度 (95% CI 2.3〜3.9)公表されやすかったことを示してい る.また,Dickersin et al.(1992)も統計学的に有意な研究結果は,3倍程度(95% CI 2.0〜5.8) 公表されやすいことを報告している. 松岡は,帰無仮説の下でZが標準正規分布にしたがうときに,有意でない場合と比較した有意で あるときの公表確率の比が E  pp | Z  z  ≒3 E  pp | Z  z  となるように設定することを提案した.この制約を満たすa,bの組み合わせは無数に存在するので, αが0.05のとき論文の受理されやすさに応じて,A〜Cの3通りのパラメータの組み合わせを示した. A : pp  1 , 1  exp( 1.1  1.5  Z ) B : pp  1 , E[ pp]  0.24 1  exp( 1.4  1.0  Z ) C: pp  1 , 1  exp( 1.8  0.8  Z ) E[ pp ]  0.31 E[ pp ]  0.17 A,B,Cの順で,公表確率の期待値が低下し,公表されにくくなっている.松岡の方法は従来の重 みに,公表確率の逆数を積算したものを Wi  Wi  * 1 1   1  exp( a  b  Z i ) pp i Vi (14) を新たな重み関数と定義し,統合効果M* を計算する. K W  M * M *  k 1 K k (15) W k 1 k * k 統合効果Mの分散と信頼区間CIはそれぞれ(16)式と(17)式のようになる. 2   1   K W  ( pp )  2 Var[ M ]   K i  1    i1 i W ( pp )   i i  i 1  (16) CI: M  z / 2  M (17) * * * 松岡は,公表確率の期待値を誤特定しても,有意でないときと有意なときの公表確率比を正しく 17 - 278 ー

283.

見積もることができれば,適切な補正が行えることをシミュレーション実験によって示した.重み を修正すれだけなので,計算が簡単なのも利点である. 松岡の方法でAの公表確率の期待値が高いモデルを用いた,プログラム例を表13に示す. 表13. 松岡の方法のプログラム *** Setting parameters ************************************************; %LET a =1.1; * parameter of the high probability model; %LET b =1.5; * parameter of the high probability model; %LET alpha = 0.05; * significance level; ***********************************************************************; /* Calculate publication probability for each study by high probability model */ data smoking;set smoking; zi = e/ se; ppi = 1/(1+exp(-&a. - &b.*zi)) ; * probabilty model ; wi = 1/se**2 ; wi2 = wi * (1/ppi) ; * wi2: modified weight in the proposed method; /* Calculate a corrected overall effect by the proposed method */ proc means data = smoking noprint; var e; weight wi2 ; output out=dsout1 mean=mean ; * mean: corrected overall effect ; /* Caluculate variance and confidential interval for corrected overall effect */ data variance; set smoking; pp2 = 1/ppi**2; term2 = wi * pp2; * term2: wi x (1/pp̲i**2) ; proc means data=variance noprint; var wi2 term2; output out=var2 sum=x y; data var2; set var2; var = (1/x)**2 * y; se = sqrt(var); * se: Standard error for corrected overall effect; data final2; merge dsout1 var2; LCI = mean - PROBIT(1 - &alpha./2)*se ; * LCI: Lower confidencial interval; UCI = mean + PROBIT(1 - &alpha./2)*se ; * UCI: Upper confidencial interval; Z = mean/se ; P =( 1-probnorm(abs(Z)))*2 ; title1 "High probability model"; proc print; 表14. 松岡の方法の結果出力 18 - 279 ー

284.

mean 0.045259 se 0.050296 LCI -0.053319 UCI 0.14384 Z 0.89986 P 0.36820 対数リスク比は0.045, 95%の信頼区間は-0.053〜0.144となり,信頼区間が0を含むことから統合 効果は有意ではなく,公表確率比で3倍程度の公表バイアスが存在したことによって,有意な関連 が見かけ上観察された可能性が示唆された. 5) 4種類の公表バイアスの補正法の特徴比較 表15に4種類の公表バイアスの補正法の特徴を比較した結果を示す.trim and fill法は,funnel プロットを左右対称にするような研究数kを推定し,効果の大きなものからk個の研究を,小さな方 向へ左右対称になるように補填する.このことは,公表メカニズムとして,効果の小さいk番目の 研究までが公表バイアスによって隠されることを想定している.これに対し,Copas and Jackson 法は,最大のバイアスを与える公表メカニズムを想定しているが,これは有意性が低い(p値が大き な)上位k研究が,未公表になることを想定していることに相当する.trim and fill法とCopas and Jackson法はそれぞれ,効果,有意性が低いk研究が全て,決定論的に未公表になることを想定し ているのに対し,Selection modelと松岡の方法は,公表の有無に確率的要素を加えている.前者 は公表確率に関するパラメータをメタアナリシスの対象データから推定するか,解析者自身が与え る.後者は,既存の公表バイアスに関する調査結果から公表確率に関するパラメータを決定してい る. 表15. 公表バイアスの補正法の比較 方法 公表確率の想定 特徴 受動喫煙への適用 Selection model p値の大きさあるいは効果の大 データ自身に基づい 対数リスク比:0.130 選択モデル法 きさに確率的に依存 て,公表確率に関す (-0.123〜0.383) る母数を推定 Trim and fill 効果の大きさに決定論的に依 Funnel plotに左右対 対数リスク比:0.174 存 称になるように研究 (0.077〜0.270) を追加 C o pas and Jacks p値の大きさに決定論的に依存 on 未公表研究数を想定 5未公表研究で0.04の して,最大バイアス バイアス の大きさを推定 松岡法 p値の大きさに確率的に依存 既存文献に基づい 対数リスク比:0.045 て,公表確率に関す (-0.053〜0.144) る母数を与える 受動喫煙データ: 対数リスク比:0.186 95%CI:0.113〜0.258 以上示してきたように,公表バイアスの影響の統計学的検討については既に様々な方法が提案さ れているが,どれも一長一短があり,公表されている研究のみをメタアナリシスの対象にした場合 は,結果の解釈はかなり慎重に行なわなければならない.また論文に記載されている情報のみでは, 様々な解析を行うためには不十分なことが多く,原著者に連絡をとって,個別データを入手するの が望ましい.網羅的に研究を収集できなくても,結果に依存せずに全ての研究を等確率で入手でき れば公表バイアスを避けることができる.このためには,結果が出る前に,どの研究をメタアナリ シスの対象にするか宣言する,前向きメタアナリシスが有効である. 19 - 280 ー

285.

表16に代表的なメタアナリシスのソフトウエアについての公表バイアスに関連した機能をまとめ た.funnelプロットは4つのソフトウエアの全てで可能である.またCMAとMetaWinはほぼ同等の機 能を有している. 表16. 代表的なメタアナリシスのソフトウエアと公表バイアスに関連した機能 CMA (2.0) STATA (8.2) RevMan (4.2) MetaWin (2.0) Funnel plot ○ ○ ○ Begg and Mazumdar’s rank correlation ○ ○ ○ Egger’s r egression ○ ○ ○ Failsafe N ○ Duval and Tweedie’s tr im and fill ○ ○ ○ ○ CMA(Compr ehensive Meta-Analysis): www.meta-analysis.com STATA: www.stata.com RevMan: http://www.cochrane.org/software/download.htm MetaWin: www.metawinsoft.com 5.終わりに Feinstein(1995)はメタアナリシスのことを「21世紀の統計学的錬金術」 for the 21st century と皮肉った.これは,メタアナリシスに及ぼす様々なバイアスの影響を 危惧してのものである.「ゴミも積もれば山となる」といわれるが,逆に ut Statistical alchemy Garbage in Garbage o ともいわれる.メタアナリシスの大家Buyseは No statistical technique will ever yield from data of dubious quality. good results と言っている.対象とする個々の研究の質が低ければ,いくらメタアナリシスを行なっても,ゴミ の山ができるだけである. 無作為化臨床試験のメタアナリシスは科学的証拠能力が最も高い研究方法であると考えられてい る.しかしメタアナリシスであれば,全て科学的証拠能力が高いわけではない.質の高い臨床試験 を対象とし,様々なバイアスに対して細心の注意をはらったメタアナリシスのみがEBMの重要な根 拠となり得る. 公表バイアスを根源的に防ぐためには,臨床試験の登録制を実現し,結果にかかわらず,研究に 関する情報を入手することを可能にすることである.2004年9月の医学雑誌編集者国際委員会 (Int ernational Committee of Medical Journal Editors : ICMJE)の声明によると(http://www.icmje. org/clin̲trial.pdfより入手可能)、New England Journal of Medicine(米国),Lancet(英国) などの欧米の有名医学雑誌の編集者で構成されている国際委員会は,臨床試験の規模や内容などを 事前に公表(登録)しない限り,論文は掲載しない方針を明らかにしており,2005 年の7 月以降, 欧米,オーストラリアなどの11 誌で実施されている.これにより,医学雑誌に投稿する研究の事 前登録制が始まった.我が国でもUMIN臨床試験登録システム等(2007年6月10日現在,666の臨床試 20 - 281 ー

286.

験が登録)の運用が開始されている. 最終的に公表されない研究もデータベースには登録されることとなり,未公表研究の数が明らか になる.したがって,公表バイアスに対する根源的な対策が可能となる.しかし,臨床試験は計画 から結果報告までに10 年近く掛かることも珍しくなく,この事前登録制度が浸透し,公表バイア スを軽減するには少なくとも10 年は必要であると思われ,まだ当分の間は,公表バイアスの影響 を統計学的に検討するために,提案されている複数の方法を適用して,結論の頑健性を検討せざる をえないだろう. 参考文献 Begg, C.B. and Berlin, J.A. (1988). Publication bias: A problem in interpreting medical data. Journal of the Royal Statistical Society(Seris A) 151, 419-463. Begg, C.B. and Mazumdar, M. (1994). Operating characteristic of a rank correlation test for publication bias. Biometrics 50, 1088-1101. Copas, J.B. (1999). What works? Selectivity models and meta-amalysis. Journal of the Roy al Statistical Association(Series A) 162, 95-109. Copas, J.B. and Shi, J.Q. (2001). A sensitivity analysis for publication bias in systema tic reviews. Statistical Methods in Medical Research 10, 251-265. Copas, J. and Jackson, D. (2004). A bound for publication bias based on the fraction of unpublished studies. Biometrics 60, 146-153. DerSimonian, R. and Laird, N. (1986). Meta-analysis in clinical trials. Controlled Clinical trials 7, 177-188. Dickersin, K., Min, Y.L. and Meinert, C.L. (1992). Factors influencing publication of re search results. Follow-up of applications submitted to two institutional review boards. The Journal of the American Medical Association 267, 374-378. Duval, S. and Tweedie, R. (2000). A nonparametric Trim and Fill method of accounting for publication bias in meta-analysis. Journal of American Statistical Associ ation 95, 89-98. Easterbrook, P.J., Berlin, J.A., Gopalan, R. and Matthews, D.R. (1991). Publication bias in clinical research. Lancet 337, 867-872. Egger, M., Zellweger-Zóhner, T., Schneider, M., Junker, C., Lengeler, C. and Antes, G. (1997). Language bias in randomised controlled trials published in English and German. Lancet 350, 326-329. Egger, M., Smith, G.D., Schneider, M. and Minder, C. (1997). Bias in meta-analysis detected by a simple, graphical test. British Medical Journal 315, 629-634. Egger, M. and Smith, G.D. (1998). Meta-analysis bias in location and selection of studies. British Medical Journal 316, 61-66. Egger, M., Juni, P., Bartlett, C., Holenstein, F. and Sterne, J.A.C. (2003). How important are comprehensive literature searches and the assessment of trial quality in systematic review? Empirical study. Health Technology Assessment Feinstein, A.R. (1995). Meta-analysis, statistical alchemy for the 21 st 7, 1-68. century. Journal of Clinical Epidemiology 48, 71-79. Hackshaw, A.K., Law, M.R. and Wald, N.J. (1997). The accumulated evidence on lung 21 - 282 ー

287.

cancer and environmental tobacco smoke. British Medical Journal 315, 980-988. 長谷川千尋, 渡部恵, 浜田知久馬(2005) MIXEDプロシジャを用いたメタ回帰. SAS Forum ユーザー 会学術総会 2005,381-390 浜田知久馬,中西豊支,松岡伸篤(2006). 医薬研究におけるメタアナリシスと公表バイアス. Jap anese Journal of Biometrics 27-2,139-157 Hedges, L.V.(1992). Modeling publication selection effects in meta-analysis. Statistical Science 7, 246-255. Houwelingen, H.C., Arends, L.A. and Stijnen, T. (2002). Advanced methods in meta-analysi s: multivariate approach and meta-regression. Statistics in Medicine 21, 589-624. Iyengar, S. and Greenhouse, J.B. (1988). Selection models and the file drawer problem. S tatistical Science 3, 109-135. 松岡伸篤,浜田 知久馬 (2003). メタ・アナリシスにおける公表バイアスの評価trim-and-fill のSASマクロの作成.日本SASユーザー会2003論文集, 379-388. Matsuoka, N., Hasegawa C. and Hamada, C (2007) A practical method adjusting for publicat ion bias in meta-analysis based on p-value. Japanese Journal of Biometrics (in printing) Rosenthal, R. (1979). The file drawer problem and tolerance for null results. Psychologi cal Bulletin 86, 638-641. Rothstein, H.R., Sutton, A.J. and Borenstein, M. (2005). Publication Bias in Meta-analys is. John Wiley and Sons. Evide Sackett, D.L., Straus, S., Richardson, S., Rosenberg, W. and Haynes, R.B. (2000). nce-Based Medicine: How to Practice and Teach EBM (2nd edn). Churchill Livingstone. Simes, R.J. (1986). Publication bias: The case for an international registry of clinical trials. Journal of Clinical Oncology 4, 1529-1541. Sterne, J.A.C. (2000). High false positive rate for trim and fill method. Electronic response to Sutton et al.(2000) British Medical Journal website only: http://www.bmj.com/cgi/eletters/320/7249/1574#E1 Sterne, J.A.C. and Egger, M. (2001). Funnel plots for detecting bias in meta-analysis: g uidelines on choice of axis. Journal of Clinical Epidemiology 54, 1046-1055. Sterne, J.A.C., Juni, P., Schulz, K.F., Altman, D.G., Bartlett, C. and Egger, M. (2002). Statistical methods for assessing the influence of study characteristics on treatment ef fects in meta-epidemiological research. Statistics in Medicine 21, 1513-1524. Sutton, A.J., Abrams, K.R., Jones, D.R. Sheldon, T.A. and Song, F. (2000). Methods for M eta-Analysis in Medical Research. John Wiley and Sons. The American Society of Clinical Oncology (1997). Clinical practice guidelines for the treatment of unresectable non-small-cell lung cancer. Journal of Clinical Oncology 15, 2996-3018. Terrin, N., Schmid, C.H., Lau, J. and Olkin, I. (2003). Adjusting for publication bias i n the presence of heterogeneity. Statistics in Medicine 22, 2113-2126. Whitehead, A. (2002). Meta-analysis of Controlled Clinical Trials. John Wiley and Sons. 浜田知久馬,中西豊支,松岡伸篤(2006). 医薬研究におけるメタアナリシスと公表バイアス. Jap anese Journal of Biometrics 27-2,139-157 22 - 283 ー

288.

順序カテゴリー反応に対する探索的解析 高橋 行雄 中外臨床研究センター・バイオメトリクス部 Explanatory Analysis for Ordered Categorical Response Yukio Takahashi Biometrics Dept. / Chugai Clinical Research Center Co., Ltd. 要約: 1 元配置型の実験での順序カテゴリカルな反応に対する順位和検定は,共変量を含む解 析への拡張が定式化されていないために各共変量のカテゴリー別での順位和検定の乱用を誘 発しがちであった.共変量が質的で一つの場合には,SAS の FREQ プロシジャの CMH 検定が 順位和検定の拡張として使えるようにはなったのであるが,その適用範囲は限定的である.順 序カテゴリー反応に対して累積ロジットをとることにより,共変量が 2 つ以上の場合でもロジ スティック回帰による探索的な統計解析が可能となってきた.そこで,複数の共変量を含む人 工的な臨床試験データを用意し,共変量を考慮する探索的な解析事例を通じて交絡因子と予後 因子の区別とその対応法,交互作用の同定と対応法について解析結果を示しつつ論ずる. キーワード: ロジスティック回帰,順序カテゴリー,探索的解析 1.はじめに 順序カテゴリカルな反応に対して順位和検定が広く適用されているが,順位和検定は基本的に は 1 元配置型の実験データの解析を前提としていおり,2 元配置型あるいは共分散散分析などの 実験データの解析への拡張は定式化されていない.そのために臨床試験で複数の共変量を考慮す るような探索的な解析が必要となった場合に,共変量を幾つかの層に区分して,その層の中で順 位和検定を便宜的に適用する「層別解析」が広く行われてきた. 質的な共変量が一つの場合には,オッズ比をベースにした FREQ プロシジャでの CMH 検定が 層を考慮する順位和検定の拡張として使えるようになった.しかしながら,薬剤と共変量間の交 互作用を検討したい場合,あるいは考慮すべき共変量が 2 つ以上ある場合は,CMH 検定を適用す ることができない. 順序カテゴリーを累積度数として順序ロジスティック回帰を適用することにより共変量が 2 つ 以上の探索的な統計解析が可能となってはいるのであるが,参考となる適用事例は乏しい.そこ で,実際の臨床試験のデータをベースに複数の共変量を含む人工的な臨床試験データを用意し, - 284 ー

289.

交絡因子と予後因子の区別,交互作用の同定とその対応法などについて,共変量を考慮する探索 的な解析を行う際の留意点を示しつつ,その解析手順について詳しく論ずる. 2.累積度数に対するオッズ比 P 薬と A 薬をダブルブラインド法でヒトに投与して 表 1 の結果を得た.反応変数は(++:治 癒,+:改善,−:無効)であり,順序に意味のある順序カテゴリー反応である. 表1 薬剤 P薬 A薬 順序反応データ ++:治癒 +:改善 −:無効 29 41 44 51 78 62 合計 151 154 P 薬と A 薬について治癒率はそれぞれ 29 / 151 = 0.192,41 / 154 = 0.266 となる.改善以上の 率は,(29 + 44)/ 151 = 0.483, (41 + 51)/ 154 = 0.597 となり,P 薬に対する A 薬の治癒率と改善 以上の率のオッズ比とその 95%区間は,それぞれ,1.526(0.889,2.619) ,1.586(1.008,2.495) となり,改善以上の率でオッズ比の 95%信頼区間が 1 を含んでいないので統計的に有意な差とな っている. 「治癒」および「改善」についてのオッズ比が大きく異ならないので,治癒率と改善以 上の率での共通オッズ比とその 95%信頼区間を求めてみよう. SAS プログラム 1 共通オッズ比の推定 data c2x3 ; /* clinical2x3.sas */ input drug y123 r @@ ; datalines ; 1 1 29 1 2 44 1 3 78 2 1 41 2 2 51 2 3 62 ; proc logistic data=c2x3 ; class drug / param=reference ref=first ; freq r ; model y123 = drug / link=clogit technique=newton expb ; run ; /* Logistic プロシジャの class ステートメント drug で P 薬を 0,A 薬を 1 とするようなダミー変数 を生成.Ferq ステートメントで r を症例数と設定.Model ステートメントの link=clogit オプション で y123 の(1,2,3)のカテゴリーに対して累積ロジットを取るように指示,technique=newton オプシ ョンで 2 階の偏微分を用いる解法の選択.Expb オプションでロジットで出力される推定値の指数 を取ったオッズ比とその 95%信頼区間を追加計算の指示. */ SAS アウトプット 1 Parameter Intercept 1 Intercept 2 drug 2 DF 1 1 1 共通オッズ比の推定 Analysis of Maximum Likelihood Estimates Standard Wald Estimate Error Chi-Square Pr > ChiSq -1.4517 0.1810 64.3563 <.0001 -0.0607 0.1587 0.1463 0.7021 0.4484 0.2153 4.3382 0.0373 Odds Ratio Estimates Point 95% Wald Effect Estimate Confidence Limits drug 2 vs 1 1.566 1.027 2.388 - 285 ー Exp(Est) 0.234 0.941 1.566

290.

共通のオッズ比が 1.566,その 95%信頼区間が(1.027,2.388)と推定され,改善以上の率のオ ッズ比の下限 1.008 より 1.027 と大きくなり,治癒率のオッズ比も加味されている. 3.交互作用の探索の必要性 治療群と共変量間の交互作用の探索は,新しい治療薬が市販後に様々な状態の患者に使われた ときの,効果がどの程度期待できるのか,有害事象・副作用がどのような場合に発生しやすいの かの情報の提供に主眼がある.高齢者で腎機能障害がある患者の効果・副作用はどうなのか,肝 機能障害がある患者の有害事象の発現率はどうか,疾患が重症な場合は効果が減弱するのか,有 害事象の発現頻度が高くなる患者特性はなにか,どのような注意を喚起したら副作用の発現を抑 えられるのか,など多様な問いに試験統計家は答える準備をしておく必要がある.もちろん,限 られたデータからは,はっきりしたことはわからなくても,注意を喚起しておくべきことを見逃 さないように探索的な統計解析を行わなければならない. 交互作用を探索する解析は,臨床試験では必要に応じて行うものではなく,計画的に行わなけ ればならない.計画的な探索的な解析というのは,実験で検証したい仮説をあらかじめ設定でき ないためである.探索した範囲を明示し解析を尽くしたが, 「交互作用を示唆するような結果は見 出さなかった」のであれば,新しい治療薬の効果の普遍性を示唆している.これは,さらなる臨 床試験によって追試されなければならないことは,もちろんである. 共変量が治療群間の反応の差に及ぼす影響 共変量を無視して治療群間の効果の差について有意差検定を行うと,共変量の分布の状態で幸 運にも有意な差になったり,逆に不幸なことに有意な差がなくなったりする場合が時として起き る.どちらの場合になるかは,治療群の共変量の分布に依存する.特に,治療群間の有意差検定 の結果が p = 0.05 内外の場合に厄介な状況となる. あらかじめ予想される共変量がある場合には,臨床試験の開始前に共変量を含んだ統計手法を 明文化しておくことが必須である.臨床試験の結果が出た後の探索的な統計解析の結果は,後知 恵とみなさざるを得ない.新しい治療薬が優れるかを示すためには,新たに認識されたな共変量 を考慮した臨床試験を再度実施し,この共変量を考慮した統計解析で,治療群間の P 値が 0.05 以 下となることを示す必要がある. 事後的な共変量の同定とその限界 ダブルブラインド法で行われている臨床試験では治療群のコードが関係者に明らかにされる前 に,あらかじめ共変量と想定した変数が,実際に集められたデータで共変量となっているのか, 実際のデータに未知の共変量が存在するのかを治療群をすべて込みにして検討する必要がある. 新たに共変量が同定された場合に,これを考慮した解析を効果の証明のために用いる場合は,実 験計画書に記載した解析方法を規定の手続きを踏んで変更する必要がある.この手続きなしに行 - 286 ー

291.

った解析は,いずれにしても事後的な解析結果であり,効果の証明には用いることができない. 治療群のコードが開示される前の共変量の同定に際しては,あらかじめ治療開始前の症例の人 口統計学的データ,疾患に関連するデータ,臨床検査の治療前データなどの中から広めにその候 補を選択し,それらを 1 変数ごとに順序ロジスティック回帰を行う.あらかじめ定めた有意水準 α よりも P 値が小さい変数をすべて含めた順序ロジスティック回帰を行い,共変量の同定を行う. 念のために,共変量と同定された変数とそれ以外の変数の 2 因子交互作用がないことを確認して おく.交互作用が出た場合には,それらを組み合わせて新しい変数とすることも考えられる.治 療群をマスクしたままでは,各治療法に共通な共変量の同定は可能であるが,特定の治療法にの み共変量をして作用する場合,あるいは,治療法によっては逆の方向になるような場合の交互作 用は,同定しにくくなる. 交絡因子と予後因子の区別 共変量は主に統計学で用いられている用語で,疫学研究での予後因子と同じ意味として使われ ている.疫学のケース・コントロール研究では,疾患の発生の有無を反応としたときに,1 因子 ごとの解析では反応と関連する因子であるが,反応と関連ある 2 つの因子を組み合わせると片方 の因子の反応に対する影響が見出せなくなるような因子を交絡因子と言う.2 つの因子の分布が アンバランスになり相関があるような場合に,交絡が起きる原因となる. 治療群を 1 つの因子,ある共変量を 2 つめの因子としたときに,治療群間で共変量の分布がア ンバランスとなった場合に,治療群間の反応の差を増強したり弱めたりする.このような場合に, 2 つの因子が互いに交絡した状態となる.したがって,共変量を含めた解析により,治療群間の 差が増強されているのか,弱められているのかを,探索的な解析によって示す必要がある. 4.順序カテゴリー反応をもつ臨床試験データ SAS プログラム 2 に示す 305 例分のデータは,標準治療に新しい治療薬のプラセボを投与する P 群と,標準治療に新しい治療薬を加えて投与する A 群の 2 群のダブルブラインド法にて行われ た臨床試験試験を想定している.治療群との交互作用を検討する変数として,試験実施施設,性, SAS プログラム 2 順序カテゴリー反応を含む臨床試験データ data clinical ; /* clinical̲305.sas */ input id hosp drug sex age age3 severity c̲drug y123 y122 y112 ; datalines ; 1 1 2 1 63 2 1 1 1 1 1 2 1 2 1 63 2 1 1 3 2 2 3 1 2 1 57 2 1 2 1 1 1 : 305 4 1 2 47 2 3 2 3 2 2 ; /* このデータリストを含んだ SAS プログラムは,http://www.yukms.com/biostat/takahasi/rec/023.htm からダウンロードできる. 変数 y123 は 3 カテゴリー,y122 は+と-を併合,y112 は++と+を併合 */ - 287 ー

292.

年齢,疾患の重症度,併用薬の有無の 5 変数を取り上げる.事前に知られている共変量はなく, 治療群がマスクされている状態で,未知の共変量の探索を行う.反応は,++,+,‐の 3 段階の 順序データである. 共変量の同定 症例の性,年齢などの人口統計学的データ,疾患の重症度などの疾患に関連するデータ,併用 薬など治療法に関連するデータ,様々な治療開始前の臨床検査データなど,実際には 100 以上の 変数があることはまれではない.これらの変数と治療効果の関係をすべて,治療コードが関係者 に開示される前,治療効果と関連する共変量となる可能性のある変数をピックアップし,新たに 発見されて共変量があれば,それを加味した検証的な解析法をあらかじめ定める必要がある. 年齢,治療前の臨床検査データなどの連続変数は,3 区分程度の順序データに変換しておくこ とを勧める.切れ目の良い区分でも,大きさの順で自動的に 3 区分,あるいは 4 区分としてもよ い.区分化は,共変量と治療効果の関係が直線的であるのか否かの検討に役に立つ.年齢は,こ こでは,45 歳未満,45 歳以上 65 歳未満,65 歳以上と 3 区分としている.疾患の重症度などの順 序データで,ある水準の症例が極端に少ない場合などは,水準の併合も必要である.併用薬が多 岐にわたる場合は,ある一定数以上の併用薬に限定することも必要である. 表 2 に共変量の候補となる変数と治療効果のクロス集計表を示す.各変数の水準間で有効率の 差が 10%前後の開きがあるのは,年齢の反応が ++の率の場合に 45 歳未満とそれ以上の間,+以 上の率で重症度の軽度と高度の間である.他の施設,性,および合併症では,治療効果に 10%以 上の差は見受けられない. 表2 施設 (hosp) 性 (sex) 年齢 (age3) 重症度 (severity) 併用薬 (c_drug) 全体 1:A 病院 2:B 病院 3:C 病院 4:D 病院 1:男 2:女 1:45 歳未満 2:45 歳以上 3:65 歳以上 1:軽度 2:中等度 3:高度 1:無 2:有 1:++ 70 7 19 13 31 33 37 11 42 17 32 20 18 34 36 共変量の同定 ++% 23.0% 24.1% 20.0% 22.4% 25.2% 23.4% 22.6% 15.3% 25.5% 25.0% 25.6% 22.5% 19.8% 22.7% 23.2% 2:+ 95 8 34 19 34 44 51 29 46 20 40 29 26 42 53 +以上% 54.1% 51.7% 55.8% 55.2% 52.8% 54.6% 53.7% 55.6% 53.3% 54.4% 57.6% 55.1% 48.4% 50.7% 57.4% 3:‐ 140 14 42 26 58 64 76 32 77 31 53 40 47 74 66 全体 305 29 95 58 123 141 164 72 165 68 125 89 91 150 155 予後因子と交絡因子の識別 SAS アウトプット 3 に示すように 45 歳未満を基準にした,45 歳以上および 65 歳以上の間のオ ッズ比とその 95%信頼区間は,1.171(0.702, 1.951), 1.174(0.636, 2.168)と 1 を含み,P 値も大きい. - 288 ー

293.

重症度が 1 増加する場合のオッズは,0.832(0.645, 1.072)となり,P 値は 0.1551 と有意な差にはな らない.したがって,重症度は予後因子,年齢は重症度に対する交絡因子とする. SAS アウトプット 3 Parameter Intercept 1 Intercept 2 age3 2 age3 3 severity DF 1 1 1 1 1 年齢と重症度の主効果モデル Analysis of Maximum Likelihood Estimates Standard Wald Estimate Error Chi-Square Pr > ChiSq -0.9885 0.3220 9.4250 0.0021 0.3951 0.3169 1.5539 0.2126 0.1576 0.2606 0.3659 0.5452 0.1605 0.3128 0.2632 0.6079 -0.1844 0.1297 2.0216 0.1551 Exp(Est) 0.372 1.485 1.171 1.174 0.832 Odds Ratio Estimates Point 95% Wald Effect Estimate Confidence Limits age3 2 vs 1 1.171 0.702 1.951 age3 3 vs 1 1.174 0.636 2.168 severity 0.832 0.645 1.072 /* SAS LOGISTICプロシジャ(ニュートン・ラフソン法)*/ 共変量間の交互作用の問題 2 つの共変量間の交互作用を探索的解析でどのように検討したらよいのであろうか.治療群を 含めた解析が本命の解析であるので,2 つの共変量を組み合わせ場合には,3 因子交互作用を検討 することになる.経験的には,3 因子交互作用が有意となった場合にそれを解釈し,説明するこ とは困難が伴う.また,3 因子交互作用は,ある水準の組み合わせにはずれ値的な変動があった 場合にも現れれ,その解釈はこじ付けになりかねない. このような理由により,共変量の同定の過程では,2 因子交互作用の検討は,行わないとの選 択肢ももある.しかしながら,2 つの併用薬が共に共変量となったような場合に, (共に有,片方 が有,共に無)などのように組み合わせて一つの共変量とすることを視野に入れておくとよい. 治療コード開示前の準備 治療コードが開示される前は,共変量の分布が治療群によってアンバランスになるかどうかは わからないので,治療コードが開示された後は速やかに,治療群別の共変量の分布を検討する必 要がある.さらに,治療群と各共変量の 2 因子ごとの主効果モデルで治療群間の P 値が大きくな るか小さくなるか,治療群と各共変量の間の 2 因子交互作用が示唆されるかどうかを網羅的に解 析できる準備をしておくことも必要である. 治療群全体では共変量と言いがたい場合でも,片方の治療法にのみ共変量となる可能性が捨て きれない場合もある.そのような場合は,治療群と各共変量の間の 2 因子交互作用が示唆される かどうかが第 1 の興味となる.予後因子の場合には,第 1 の関心事は,主効果モデルでの治療群 の P 値となり,第 2 の関心事が交互作用となる. 治療コード開示後の解析の目的を,共変量と反応との関連に対応して表 3 に示すように第 1 の - 289 ー

294.

関心事と第 2 の関心事を解析計画書にまとめておことにより,探索的ではあるが計画的な解析を 目指すべきである. 表3 共変量への対応 反応との 交絡因子か 交互作用の 第1の 第2の 関連 予後因子か 可能性 関心事 関心事 なし ‐ なし 治療群間の P 値 交互作用 なし ‐ なし 交互作用 ‐ 少々あり 交絡因子 なし 交互作用 ‐ 少々あり 予後因子 ややあり 治療群間の P 値 交互作用 なし ‐ ややあり 交互作用 ‐ 関心事が治療群のP値となっている場合は,主効果モデルを適用し, 交互作用となっている場合は,治療群と各共変量間の交互作用モデルを適用する. 共変量が施設の場合の治療群のP値は,ICHの統計的原則の要求事項. 共変量 施設 性 年齢 重症度 合併症 5.治療コード開示後の解析 表 4 に薬剤別の患者の背景因子(共変量)の分布を示す.薬剤間の分布に 10%以上のアンバラ ンスが現れているのは,性別,年齢の 45 歳以上の層,重症度の中等度の層,合併症の有無である. 伝統的に,薬剤群間で背景因子ごとに有意差検定を適用し P 値を書きたくなるのであるが,この 検定は無用の長物であるばかりでなく,不適切な解析の要求を誘発することになろう. 表4 全体 施設 性 年齢 重症度 合併症 1:A 病院 2:B 病院 3:C 病院 4:D 病院 1:男 2:女 45 歳未満 45 歳以上 65 歳以上 1:軽度 2:中等度 3:高度 1:無 2:有 薬剤別の背景因子の分布 151 17 45 31 58 61 90 37 73 41 53 45 53 64 87 1:P 薬 100.0% 11.3% 29.8% 20.5% 38.4% 40.4% 59.6% 24.5% 48.3% 27.2% 35.1% 29.8% 35.1% 42.4% 57.6% 154 12 50 27 65 80 74 35 92 27 72 44 38 86 68 2:A 薬 100.0% 7.8% 32.5% 17.5% 42.2% 51.9% 48.1% 22.7% 59.7% 17.5% 46.8% 28.6% 24.7% 55.8% 44.2% 治療群間の P 値は SAS アウトプット 1 に示したように 0.0373 であり,有意な差であった.オッ ズ比は 1.566,その 95%信頼区間は(1.027,2.3988)と 1 を含まないので,A 薬の効果が統計的に 検証された.さて,この結果は,共変量の分布の状況によって,P 値が 0.05 より大きくなること があるのであろうか.共変量との交互作用はどうなのであろうか. 表 5 に治療群と各共変量について交互作用の P 値と交互作用項を除いた主効果モデルでの治療 群間の P 値を示す.施設と治療群の交互作用は p=0.2755 と有意な差ではないので,主効果モデル - 290 ー

295.

での治療群の P 値がどうなるかは関心事ではなくなる.治療群と性の交互作用は,予想に反して p=0.0278 なのでグラフを見て考察する必要がある.年齢との交互作用は p=0.3514 と有意な差では ない.予後因子である重症度と治療群の交互作用は p=0.9445 と有意ではないので,主効果モデル での治療群の P 値を見ると,p=0.0542 と共変量を含まない治療群のみの P 値に比べて大きくなっ ている.どのような原因で大きくなったかの考察が必要となる.治療群と併用薬の交互作用は, p=0.0195 なのでラフを見て考察する必要がある. 表5 共変量 治療群のみ 施設 性 年齢 重症度 併用薬 治療群と各共変量との累積反応率についての解析 交互作用 P値 ‐ 0.2755 0.0278 0.3514 0.9445 0.0195 区分数 ‐ 4 2 3 3 2 主効果モデル 治療群の P 値 オッズ比 1.566 0.0373 1.572 0.0368 ‐ ‐ ‐ ‐ 1.519 0.0542 ‐ ‐ 結果の解釈 治療群間に有意な差がある 施設によらず治療効果の差は均一 効果のグラフを描いて考察する 年齢によらず効果の差は均一 治療群の P 値の増加の原因の探求 効果のグラフを描いて考察する 共変量ごとの反応率のグラフを図 1 に示す.施設は A 病院で ++の反応に 40%以上の差がみら れ,B 病院では P 薬の ++の反応が高くなっていて,交互作用があるかのようであるが,順序カテ ゴリー反応とした場合には p=0.2755 と有意な差ではない. 性別のグラフから,++の反応でも,+以上の反応でも,P 薬では男性が女性よりも反応が低く, A 薬では逆になっている. この結果として, 交互作用が p=0.0278 と有意な差になったのであるが, この結果の解釈には注意が必要である.これまでの臨床試験で性別が予後因子となることがあっ たのかどうか,A 薬は,男性で反応率が高くなっているが,この結果は偶然の変動なのかなどを 1 1 1 1 0.8 0.8 0.8 0.8 0.8 0.6 0.6 0.6 0.6 0.6 0 0 0 性 施設 年齢 図1 Y P++ 重症度 共変量が反応におよぼす影響 A++ - 291 ー P+> A+> 2:有 0 3:高度 0 2:中等度 0.2 1:軽度 0.2 3:65歳以上 0.2 2:45歳以上 0.2 1:45歳未満 0.2 2:女 0.4 1:男 0.4 4:D病院 0.4 3:C病院 0.4 2:B病院 0.4 1:無 Y Y Y Y 1 1:A病院 反応率 考慮しつつ,短絡的な結果の解釈に慎重にならなければならない. 水準 併用薬

296.

年齢は, 45 歳未満の ++の反応で A 薬より P 薬が高くなり交互作用がありそうであるが p=0.3914 と有意ではない.重症度は,軽度・中等度・高度と反応率は若干低下するが P 薬と A 薬の差はほ ぼ一定である.主効果モデルでの治療群間の P 値が,p=0.0542 と有意な差ではなくなるのは,重 症度の分布がアンバランスとなっている影響と思われる. 併用薬の無い場合に P 薬の反応が低く,有る場合に高くなっているので予後因子と考えられる. しかしながら,A 薬の場合は,併用薬の有と無しの反応の差は小さく,予後因子となっていない. 併用薬の有る場合には,治療法間に差が無く,併用薬の無い場合に A 薬の治療効果が出るが,併 用薬がある場合には,A 薬を加えても治療効果が増強されないという結果と解釈される. 6.施設と治療群の交互作用 新しい治療法が従来の治療法に比べて優れていると検証できたとしよう.新しい治療法は,臨 床試験に参画した施設以外で,その効果を再現できるのだろうか.臨床試験を実施できる施設は, ごく一部の施設に限定されていが,多くの施設でその効果をどのくらい期待できるのであろうか, 一般化可能性があるのだろうか.施設ごとの治療効果はどのくらい変動するのであろうか.どこ の施設でも臨床試験で検証された新たな治療法の効果が出せるのであろうか.施設により臨床効 果はかなり変動することは経験的に知られている.ある施設では,治療法間で効果の差がまった く見られないのに,別の施設では大きな差があったりする.既存の治療法の効果でも施設間で大 きな違いがあることをしばしば経験する. 施設を共変量とした解析について I CH の統計的原則では,施設を共変量とした解析で,施設と 治療群との交互作用を含まない主効果モデルでの治療群間の P 値を,交互作用を含めるモデルに 優先することを求めている.その上で,交互作用の P 値を示し,結果の考察を求めている.表 3 で共変量が施設の場合に第 1 の関心事に「治療群の P 値」,第 2 の関心事として「交互作用」とし たのは,I CH の統計的原則の要求に答えるためである.表 5 に示したように治療群と施設の主効 果モデルでの治療法の P 値は 0.0368 となり,SAS アウトプット 1 に示したように施設を含まない 治療法のみのモデルの P 値 0.0373 に比べてわずかに小さくなっている. 表 6 に示すように,++の反応に対するロジスティック回帰では,交互作用は p=0.1272 と小さく なり,何らかの考察が必要となりそうである.図 2 を見ると施設 A での ++の反応は,P 薬の反 応が他の 3 施設より低くなり,A 薬の反応が高くなっている.施設 A は,他の 3 施設に比べて症 表6 施設と治療法の交互作用 ++の反応 要因 df Wald χ 治療群 施設 治療群*施設 1 3 3 5.5073 1.9726 5.6984 +以上の反応 P Wald χ 2 P 0.0189 0.5781 0.1272 1.7835 1.2135 1.2453 0.1817 0.7498 0.7422 2 - 292 ー

297.

例数が 1/3 程度なので 他の 3 施設と異なり交互作用が出そうであるので,偶然による変動なのか, 0.8 0.7 0.7 0.6 0.6 0.5 0.5 0.4 0.4 0.3 0.2 0.2 0.1 0.1 0 0 1:P 2:A 0.3 drug 図2 2:A Y 0.8 1:P Y 何か説明できる原因があるのか,さらなる検討が必要となる. drug 施設と治療群との交互作用の検討 右:++の反応率,左:+以上の反応率,○:A 施設,×:B 施設,△:C 施設,□:D 施設 質的交互作用か,量的交互作用か 施設と治療法の交互作用は,量的なのか,質的なのかを検討してみよう.図 2 に示すように++ の反応でA施設は,C と D 施設よりも反応の差が大きいが方向は同じであり量的であるが,B 施 設は差が負の方向となっており質的な交互作用が示唆されている.+以上の反応の場合には,A 施 設の効果の差は大きいが,他の施設と傾きの方向は同じであるが,交互作用の P 値は 0.7422 であ るので偶然の変動内と判断される. 7.複数の共変量を含めた解析 これまでの示してきた解析は,治療群を主体とし共変量を一つごとに含めるという方法を示し たきた.統計的に有意となる因子を一気に拾い出したい場面には,気になる変数を広めにとり変 数減少法または増加法によるロジスティック回帰を実施することも考えられる.変数選択法は, モデルに新たに組みいれる基準,モデルから除く基準をあらかじめ設定しておくことにより,解 析者の変数選択における恣意性を少しでも排除する方法として好まれている. 変数選択法の基本は,1 変数ごとに逐次的にモデルに加えるか除くかの判断を繰り返す.その ために変数選択の方法により最終的に到達したモデルが異なることが生ずる.また,変数が 3 分 類以上の分類データの場合に複数のダミー変数に展開すると別々の変数として取り扱われてしま うといった問題点がある.さらに,交互作用をダミー変数として含めた場合に,主効果と交互作 用をセットで取り扱わないと交互作用がモデルに含まれるが主効果が落ちてしまうことも起きる. - 293 ー

298.

このような問題が変数選択法にはつきまとっていて,反応が順序カテゴリーの場合には適用でき なかった.これらの問題は,SAS のバージョン 9 から logistic プロシジャで解消された. 臨床試験の探索的な解析においては,共変量を一つずつ共変量と治療群の交互作用を調べるこ とが基本である.これまでに示してきたのは,治療群との交互作用の検討を主体にしており,他 の変数間の 2 因子交互作用がどのような状況なのかを検討しておくことも必要である.治療群を 除いた変数間の明らかな 2 因子交互作用があった場合には,治療群を含めた 3 因子交互作用の検 討も必要となる.しかしながら, 多くの因子を同時に制御する直交表を用いた実験計画でも,3 因子交互作用は誤差的な変動として誤差とみし,有意な 2 因子交互作用から治療群を含めた 3 因 子の関与を示唆される場合でも,あえて 3 因子交互作用を統計的には求めず,2 因子交互作用の みの解釈を主体にしている.3 因子交互作用は偶発的な結果の解釈はにつながるこじ付けになる 可能性が増大しがちだからである. SAS プログラム 4 に 2 因子交互作用を全て含む場合の変数減少法の logistic プロシジャを示す. model ステートメントで変数の間の “|” が交互作用をモデルに取り込めという表記であり,“@2” が 2 因子交互作用までをモデルに取り込めという指示となっている.そして,変数をモデルから 追い出す基準は slstay=0.20 で変数の P 値が 0.20 以下である場合に設定している.さらに, slstay=0.15 の場合,slstay=0.05 の場合に付いても結果を表 7 に示す. SAS プログラム 4 順序カテゴリー反応に対する変数減少法の適用 proc logistic data=clinical ; class drug hosp sex age3 severity c̲drug / param=reference ref=first ; model y123 = drug | hosp | age3 | sex | severity |c̲drug @2 / link=clogit expb tech=newton selection=backward slstay=0.20 ; run ; 交互作用がある場合の変数選択は,単純でない.追い出し基準が 0.15 の場合に,施設 hosp の P 値は,0.1934 と 0.15 よりも大きいにもかかわらずモデルから追い出されていないのは,性と施設 の交互作用の P 値が 0.0086 と 0.15 より小さいので,関連する交互作用の主効果を残してあるので ある.このような配慮は,施設 hosp の主効果を除くと交互作用の正しい P 値が推定できなくなっ てしまうからである. モデルに含める変数の数を k としたときに,1 変数の場合,2 変数の場合,. .. ,k 変数の中から model ステートメントで指定した変数の中からから総当り的に,あてはまりの良い変数の組み合 わせを抽出する機能も logistic プロシジャには備わって,変数選択の方法により選ばれた最終モデ ルの差異をなくす方法として優れた方法である.しかしながら,SAS の Ver9.1 でも,class ステー トメントで設定した 3 水準以上の変数が扱えないこと,交互作用も主効果も区別しないことなど の制約があり,交互作用を含む場合には使用に際して注意が必要である. - 294 ー

299.

表7 Effect drug hosp drug*hosp age3 drug*age3 hosp*age3 sex drug*sex hosp*sex sex*age3 severity drug*severity hosp*severity age3*severity sex*severity c̲drug drug*c̲drug hosp*c̲drug age3*c̲drug sex*c̲drug severity*c̲drug 追い出し基準を変えた場合の変数減少法 df 1 3 3 2 2 6 1 1 3 2 2 2 6 4 2 1 1 3 2 1 2 完全モデル p 0.0055 ** 0.4069 0.3147 0.9619 0.3748 0.9087 0.1358 + 0.0013 ** 0.0770 + 0.7288 0.8547 0.4774 0.6868 0.2254 0.7010 0.0141 * 0.0074 ** 0.2831 0.2701 0.7671 0.3911 変数減少法の追い出し基準 p<0.20 p<0.15 p<0.05 0.0003 <0.0001 <0.0001 0.1009 0.1934 0.1764 0.1656 0.3311 0.0480 0.0137 0.0092 0.0150 0.0693 0.0886 0.0044 0.0078 0.0065 0.0057 0.0110 0.0123 - <0.0001 0.011 0.0078 drug ―――――― c̲drug | 0.0092 | | sex ―――――― hosp 0.3311 0.0886 0.1934 図3 追い出し基準が 0.15 の場合の線点図 文献) Agresti(2002),Categorical Data Analiysis 2ed., Wiley-Interscience. CPMP(2003),Point toConsider on Adjustment for Baseline Covariates, http://www.emea.europa.eu/pdfs/human/ewp/286399en.pdf Stokes,M.E., Davis,C.S., and Kock,G.G. (2000), Categorical Data Analysis using the SAS System 2ed., SAS Institute. SAS Institute(2004), SAS/STST 9.1 User’s Guide. 高橋行雄(2002),GENMOD プロシジャによる計数データの解析,日本 SAS ユーザ会論文集 21:193-202. 高橋行雄(2006),順序カテゴリリー反応の探索的データ解析, http://www.yukms.com/biostat/takahasi/rec/023.htm 厚生労働省(1998),ICH:臨床試験のための統計的原則,http://www.pmda.go.jp/ich/e/e9_98_11_30.pdf 前谷俊三,小野寺久(2004),根治療法は両刃の剣か?:患者・治療間の交互作用,天理医学紀要;7(1): 78-91. 森川敏彦(2004),前谷論文(2004)に対する依頼コメント,天理医学紀要 7, 92‐92. 清見文明、西田朋由、西島啓二(2004),共分散分析の無作為化比較臨床試験における留意事項, http://www.kakenbio.com/pdf/Kiyomi(05.10.31).pdf 浜田知久馬(2004),16BioS 配布資料 背景因子の調整(1), (2),日本科学技術連盟. 福田治彦,大橋靖雄(1997),Japanese Journal of Clinical Oncology 投稿に際しての統計解析結果のレポートに関する ガイドライン,Japanese Journal of Clinical Oncology; 27(3): 121-127. - 295 ー

300.

ミクロ統計データ解析実験国際研究所の設立に向けて* 松田芳郎 青森公立大学・経営経済学部 An Experimental Laboratory to Analyse Micro Data Database for International Comparison of Income Distribution and Related Topics Yoshiro Matsuda Department of Management and Economics /Aomori Public College 要旨 国際的なデータ解析の動きは、統計調査の集計量による分析からミクロデータによる分 析に発展しつつある。当初はアメリカでの1960年代からの動きであったが、1980 年代になって急速に普及し、現在では成熟した欧米諸国家だけでなく、アジアではフィリ ピンのような発展途上国にも及んでいる。この動きが立ち遅れていた日本ではどうなって いるのか、またどのようになりつつあるかを概観し、新しい動きである SAS を公式言語と したミクロ統計データ解析実験国際研究所を紹介するのが本報告の目的である。 キーワード:ミクロ統計データ 国際比較 1.所得格差研究の国際的状況 各国の国際比較と言うときには、国土面積と人口が尺度として使われることが多い。し かし、経済水準の比較には、いわゆる国民所得とか国民総生産額という指標が使われる。 各国の指標の国際比較を可能にするために、推計方法を統一化する試みとして、国民経済 計算体系の国際連合の統計部(かつては局であったが縮小された)による標準化が行われ ている。その場合、国の大小による影響を避けるために、一人当たりの国民所得を使用す ることが多い。けれども、その場合国際比較可能なために共通の価値尺度への換算替えな どが必要であり、そのためのデフレータとして何を採用するかという課題がある。 他方、国民一人当たりの所得は生活水準の比較手段としては、あくまでもひとつの近似 計算に過ぎない。国民所得は分配所得としてみると、大きく分けて、個人の取り分として の賃金等の個人所得と法人の取り分としての利潤に分けられる。前者は国民一人当たりに 正規化しても意味があるが、後者は意味がない。しかもその個人所得の分布は正規分布を しないことが経験的に明らかにされている。しいて言えば対数正規分布に近い。したがっ - 296 ー

301.

て、所得分布は不平等であり、平均所得では多数の人の所得水準(モード)を示していな い。その分布形が常に問われている。その意味で所得水準を示すにはその分布と不平等度 を明らかにすることが重要である。この所得分布を決める要因の追求が経済学的には求め られる。したがって、所得分布の検討はまず、一国の中での分析が中心となっていた。 所得分布の検討には、その決定は単一の要因でないので、その分析のためにはマクロの 統計データだけではなくミクロデータに基づく検討が必要なことが古くから明らかにされ ている。日本では1920年代から所得税データを利用して研究がなされてきた。1)そこで の問題点の一つは、所得税データでは免税点以下の低所得階層を含めての所得分布を明ら かにすることは出来ないことである。そのために全ての世帯に課税される地方税の戸数割 り税データの利用が追及された。しかし地方税であるために課税基準が市町村で異なって いて全国的分布を求めるのは難しかった。2) この全国的比較可能性を欠くという点を克服し信頼して使用できるものとしては調査統 計に依存せざるを得ない。しかし、そのようなデータを詳細に調査するのは、国勢調査の ような悉皆調査では無理である。しかし、標本調査理論が未発達な段階では政府統計とし ても全国規模の所得調査は不可能であった。第2次世界大戦後になって確率的標本抽出理 論に基づいた全国的な家計調査が実現し、それによって所得分布を推計することがようや く可能になった。しかし、その家計調査も、全世帯類型を網羅しないだけでなく、原則集 計表の形で公表されるため集計表の詳細さには限界があった。所得分布の形態を規定する 各種の要因分析を行うためにはミクロデータを利用することが必要であるが、政府部内で も簡単ではなかった。まして個人の研究者が使用することは、統計法による個票データの 利用制限もさることながら計算能力からも不可能であった。そのため、集計表による所得 分布の研究は、日本に限らずまず一国内の分析として出発し、その時系列的変化を集計量 データで求めるのが標準的研究であった。 国 際 比 較 研 究 は そ の 各 国 の 研 究 の 延 長 線 上 に あ り 、 ク ズ ネ ッ ツ ( Simon Kuznets,1901-1985)を中心とした経済発展と所得分布の関係の分析は、その名前を冠した 逆 U 字仮設として有名である。すなわち経済発展の途上では、不平等化が進行し、経済が 成熟するにしたがって、平等化するという仮説である。日本で行われた国際研究としては、 溝口敏行とハリー・オーシマを中心に、アジア諸国の研究者の協力を得て行われた研究が ある。これは、共通の不平等度の尺度としてジニ係数を採用している。すなわち、集計表 による横断面データを使用してジニ係数を求め、其の異時点間と国際比較による分析であ る。3) 日本に関しては、その後、ミクロ統計データを使用しての所得分布研究はなかなか軌道 に乗らなかった。当初は、高山憲之・舟岡史雄等の全国消費実態調査による仕事に代表され るように経済企画庁経済研究所等の客員研究員としての政府部内の利用の一環として、ミ クロデータの利用が行われるようになった。また寺崎康博等の厚生省の国民生活基礎調査 によるものも類似の研究である。これらの研究の最大の問題は、省庁間でそれぞれの対象 - 297 ー

302.

範囲の棲み分けが行われていて、全世帯を網羅した計測にならないことである。例えば、 非農業勤労者世帯は家計調査で所得と支出が調査されるが、非農業個人事業者は支出のみ の調査であり、高額所得者に関する所得は、統計調査では知ることができない。また、家 計調査の対象外の農林漁業世帯については、農家世帯は農家経済調査で、漁家世帯は漁家 経済調査で調査されるが、それらの調査結果を統合して世帯一般の所得分布を計測するの は難しく、溝口敏行を中心とした 1980 年代初頭の試験的推計があるに留まる。 1990年代になって統計審議会の「統計行政新中長期構想」答申を契機として、更に 研究者に開かれた形でミクロ統計の活用が始まった。近年、「日本の総世帯中流化の幻想」 が崩壊したことに伴い、急速に顕在化してきた所得分布の不平等度の拡大により、不平等 度の計測とその要因分析が再度脚光を浴びてきた。その意味で大竹文雄等の業績に注目が 集まってきている。 欧米においてはそれぞれの国内でのミクロ統計の活用はかなり前から実施されてきてい る。ただ、これら各国のミクロ統計データを使用して行われた所得分布の研究は、国際的 比較研究を可能にする研究施設を拠点にして急速に拡大するようになった。すなわち、ス ミーディング(Timothy Smeeding)を中心としたルクセンブルグ・インカム・スタディと 呼ばれる研究拠点の創設である。ここには各国政府が、ミクロ統計調査データを寄託する ことにで利用資格を確保できる仕組みで、それらの参加国の大学院生はセミナーに参加し、 帰国後も利用可能になって研究が大きく進展した。 これまでの日本でのミクロデータによる研究の蓄積を生かして、アジア諸国の統計調査 データと比較可能性を保ちながら、かつての集計表に依存した溝口プロジェクトを、ミク ロ統計データを活用する研究へと拡張を試みることが必要である。したがってそれぞれの 国の統計法の制限を考慮しながらミクロ統計データを活用しうるアジア諸国の所得分布等 の国際比較研究の機構を実現することが重要となる。そのために、スミーディングの仕事 に匹敵しうるアジア版の研究基盤を作りたいというのが我々の関心事であった。 2.日本におけるミクロ統計データ利用の試み 欧米における政府統計のミクロデータによる解析は、1970~80年代にかけて政府 の統計部局の中に研究者がいわゆる宣誓職員として利用しうる施設の設置や、大学の共同 利用施設として匿名化したミクロデータを利用しうる組織の設置により、ほぼ軌道に乗っ てきた。これに対して日本では政府統計のなかでも重要ないわゆる指定統計と呼ばれる統 計データに関して統計法の目的外集計で細々と研究がなされるに留まっていた。実際には ほとんどが、省庁または地方自治体が行政目的のために使用するか、それらの研究者への 委託による研究が中心であった。この時期が長い間続いており、1985年の統計審議会 答申の「統計行政の中長期構想」では、少なくとも集計表の磁気媒体による公表の促進と、 さらにこれまで内部資料とされていた中間集計表等の公表および個票情報の長期保存が提 言された。さらに先に言及した1995年の「新中長期構想」では、一歩踏み込んで匿名 - 298 ー

303.

化されたミクロデータの利用の拡大が提言されていた。 この答申は、研究者の集団である日本学術会議での対外報告でもその促進が要望された。 さらに文部省の科学研究費重点領域研究(後に特定領域研究と改称)として大型研究費の補助を 得て、ミクロ統計利用に必要な研究的な統計法の目的外使用の実験、各国におけるミクロ 統計利用の実態の解明などが行われた。(1996~1998年度、領域代表:松田芳郎一橋大学教 授[当時])。そこでは、研究組織の事務局を担当した一橋大学経済研究所付属日本経済統計情 報センターで個別の研究者が統計法上の目的外使用の手続きに従って使用許可を得て、プ ログラムを送付し、事務局がオンサイト集計を行うという試行実験として実施された。 このオンサイト集計の効率を高めるために、作成するプログラムはすべてSASに限定 した。その結果、5省庁の33指定統計の活用が試みられた。(この特定領域研究の総括報告書 は『統計情報活用のフロンティアの拡大:ミクロデータによる社会構造分析』 (1999)として統計情報 開発研究センターから刊行されている。)その試行結果を受けて、特定領域取りまとめ経費の補 助を得て、個別研究者の下でリサンプリングされたデータ、すなわちいわゆる匿名化標本 データによる利活用の研究が行われた。これら一連の研究を受けて、さらに以下のような いくつかの新しい試みが行われた。 1)ミクロ統計活用研究会(科学研究費補助金・データベース研究経費:研究代表者、井出満大阪 産業大学教授、後に、森博美法政大学教授、事務局は統計情報研究開発センター)によるリサン プリングデータを、目的外使用の許可を得て作成し、目的外使用許可を得た研究者 に再抽出データを配布してそのユーサビリティの検証作業を行った。ここでユーサ ビリティの検証というのは、解析モデルに対応しうるにはリサンプリングの抽出率 は少なくとも何パーセント必要であるかといったことの検討である。そのために、 事務局では、全データを使用する許可を得て、個別研究者の作成したプログラムの 提供を受けて再計算を行ってきた。そのためのプログラム言語としてはSASを採 用した。 2)一橋大学経済研究所付属日本経済統計情報センターの拡充改組が可能になり、社会 科学統計情報研究センターと名称変更して拡充改組され、総務省統計局統計調査部 の依頼により、秘匿処理を施した統計局の世帯統計の統計ミクロデータ(個々の調査 票のデータ)を、全国の大学研究者に学術研究のため提供する試行的システムを構築 している。 3)総務省統計研修所にミクロ統計解析センターが開かれ、客員教授にオンサイト利用 の道が開かれている。ここでの研究成果はディスカッションペーパーの形で公開さ れている。ただ、この組織の場合には、客員教授の公募はされていないので、全て の研究者に道が開かれているわけではない。 従って、日本ではようやく学界でのミクロ統計活用の道が開き始めた状況であるといっ ても過言ではない。統計法・統計報告調整法も改正され、新統計法として公布されたが、 - 299 ー

304.

そこでは、匿名化ミクロ統計の利用が法的にも裏づけられている。 3.国際連合アジア太平洋統計研修所と東京国際大学大学院を中心とした国際研究のネッ トワーク作成 さて日本以外の国のミクロデータの利用に関しては、これまで日本国内では組織的な検 討がなされてこなかった。東京国際大学大学院経済学研究科では、留学生のために英語で 講義と研究指導をする「英語プログラム」を1999年に立ち上げた。その際、国際連合 アジア太平洋統計研修所(United Nations Statistical Institute for Asian and Pacific Region, UNSIAP)と協定を結び、過去に同研修所を卒業した者で、本国の統計関係部局に 在籍のまま、研修を許可された者を積極的に受け入れてきた。統計関係部局に在籍である ことを積極的に活用して、本人の修士・博士論文作成に限って使用するという条件で本国 政府の許可を得て、世帯関係の統計調査結果のミクロデータを持参して解析するというこ とを行ってきた。 このミクロデータの計算機処理は、周防節雄兵庫県立大学教授(東京国際大学大学院客 員教授)の指導の下に行われ、SASを使用して英語で講義されている。これは、SAS では複雑なデータハンドリングが可能であること、大容量データの処理ができること、デ ータベースとしてドキュメンテーションの標準化が容易である等の理由による。 これまで、家計調査、労働力調査等のミクロデータを持参して、所得分布、支出分布等 の研究で経済学修士の学位取得した者を、インドネシア、韓国、バングラデシュ、ネパー ル、グルジョア等の諸国から多数出している。2006年度には、その研究を深化させ経 済学博士号を取得した二人の院生として、インドネシア統計局のカダルマント、韓国統計 庁のキム・ヘイリョンがいる。これらの研究の一部は、このSASユーザー会学術フォー ラムで昨年と一昨年にそれぞれ報告されている。 4.所得分布研究プロジェクトの成果としての新実験研究組織の発足 これらの修士・博士課程の院生のミクロデータによる研究は、これまで所得分布・支出分 布の分析に特化して行われてきた。しかしこれらの研究は究極的には発展途上国における 経済発展戦略と表裏の関係にある。その原資は海外からの投資に頼らないとすると日本国 内で自力で行う必要があり、そのための蓄積は民間が行うのかそれとも政府が行うのか、 またはその両者の相互依存でなされるかが問題の焦点になる。 この点で、改めてクズネッツが言う経済発展の機動力としての所得分布の不平度の必要 性が想起される。また、政府の財政支出は、税収入がどれだけになるのか、一国の国民の 担税能力が明らかにされる必要がある。したがって、広い範囲から問題を検討する必要が ある。そのため、「経済発展戦略からみた所得分布と担税能力との関連の統計的国際比較研 - 300 ー

305.

究」プロジェクトを、神谷傳造東京国際大学教授(当時)を研究代表者として東京国際大 学大学院担当教員と国内の研究者を中心に組織した。これは2003~6年度に亘る研究 として日本学術振興会の科学研究費補助金(課題番号15203411)の交付を受けた。 幸い、東京国際大学の院生として職員を派遣している各国の統計部局の積極的協力が得 られて、研究は国際的な広がりをみせた。これらの研究プロジェクトの事務局は菅幹雄教 授が統括してきた。その成果は、アジア諸国を中心としたミクロ統計解析の国際研究集会 の開催として結実した。その国際研究集会では、共同研究の成果、各国の統計関係部局の 報告、およびそれらの国から派遣されている院生の研究成果が報告されてきた。4) 第1回研究集会では、フィリピンのヴィロラ(Romulo A. Virola)、アストロゴ(Cabdido A. Astrologo) 両氏によるアジア諸国の中では最も先進的にミクロ政府統計データの公開利用 を行っている事例報告があり、それを受けて第2回の2005年の研究集会では、松田芳 郎から「実験的研究のためのミクロ・データ・セットの共同利用」と題する報告があり、 それを受けて白須孝東京国際大学大学院経済学研究科長から、「総括と本研究の将来計画」 の報告があった。 その後、第3回の研究集会での討論を経て、第4回の国際研究集会“Disclosure of Public Micro Data”を2006年11月4~5日に開催した。その際、招待状に併せて事前に“A Plan to Establish Experimental Laboratory to Analyse Micro Data Database for International Comparison of Income Distribution and Related Topics”が送られ、この試 みへの参加を呼びかけた。この研究集会は、時期的にはアジア太平洋統計研修所の管理評 議会と東アジア統計局長会議の間に開かれ、また(財)日本統計協会と(財)統計情報研究開発 センターの後援を得ていたので、呼びかけに応じて、これまでこのプロジェクトの国際会 議に出席していない国々、すなわち東京国際大学の大学院に院生として職員を派遣してい ないベトナム、マレーシア、カンボジアなどの国からも参加が得られた。 2日間の会議では、古田裕繁(統計情報研究開発センター・本部長)による匿名化リサ ンプリングデータの作成とその有用性に関する報告や、牧厚志慶応義塾大学教授(東京国 際大学大学院客員教授)によるミクロ統計とマクロ統計の違いと、ミクロ統計による解析 の有用性の報告があった。その上で、アジア諸国を中心としたミクロデータのデポジット とその解析の実験施設の開設が松田芳郎・周防節雄によって提案された。 最後に高橋宏東京国際大学副学長による、ミクロ統計実験施設の立ち上げを提案する結 びの講演で閉会し、そのあと賛同諸国の協定書の調印が、国ごとに行われた。 5.ミクロ統計データ解析実験国際研究所の設立 先の会議で提案された協定書の主要事項は以下のとおりである。 1)東京国際大学大学院経済学研究科にミクロデータ解析用のデータベースを置き、(財) 統計情報開発研究センターにそのミラーサイトを設置する。 - 301 ー

306.

2)利用できるデータベースとしては、基本的には、各国の統計部局から東京国際大学 大学院に院生として派遣された統計局員の持参したミクロ統計データから匿名再標 本ミクロデータ・セットを作成しデータベース化する。 3)ミクロデータベースは、本国統計局の了解の下に、国際比較の実験用に、他国の協 定参加国統計部局から派遣の院生も使用できる。 4)(財) 統計情報開発研究センターでは、科学研究費等の研究助成金を得られた場合に は、東京国際大学大学院の関係教授等の協力を得て、利用者セミナーを開催し、デ ータ提供諸国の参加者に解析手法等の訓練を行う。 この日本でのミクロ統計利活用のための実験施設の設立の呼びかけは、参加諸国の関心を 引き、最終的に8ヵ国の協定調印が得られた。すなわち、インドネシア、マレーシア、ベ トナム、ラオス、スリランカ、ネパール、バングラデシュ、カンボジアである。 (調印は各国 統計部局のそれぞれの代表者と高橋宏東京国際大副学長、伊藤彰彦統計情報研究開発研究センター理事長、 松田芳郎青森公立大学教授によって行われた。) 6.将来展望 今後の課題としては、樹立した実験施設の安定した維持・発展のための経費を確保する ことが第一であり、その後で、以下の様な事項が検討課題として俎上に載る。 1)データベース編成に協力する協定国の増加によるデータベースの充実と具体的なセ ミナーの開催。 2)データベースの内容は、現在の段階では、匿名化データを作成することが比較的容 易である家計収入支出データ、労働力データに留まるが、さらに人口センサスデー タ(日本では歴史的に国勢調査と呼ばれている)や、匿名化が難しい企業・事業所デー タにまで拡充できる可能性の検討。 このように本施設が順調に発展した暁には、アジア諸国間との比較研究、すなわち経済 成長と経済発展がそれぞれの国民の福祉とどのように結びついて展開するのかを研究する ためのメッカとして機能することになる。統計情報研究開発センターにミラーサイトを置 くことになったのは、大学間の共同利用の施設として広く研究者間に開かれたものにする ことを意図しているからである。 新しく改正された日本の統計法の施行規則の改正が実現した段階で、さらに日本政府の 統計調査データについてもデポジットできるようになるのかは、多くの参加国にとっても 関心事であるに違いない。少なくとも、日本に居ながら日本との比較研究ができないとい う奇妙な事態だけは何としても避けたい。また国連アジア太平洋統計研修所自体が、日本 政府のより強力な援助により、研修だけでなく研究機関としても機能するようになるには、 このようなミクロ統計データ解析実験国際研究所と緊密な連携を保つことが不可欠となる。 - 302 ー

307.

注: 本稿は、松田芳郎・神谷伝造・白須孝「統計データ解析における国際協力の新しい試み」 Estrela, 157,2-7,2007 を改稿したものである。記して初稿の共著者への謝意に替える。 1)汐見三郎京都帝国大学教授を中心とした研究グループの仕事(汐見[1933])を始め、日本統計学会編 [1944]に集約される田村市郎関西大学、早川三代治元北海道帝国大学助教授の業績がある。(早川は、 後小樽商科大学教授となりその仕事を敗戦後 Econometrica 誌やイタリーの学術誌等に英文で公表し た)Hayakawa [1951] 他。 2)早川三代治小樽商科大学教授の研究は後になって寺崎康博東京理科大学教授によって再度試みられ、 さらに南亮進一橋大学教授(当時)による残存する戸数割資料を一橋大学日本経済統計情報センターの 協力によって収集し解析し、地域の不平等度をサンプルとみなして全国の動向を求めた。南[1996] 3)溝口の仕事は寺崎康博や松田芳郎等を研究分担者として展開し、ハリー・オオシマの努力により Philippine Economic Journal の2冊の特集号として 1980 年に公刊された。その後さらに Mizoguchi [1991]に発展している。日本語文献としては、溝口・松田(共編) [1997]がある。 4)研究成果は、これまで次の 4 冊の proceedings としてまとめられている。 ① International Conference on Income Distribution and Statistics. 15-16, March, 2004, 2005. ② On Income Distribution Statistics; 2nd International Conference. 3-4, March 2005, 2005 ③ International Comparison by Statistics for the Economic Development Strategies; 3rd International Conference.25-26, March 2006 Tokyo, 2006 ④ International Conference on the Disclosure of Public Micro Data、4thInternational Conference, 4-5, November, 2007, (forthcoming) * 引用文献: [1] 日本統計学会 [1944] 『国民所得とその分布』(日本評論社) [2] 松田芳郎 他共編 [2000~] 『講座:ミクロ統計分析』(第1巻~4巻まで既刊)(日本評論社) [3] 溝口敏行・松田芳郎共編[1997] 『アジアにおける所得分配と貧困率の分析』(多賀出版) [4] 南亮進[1996] 『日本の経済発展と所得分布』(岩波書店) [5] Hayakawa [1951] “The application of Pareto’s Law of Income to Japanese Data,”Econometrica, 19-2. [6] Mizoguchi,T. (ed.) [1991] “ Making Economics more Efficient and more Equitable; Factors determining income distribution,” Economic Research Series No.29, Institute of Economic Research, Hitotsubashi University, Kinokuniya Co. Ltd. Oxford University Press. [7] Oshima, H., Mizoguchi,T. (eds.) [1978] “Income Distribution by Sectors and Overtime in East and Southeast Asian Countries,” Institute of Economic Reserach, Hitotsubashi University. - 303 ー

308.

貧困対策のための非貨幣的指標の利用 インドネシアの応用 ラクソノ アナン 東京国際大学 経済学研究科 博士後期課程 (インドネシア統計局) UTILIZING NON-MONETARY INDICATORS FOR TARGETING THE POOR An Application to Indonesia Anang Laksono1 Graduate School of Economics, Tokyo International University (BPS-Statistics Indonesia, Government of the Republic of Indonesia) 要旨 Targeting plays an important role in poverty alleviation. This paper utilizes nonmonetary indicators to identify the poor. Using Logistic Regression method, several demographic and housing indicators are composed to build a model for estimating poverty status of a household. The performance of the model is measured by ROC curve. Larger area under the curve indicates stronger predictive power of the model in defining the poor. These methods are applied in different groups of islands in Indonesia. In general, models of urban areas tend to perform better in predicting the poor than those of rural areas. The results also tell that “employment status” gives the biggest contribution in the model (both in urban and rural areas), followed by “education”. Application of the model estimates the number of poor households in Indonesia for the year 2003 and 2004. Comparing the results with the data of “Raskin” program (giving subsidized rice to poor household), the number of recipients of the program is much larger than the number of poor households estimated by the model. キーワード:targeting, logistic regression, ROC curve, proc logistic 1 My special gratitude goes to Prof. Denzo Kamiya (Professor Emeritus of Tokyo International University) for his continues guidance and advices. I would also like to convey my great appreciation to Prof. Mikio Suga of Tokyo International University for giving ideas, critics and suggestions, and to Prof. Setsuo Suoh of University of Hyogo (also visiting professor of Tokyo International University) for his very useful lecture on SAS. My appreciation is also for the BPS-Statistics Indonesia for providing me with the microdata set of SUSENAS that enable me to accomplish my research. 1 - 304 ー

309.

I. INTRODUCTION Poverty has been one of the main problems faced by developing countries. It becomes more crucial because poverty could affect many aspects of human life. Poverty could be the cause of hunger, unhealthy, illiteracy and stupidity of human being. Moreover, it could be the cause of horizontal conflict among the people. Consequently, it makes sense if governments have been paying much attention in this problem. Indonesia, the biggest developing country in south-east Asia, is also struggling in reducing poverty, especially after the financial crisis that attacked the country in 1997. Even in 2002 the poverty rate had declined comparing to 1999, it is still worse comparing to 1996, before financial crisis occur (Table1). Table 1. Trends in Income Poverty2, Indonesia 1993 – 2002 1993 Poverty rate (%) Poverty gap Severity index 1996 13.67 3.85 0.72 11.34 1.70 0.41 1996(r) 1999 2002 17.55 1.75 0.42 23.43 4.33 1.23 18.10 3.01 0.79 Note: In 1996, the methodology for constructing poverty line was revised in order to take better account of non-food consumption. Source: BPS-Statistics Indonesia 2 The most popular method for analyzing income poverty is the Foster-Greer-Thorbecke (FGT) measures of poverty (Foster, Greer and Thorbecke, 1984). FGT poverty measure for a given population is defined by: α PGα = 1 q ⎛ z − yi ⎞ ⎟ ∑⎜ N i =1 ⎝ z ⎠ where - N is sample size - y is monthly per capita expenditure - z is the poverty line Three poverty measures are based on three values of α. 1. Head Count Index of Poverty (PG0), α=0: This measure fails to capture the extent to which individual income (or expenditure) falls below the poverty line. Hence we use our second measure: the poverty gap index (PG1) given by the aggregate income shortfall of the poor as a proportion of the poverty line and normalized by the population size. 2. Poverty Gap (PG1), α=1: PG1 captures the acuteness of poverty since it measures the total shortfall of the poor from the poverty line. In other words, it measures the total amount of income necessary to remove that poverty. This measure has the drawback that it does not consider the importance of the number of people who are below the poverty line. For this reason, it is important to use both measures of poverty jointly to evaluate the extent of poverty. There are certain policy changes that favor one group of poor and adversely affect another group. In such cases head-count may not register any change but PG1 may get around this problem to some extent. 3. Square Poverty Gap (PG2), α=2: This measures the severity of poverty, which tries to capture the problem of inequality among the poor. 2 - 305 ー

310.

In order to give assistance to the poor, and to strengthen the people who are vulnerable to poverty, Indonesian government has several assisting programs. Some of those programs give benefits or assistance directly to poor people or households. Some others do not go directly to the poor, but in the form of development programs for areas where poor people are concentrated. The aim of this kind of programs is to increase the quantity, quality, and accessibility of infrastructure and facilities in those areas. Here are some of direct assistance programs: 1. Raskin (an abbreviation of rice for poor people in Indonesian language) This is a program planned and implemented by the Indonesian Board of Logistics. The program enables poor households to get subsidized-rice with a very low price. 2. Kartu Sehat (Health Card) Health Card program enables poor households to receive heath services without giving up any money. The Health Card is a card given to a poor family. Up to eight members of the household are listed on the card. It is to be used for all public health services. Sick people with a Health Card must first go to the health center or health sub-center closest to them. They can receive all care at these institutions at zero cost. If further treatment is needed at a hospital, their Health Card and a referral letter from their health center will allow them free treatment at a public hospital. All services are given at zero cost at the hospitals. 3. Scholarship for poor students This scholarship is given to students from extremely poor households. To get the scholarship, the students should have “clarification letter” from the local government. However, due to the very limited budget, the number of scholarship recipients is still very low. Although those programs have undoubtedly been giving such a big contribution in poverty alleviation, yet they also have been criticized. The critics do not point to the purposes or goals of the program, but to their implementation and their effectiveness in helping the poor. Many people are questioning the ability of the programs to maximize the covering of the poor and to minimize the leakages. Riyadi et. al. (2002) shows that in the implementation Heath-card program, many poor households did not receive the cards, while in the other hand some non-poor households receive the cards. So it is a kind of irony: some non-poor people could enjoy benefits of poverty alleviation program while there are a large number of poor, the real target, who are still beyond the program. Dealing with this problem, targeting plays an important role. However, it is almost impossible to implement such a high-quality targeting method that is able to perform perfectly (cover all the poor and exclude all non-poor). In case of Indonesia, the main difficulty is on data availability. Building a database of poor population (a list of persons/households having income below poverty line) is a complicated task because of several reasons. One problem is that observing income of households is extremely 3 - 306 ー

311.

difficult. It may face technical 3 as well as non-technical 4 problems. Normally, household’s expenditures are used as a proxy of income. This approach has been used for estimating poverty rate. It is possible because for estimating poverty rate a set of data obtained by survey is enough. However, for constructing a complete database of poverty, it needs a census rather than a survey. It is clearly understandable that a survey of household expenditure is a very expensive survey (because of the complexity of the questionnaires), so it is undoubtedly that the census would be far beyond the ability of government budget. Consequently, government (both central and local) always met difficulties when deciding the recipients of their assistance programs. Frequently, they could not avoid the use of subjective judgments in their targeting methods. The purpose of this paper is to introduce an alternative method for targeting the poor, rather than just subjective judgment. In implementation, it may still need a survey/census to observed households condition, but it would not be as costly as expenditure survey/census. II. NON-MONETARY INDICATORS AS PROXIES FOR POVERTY TARGETING From several previous works it can be seen that household characteristics are often used as proxies for poverty. Ravallion (1993) and Baker and Grosch (1994) used geographical location. Other characteristics have also been used, such as land ownership (Ravallion, 1989; Ravallion and Sen, 1994). In view of the fact the crucial roles of targeting has been considered in policies designed for alleviating poverty in developing countries, various research have been carried out in this field. Several researchers such as Besley and Kanbur (1993), Grosch (1995), and Sen (1995) discussed the principles of targeting, its cost, and the political economy constraints for its implementation. Cornia and Stewart (1995) specially discussed the two errors in targeting. Some others have done some empirical works and offered various ways to reach the poor. Two of the main issues in the studies on targeting are the objectives function to be optimized and the targeting indicator to be chosen. Most empirical studies do not consider these two question together (Wodon, 1997). Researchers tend to consider only one targeting indicator at a time, then they use it to optimize a given objective function. This paper applies logistic regression to establish models consist of composite indicators for targeting the poor in Indonesia. Since it is believed that characteristics of the poor are varied among islands in Indonesia, different model will be developed for each island. ROC curve is used for measuring the performance of each model. 3 4 Such as the difficulty in observing income of households who engage in informal sector For example, in some culture asking someone’s income would be considered as impolite 4 - 307 ー

312.

Logistic regression Let us consider a household with per capita expenditure y, and characteristics X, where X is a mx1 vector. Denote the poverty line by z, define y* = z – y, and that expenditure is determined by the model y* = βX + ε, where β is a 1xm vector of returns to characteristics and ε is an error term with zero mean. In this case, we pretend not to observe y*. We act as if we only observed a dummy variable h, where h = 1 if y* > 0 and h = 0 if y* < 0. Hence, the probability that a household is poor is: Prob(h=1) = Prob (ε > -βX ) = 1 – F(-βX) (2.1) where F is the cumulative distribution. The parameter vector β can be estimated by maximum likelihood. Since the observed value of h are just realizations of a binomial process with probabilities given by (2.1) and depending on X, the likelihood function is: L = ∏ F ( − β x ) ∏ [ 1 − F ( − β x )] h=0 (2.2) h =1 The functional form for F will use the logit model, in this case: F (− β x) = 1 1 + exp( β x i ) Hence, 1 − F (− β x) = exp( β x i ) 1 + exp( β x i ) (2.3) (2.4) After β has been estimated, the model can be used to predict whether a household is poor by using a cut-off point. Denoting a cut-off point c, which is bounded by zero and one, a positive outcome (a household is defined as poor) is observed for observation i if βX is larger than c. A negative outcome is observed if βX is smaller than c. Variables Selection The following demographic and housing indicators are used as independent variables in the model. a. Demographic indicators: • Education of household head (0=high school or higher, 1=less than high school) • Employment status of household head (0=employed, 1=unemployed) • Job status of household head (0=formal sector, 1=informal sector) 5 - 308 ー

313.

b. Housing indicators: • Size of house (m2) • Floor material (0=non-dirt, 1=dirt) • Wall material (0=brick/wood, 1=bamboo and others) • Roof material (0=brick/zinc/asbestos, others) • Access to clean water (0=yes, 1=no) • Good sanitation (0=yes, 1=no) • Access to electricity (0=yes, 1=no) • Assets of valuable goods (0=yes, 1=no) The selection of variables that will produce the best-fitted model will be based on Akakike Information Criterion (AIC). The AIC, developed by Hirotsugu Akaike, is a measure of the goodness of fit of a model. It is an operational way of trading off the complexity of an estimated model against how well the model fits the data. In the general case, AIC is: AIC = 2k – 2 lnL (2.5) where k is the number of parameters, and L is the likelihood function Over the remainder of this entry, it will be assumed that the model errors are normally distributed. Let n be the number of observations and RSS be the residual sum of squares. Then AIC becomes: AIC = 2σ2k + RSS (2.6) Increasing the number of free parameters to be estimated improves the goodness of fit, regardless the number of free parameters in the data generating process. Hence AIC not only rewards goodness of fit, but also includes a penalty that is an increasing function of the number of free parameters. This penalty discourage over-fitting. The preferred model is the one with the lowest AIC value. The AIC method attempts to find a model that best explains the data with a minimum of free parameters. ROC Curve Wodon (1997), from University of Namur, Belgium, might be the first researcher who applied Receiver Operating Characteristics (ROC)5 analysis in the field of poverty. In his paper, Wodon used ROC to be applied in poverty analysis, to be more precise: poverty 5 ROC curves were developed in 1940’s as a device for the detection and recognition of signals affected by noise (Wodon, 1997) which has become a very useful tool for decision making recently. ROC curve is a graphic and nonparametric way of portraying the ability of different diagnostics tests to distinguish between binary outcomes (Baulch, 2002). A ROC curve shows the ability of a diagnostic test to distinguish correctly between two states or conditions. Previously, the ROC technique has been used for the analysis and performance evaluation of vision, memory, weather forecasting, polygraph lie detection, medical imaging for brain scratches, radiography in dental care, etc. 6 - 309 ー

314.

targeting. Using the unit level data of the 1992-1992 Household Expenditure Survey of the Bangladesh Bureau of Statistics, he assessed the performance of 15 indicators (including geographical location, land ownership, education, occupation, age, family structure, and housing variables) in poverty targeting. Using ROC terminology, sensitivity (SE) is the proportion of households with observed positive outcomes that are correctly classified as poor. Specificity (SP) is the proportion of households with observed negative outcomes that are correctly classified as non-poor. Afterward, using econometric terminology, the probability of Type I error is one minus specificity (1–SP), and the probability of Type II error is one minus sensitivity (1-SE)6. An increase in c will increase SP which means that the probability of Type I error will decrease. On contrary, SE will decline and the probability of Type II error will increase. When c is reduced, SE will increase, and the probability of Type II error will decrease, but the probability of Type I error will increase. Different models with different sets of variables X can be used for this analysis. ROC curve summaries the Type I and Type II errors obtained along a range of c. It plots 1-SP on horizontal axis, and SE on vertical axis for all values of c. The origin point corresponds to c=1, so SE is equal to zero and SP is equal to one. On the other hand, at the upper right corner of the graph (1,1), SE is equal to one and SP is equal to zero. Between these two points ROC curve plots the probability of the two types of errors for various values of c (see Figure 1 for an example of ROC curve7). The better the model predicts the true status of households, the more ROC curve will be bended to the upper left corner of the graph. The area under the curve is a measure of the accuracy of the predictions of the model. The larger the area is, the more accurate the model for predicting household status. This research will try to make several models using demographic and/or housing variables as independent variables, and ROC curves of each model will be shown so that the best model will be recognized. Figure 1. ROC Curve 6 Poor Non-poor P+ NP+ P NPP NP P+ number of the poor classified as poor; P- number of the poor classified as non-poor; NP+ number of the non-poor classified as poor; NP- number of the non-poor classified as non-poor; SE = P+/P; SP = NP-/NP; Type I error = 1-SP; Type II error = 1-SE. Classified as poor Classified as non-poor 7 This is one of ROC curves obtained by this research (detail results in section III). The curve was constructed using SAS proc logistic. 7 - 310 ー

315.

Yet, this kind of model is always followed by Type I and Type II errors, so choosing the cut-off point c will be a crucial decision here. It is very important because each cut-off point will cause “costs” that have to be taken by the policy makers. The effect of Type I error is that some non-poor people will receive the assistance, while Type II error will make some poor people out of the policy. The decision about c should be taken under deep thinking and considerations, but basically, it depends on which “cost” that the policy makers will take. They want to maximize the coverage of poor people, or they want to minimize “wasted money” (assistance that goes to the non-poor). In this research, the decision of c will be based only on the minimum total error. The cutoff point that will be chosen is simply the one that minimize the sum of Type I error and type II error. III. THE MODELS As had been mentioned earlier, it is better to develop different model for each island and its urban and rural area. For this purpose, the regions of Indonesia are grouped into five main islands: Sumatera, Jawa, Bali and Nusa Tenggara, Kalimantan, Sulawesi, and Eastern part of Indonesia. The data that is used for building the models is the micro-data set of the National Socio-economic Survey (SUSENAS)8 2002. Most of data processing had been done by using SAS programs. Table 2. Comparison of AIC and area under ROC curve Demographic variables Sumatera Jawa Bali & NTB Kalimantan Sulawesi Eastern Housing variables Composite variables AIC Area under ROC AIC Area under ROC AIC Area under ROC Urban 15963.33 0.7414 16684.41 0.7210 15100.52 0.7938 Rural 25298.13 0.7132 24836.26 0.7362 24334.93 0.7611 Urban 33225.25 0.7812 34988.71 0.7618 31018.73 0.8298 Rural 38778.61 0.6892 37564.15 0.7115 37111.64 0.7414 Urban 3309.60 0.7889 3452.80 0.7760 3086.16 0.8388 Rural 3844.06 0.7172 3654.74 0.7668 3629.55 0.7820 Urban 4788.39 0.7650 4979.14 0.7644 4485.62 0.8261 Rural 10042.11 0.7413 10252.33 0.7352 9808.33 0.7722 Urban 6301.21 0.7547 6518.62 0.7484 5896.06 0.8124 Rural 19368.12 0.7157 19012.70 0.7408 18350.18 0.7714 Urban 2962.07 0.7158 3297.88 0.6265 2916.54 0.7462 Rural 7422.66 0.7241 8118.22 0.6679 7270.30 0.7595 8 The National Socio-economic Survey (SUSENAS) is a series of large-scale multi-purpose socio-economic surveys initiated in 1963-1964 and fielded every year. Since 1993, SUSENAS surveys cover a nationally representative sample typically composed of 200,000 households. Each survey contains a core questionnaire which consists of a household roster listing the sex, age, marital status, and educational attainment of all household members, supplemented by modules covering about 60,000 households that are rotated over time to collect additional information. 8 - 311 ー

316.

As can be seen in Table 2, in all islands, model using composite (demographic and housing) variables is better than those with only demographic or housing variable. It is recognized by the smaller AIC and the larger area under ROC curve. In general, it also can be said that models for urban area have better performance than those for rural area. Only in eastern part Indonesia rural model performs better than urban model. However, the variables that are included in the model and their coefficients are different between islands and urban/rural area. Table 3. Coefficient of variables for rural area Sumatera Jawa Bali+NTB Kalimantan Sulawesi Eastern Intercept -3.931 -3.351 -3.729 -4.028 -3.463 -3.271 Education of household head 1.040 0.738 0.907 1.144 0.766 0.578 Employment status of household head 2.098 1.442 1.929 2.552 2.165 2.887 Job status of household head 0.429 0.165 0.609 0.427 0.595 0.580 Size of house - - -0.012 - -0.003 - Floor material 0.405 0.659 0.305 - 0.397 - Wall material 0.278 0.170 - - 0.164 0.352 Roof material - - - - - - Access to clean water 0.155 0.112 - 0.200 0.165 0.314 Access to good sanitation 0.354 0.785 0.237 0.336 0.513 0.340 Access to electricity 0.467 0.296 0.910 0.499 0.453 0.281 Assets of valuable goods 0.432 0.188 0.474 0.381 0.541 0.250 AIC Area under ROC curve 24334.929 0.7611 37111.6 0.7414 3629.552 0.7820 9808.332 0.7722 18350.184 0.7714 7270.305 0.7595 Note: all variables are statistically significant at 1% level. Table 3 shows the models for rural area. Roof material is not significant to be included in the model in the rural area of all islands, while size of house is significant only in Sulawesi and Bali+Nusa Tenggara Barat. In rural area, employment status has the biggest contribution for predicting poverty status of households. The second one is education, except in Bali and NTB where the coefficient of access to electricity is higher than education. Looking at models for urban area (Table 4), it might be found some differences comparing to rural models. Roof material, which is not included in rural model, is significant enough for contributing in predicting the poor in urban Sumatera, Kalimantan, Sulawesi, and eastern Indonesia. Also, contribution of access to good sanitation in urban models is much higher than in rural model. 9 - 312 ー

317.

The similarity between urban and rural models is that employment status and education are the variables which have the biggest contribution for defining households as poor or non-poor. Table 4. Coefficient of variables for urban area Sumatera Jawa Bali+NTB Kalimantan Sulawesi Eastern Intercept -2.840 -3.529 -3.610 -3.753 -2.984 -1.628 Education of household head 0.808 1.262 1.040 0.748 0.915 0.781 Employment status of household head 1.539 1.550 1.720 1.820 1.329 1.469 Job status of household head 0.241 0.153 0.3081* 0.307 - - Size of house -0.003 -0.001 - - -0.003 -0.003* Floor material 0.2142* 0.593 - 0.506* - 0.3511* Wall material 0.2135* 0.452 0.4554* 0.478 0.309 - Roof material 0.2511* - - 0.538 0.2119* 0.695 Access to clean water 0.168 0.244 0.367 0.514 0.381 - Access to good sanitation 0.816 0.896 0.978 0.818 0.897 0.281 Access to electricity 0.786 - 0.4471* 0.775 0.452 - 0.1236* 0.371 0.396 0.354 0.1737* 0.255 15100.52 31018.73 3086.163 AIC 0.7938 0.8298 0.8388 Area under ROC curve * Statistically significant at 5% level; the others are at 1% level. 4485.625 0.8261 5896.063 0.8124 2916.54 0.7462 Assets of valuable goods Having estimated the model, the question then arises as to what cut-off point should be used to determine whether or not a household be qualified as poor. In selecting such a cut-off point, as has been explained before, there will always be a trade-off between coverage of the poor and exclusion of the non-poor. In general, the more accurately one is able to identify the poor, the less accurately one is able to identify the non-poor, and vice-versa. The choosing of cut-off point will depend on the relative importance that policy maker attaches to, which are: coverage of poor, and exclusion of the non-poor. When policymakers attach equal weight to these two objectives, then the appropriate cut-off point would be one that maximizes the percentage of correctly identified poor and non-poor households, or in other words, minimizes the total error of identifying. If, however, policy-makers concern more about increasing the coverage of poor household who will receive assistance-program than about leakages to the non-poor, then a lower cut-off point might be chosen. It would increase the number of poor households that will be covered by the assistance-program, although at the cost of decreasing number of the nonpoor excluded from the program. On the contrary, if policy-makers attach greater priority to avoiding leakages of program funds to non-poor households, they might pick a higher 10 - 313 ー

318.

cut-off. It increases the exclusion of the non-poor, at the cost of fewer poor households correctly identified. Table 5 shows the optimal cut-off point for each model. Here, these cut-off points are those which give minimum total sum of error (Type I + Type II error). As can be seen, the optimal cut-off points are varied between islands and urban/rural area. Table 5. Optimal cut-off point Islands Sumatera Jawa Bali & NTB Kalimantan Sulawesi Eastern Area Cut-off point Sensitifity Specificity Urban 0.150 67.4 73.9 Rural 0.150 70.5 65.8 Urban 0.200 71.8 74.8 Rural 0.200 66.1 66.7 Urban 0.150 75.2 74.7 Rural 0.150 71.0 68.3 Urban 0.100 71.3 73.9 Rural 0.150 64.5 72.9 Urban 0.150 70.8 74.3 Rural 0.200 72.0 66.0 Urban 0.350 51.8 83.7 Rural 0.350 57.2 79.3 IV. POLICY IMPLICATION ON THE RASKIN PROGRAM Recently, social protection has become a hot issue on public especially after Indonesian government decided to increase prices of several commodities such as fuel and fertilizer. An increase in price of main commodity is usually followed by increases in many kinds of goods and services, and the result is obvious: high inflation. It will also cut people’s real income. It could generate cognition effects to the business; decline in production and raise unemployment rate. Among income-groups in the society, the poor will suffer more than the other. This group is very susceptible to any kind of disaster, natural or human-made (economic, security etc). Since they do not have any instrument to avoid the risks of social insecurity, they become very vulnerable to any kind of shocks. Once being attacked by a shock, they can not recover easily. Based on that fact, lately there is a change in the point of view of social protection, from ex-post poverty to ex-ante vulnerability, or from warding off the poverty caused by social 11 - 314 ー

319.

insecurity to preparing for not being susceptible. Applying prevention strategies, efforts to reduce the probability of the risks, is one choice. Raskin program could be said as a prevention strategy. Raskin is an ex-ante vulnerability action since it prevents the poor from the effects or risks of shocks. As has been mentioned in earlier part of this chapter, increase in prices of fuel and fertilizer is followed by increase in prices of commodities including basic necessities. The poor, whose 80% of their expenditure is for food, will suffer. Raskin program allows poor households to get subsidized rice as amount of 20 kg/month by paying only Rp1,000/kg (cheapest market price is above Rp2,500/kg). This subsidy is expected to be able to cover 40-60% of monthly rice consumption of the poor. This subsidy may enable the poor to maintain their consumption of energy and protein. It also avoids them from switching their education and/or health budget to food. Moreover, Raskin program is strongly linked to program of human development and program of food security. The success of Raskin program will give benefit for achievements of other programs, such as improvement of nutrition, health, education, and human productivity. Accordingly, the cheap-rice program had received many positive opinions so far. Yet, there are also some criticisms to the program. Most of them are concerning on the distribution of the rice whether they are correctly distributed to poor households or not. This question arises for the reason that the selection of targeted households in each village was decided by a committee lead by the head of the village. The decision is based only on their judgment to the household. Therefore, it is a very subjective decision. Many are worrying that the program benefit would go to inappropriate people. This paper would try to compare the number of Raskin recipients and number of poor households estimated by the targeting models. In applying the model, the decision of defining whether a household is poor or not is based on the optimal cut-off point as mentioned in the previous chapter. The results of estimation for the year of 2003 and 2004 and their comparison with Raskin recipients are shown in Table 6. Table 6. Comparison of Raskin Recipients and Estimated Number of Poor Households Number of Poor households 2003 2004 Raskin recipients (Source: Board of Logistics) 11,832,897 11,664,050 Estimated by “targeting model” 9,995,648 10,133,254 12 - 315 ー

320.

As can be seen, the number of poor household targeted by Raskin program in both years is exceeding the number of the poor estimated by the model. In 2003, the model estimates poor households as 1,837,249 (around 15.5%) less than Raskin recipients. The next year, the number of the poor estimated by targeting model is 1,530,796 (or 13.2%) below the cheap-rice recipients. Even the number resulted by the model is not guaranteed to be correct, at least it has been constructed scientifically. So it can be assumed that the number of the poor estimated by the model would be more reliable. Considering this, it might be the time for government to re-evaluate the mechanism of Raskin program implementation. IV. CONCLUDING REMARKS This paper has proposed a simple methodology for targeting the poor. This method could also assess the predictive power of targeting indicators. A set of targeting indicators would be said to be better than another based on the two types of errors committed in targeting if, for all values of the cut-off point representing the trade-off between the two types of errors, the probabilities of both errors associated with the first set of indicators can be made smaller than the probabilities of both errors associated with the second set of indicators. Graphically, this property will be obtained if the ROC curve of the first model is larger than the ROC curve of the second model. In other words, the areas under ROC curve of both models could provide useful summary statistics of their respective predictive powers. The method is applied to Indonesia (using micro-data of SUSENAS 2002), which is divided into six groups of islands, which are Sumatra, Jawa, Bali and Nusa Tenggara Barat, Kalimantan, Sulawesi, and Eastern part of Indonesia. The models of composite indicators were estimated for urban and rural areas in all groups of islands. In general, the employment status of household head gives the biggest contribution in defining poverty status of households. The second biggest contribution is given by education. While size of house could only give relatively small effect to the probability of a household of being classified as poor. This tendency seems to be the same for urban and rural areas. The only variable that has quite dissimilarity between urban and rural areas is the access to good sanitation. The contribution of this variable in the model of urban area is larger than rural area. This method of poverty targeting is then used to estimate the number of poor households in the years of 2003 and 2004. The results were compared with the recipients of the Raskin program. It shows that the number of households targeted by the program is much larger than model’s prediction. 13 - 316 ー

321.

References Agresti, Alan (2002) Categorical Data Analysis, 2nd edition, Wiley, New York Akaike, Hirotugu (1981) “Likelihood of A Model and Information Criteria”, Journal of Econometrics, Vol 16, North-holland Publishing Company Baker, J. L., and Grosch, M. E. (1994) “Poverty Reduction Through Geographic Targeting: How Well Does It Work?”, World Development, Vol.22. Baulch, Bob (2002) “Poverty Monitoring and Targeting Using ROC Curves: Examples from Vietnam”, IDS Working Paper 161, Institute of Development Studies, Brighton. Besley, T. and Kanbur, R. (1993) ”The Principles of Targeting”, in Including the Poor, ed. M. Lipton and J. Van der Gaag, World Bank, Washington DC. Cornia, G. A. and Stewart, F. (1995) “Two Errors of Targeting”, in Public Spending and the Poor: Theory and Evidence, ed. D. Van de Walle and K. Nead, John Hopkins University Press, Baltimore de Leeuw, J. (1992) “Introduction to Akaike (1973) Information Theory and an Extension of the Maximum Likelihood Principle”, in Springer Series in Statistics, Perspective in Statistics: Breakthroughs in Statistics, Volume I, Foundations and Basic Theory, ed. S. Kotz and N. L. Johnson, SpringerVerlag, New York Foster, J., Greer, J., and Thorbecke, E. (1984) “A Class of Decomposable Poverty Measures”, Econometrica, Vol.52, No.3. Maddala, G.S. (1999) Limited-Dependent and Qualitative Variables in Econometrics, Cambridge University Press, Cambridge. Norusis, Marija J. (2002) SPSS 11.0 Guide to Data Analysis, Prentice Hall, New Jersey. Ravallion, Martin (1989) “Land-contingent Poverty Alleviation Schemes”, World Development, Vol. 17. Ravallion, Martin (1993) “Poverty Alleviation through Regional Targeting: A Case Study for Indonesia”, The Economics of Rural Organization, ed. K. Hoff, A. Braverman, and J. E. Stiglitz, Oxford University Press, Oxford Ravallion, M. and Sen, A. (1994) “Impacts on Rural Poverty of Land-based Targeting: Further Results for Bangladesh”, World Development, Vol. 22. Riyadi, Slamet, Putri, Trisa W., and Djaja, Sarimawar (2002) “Development of Pre-paid Health Service Scheme in Indonesia and Utilization of Health Service Facilities”, Summary of Final reports from the SURKERNAS Workshop on Evidence for decision Making, Jakarta SAS Institute Inc. (2002) SAS 9.1.3 Help and Documentation, Cary. Sen, Amartya (1995) “The Political Economy of Targeting”, in Public Spending and the Poor: Theory and Evidence, ed. D. Van de Walle and K. Nead, John Hopkins University Press, Baltimore Wodon, Quentin T. (1997) “Targeting the Poor Using ROC Curves”, World Development, vol. 25, No. 12. 14 - 317 ー

322.

タイにおける男女賃金格差の解析 チラワット プノサブ 東京国際大学 経済学研究科 博士後期課程 (タイ国家統計局) Analysis of Male-Female Wage Differentials in Thailand Chirawat Poonsab Graduate School of Economics, Tokyo International University (National Statistical Office, Government of Thailand) 要旨 The inequality in wage and salary between males and females is easily observed in many societies including Thailand, but how much and which are the major determinants in the wage gap are the main concern and the aim of this study. The present study employed the decomposition method developed by Oaxaca (1973) to answer the above questions. It shows that while on average male employees earn more than female employees; the gender pay gap has been decreasing. The outcome also reveals that very tiny fragment of the overall wage gap can be accounted for by differences in individual characteristics. キーワード : Wage differentials, Wage gap, Oaxaca decomposition, proc reg I. INTRODUCTION 1.1 Statement of the Problem Historically, the role of women in a society has been overshadowed by men. The status of women is deeply rooted upon culture, religious beliefs, traditions and economic environments. It is generally agreed that the status of women directly associates to the degree of women’s autonomy, which can be defined as women’s ability to manipulate their own personal environment. Like minorities, women have traditionally earned less and obtained lower level jobs than men. Part of the lower income and occupational progress of women is due to the fact that they obtain less work experience than men. At a specific age, women have to quit the labor market because of childbearing and childcare. A career pattern of this type means that women get less work experience and obtain smaller increases of income over time than men. We, then, could anticipate that old women earn less than old men, while young women earn as much amount as young men. Discrimination also creates the limitation of women’s career opportunities. Women have long faced employer and co-worker discrimination at all type of jobs. A majority of employers still believe that woman productivity is relatively lower than that of man. Firms with the intention to maximize profit, as a result, hesitate to employ women. Although the awareness of women liberation is currently prevailing in many 1 - 318 ー

323.

parts of the world raised up women’s status both in social activities and working opportunities, it is hard to conclude that at present females are equally treated. 1.2 Objectives and Scope of the study We have two main purposes; one is to examine factors determining wages, and the other is to investigate wage differentials between genders. The specific purposes of the study are as follows: 1. How to examine factors inducing wage rates? 2. How to decompose and measure the quantity of the sources of male-female wage differential? The scope of this paper will cover whole country, both urban and rural areas. Those wage earners who work either in agricultural sector or non-agricultural sector are concentrated. 1.3 Hypotheses The aim of this paper is to verify the following hypotheses; 1. Men earn more than women mainly because their personal characteristics and endowments, such as year of school education, are better. 2. In male dominated jobs, females’ wages are less. 1.4 Data Source The data used in this analysis are obtained from Thai Labor Force Survey (LFS) 3rd quarter of 2000 and 3rd quarter of 2005. (See tables A and B in the appendix for the total number of samples.) In this study, each year has been regressed separately. Each observation is a unique either public or private employee. Because the purpose of this paper is focusing on wage differentials, only those individuals who categorized as employees will be selected into the models. Moreover, since the decomposition technique is multivariate, observations to be included in the analysis require information on all variables. As a result, observations with missing value will be removed prior to the analyses. II. Methodology 2.1 Specification of Wage Functions Ordinary Least Square (OLS) is used in this study to estimate a wage function. The specification of wage functions for each gender is a function of human capital accumulated by individuals and also includes personal characteristics. The wage equations to be estimated for each gender have the semi-log function form as shown: (1) ln Wi ,m = X′i ,m β m + u i ln W j , f = X′j , f β f + v j (2) 2 - 319 ー

324.

Wi ,m and W j , f are the monthly wage of the i-th male worker, and the monthly wage of the j-th female worker respectively, X′i,m and X′j, f are a vector of i-th individual male characteristics, and a vector of j-th individual female characteristics respectively, β m and β f are a vector of male coefficient, and a vector of female coefficient respectively, u i and v j are disturbance terms. 2.2 Variables Used in the Model 2.2.1 The Dependent Variable Natural log of monthly basic wage was the dependent variable in the decomposition. The definition of basic wage is monetary value of wage excluding all fringe benefits. In Thai labor force survey, they ask the respondents to answer their estimated monthly wages, regardless of their daily or weekly wages. 2.2.2 The Predictor Variables This study employed 15 predictor variables, of which 10 were group of dummy variables and the remainder variables were continuous. - Year of School Education - Age and Age Square - Main Work Hours and other Work Hours - Region (Bangkok, Central, North, Northeast, South) - Area (Urban, Rural) - Head of household status (Yes, No) - Marital status (Single, Married, Other) - Monthly Payment (Yes, No) - Fringe Benefit (Receive, Not receive) - Status (Government, Private) - Have University Degree (Yes, No) - Occupation (9 categories) - Industry (17 categories) 2.3 Decomposition Methodology From the 1970s, repeated attempts have been made to statistically identify the causes of the gender pay gap by some researchers. Most gender pay gap modeling has used multiple regression for the methodology, with some measure of natural log earnings as the dependent variable. In particular, since the separate publication in 1973 of the two landmark papers by Oaxaca and Blinder, the type of comparative regression modeling used has been a decomposition method. In this subcategory of “logged linear” modeling, gender is not included as a dummy variable in the regression. Instead, the 3 - 320 ー

325.

model estimates the separate coefficients for males and females on each independent variable. For each gender, the equation is the standard multiple regression model. This method permits the decomposition of the difference in an interested variable between two groups into 2 parts; one is “explained” by differences in the observed characteristics and endowments across groups, and the other is caused by differences in estimated “coefficients” between groups. Among other applications, the Blinder-Oaxaca decomposition has been used in numerous studies of wage-differentials between males and females or between different ethnic groups. The literature often mentions roughly of the latter part as “discrimination”, however, this is a dubious usage of words (Vartiainen: 2002). The “unexplained part” contains the effect of all those variables that are not included in the vector of characteristics; economic theory suggests many ways in which unobserved variables may be differently distributed across males and females and may thereby contribute to the wage differentials as well. Discrimination is probably not a part of this unexplained component, unless it is outright in wage-setting. The advantage of this procedure is that it enables a clear interpretation using the male (female) structure as reference, and that computing the effect of different characteristics yields an answer to the question “how much would remain of the gross differential if women (men) were treated as men (women) with similar characteristics?” The decomposition starts from the fact that the arithmetic mean of the log ~ ( ln W ) is equivalent to the log of the geometric mean ( ln W ). Hence, the logdifferential of geometric means can be decomposed by using Oaxaca’s technique as follow: ⎛ W~ ⎞ ~ ~ (3) G = ln⎜ ~m ⎟ = ln Wm − ln W f = ln Wm − ln W f ⎜W ⎟ ⎝ f ⎠ Taking the arithmetic average of equation (1) and (2), and using the standard multiple regression assumption of exogeneity of the independent variables, the disturbance terms are dropped away ( E (u i | X i ,m ) = E (v j | X j , f ) = 0). ln Wm − ln W f = ( X′m b m ) − ( X′f b f ) = ( X′m b m ) − ( X′f b m ) + ( X′f b m ) − ( X′f b f ) = ( X′m − X′f )b m + X′f (b m − b f ) (4) In the above decomposition, male coefficient vector is implicitly selected as a reference structure with which we evaluated the contribution of the differences in characteristics III. Empirical Result 3.1 Result from Wage Regression Table 1 shows results from the wage regression of all male and female employees for 2005. 4 - 321 ー

326.

Table 1 Full-Scale Wage Regression1 for 2005 Female Std.Error β Constant Region (Ref.=Central) Bangkok North Northeast S outh Area (Ref.=Rural) Urban Age Age Square Head of household Marital (Ref.=Single) Married Others Monthly Payment Fringe Benefits Status (Ref.=Private) Government Undergraduate and above Year of School Education Main Work Hours Other Works Hours Occupations (Ref.=Technicians) Legislators/senior officials/managers P rofessional C lerks S ervice workers S killed agricultural/fishery workers C raft P lant/machine operators E lementary occupations Industry (Ref.=Agriculture) Fishing Mining/quarrying Manufacturing E lectricity/gas/water supply C onstruction Wholesale/retail Hotel/restaurants Transport/storage/communication Financial intermediation Real estate/renting/business activities P ublic administration/defence E ducation Health/social work Other community/social service activity P rivate households with employed persons E xtra-territorial organizations and bodies 6.8353 0.0362 6.2855 0.0389 0.2147 -0.2475 -0.2806 -0.0496 0.0116 0.0085 0.0088 0.0088 0.2323 -0.2692 -0.2778 -0.0868 0.0116 0.0088 0.0093 0.0096 0.0259 0.0381 -0.0003 0.0595 0.0066 0.0015 0.0000 0.0068 0.0344 0.0472 -0.0005 0.0262 0.0071 0.0015 0.0000 0.0076 0.0844 -0.0378 0.2542 0.0778 0.0081 0.0160 0.0083 0.0066 0.0708 0.2814 0.0965 0.0068 0.0091 0.0067 0.4103 0.1882 0.0437 0.0059 -0.0067 0.0126 0.0132 0.0011 0.0003 0.0008 0.3691 0.0953 0.0468 0.0089 -0.0046 0.0140 0.0129 0.0013 0.0003 0.0010 0.2237 0.0959 -0.1537 -0.2677 -0.3851 -0.2587 -0.2775 -0.4005 0.0175 0.0167 0.0157 0.0151 0.0185 0.0138 0.0137 0.0142 0.4689 0.2697 -0.1467 -0.2679 -0.1967 -0.3756 -0.1667 -0.3482 0.0270 0.0159 0.0133 0.0149 0.0219 0.0174 0.0168 0.0155 0.1778 0.3089 0.2867 0.3987 0.3162 0.2242 0.0749 0.2836 0.4847 0.1915 0.0776 1.7274 0.0262 0.0498 0.0126 0.0267 0.0131 0.0132 0.0206 0.0170 0.0233 0.0201 0.0172 0.4712 0.3824 0.3081 0.5329 0.3636 0.2318 0.1527 0.4529 0.5528 0.2592 0.1241 0.1763 0.1250 0.1748 0.6837 0.0841 0.0153 0.0518 0.0201 0.0156 0.0177 0.0286 0.0240 0.0234 0.0219 0.0207 0.0203 0.0210 0.1897 2 R Durbin-Watson F Number of S amples 1 Male Std.Error Independent Variables 0.6535 1.7480 1317.36 26,583 β 0.7132 1.6600 1542.73 23,612 All estimated coefficients illustrating here are statistically significant at the 1% level. 5 - 322 ー

327.

3.1.1 Interpreting the Coefficients Both males and females living in Bangkok earn more than employees living in other regions. This evidence corresponds with the coefficients of area. In other words, employees living in municipal area earn more than those living in non-municipal area. The coefficients of age are positive and statistically significant. This implies the increase in work experience since workers have accumulated skill and knowledge from working and hence be more productive. As a result, their wages increase. However, the coefficients of age square are negative and statistically significant. This indicates that the accumulated skill and knowledge will depreciate after certain age. In the case of non-single member household, head of households tend to earn more than the other members because of their high responsibility. Furthermore, both married males and females have more burden than singles. As a result, the coefficients are positive and statistically significant. These two cases indicate the nature of workers with high level of obligation. They are encouraged to look for high-income jobs or, to work harder to sustain their family. Workers receiving salary or paid monthly are principally engaged in the primary (high-skill) labor market. Their wages are usually high with many kinds of fringe benefits. In contrast, the workers receiving non-monthly payment (e.g. hourly, daily, etc.) are mostly engaged in the secondary (low-skill) labor market. They are normally paid low wage and few fringe benefits, with less opportunity to promote. As a result, the coefficients of the dummy of monthly payment are positive and statistically significant for both male and female employees. It is observed that, on the whole, government employees receive higher level of wage or salary than the private ones. This is partly because, in this study, the private employees include those daily wage employees and laborers who usually earn rather low income. The level of education has a positive effect on payment. As we guess, an increase in year of school education is likely to cause a rise in earning as well as persons completing at least bachelor’s degree tend to earn more than those who do not. This can be supported by the following reason. First, education accumulates knowledge and skills attributed to productivity improvement. Secondly, due to inadequate information, formal education levels are used by employers as a regular requirement. The high-educated candidates have the better chance to qualify to the high income jobs. The coefficient of weekly hours of main job is positive and statistically significant. It might be explained that the full-time workers working more hours than the part-time workers receive relatively higher wage. However, the coefficient of weekly hours of other jobs is negative and statistically significant. One possible explanation is that the returns of other jobs are not included in the observed wage. Hence, their wage could be negatively associated with hour worked of other jobs. For occupational groups, technicians are served as the reference group. Only two out of eight occupations, that is, legislators/senior officials/managers and professional workers, have positive and statistically significant coefficients. It could be interpreted that those two occupations receive higher wages than technicians. While the other six groups get lower wages than the reference group. We, then, consider the last variable, industry groups, in which agriculture is served as the reference. Female workers in almost industries except fishing and private 6 - 323 ー

328.

households with employed persons earn more than females working in agriculture. The pattern of earning of males is quite similar to that of females. 3.1.2 Evaluating the Wage Regression The coefficients of determination of both male and female wage regression are quite good. Since the explanatory variables selected into the model can explain about 65 percent and 71 percent of the sample variation in log wage for males and females respectively. We use Durbin-Watson statistic to check the assumption of independence of observations for each male and female regression model. The test statistic is about 1.7 for the 2005 model. As a result, serial correlation does not obviously exist in this model. 3.2 Decomposition of Male-Female Wage Differentials 3.2.1 Full-Scale Decomposition The main objective of decomposing the male-female wage differentials is to capture the factors that affect these differentials. The first part, which we call “explained part”, is attributable to the difference in personal characteristics and endowments. While the part that arises from the difference in male and female coefficients is called “unexplained part.” This part is the effect of different pricing or different treatment of characteristics. In other words, Gosse (2002) stated that the latter part is comparing the value of being male compared to the value of being female. Table 2 Decomposition of Gender Wage Gap: Full- Scale Factor Amount Attributable 2000 Explained Part Shift Coefficient Region Area Age Age Square Head of household Marital Status Monthly Payment Fringe Benefit Status University Year of School Main Work Hour Other Work hour Occupations Industry 0.3444 0.0087 0.0165 0.2006 -0.0688 0.0353 0.0104 -0.0453 0.0006 0.0028 0.0154 -0.0368 -0.1635 -0.0027 -0.2292 0.0562 -0.0054 -0.0002 0.0816 -0.0525 0.0223 0.0070 -0.0003 0.0014 0.0091 -0.0165 -0.0315 0.0015 -0.0006 -0.0341 0.0463 0.3444 0.0141 0.0167 0.1190 -0.0163 0.0130 0.0034 -0.0451 -0.0008 -0.0063 0.0320 -0.0053 -0.1650 -0.0022 -0.1952 0.0099 Total 0.1444 0.0281 0.1163 2005 Explained Part Unexplained Part 0.5400 0.0032 -0.0069 -0.3063 0.1559 0.0269 0.0183 -0.0196 -0.0101 0.0095 0.0044 -0.0562 -0.1349 -0.0025 -0.0783 -0.0177 -0.0045 -0.0005 0.0325 -0.0252 0.0192 0.0091 -0.0028 -0.0016 -0.0016 -0.0205 -0.0287 0.0044 -0.0015 -0.0223 0.0256 0.5400 0.0077 -0.0064 -0.3388 0.1811 0.0077 0.0092 -0.0168 -0.0084 0.0111 0.0249 -0.0275 -0.1393 -0.0010 -0.0560 -0.0433 0.1256 -0.0184 0.1440 Unexplained Amount Part Attributable 7 - 324 ー

329.

Interpreting Explained Part The explained part can be interpreted as how much the wage gap remains when males and females are given the same set of intercept and coefficients (here, the reference group is males). The effects of the difference in characteristics and endowments for 2000 and 2005 are not corresponding. In 2000, the explained part is positive showing males’ superior average characteristics and endowments; that is, males would average earning 0.0281 more than females. In contrast, the explained part in 2005 contributes -0.0184 showing males’ inferior average characteristics and endowments; i.e., male wage would average 0.0184 less than female wage if females were given the entire male wage equation. Interpreting Unexplained Part What amount of wage gap remains when males and females are given the same set of endowments and characteristics (here, the reference group is males) is the explanation of this part. The unexplained part plays an important role to enlarge the wage differentials. This portion has increased about 24 percent from 2000 to 2005. The most considerable component is shift coefficient exhibiting the gap when females are given the characteristics and coefficients (except the intercept) of the males. For example, in 2005, males still earn 0.54 more than females even if all characteristics and coefficients of females and those of males are identical. Exploring Factors Favoring Males The most factors contributing to the male wage advantage in 2000 is age, and the breakdown shows that the higher rates of return on age (0.1190) as well as the fact that males have more experience (0.0816) contribute the advantage. The other factor contributing to the male wage advantage is head of household. The study shows that a male who is head of household earns more than a female who is also head of household. This is obvious since males usually have more responsibility than females. Age square is the most factors contributing to the male wage advantage in 2005. This reflects diminishing of wage after certain age. The result from the table 2 can be interpreted as the gap is widening because female wage is much diminishing compared to male wages. The second factor favoring males is head of household, which is also the same in 2000. Exploring Factors Favoring Females The distribution of workers across occupations is the most important factor favoring females in 2000. Decomposition of the -0.2292 occupational differentials in favor of females reveals that the superior females’ occupational distribution actually accounts for -0.0341 wage advantage, and -0.1952 is arisen by higher coefficients for occupational advancement for females. The second largest source of influence, contributing -0.1635, is main work hours. The gain for females in this factor is likely 8 - 325 ー

330.

caused by a higher rate of return on main work hours for females. (In fact men work longer than women.) It is almost certain that the difference in characteristics and endowments is not a main factor that widening the gender wage gap. In contrast, the most contributor to the gap is unexplained part. Consequently, there is a strong possibility that treatment for females is worse than for males. 3.2.2 Decomposition Classified by Industry The wage gap between male and female have increased in most industries, which is probably caused by both improvements in males’ characteristics and endowments, while the treatment of characteristics for female is worsened. Apart from those industries, the gap appears to have reduced in the following industries; construction, wholesale/retail, public administration, and transport/communication. The improvement in females’ characteristics and endowments, rather than improvement in coefficients, is certainly a main cause. Private households with employed persons industry has the largest gap in 2000, while the largest gap in 2005 appears in fishing industry. It is very surprising when compare to 2000 result, since the gap in fishing industry is not significantly different from zero as shown in table 3. Table 3 Gender Wage Gap Classified by Industry Industry Fishing Private households with employed persons Mining/quarrying Manufacturing Agriculture Hotel/restaurants Financial intermediation Construction Other community/social service activity Real estate/renting/business activities Wholesale/retail Education Public administration/defence Health/social work Electricity/gas/water supply Transport/storage/communication Extra-territorial organizations and bodies Amount Attributable 2000 Explained Part -0.0016 * 0.3202 0.1526 *,a 0.2680 0.1030 0.2435 0.2051 0.2055 0.1306 0.0760 * 0.1004 0.0633 0.0836 -0.0370 * -0.0772 * -0.0550 * 0.2481 *,a -0.1679 0.1652 0.1172 0.0246 0.1137 0.1709 -0.0229 -0.0026 -0.0010 -0.0608 0.0334 0.0925 -0.0031 -0.0965 -0.1611 - Unexplained Amount Part Attributable 0.1663 0.1550 0.1509 0.0784 0.1298 0.0343 0.2284 0.1332 0.0770 0.1612 0.0300 -0.0089 -0.0338 0.0193 0.1061 - 0.5152 0.4172 0.3027 0.2888 0.2651 0.2586 0.2106 0.2009 0.1317 0.1152 0.0905 0.0793 0.0661 0.0090 * -0.0519 * -0.2669 ** 0.9703 a,b 2005 Explained Part Unexplained Part 0.1679 0.3379 0.4349 0.1191 0.1213 0.1221 0.1255 0.0436 0.1041 -0.0053 -0.0634 0.0630 0.0090 -0.0962 -0.1402 -0.3562 - 0.3473 0.0793 -0.1322 0.1697 0.1438 0.1365 0.0851 0.1573 0.0277 0.1205 0.1540 0.0163 0.0571 0.1052 0.0884 0.0892 - * not significantly difference from zero at the 5% level Females significantly earn more than males at the 5% level a Decomposition is not available, since the variance-covariance matrix is singular. b The result from t-test is unreliable, since one group contains only one observation. No sign means males significantly earn more than females at the 5% level ** If we take the information provided in table 4 into account, then, it is unlikely to conclude that the gap is tiny in female dominated jobs. Since the wage differential in some female dominated industries such as private households with employed persons and hotel/restaurants industry is quite large. The factor strongly contributing to men in 9 - 326 ー

331.

these industries is shift coefficient. In the same fashion, we cannot confidently say that men earn more than women in male dominated jobs. The result presents that females in electricity/gas/water supply and transport/storage/communication industry receive not less income than males, even if females are minority in these industries. Year of school education is the most factor supporting females in those industries. Table 4 Percentage of Workers Classified by Industry Industry Agriculture Fishing Mining/quarrying Manufacturing Electricity/gas/water supply Construction Wholesale/retail Hotel/restaurants Transport/storage/communication Financial intermediation Real estate/renting/business activities Public administration/defence Education Health/social work Other community/social service activity Private households with employed persons Extra-territorial organizations and bodies 2000 Male Female 2005 Male Female 50.85 91.35 80.22 45.84 82.18 83.51 57.05 33.87 81.33 50.66 60.90 70.56 40.89 23.60 47.83 9.26 65.85 52.78 91.49 75.20 46.54 81.15 83.14 57.89 32.82 77.57 47.79 56.96 66.82 38.49 24.06 51.47 10.92 14.29 49.15 8.65 19.78 54.16 17.82 16.49 42.95 66.13 18.67 49.34 39.10 29.44 59.11 76.40 52.17 90.74 34.15 47.22 8.51 24.80 53.46 18.85 16.86 42.11 67.18 22.43 52.21 43.04 33.18 61.51 75.94 48.53 89.08 85.71 IV. Conclusion At first, the study tried to find the factors determining personals wage rates mainly from supply side. Micro data sets from Labor Force Survey were applied to estimate wage function for males and females separately. The Labor Force Survey contains ordinary and necessary sources of information such as education, marital status, work status, weekly hours of work, occupation, and industry which were suitable to be used as explanatory variables in wage function. Although, some important data were not available, for example, work experience, on-the-job training and union membership, the models were quite good to explain the sample variation in log wage if we consider only the coefficients of determination (with the value around 0.60-0.70). The result from the 2005 data set revealed that factors determining males’ wage regression and those determining females’ wage regression were almost similar. There were only a few differences; for instance, concerning marital status, single men receive higher wage than divorced men, while no statistical difference in earning for single women and divorced women. In addition, females working in health/social work industry or other community/social service activity get larger amount than those working in agricultural industry, whereas males in these 3 industries receive statistically similar amount. 10 - 327 ー

332.

After obtaining wage regression, Oaxaca’s approach was employed to decompose the wage differentials. Although the result from the study unveiled that overall gender wage gap has declined as time goes by. Therefore, it was mainly due to the improvement in females’ capability. On the other hand, the price for being female is much more inexpensive than that for being male from 2000 to 2005, which is explained by the expansion of unexplained part. In order to reduce the gender wage gap, the government should concentrate on how to improve the treatment for female workers, in other words, how to alleviate the extent of discrimination against female workers, rather than how to augment the female endowment since the improvement of females’ qualifications nowadays is obvious. Acknowledgement I would like to express my sincere gratitude to Professor Mikio Suga and Professor Denzo Kamiya (both are professors of Tokyo International University) who kindly gave me valuable suggestions. My sincere thanks also go to Professor Setsuo Suoh (the University of Hyogo) for his very useful lecture on SAS. Moreover, I am grateful to my National Statistical Office, for the permission to use micro data set for my research. Appendix 2 Table A Total Number of Sample Individuals for 2000 Year Total Total P ersons aged 13 years and over Labor Force S ub-total E mployed Unemployed S easonally inactive Not in labor force P ersons aged under 13 years Total Bangkok Central North Northeast South 161,834 6,647 47,428 34,686 43,641 29,432 128,889 5,644 38,633 28,041 33,963 22,608 87,199 3,795 26,047 18,890 23,165 15,302 85,225 3,674 25,660 18,548 22,317 15,026 1,761 121 373 305 696 266 213 14 37 152 10 41,690 1,849 12,586 9,151 10,798 7,306 32,945 1,003 8,795 6,645 9,678 6,824 Males Bangkok Central North Northeast South 76,556 3,047 22,225 16,417 20,796 14,071 59,609 2,553 17,644 12,973 15,853 10,586 44,834 1,921 13,107 9,567 12,097 8,142 43,839 1,857 12,884 9,392 11,714 7,992 940 64 220 164 344 148 55 3 11 39 2 14,775 632 4,537 3,406 3,756 2,444 16,947 494 4,581 3,444 4,943 3,485 Females Bangkok Central North Northeast South 85,278 3,600 25,203 18,269 22,845 15,361 69,280 3,091 20,989 15,068 18,110 12,022 42,365 1,874 12,940 9,323 11,068 7,160 41,386 1,817 12,776 9,156 10,603 7,034 821 57 153 141 352 118 158 11 26 113 8 26,915 1,217 8,049 5,745 7,042 4,862 15,998 509 4,214 3,201 4,735 3,339 2 In this research, I concentrate on employed person group only. 11 - 328 ー

333.

Table B Total Number of Sample Individuals for 2005 Year Total Total P ersons aged 15 years and over Labor Force S ub-total E mployed Unemployed S easonally inactive Not in labor force P ersons aged under 15 years Total Bangkok Central North Northeast South 208,952 12,172 67,150 43,375 50,696 35,559 160,386 10,176 52,751 33,811 37,347 26,301 115,458 6,921 37,951 24,395 26,909 19,282 113,913 6,782 37,419 24,065 26,603 19,044 1,418 139 515 277 258 229 127 17 53 48 9 44,928 3,255 14,800 9,416 10,438 7,019 48,566 1,996 14,399 9,564 13,349 9,258 Males Bangkok Central North Northeast South 98,667 5,701 31,533 20,361 24,021 17,051 73,885 4,698 24,176 15,515 17,223 12,273 58,985 3,592 19,298 12,226 13,776 10,093 58,121 3,516 18,976 12,046 13,610 9,973 826 76 314 164 156 116 38 8 16 10 4 14,900 1,106 4,878 3,289 3,447 2,180 24,782 1,003 7,357 4,846 6,798 4,778 Females Bangkok Central North Northeast South 110,285 6,471 35,617 23,014 26,675 18,508 86,501 5,478 28,575 18,296 20,124 14,028 56,473 3,329 18,653 12,169 13,133 9,189 55,792 3,266 18,443 12,019 12,993 9,071 592 63 201 113 102 113 89 9 37 38 5 30,028 2,149 9,922 6,127 6,991 4,839 23,784 993 7,042 4,718 6,551 4,480 References Blau, Francine D. and Kahn, Lawrence M. (2000), “Gender differences in pay.” Journal of Economic Perspectives, 14(4), 75-99. Blinder, Alan S. (1973), “Wage discrimination: Reduced form and structural estimates.” Journal of Human Resources, 8(4), 436-455. Fuchs, Victor R., (1971), “Differences in Hourly Earnings Between Men and Women.” Monthly Labor Review, XCIV : 396-408. Gosse, Michelle A. (2002), “The Gender Pay Gap in the New Zealand Public Service.” Working Paper No. 15, State Services Commission : Wellington. Jones, F.L. (1983), “On decomposing the wage gap: A critical comment on Blinder’s method.” Journal of Human Resources, 18(1), 126-130. Oaxaca, Ronald L. (1973), “Male-Female Wage Differentials in Urban Labor Markets” International Economic Review, 14 (3) : 693-709. Reynolds, Lloyd G. and Masters, Stanley H. and Moser, Colletta H. (1987), Economics of Labor. Englewood Cliffs, New Jersey : Prentice Hall Sanborn, Henry. (1964), “Pay Differences Between Men and Women” Industrial and labor Relations Review, XVII : 534-550. Vartiainen, Juhana (2002), “Gender wage differentials in the Finnish labour market” Working Paper, Labour Institute for Economic Research, Helsinki. 12 - 329 ー

334.

ネパールにおける貧困と不平等に国内外の出稼ぎ収入が果たす役割 マヘシュ 東京国際大学 クマル スベディ 経済学研究科 博士後期課程 (ネパール中央統計局) The Impact of Remittances on Poverty and Inequality in Nepal Mahesh Kumar Subedi Ph.D. Candidate, Graduate School of Economics, Tokyo International University (Statistical Officer, Central Bureau of Statistics, Government of Nepal) 要旨 Poverty and unequal distribution of income are among the main economic problems of Nepal. Poverty in Nepal is mainly rural-oriented. The inequality is not only limited to regional level, but also in castes and ethnic groups. The urban-rural location of households and caste of household heads are two main factors behind inequality and poverty. Due to unemployment and rampant poverty in rural areas, work-migration to urban areas or abroad is increasing in trend. Consequently, the escalating size of remittances and its impact on economy are of great importance. The present study shows beneficial effects of remittances on reducing poverty and income inequality in Nepal. キーワード: Inequality, Poverty, Migration, Remittance, Proc logistic, Nepal 1. INTRODUCTION Nepal is among the least developed countries in the world with 31 percent of its population living below the poverty line. For decades, poverty is one of the characteristics of Nepalese economy. On top of it, the unequal distribution of income, also become a serious economic problem in recent years. The disparity is not only limited in regional level, but also in gender, caste and ethnicity. Country’s Poverty Reduction Strategy Paper (PRSP) has identified three major factors contributing to rural poverty in Nepal. First, the past pattern of economic growth and development has been largely skewed, urban-centric and inequitable. Second, the rural poor had little access to basic social and economic services and infrastructure, and the third, social exclusion persisted among certain castes and ethnic groups, women and those living in remote areas. It is widely believed that the rampant poverty and persisting inequality, particularly between urban and rural areas and social discrimination by castes are among the main causes of a decade long civil war (1996-2006), and present unrest situation of Nepal. A Large part of Nepalese population depends on subsistence agriculture. Economic opportunities within country in modern sectors are insufficient for huge mass 1 - 330 ー

335.

of ever increasing economically active population. Migration inside and outside country for employment are normal phenomenon in Nepal. Rural to urban, and rural to rural migration are common in Nepal. Due to open border and low transportation cost, for centuries, a large number of Nepali workers have gone to India during the dry season for employment. In addition, Nepalese holding formal jobs in the Indian or British Army have for many years been steady sources of private transfers from abroad. Recently, however, the destinations in international migration are expanding with opening up labor markets for Nepali, mainly in Gulf countries and East and Southeast Asian countries. The last population census 2001 shows about 13.24 % of native born population are internally migrated, and about 3 % migrated to abroad. But, the recent figure of external migration is quite higher than that census figure mainly because of work-migration to Gulf countries and Malaysia. The migrated people, especially categorized as work-migration send a substantial amount of their earnings back to their family. Consequently, the volume of remittances is also increasing every year to the extent of far surpassing the official development aid received by country. In recent years the international remittances alone is equivalent to about 13 % of GDP.1 On the other hand, in total amount of remittances the share of internal remittances is about 23 %.2 Therefore, both internal and international remittances are important not only at individual and households level, but also in national level. According to the new economics of labor migration (NELM), migration decisions are often made by the migrant and larger units of related people. They are aimed to maximize income, minimize risks and to loosen constraints associated with a variety of market failures (Stark and Levhari, 1982; Stark and Bloom 1985).The migration is considered as a mutually beneficial contractual arrangement, so remittances are also considered as a beneficial contract between migrant workers and their families back home. Like NELM, this study assumes that remittances would have beneficial effect in Nepal at both individual and household levels. Remittances could increase household income of poor families to escape out of poverty, and decrease the income gap between the rich and the poor. With these assumptions, this study aims to find out the effects of both internal and international remittances on poverty and inequality describing the existing level and factors behind poverty, inequality and remittances in Nepal. This paper proceeds describing the data used in our analysis in Chapter 2. Chapter 3 outlines the methods of analysis used. Income distribution, level of inequality and factors behind it are analyzed in Chapter 4. Situation of poverty in Nepal and its determinants are described in Chapter 5. Chapter 6 outlines the scenario of migration and remittances and households’ chances of receiving remittances. The effects of remittances on poverty and inequality are analyzed in Chapter 7. Chapter 8 concludes our study leaving behind a list of references. 2. DATA This study is based on micro-data of two Nepal Living Standards Surveys 1995/96 and 2003/04 conducted by the Central Bureau of Statistics (CBS), Nepal. In the 1 Nepal Rastra Bank (2007), Macroeconomic Indicators of Nepal Central Bureau of Statistics (2004), Nepal Living Standards Survey 2003/04: Statistical Report, Vol. 2, p. 74 2 2 - 331 ー

336.

absence of Household Income and Expenditure Surveys, CBS has conducted first Nepal Living Standards Survey (NLSS I) in 1995/96, and the second survey (NLSS II) in 2003/04. It is a nationwide multi-topic survey collecting a comprehensive set of data on different aspects of household welfare (consumption, income, housing, labor markets, remittances, education, health, etc.). The surveys follow the World Bank’s Living Standard Measurement Survey (LSMS) methodology and use a two-stage stratified sampling scheme. In both periods, the whole country is divided into six strata. In the first stage Primary Sampling Units (PSU) were selected from these strata using Probability Proportional to Size (PPS) sampling; 274 PSUs in NLSS I and 326 PSUs in NLSS II. In the second stage 12 households were selected from each PSU by systematic sampling. In total, NLSS I enumerated 3373 households compared to 3912 households in NLSS II. Data collections were planned over a full year to cover a complete cycle of agricultural activities and to capture seasonal variations in different variables. For these purposes total sample households were grouped in four distinct groups and households were interviewed in four subsequent phases; each phase consists of three consecutive months. Since per capita measures are considered better measures of household welfare than household income (and expenditure), this study used per capita expenditure – dividing household total expenditure by its household size. Although this attempt is rather crude as it neglects the age and sex composition of household members, there is no other choice in absence of equivalence scale measures. The expenditure is used as a proxy of income in nominal value with regional price adjusted. 3. METHODS OF ANALYSIS 3.1. Measuring Inequality Gini coefficient, a widely used aggregate inequality measures, is used to find out the level of inequality. Its value varies between 0 and 1. ‘Near to 0’ indicates more equality than towards 1. Among various mathematical expressions, Fei and Ranis’ equation of Gini is used in this study. It is expressed as: n +1 2 n G = 2 ∑ iy i − -------------------- (1) n n μ i =1 Where, yi is per capita income (expenditure) of recipient i, μ is mean income and n is that total number of recipients. 3.2. Decomposition of Inequality To examine factors behind inequality, total inequality can be decomposed in between-group and within-group inequality by population subgroups (such as age, sex, race, etc.). 3 From the Generalized Entropy class of indices, which are additively decomposed, the Mean Logarithmic Deviation (MLD) or Theil L Index (GE(0)) is used to decompose by population subgroups. According to Jenkins (1995), the MLD has the most desirable decomposability properties among inequality indices that are used to decompose by population subgroups. 3 A.F. Shorrocks (1982), Inequality Decomposition by Factor Component. 3 - 332 ー

337.

According to Anand (1983), the Theil index (Theil L) can be defined in terms of following notation, when aggregated income (expenditure) data – deciles data are used. ⎛ nij ⎞ ⎛ nij n ⎞ ⎟ --------------------- (2) L = ∑i ∑ j ⎜⎜ ⎟⎟ log⎜ ⎜Y Y ⎟ n ⎝ ⎠ ⎝ ij ⎠ Where, Yij is the total income (expenditure) of individuals income class j in group i, Y is the total income of all individuals (= ∑i∑ j Yij ), nij is the total number of all individuals in income class j in group i, and n is the total number of individuals (= ∑i ∑ j nij ) . Then the decomposition equation for L, when households are segregated into mutually exclusive and exhaustive groups, is ⎛n ⎞ ⎛n ⎞ ⎛n n⎞ L = ∑i ⎜ i ⎟Li + ∑i ⎜ i ⎟ log⎜⎜ i ⎟⎟ = Lw + LB -------------------- (3) ⎝n⎠ ⎝ n ⎠ ⎝ Yi Y ⎠ Where, Yi is the total income of individuals in group i (= ∑ j Yij ) , and ni is the total number of individuals in group i (= ∑ j nij ). Lw is the within-group component of the Theil index L and is defined by a weighted average of within-group Theil indices Li with the weights being the population shares of the groups ni/n, whereas LB is the between-group component of the Theil index L and measures the extent of inequality due solely to differences in the group mean income yi. The between-group contribution is then defined as the ratio of the between-group component LB to the overall Theil index L i.e. (LB/L), whereas the within-group contribution is (Lw/L). 3.3. Measuring Poverty The poverty line for Nepal has been derived on the basis of the cost-of-basic-needs (CBN) method. The annual per capita poverty line is equal to NRs.4 5,089 in 1995/96 and NRs. 7,696 in 2003/04. To measure poverty, the Foster-Greer-Thorbecke (FGT) class of poverty measures is used. It is represented by the following expression: ∑ Pα = (1/ n) (1− (yi / z))α ----------------------- (4) Where, yi is per capita expenditure below the poverty line and zero for those above, z is the poverty line and n is the total population. α takes a value of 0 for the Headcount Index, 1 for the Poverty Gap and 2 for the Squared Poverty Gap. 3.4. Determinants of Poverty and Remittances The probability of being poor (or receiving remittances) is calculated by using Logit Regression Model using various characteristics of households and households’ heads. The model is: ⎛ pi ⎞ ⎟⎟ = β 1+ β 2 x ij + e ij ------------------------ (5) Ln ⎜⎜ − 1 p ⎝ i ⎠ 4 NRs. = Unit of Nepalese currency (Rupees). US $ 1 = NRs. 73.8 in 2003/04 (annual average). The income and expenditure values used in this study are in nominal term. 4 - 333 ー

338.

Where pi=1, when nominal per capita expenditure is below poverty line (or if household receives remittances) and pi=0, otherwise. The explanatory variables are various socio-economic attributes of households and households’ heads. 3.5. Impact of Remittances Poverty and inequality are calculated ‘with’ and ‘without’ remittances. In the ‘without’ case, the remittances are set equal to zero, i.e., remittances are subtracted from household’s total expenditure, which reduces the average per capita expenditure of household. 4. INCOME DISTRIBUTION 4.1. Distribution of Income among Region and Caste Since household expenditure is considered better measures of welfare, this study uses expenditure as a proxy of household income. The average per capita expenditure has increased from NRs. 7,635 in 1995/96 to NRs. 15,224 in 2003/04. The overall per capita expenditure increased, but the growth for the top decile is about 158 % against 81 % for bottom. The difference of mean expenditure between top and bottom 10 % (deciles dispersion ratios) is about 8 times in 1995/96, and about 12 times in 2003/04. A large gap in expenditure shares across population groups has become even worse during eight years, even though the size of average expenditure has increased for each group. The overall expenditure inequality (Gini index) increased from 0.34 to 0.41. The distribution of income (expenditure) is even worse when it is analyzed by urban-rural location of households and by caste/ethnicity of household heads (Table 1). In both periods the average income of rural households is less than half of urban households and below national averages. The urban inequality is higher than rural, but the rise in total inequality is mainly explained by increased in rural inequality. Table 1. Average Per capita Expenditure and Gini by Area and Caste, 1995/96 and 2003/04 Area / Caste Rank in Hindu Caste System Higher in Rank Middle in Rank Lower in Rank Nepal Urban Rural Caste and Ethnicity Brahman/Chhetri Newar Hill Janajati Terai Middle caste Terai Janajati Muslims Dalit Other 1995/96 Mean Gini Expenditure Index (NRs.) 7235 0.34 14536 0.43 6694 0.31 8294 12411 6774 6811 5815 5480 5169 6384 0.36 0.39 0.35 0.24 0.26 0.20 0.25 0.29 2003/04 Mean Gini Expenditure Index (NRs.) 15224 0.41 30405 0.44 12546 0.35 18853 28545 12305 12478 11817 11021 10514 13336 0.42 0.47 0.40 0.26 0.32 0.30 0.33 0.36 Similarly, the distribution of income is highly uneven among castes and ethnicity of people. Nepal presents an example of being united in the diversity of more than 59 ethnicities and 37 languages over the history, but Nepal’s caste structure also contributes to social and economic exclusion. The caste system is based on the traditional Hindu 5 - 334 ー

339.

ideology5, which has been governing economic and social matters in Nepal for centuries. Consequently, only certain higher castes – Brahman and Chhetri, and Newar have higher incomes with high income disparities within them. On the other hand, most of the middle ethnic groups and the lower caste, Dalit survive with income below national averages in both periods. 4.2. Determinants of Inequality Nine geographic, household and household head’s characteristics are used to decompose total expenditure inequalities using mean log deviation index (Theil L). When total inequality is decomposed within-group and between-group inequalities, within-group inequality dominates the between-group components. This indicates that incomes (expenditures) are more unequal within their own groups. But, when the share of between-group inequalities in total inequalities are compared, mainly four factors are found as main determinants of inequality in both periods; Education level of household head, Urban/rural location of household, Caste of household head, and Employment status of household head as shown in Table 2. The education level is categorized in six groups; Illiterate, Primary, Middle school, High school, Senior high school, and University level. The mean expenditure is increased as the level of education raises. Similarly, employment status of household is grouped into 5 groups; Wage employment in agriculture, Wage employment in non-agriculture, Self employment in agriculture, Self employment in non-agriculture, and Other. Mean expenditures are found significantly lower in agriculture related sectors – self and wage employed in agriculture sector. Variations in expenditures in Urban/rural areas, and among castes are discussed in Table 1 (page 5). Table 2. Decomposition of Expenditure Inequality by Population subgroups, 1995/96 and 2003/04 Category Urban/ Rural Development Region Sex Household size Education Level Employment status Agri. Landsize Caste Remittance Within Theil (Lw) 0.15 0.16 0.17 0.15 0.14 0.16 0.16 0.15 0.17 Total Theil (L) 0.17 0.17 0.17 0.17 0.17 0.17 0.17 0.17 0.17 1995/96 Contribution of Lb (Lb/L*100) 14.04 6.59 0.06 7.23 17.06 8.77 3.59 13.02 0.06 Rank 2 6 8 5 1 4 7 3 9 Within Theil (Lw) 0.19 0.23 0.24 0.23 0.19 0.21 0.23 0.21 0.24 2003/04 Total ContribuTheil tion of Lb (L) (Lb/L*100) 0.25 24.30 0.25 5.71 0.24 0.41 0.24 5.35 0.25 26.00 0.25 15.08 0.25 6.94 0.25 16.40 0.24 0.01 Rank 2 6 8 7 1 4 5 3 9 The between-group inequality indicates the differences of income level between groups. For example, the between-group contribution of education level in 1995/96 is 17 % of total inequality, which indicates that, if there are no income differences due to education levels, the total inequality would have reduced by 17 %. The income differences caused by education level or employment status of household heads or by 5 The Hindu caste system is based on a belief that certain groups due to their ancestry, occupations and practices have different levels of ritual purity. The 1854 National Code placed the members of the Brahman and Chhetri castes and some high-level Newars at the top. Beneath them were made up of Nepal’s indigenous groups who now call themselves Janajati. Lower down were Muslims and foreigners. The untouchable Dalits came at the very bottom and were forbidden to enter temples or to use water sources used by high caste groups. 6 - 335 ー

340.

urban-rural location of households can be considered normal phenomenon, but income differences by caste and ethnicity of people could be a unique feature of Nepal. 5. MEASUREMENT OF POVERTY 5.1. Poverty Situation Poverty is one of the characteristics of Nepalese economy; however, it decreased dramatically from 42 % in 1995/96 to 31 % in 2003/04. The decrease is mainly driven by increases in consumption expenditure, increases in remittances and higher agriculture wage etc. (CBS, 2006). But, still the poverty rate of rural area is quite high (Table 3). Most of the people live in rural areas and it houses more than 95 % of all poor, therefore, poverty in Nepal is rural-oriented. Likewise, the incidence of poverty is higher in western part of the country than eastern part. Table 3. Distribution of Poverty and Population by Area and Caste, 1995/96 and 200 Area / Caste Nepal Urban Rank in Hindu Rural Caste System Caste and Ethnicity Higher in Rank Brahman/Chhetri Newar Hill Janajati Middle in Rank Terai Middle Caste Terai Janajati Muslims Lower in Rank Dalit Other Poverty Head Count 42 22 43 1995/96 Distribution of People 100 6.9 93.1 Distribution of Poor 100 3.6 96.4 34 18 49 28 53 44 58 46 32.8 5.5 16.8 4.2 8.2 5.5 7.6 19.5 26.8 2.4 19.6 2.8 10.5 5.8 10.5 21.7 (%) Poverty Head Count 31 10 35 2003/04 Distribution of People 100 15.0 85.0 Distribution of Poor 100 4.7 95.4 18 14 44 21 35 41 46 31 26.3 7.5 19.5 2.8 8.1 6.5 7.4 22.0 15.7 3.4 27.8 1.9 9.2 8.7 10.9 22.3 The uneven variation of poverty can also be seen at castes and ethnic groups. As it classified in Hindu caste system, only the three castes and ethnic groups – Brahman/ Chhetri (higher caste), Newar (higher and middle in rank) and Terai Middle Caste (Middle caste) have poverty rates below national level. Especially, poverty is severe in the lower caste, Dalit who are suffering from both social and economic exclusions. The decline in poverty rate remains also lower in Hill Janajati, which has higher concentration of poor in 2003/04. 5.2. Determinants of Poverty The relation of households’ and household heads’ characteristics in the probability of a given household being in poverty is measured by a Logit regression analysis. The coefficients estimated from the regression (Table 4) shows that households with bigger household size (>7 persons), with young household head (<30 years), located at rural areas or at Mid-western and Far-western regions have higher probability of being poor. Similarly, the chance of being poor is higher at Dalit, Hill Janajati and Muslim communities. On the other hand, the probability of being poor is negative in educated household head, households with big agricultural land size (>1 hectare), household 7 - 336 ー

341.
[beta]
heads employed at non-agriculture sector and households receiving remittances.
Although in both periods the remittances remain as one of the factors to get out of
poverty, the degree of poverty reduction remains higher in the second period than the
first one. Furthermore, in 2003/04 the chance of being poor is negative in female headed
households. It might be because 64 % of female headed households received
remittances.
Table 4: Determinants of Poverty using Logit Regression Model
Characteristics
Intercept
Sex (ref. Male)
Female
Household Size (ref. 5-6 Persons)
1-2 persons
3-4 persons
7-9 persons
10 + persons
Urban/Rural (ref. Urban)
Rural
Dev. Region (ref. Central)
Eastern
Western
Mid-western
Far-western
Age Group (ref. Middle age)
Young (< 30, yrs)
Old (> 60, yrs)
Education (ref. illiterate)
Primary
Secondary
Tertary
Emp. Sector (ref. Agri.)
Non-agriculture
Other (Not working)
Agri. Landsize (ref. < 1, ha.)
No agri. Land
Large size
Caste (ref. Brahman)
Terai Middle caste
Dalit
Newar
Hill Janajati
Terai Janajati
Muslim
Other Minorities
Remittace (ref. non-receiver)
Remttance receiver

1995/96
Estimates
Odds ratio

2003/04
Estimates
Odds ratio

-1.648*

-2.028*

0.067

1.069

-0.261***

0.77

-1.869*
-0.857*
0.406*
0.621*

0.154
0.424
1.501
1.861

-1.498*
-0.99*
0.54*
1.036*

0.224
0.372
1.716
2.818

1.091*

2.978

1.206*

3.339

0.227***
0.174
1.319*
1.819*

1.255
1.19
3.742
6.169

0.114
0.026
0.918*
0.909*

1.121
1.027
2.505
2.482

0.405*
-0.171

1.499
0.843

0.646*
-0.121

1.908
0.887

-0.657*
-1.129*
-2.90*

0.518
0.323
0.055

-0.565*
-1.463*
-3.053*

0.568
0.232
0.047

-0.402*
-0.795*

0.669
0.452

-0.304*
0.052

0.738
1.054

0.151
-0.761*

1.163
0.467

0.134
-0.971*

1.144
0.379

0.098
0.889*
-0.416***
0.715*
-0.063
0.894*
0.839*

1.103
2.431
0.66
2.044
0.939
2.444
2.313

-0.122
1.128*
0.040
1.152*
0.213
0.534**
0.476*

0.885
3.089
1.04
3.165
1.237
1.705
1.609

-0.212**

0.809

-0.379*

0.685

AIC = 3358.97, - 2 Log L = 3302.97

AIC = 3323.02, - 2 Log L = 3267.02

* Significant at 0.001level, ** Singnificant at 0.05 level, *** Significant at 0.1level

6. MIGRATION AND REMITTANCES
6.1. Distribution of Remittances
Remittance income is defined in Nepal Living Standards Survey (NLSS) as “a
transfer income received in cash or kind by a household within the last 12 months
before survey”. All incomes transferred from a single source (individual/household) are
counted as one remittance. The internal or international migrations captured in this
study represent the migrant, either temporary or permanent, who sent remittances back
to family. Therefore, the migrants in this study are mostly the work-migrants; who left
8

- 337 ー

342.

home for employment inside the country or abroad and remit back to their families. Remittances remain one of the main income sources of Nepalese households. It accounts about 11 % shares in total household income in 2003/04 (CBS, 2004). The proportion of households receiving remittances has increased from 23 % in 1995/96 to 32 % in 2003/04. Not only the share of households, the average amount of remittance among recipients households has also gone up more than double (from NRs. 15,160 to NRs. 34,698) in nominal term. Likewise, the remittances occupy more than one third share (35.4%) among recipients households’ total income in later period. In distribution of remittances there are no remarkable differences in numbers, for example, even the share of households receiving remittances are higher in rural area and in lower castes. But, the differences in amount can be seen among regions and ethnic groups. Households have received remittances from both internal and international (external) sources (Table 5). The majority of transfers came from inside Nepal in 1995/96, but it is overtaken by external sources in 2003/04. India is the main source of remittances outside Nepal. Although, the number of remittances from India is decreasing, it is far higher than from other countries (38.1% in 1995/96 and 35.2% in 2003/04). In 2003/04 both the number and amount of remittances, especially from Gulf countries and Malaysia are increased. The overall total amount of remittances received has gone up about four times - from 13 billion rupees in 1995/96 to more than 46 billion rupees in 2003/04. Table 5. Number, Size and Share of Remittances Received by Source Source of Remittances Internal Urban Nepal Rural Nepal External India Middle East East/Southeast Asia West Donor Agency Total No. of remittances received Share in total no. of remittances received 512 260 312 377 319 11 58.5 25.8 32.7 41.5 38.1 0.3 47 … 949 1995/96 Mean Total amount Share of No. of amount of of remittance remittance remitremittance received amount tances received (Billion NRs.) received received (NRs.) (%) 10506 55996 5.8 4.2 1.6 7.2 4.3 0.19 44.7 32.4 12.3 55.4 32.9 1.5 3.1 82450 2.7 21 … 100 … … 12.9 … 100 15294 4587 753 366 387 737 480 133 68 56 7 2234 Share in total no. of remittances received 48.2 22.7 25.5 51.4 35.2 9.3 4.1 2.8 0.5 152 2003/04 Mean Total amount Share of amount of of remittance remittance remittance received amount received (Billion NRs.) received (NRs.) (%) 15198 12198 18414 79249 87806 139407 4669 10.9 5.7 5.2 35.5 10.8 12.3 5.9 6.5 0.04 46.4 23.5 12.4 11.1 76.4 23.2 26.5 12.8 13.9 0.1 100 6.2. Determinants of Remittances The relation between a household’s characteristics and probability of a given household receiving remittances is measured by a Logit regression analysis. Since the associations between background characteristics could be different in households receiving internal and international remittances, they are examined separately for both periods. The relation between households’ attributes and remittances is not consistent in both periods, because the pattern of remittances of each period is different, especially from international sources. For example, in 1995/96 all development regions and education level of heads are positively related to internal remittances, but are opposite in 2003/04 (Table 6). However, in both periods, the probability of receiving internal remittances is higher in female headed households, households located at central region, agricultural household 9 - 338 ー

343.

head with medium size agricultural land (<1 hectare) and household from Brahman/Chhetri and Terai Janajati communities. On the other hand, the chances of receiving internal remittances are negative in large size households, households involving in non-agriculture sector and households from Hill Janajati ethnic group. Table 6. Determinants of Remittances by Household and Household's Head Attributes Attributes 1995/96 Parameters Internal External Remittance Remittance 2003/04 Parameters Internal External Remittance Remittance Intercept -2.563* -3.627* -1.327* Sex (ref. Male) Female 1.202* 1.401* 0.622* Household Size (ref. <=6 Pers.) Bigger size (>6 Persons) -0.244*** 0.118 -0.338*** Urban/Rural (ref. Urban) Rural 0.195 0.370 -0.041 Dev. Region (ref. Eastern) Central 0.8554* 0.305 0.069 Western 0.129 1.497* -0.297** Mid-western 0.443** 0.811* -0.246 Far-western 0.165 1.405* -0.322 Education (ref. illiterate) Primary 0.039 0.101 -0.327** Secondary 0.369** -0.146 -0.116 Tertary 1.063* 0.459 -0.589** Emp. Sector (ref. Agri.) Non-agriculture -0.498* -0.714* -0.458* Other (Not working) -0.152 -0.049 0.176 Agri. Landsize (ref. < 1, ha.) No agri. Land -0.036 0.265 0.143 Large size 0.085 0.066 0.222* Caste (ref. Brahman) Terai Middle caste -0.129 0.621*** -0.509 Dalit -0.157 0.384*** -0.479** Newar -0.240 -0.931** -0.283 Hill Janajati -0.326*** 0.327*** -0.188 Terai Janajati 0.114 -1.924* 0.168 Muslim 0.050 0.417 -0.481*** Other Minorities 0.065 0.653* -0.262*** Poverty (ref. Not Poor) Poor -0.129 -0.288** -0.474* * Significant at 0.001 level, ** Singnificant at 0.05 level, *** Significant at 0.1 level -2.501* 1.289* 0.243** 0.158 0.543* 1.064* 0.732* 1.308* -0.432* -0.229*** -0.018 -0.906* 0.122 0.104 0.160 0.337 0.292*** -0.726* -0.044 -0.998* 0.570** 0.196 -0.097 In the case of international remittances, female headed household, larger household size (>6 members), all development regions, especially Western and Far-western regions, household from Brahman/Chhetri, Dalit and Muslim castes and ethnic groups have higher probability to receiving remittances. On the contrary, education levels of households’ heads, non-agricultural households, households from Newar and Terai Janajati are negatively related with remittances. The negative relation between education level of heads and remittances could be dislike of labor works in abroad. Since only 48 % of household heads are literate and most of the migrants are unskilled labor-migrants, the educated household heads may not prefer to send their household members for labor work. Likewise, the negative probability to receive remittances in households below poverty line is due to small share of remittances received by them than richer groups. In fact, many poor households also received remittances to escape from poverty. 10 - 339 ー

344.

7. IMPACT OF REMITTANCES 7.1. Effect of Remittances on Poverty Some researchers claim that the remittance is beneficial at all levels including the individual, household, community and national levels. It increases disposable incomes, wage level and demand for local goods and services, and plays a vital role in developing local capital markets and infrastructure, and reducing poverty.6 To measure the effects of remittances on household expenditure and poverty, the amount of remittances is subtracted from households’ expenditure. Thus poverty with and without remittances are measured.7 The results of simulation (Table 7) shows that remittance is able to decrease overall poverty by 4 percentage point is 1995/96 and 6 percentage point in 2003/04. In both periods, remittances helped to reduce rural poverty more than urban poverty. However, the changes in other two measures of poverty – poverty gap and Squared poverty gap are marginal. This indicates that although remittances reduced poverty, the share of poor households in total remittance-receiving households is low. In other words, the number of poor households receiving remittances is lower than that of richer households. Table 7. Poverty with and without Remittances Head Count Ratio 1995/96 All Nepal Urban Rural 2003/04 All Nepal Urban Rural With remittances Poverty Squared Gap Pov. Gap Without remittances Head Count Poverty Squared Ratio Gap Pov. Gap 0.42 0.22 0.43 0.12 0.07 0.12 0.05 0.03 0.05 0.46 0.24 0.48 0.15 0.08 0.15 0.07 0.03 0.07 0.31 0.10 0.35 0.08 0.02 0.09 0.03 0.01 0.03 0.37 0.13 0.41 0.12 0.04 0.13 0.06 0.02 0.06 Similarly, when the effects of remittances are analyzed by their sources, the effect of international remittances is found higher than internal remittances in 2003/04, while they are the same in 1995/96. In 2003/04 the internal and international remittances contribute to decrease 2 and 4 percentage point poverty respectively, while they contribute to decrease 2 percentage point in 1995/96 (Figure 1). Fig. 1. Change in Poverty by Internal and International Remittances 50 PERCENT 45 40 35 30 25 20 With Both Remittances 1995/96 Without Internal Remittance 2003/04 Without International Remittance 6 Without Both Remittances Chimbown et al. (2004), The impact of remittances. Similar simulation method is discussed at Gustafsson et al.(1993), “Poverty and Remittances in Lesotho”, p. 60. 7 11 - 340 ー

345.

7.2. Effect of Remittances on Inequality Many empirical studies support the beneficial effects of remittances in reducing poverty, but there is still no consensus about the general effects of remittances on income inequality. Studies show mixed effects of remittances on inequality – remittances can increase or decrease income inequality. Stark et al. (1986) found both positive and negative effects of internal or international remittances at two villages of Mexico. Liption (1980) discussed the worsening village income inequality due to out-migration from villages, “townward emigration”. Like positive effects of remittances on poverty, remittances can reduce income inequality. The Lorenz curves in Figures 2a and 2b indicate the widening of inequalities. The Gini indices reduced from 0.36 to 0.34 in 1995/96 and 0.44 to 0.41 in 2003/04. But, the positive effect of remittances on income distribution is higher in rural areas than that of urban areas. The urban inequality has remained almost constant at both periods irrespective of ‘with’ and ‘without’ remittances, whereas rural inequalities reduced by 6.5 percent in 1995/96 and 8.5 percent in 2003/04. Fig. 2a. Expenditure Inequality With and Without Remittances, 1995/96 Fig. 2b. Expenditure Inequality With and Without Remittances, 2003/04 100 100 with Remittance Gini=0.34 80 Income Share Income Share 80 60 40 20 60 With Remittance Gini=0.41 40 20 Without Remittance Gini=0.36 0 Without Remittance Gini=0.44 0 0 20 40 60 80 0 100 20 40 60 80 100 Population Share Population Share Likewise, both internal and international remittances are found effective, especially international remittances in reducing inequality (Table 8). The positive effects of remittances remained higher in 1995/96 than 2003/04. In 1995/96 the Gini indices reduced from 0.38 to 0.32 by internal remittances and from 0.46 to 0.33 by international remittances, while the reductions are 4 percentage point and 8 percentage point from internal and international remittances respectively in 2003/04. Table 8. Inequality with and without Remittances by Remittance Sources Remittancereceiving Households 1995/96 Internal International 2003/04 Internal International With Remittances Mean income Gini (NRs.) Index Without Remittances Mean income Gini (NRs.) Index 7884 6886 0.32 0.33 6609 5206 0.38 0.46 15421 14750 0.36 0.40 12106 10059 0.40 0.48 12 - 341 ー

346.

8. CONCLUSION Poverty, inequality and remittances are interrelated in Nepalese economy. It is characterized by wider urban-rural income inequality, higher poverty and dependency on international remittances. Poverty is severe in rural areas. Disparity in income is not only limited on regional division, but also in gender, caste and ethnic groups of people. A large part of population depends on subsistence agriculture; works in modern sectors are almost nil compared to huge labor force. Consequently, people are forced to migrate inside and outside country in search of economic opportunities, mainly as livelihood strategy. The empirical analysis of our study based on two household surveys conducted in 1995/96 and 2003/04 also supports the present economic situation of our country with following findings. Although the share of poverty is reduced between the two periods, a large number of people are still below poverty level. Particularly, the poverty is severe in rural areas. In spite of reduction in poverty, the income inequality is widening. Education level of household heads, urban-rural location of households, castes and ethnicity and employment status of household heads are found main factors behind the income inequality. Likewise, large size households, households engaged in agriculture, households located in rural areas or in Mid- and Far-western regions, households from Dalit, Hill Janajati and Muslim communities are more likely to be poor. On the other hand, female headed households, households with an educated household head, households with bigger size of agriculture land, households engaged in non-agricultural sector and households receiving remittances have chances to be out of poverty. Remittance has remained one of the main income sources of Nepalese households; occupying about 11 % share in total household income, and more than one-third of total income of recipients’ households. Although the pattern is not consistent between the two surveys, the probability of receiving internal remittances is found higher in the following households; female headed households, households engaged in agriculture, households with medium size of agriculture land, households located in central development region, and households from Brahman/Chhetri and Terai Janajati groups. Large size households, female headed households, households located mainly in Western and Far-western regions, households from Brahman/Chhetri, Dalit and Muslim communities have a positive relation with international remittances. On the contrary, households with higher educated household heads, households engaged in non-agricultural sector, and households from Newar and Terai Janajati ethnic groups are negatively related with international remittances. The beneficial effects of remittances are also found true in Nepal on reducing poverty and inequality. Especially, the international remittance is found more effective to reduce poverty and inequality. The degree of poverty and inequality reduction is found higher in rural areas than urban, which indicates that more households in rural areas are receiving remittances than urban areas. However, the marginal changes of the other two poverty measures, poverty gap and squared poverty gap, point to a weak access of very poor households to remittances. Only a small number of households below poverty level receive remittances compared to those above the poverty line. 13 - 342 ー

347.

ACKNOWLEDGEMENTS My great appreciation goes to Professor Yukihiko Kiyokawa, Professor Atsushi Maki and Professor Mikio Suga of Tokyo International University, and Yoshiro Matsuda, Professor Emeritus of Tokyo International University for their valuable instruction and comments. I would also like to express my sincere thanks to visiting Professor Setsuo Suoh of Tokyo International University (Professor, University of Hyogo) for his guidance and assistance in using SAS for data analysis. And I am grateful to my office in Nepal, Central Bureau of Statistics, for the permission to use microdata of household surveys in my research. REFERENCES Anand, S. (1946). Inequality and Poverty in Malaysia. A World Bank research publication. New York: Oxford University Press Adams, R.H. Jr. (2005). The Economic Uses and Impact of International Remittances in Rural Egypt. Economic Development and Cultural Change 39(4): pp. 695-722. Chimhowu, Admos, Jenifer PieSSe, and Caroline Pinder (2004). The impact of remittances. Enterprise Impact News 29 (April): 1-2. http://www.enterprise-impact.org.uk. Gujarati, D.N. (2003). Basic Econometrics. 4th ed. Singapore: McGrawHill. Gustafsson, B. and Negatu Makonnen (1993). Poverty and Remittances in Lesotho. Journal of African Economy 2(1): 49-73. Lipton, Michael (1980). Migration from rural areas of poor countries: The impact on rural productivity and income distribution. World Development, vol.8: 1-24. Massey et al. (1993). Theories of International Migration: A Review and Appraisal. Population and Development Review 19 (3): 431-466. Nepal. Central Bureau of Statistics (2004). Nepal Living Standards Survey 2003/04: Statistical Report. Vol. 2. Kathmandu: Department of Printing. ________ (2002). Population Census 2001: National Report. Kathmandu: Department of Printing. ________ (2006). Resilience Amidst Conflict: An Assessment of Poverty in Nepal, 1995096 and 2003-2004. Kathmandu: WorldScape. Nepal. Nepal Rastra Bank (2007). Macroeconomic Indicators of Nepal. Rastra Bank Publication, January 2007. http://www.nrb.org.np. Seddon, David, Jagannath Adhikari, and Ganesh Gurung (2002). Foreign Labor Migration and The Remittance Economy of Nepal. Critical Asian Studies 34 (1): 19-40. Shorrocks, A.F. (1982). Inequality Decomposition by Factor Components. Econometrica 50(1): 193-211. ________ (1984). Inequality Decomposition by Population Subgroups. Econometrica 52(6): 1369-1386. Stark, Oded. and D.E. Bloom (1985). The New Economics of Labor Migration. Frontiers in Demographic Economics 75 (2): 173-178. Stark, Oded, J. Edward Taylor, and Shlomo Yitzhaki (1986). Remittances and Inequality. The Economic Journal 96(383): 722-740. Stark,, Oded and D. Levhari (1982). On Migration and Risks in LDCs. Economic Development and Cultural Change 31(1): 191-196. 14 - 343 ー

348.

測定誤差が含まれるデータに対する混合モデルの応用 緑川修一 ・ 山路太一朗 ・ 川崎洋平* ・ 宮岡悦良 東京理科大学 三菱ウェルファーマ* Application of Mixed Models in Measurement Error Data Shuuichi Midorikawa / Taichirou Yamaji / Youhei Kawasaki* / Etsuo Miyaoka Science University of Tokyo Mitsubishi Pharma Corporation * 要旨 回帰モデルにおいて,説明変数に誤差が含まれる場合,通常の解析では パラメータの推定に誤差を生じてしまう.このような measurement error の 問題に対して,mixed model を用いた改善法を提案し,シミュレーションに より検証する.本稿では特に,観測値がカテゴリカルデータの場合について 考察する.シミュレーションには,GEMMOD プロシジャ,NLMIXED プロシ ジャなどを用いた. キーワード: Measurement error,mixed model, カテゴリカルデータ はじめに 回帰モデルにおいて,説明変数は定数であると仮定して,よく解析が行わ れる.これに対して,説明変数に測定誤差が含まれていると仮定する測定誤差モデルが,疫 学や生物統計学,経済学,行動科学等,様々な分野において広く研究がなされてきた.説明 変数に測定誤差が含まれる場合,通常の回帰分析を行うと,パラメータが正しく推定できない という問題が生じる.本稿では真の説明変数を wi とし,解析に用いる説明変数を x i とした時, パラメータの推定にどのような影響があるかについて調べた.このような状況の具体的な 例として,薬の摂取量 x i が病気の改善度 yi にどのような影響を与えるか調べることを考え る.医師が患者に x i グラム薬を処方したとする.この時患者は実際に x i グラム摂取してい るとは限らない.粉薬であれば飲み残しの可能性や,塗り薬であれば患者によって塗る量 - 344 ー

349.

が異なってくる.また間違って過剰に摂取してしまう可能性もある.このように,実際に 患者は wi グラムの薬を摂取しているのにもかかわらず,解析を行う際には医師の処方した 量 x i グラムを説明変数として用いた場合について考察していく.また本稿では観測値がカ テゴリカルデータの場合について考察していく. モデル 真の説明変数 wi を,実際に測定される値 x i と誤差 u i を用いて表し,誤差の分布を次 のように仮定する. wi  xi  ui , i  1, L , n. u i ~ N (0 ,  u ) 2 また u i が与えられた時の観測値 yi の分布を次のように仮定する. y i | u i ~ Binomial ( n, pi ), logit  pi    0  1  xi  ui  , i  1, L , n. ここで 1ui   i と置くと, y i | i ~ Binomial ( n, pi ), logit ( pi )   0  1 xi   i ,  i ~ N ( 0 ,  2 ) , i  1, L , n. ロジスティック混合モデルとして表すことができる. 推定法 推定法には最尤法を用いるがこのようなモデルの場合尤度関数に積分が含まれる.この積分 が解析的には得られないため,数値積分を用いて近似尤度関数を求める.数値積分には, Gaussian Quadrature を用いる.得られる近似尤度関数は L (  0 ,  1 , )  * となる.ここで z i  1 i 2 2  f ( y | z i ) exp( z i )dz i  2  1 M  A f ( y |  ),  k 1 k k , f は結合確率関数, Ak ,  k はそれぞれエルミート直交多項式 の重みと分点とする.近似尤度関数を用いてパラメータの推定値を求めるが,最適化につ いては,ニュートン法を用いた. - 345 ー

350.

シミュレーション 次に,説明変数に測定誤差が含まれる場合に,ロジスティック回帰モデルを用いて 解析した際に得られる推定量と,ロジスティック混合モデルを用いて得られる推定量をシ ミュレーションにより,比較・検証していく.シミュレーション方法は,データを 10000 回乱数で発生させ,その発生させたデータをロジスティック回帰モデル,ロジスティック 混合モデルを用いて解析し,得られる推定値の平均,分散,ヒストグラム,Wald 型信頼区 間をもとに得られた Coverage Probability を比較・検証していく.シミュレーションには, GEMMOD プロシジャ,NLMIXED プロシジャを用いた. シミュレーション設定 真のパラメータ 0 , 1 の値は, それぞれ 0  5 , 1  0.68 とする. 説明変数 x i を 3,6, 9 とし, それぞれ x i に対して観測値 yi を 10 個ずつ, 計 30 個の二項乱数を用いて発生させた.  u 2 は, 1.0, 1.5 を用いた.Gaussian Quadrature の分点数 M は 5 とした.以下, 1 につ いてのみ見ていく.ヒストグラムの中央に引かれた線は真のパラメータの値, 1  0.68 を 示している. データ数:30 分点数:5 - 346 ー 測定誤差の分散:1.0

351.

表 1: ̂1 におけるヒストグラムの平均値, 標準偏差, Coverage probability 平均 標準偏差 CP ロジスティック回帰モデル 0.6380 0.0919 0.9306 ロジスティック混合モデル 0.6770 0.1122 0.9485 データ数:30 分点数:5 測定誤差の分散 1.5 表 2: ̂1 におけるヒストグラムの平均値, 標準偏差, Coverage probability 平均 標準偏差 CP ロジスティック回帰モデル 0.5892 0.1034 0.8502 ロジスティック混合モデル 0.6853 0.1303 0.9702 結果 測定誤差を含む説明変数を用いるとき, ロジスティック回帰モデルを用いるより, ロ ジスティック混合モデルを用いる方が, 測定誤差の影響を補正し, パラメータの推定を精 度良く推定出来ることがわかった. - 347 ー

352.

JMPによる心肺停止時刻の検証 田久浩志、中川隆、竹内昭憲、田渕昭彦、花木芳洋 北川芳己、小澤和弘、後藤玲司、野口宏 愛知県救急業務高度化推進協議会作業部会 How to evaluate collapse time of CPR by JMP Takyu Hiroshi, Nakagawa Takashi, Takeuchi Akinori Tabuchi Akihiko, Hanaki Yoshihiro, Kitagawa Yoshimi Ozawa Kazuhiro, Goto Reishi, Noguchi Hiroshi Aichi Prefecture Medical Control Association 対象と方法 z 助けられる命を助けるためには、救命救急活動の 検証が重要であり、心肺停止の時刻の記録が最重 要となる。 z 今回、2006年度の愛知県のウツタイン様式心肺停 止事例のデータ5988名の中で、心原性で救命士以 外の目撃あり 1217件を対象に、その心停止時刻 の精度を検討し、いささかの知見を得たので報告す る z 使用ソフト:SAS社JMP6.0 Microsoft社Excel2003 - 348 ー

353.

目撃者の種類と心停止時刻 目的者は家族が多く、心停止時刻は人間の活動時間に多い 一変量の分布 目撃者の種別 2 度数 その他 水準 度数 248 その他 969 家族 1217 合計 欠測値N 27 2 水準 家族 4:00 1:00 22:00 19:00 16:00 13:00 10:00 7:00 4:00 1:00 一変量の分布 心停止 時刻 分位点(秒) 100.0% 最大値 99.5% 97.5% 90.0% 75.0% 4分位点 50.0% 中央値 25.0% 4分位点 10.0% 2.5% 0.5% 最小値 0.0% 割合 0.20378 0.79622 1.00000 86100 85235 83135 75936 65070 44700 28800 15468 3266 300 0 入電時刻の下一桁は一様に分布していた 一変量の分布 入電時刻-下一桁 度数 0 1 2 3 4 5 6 7 8 9 - 349 ー 水準 度数 129 0 137 1 118 2 107 3 121 4 128 5 124 6 123 7 114 8 116 9 1217 合計 欠測値N 27 10 水準 割合 0.10600 0.11257 0.09696 0.08792 0.09942 0.10518 0.10189 0.10107 0.09367 0.09532 1.00000

354.

心停止時刻の下一桁は、0と5が大半であった 一変量の分布 心停止時刻-下一桁 度数 0 1 2 3 4 5 6 7 8 9 水準 度数 449 0 36 1 59 2 68 3 56 4 280 5 58 6 52 7 74 8 44 9 1176 合計 欠測値N 68 10 水準 割合 0.38180 0.03061 0.05017 0.05782 0.04762 0.23810 0.04932 0.04422 0.06293 0.03741 1.00000 心停止からの経過時間が経つにつれて、下 一桁の数字は0と5が増加した 経過時間と心停止時刻-下一桁の分割表に対する 分析 モザイク 図 心停止時刻-下一桁 1 .00 9 8 7 6 0 .75 5 4 3 2 1 0 .50 0 .25 0 0 .00 1:<5 2:5- 3:10- 4:15- 経過時間 分割表 経過時間 度数 0 1:<5 2:53:104:15- 1 0 23 100 148 177 448 2 0 8 14 12 2 36 3 0 9 28 16 6 59 心停止時刻-下一桁 4 5 6 0 0 0 11 11 21 35 30 79 18 12 106 4 3 74 68 56 280 - 350 ー 7 0 13 22 17 5 57 8 0 7 30 12 3 52 9 0 12 44 14 4 74 0 8 20 15 1 44 0 123 402 370 279 1174

355.

県の4ブロック別でも同様の傾向が観察された ブロック名= C モザイク図 心停止時刻-下一桁 1.00 9 8 7 6 0.75 5 4 3 2 1 0.50 0.25 0 1.00 心停止時刻-下一桁 ブロック名=A モザイク図 0.00 9 8 7 6 5 0.75 4 3 2 1 0.50 0.25 0 0.00 1:<5 2:5- 3:10- 4:15- 1:<5 2:5- 経過時間 4:15- 経過時間 ブロック名= D モザイク図 1.00 9 8 7 6 0.75 5 4 3 2 1 0.50 0.25 0 0.00 1.00 心停止時刻-下一桁 ブロック名= B モザイク図 心停止時刻-下一桁 3:10- 9 8 7 6 0.75 5 4 3 2 1 0.50 0.25 0 0.00 1:<5 2:5- 3:10- 4:15- 1:<5 経過時間 2:5- 3:10- 4:15- 経過時間 実際のデータ操作方法 z現場での時刻入力はExcelが多いので、その 場合の時間形式での操作を示す {12時12分は 12:12と入力 {時刻の書式はhh:mm形式 {Timevalue(“00:10:00”)で10分の値を作る {MOD関数で10分で割った余りを求める - 351 ー

356.

まとめ z 0分、5分を目掛けて四捨五入ならぬ二捨三入が生 じるので、ロジスティック回帰を用いた疫学的なマク ロ検証にはあまり影響がないと考えられる。しかし、 個別の生存を検討するミクロ検証の場合には、心停 止時刻の偏りが影響を及ぼす可能性がある。 z 今後、心停止時刻の偏りがどのような影響を及ぼす かを0、5が時間と共に多くなる乱数をJMPで発生 して検討する必要がある。 - 352 ー

357.

SASを利用したHTMLページの作成とその応用 ○橋詰公一,古市優太,中澤雅晴 住商情報システム株式会社 産業システム事業部 統計解析ソリューション部 Creation of HTML page using SAS, and Examples of applying of it Koichi Hashizume ( k.hashizume@jpta.scs.co.jp ) ,Yuta Furuichi ,Masaharu Nakazawa Statistics & Analysis Solution Department, Sumisho Computer Systems Corporation 要旨 SAS の ODS(Output Delivery System)機能を用いると,簡単な SAS プログラムの記述のみで HTML ページの作成が可能になる.この機能のメリットには,SAS の出力全てをプログラムベースでコントロ ールでき,HTML 言語の知識がそれほど必要ではないこと,また,同じような HTML ページを作成す る場合に,汎用的な処理を可能にするマクロプログラムを利用できることなどがある. 本稿では,臨床試験における SAS データセットの情報から HTML 形式のデータセット定義書を作成 する方法,及びデジタルカメラで撮影した画像を見やすくするための動的な HTML ページを作成する 方法の 2 例を紹介する. キーワード:ODS,HTML,Hyperlink,タグ,Script ファイル 1 - 353 ー

358.

1. はじめに SAS の ODS 機能に関する技術は,日本の SUGI はもちろん,海外の SUGI でもこれまでたくさん紹介さ れてきた [1] [2] [3].しかしながら,これらの技術を身近な内容に適用している論文は少ない.そこで本稿 では,この機能を用いて,インターネット上でよく用いられている Script ファイル,CSS(カスケードスタイル シート)を組み合わせて日常生活や業務に利用できる動的な HTML ページを作成した. 2.基礎編で,HTML ページ上に Hyperlink の設定とイメージ(図)の表示を行う方法を示し,3.応用編で これらの基礎技術に Script ファイル,CSS を組み合わせて,臨床試験における SAS データセットの情報 から HTML 形式のデータセット定義書を作成する方法,及びデジタルカメラで撮影した画像を見やすく するための動的な HTML ページを作成する方法の 2 例を紹介する. 2. 基礎編 HTML ページ上に Hyperlink の設定とイメージ(図)の表示を行う方法に,プロシジャの STYLE オプシ ョンを用いる方法 [1] や直接 HTML タグを記載する方法がある.この項では ,PRINT プロシ ジャと TABULATE プロシジャを用いた作成例と,HTML タグを利用して図の表示サイズを変更する方法などを 紹介する. 2.1. ダミーデータの作成 この項で用いる SAS データセットとフォーマットカタログを作成する SAS プログラムを Table 1 に示す. Table 1. ダミーデータ作成 SAS プログラム /* Dummy Data */ DATA ANIMAL ; INPUT CODE W ; LABEL CODE = "ANIMAL"; CARDS ; 1 20 2 10 3 15 4 40 ; RUN ; /* Format catalog */ PROC FORMAT ; /* アウトプットフォーマット */ VALUE ANI̲F 1 = "LION" 2 = "DOG" 3 = "CAT" 4 = "KANGAROO" ; /* IMAGE 設定 */ VALUE IMAGE̲F 1 = 'C:\SUGI\DATA\LION.JPG' 2 = 'C:\SUGI\DATA\DOG.JPG' 3 = 'C:\SUGI\DATA\CAT.JPG' 4 = 'C:\SUGI\DATA\KANGAROO.JPG' ; /* HYPER LINK 設定 */ VALUE LINK̲F 1 = "C:\SUGI\DATA\LION.HTML" 2 = "C:\SUGI\DATA\DOG.HTML" 3 = "C:\SUGI\DATA\CAT.HTML" 4 = "C:\SUGI\DATA\KANGAROO.HTML" ; RUN ; 2 - 354 ー

359.

2.2. PRINT プロシジャを用いた HTML ページの作成例 Table 2 に, PRINT プロシジャを用いた例を示す.STYLE オプションにて,Hyperlink の設定とイメージ (図)の表示設定を行っている.このプログラムを実行した結果 ( SAMPLE1.HTML ) を Figure 1 に示 す. Table 2. PRINT プロシジャを用いた SAS プログラム TITLE1 J = C H = 5 F = SWISS "ANIMAL VIEW" ; ODS LISTING CLOSE ; ODS HTML FILE = "C:\SUGI\SAMPLE1.HTML" ; PROC PRINT DATA = ANIMAL NOOBS LABEL ; VAR CODE / STYLE = { PREIMAGE = IMAGE̲F. URL = LINK̲F. JUST=L } ; FORMAT CODE ANI̲F. ; RUN ; ODS HTML CLOSE ; ODS LISTING ; ■図の表示 VAR ステートメント STYLE オプション { PREIMAGE = IMAGE_F. } 部分で設定した結果 ■Hyperlink ・・("C:¥SUGI¥DATA¥DOG.HTML" にリンクする) VAR ステートメント STYLE オプション { URL = LINK_F. } 部分で設定した結果 Figure 1. PRINT プロシジャを用いて出力した HTML ページ [ SAMPLE1.HTML ] 3 - 355 ー

360.
[beta]
2.3. TABULATE プロシジャを用いた HTML ページの作成例
Table 3 に, TABULATE プロシジャを用いた例を示す.PRINT プロシジャと同様,STYLE オプションに
て,Hyperlink の設定とイメージ(図)の表示設定を行っている.
このプログラムを実行した結果 ( SAMPLE2.HTML ) を Figure 2 に示す.
Table 3. TABULATE プロシジャを用いた SAS プログラム
TITLE1
J = C H = 5 F = SWISS "ANIMAL TABLE" ;
ODS LISTING CLOSE ;
ODS HTML FILE = "C:\SUGI\SAMPLE2.HTML" ;
PROC TABULATE DATA = ANIMAL FORMAT = 5.1 ;
CLASS CODE ;
CLASSLEV CODE / STYLE = { PREIMAGE = IMAGE̲F. URL = LINK̲F. JUST=L } ;
TABLE CODE ALL,ALL="NUMBER OF ANIMALS" ;
FREQ W ;
FORMAT CODE ANI̲F.;
RUN ;
ODS HTML CLOSE ;
ODS LISTING ;

■図の表示
CLASSLEV ステートメント STYLE オプション
{ PREIMAGE = IMAGE_F. }
部分で設定した結果

■Hyperlink
・・("C:¥SUGI¥DATA¥CAT.HTML"
にリンクする)
CLASSLEV ステートメント STYLE オプション
{ URL = LINK_F. } 部分で設定した結果

Figure 2. TABULATE プロシジャを用いて出力した HTML ページ [ SAMPLE2.HTML ]
4356
361.
[beta]
2.4. 図の表示サイズ変更,タイトルにリンク設定を行った HTML ページの作成例
Table 4 に, 図の表示サイズを変更するための方法と,タイトルに Hyperlink 設定を行うための方法を
示す.TITLE ステートメント,参照フォーマット内容の変更以外は,5.2 のプログラムのままである.
このプログラムを実行した結果を Figure 3 に示す.
Table 4. 図の表示サイズ変更,タイトルにリンク設定を行う SAS プログラム
/* フォーマット内容の変更(上書き) */
PROC FORMAT ;
VALUE IMAGE̲F
1 = 'C:\SUGI\DATA\LION.JPG'
2 = 'C:\SUGI\DATA\DOG.JPG "WIDTH=" 50 "HEIGHT=" 50 '
3 = 'C:\SUGI\DATA\CAT.JPG'
4 = 'C:\SUGI\DATA\KANGAROO.JPG'
;
RUN ;
TITLE1 J = C H = 5 F = SWISS "ANIMAL VIEW" ;
/* タイトルステートメントにHTMLタグを直接入力 */
TITLE2 J = C H = 3 F = SWISS
"<A HREF = C:\SUGI\SAMPLE̲PROGRAM3.SAS>SAMPLE PROGRAM </A>";
/* 以下,「5.2 PRINTプロシジャを用いたHTMLページ作成例」 と同様のプログラムを実行 */

■Hyperlink
(" C:¥SUGI¥SAMPLE_PROGRAM3.SAS"
にリンク.クリックするとこのファイルを開く)
TITLE ステートメントに記載した結果
<A HREF = "pass"> text </A>
pass: リンクファイル,リンク先を指定
text: HTML ページに表示する内容を指定

■図のサイズ変更
FORMAT プロシジャ VALUE ステートメント
{
2 = 'C:¥SUGI¥DATA¥DOG.JPG
"WIDTH=" 50 "HEIGHT=" 50 '
}
の部分で設定した結果
図を大きく表示したい場合は,WIDTH,HEIGHT
ともに数値を大きく設定する
Figure 3. 図の表示サイズ変更,タイトルにリンク設定を行った HTML ページ

5357
362.

3. 応用編 基礎編の技術に Script ファイル,CSS などをからめて,日常生活や業務に利用できる動的な HTML ペ ージを作成するための方法を示す. 3.1. デジタルカメラで撮影した写真を HTML ページで一覧化する方法 デジタルカメラで撮影した画像を電子上で閲覧する場合に,Microsoft Office Picture Maneger の 縮小 表示 や 写真 といった機能を用いる方法がある.この機能を用いると画像がサムネイル表示されて,複 数枚同時に閲覧できる.本項では,この機能に類似した内容を HTML 上で表現する.具体的には,画 像をサムネイル表示すると同時に,その中の一つの画像をクリックするとページの切り替えなしにズーム 表示が可能な HTML ページの作成方法を紹介する. 3.1.1.結果イメージ 最初に本項の結果イメージを示す.Figure 4 の上図は,あるフォルダに格納されている画像ファイルを HTML ページで一覧化した結果である.好きな画像をクリックすることで,ズーム表示した画像を閲覧で きる.キーボードの x ボタンを押すか,HTML ページ上の適当な箇所をクリックすることで,ズーム表示 された画像を解除できる. 画像をクリック ページ切り替えのないズーム表示 Figure 4. HTML ページによる画像一覧とズーム表示 6 - 358 ー

363.

3.1.2.作成手順 1. フリーソフトウェア BatchGOO! のダウンロード[4] 一般的なデジタルカメラで撮影した画像は,HTML ページ上でズーム表示するには大きすぎるので, 事前に画像自体の縮小加工を行っておいた方がよい.フリーソフトウェアの BatchGOO! を用いると 一括して縮小加工が可能である.使用方法については,本ソフトウェアの説明書を参照して頂きた い. なお,縮小後のピクセルは 640×480(幅×高さ)を推奨する. 2. Script ファイルのダウンロード[5] HTML 上でページの切り替えなしに画像をズーム表示するためには,Script ファイルが必要である. インターネット上で公開されている LightBox を下記手順よりダウンロードし,このファイルを上記 1. で縮小加工後の画像保存先と同じフォルダに格納しておく.  7. 参 考 資 料 の LightBox ホ ー ム ペ ー ジ の DOWNLOAD 項 か ら Lightbox.js と Lightbox.css の 2 つのファイルをダウンロードする.(右クリックして「対象をファイルに保 存」を選択するとダウンロードできる) ダウンロードページを Figure 5 に示す. Figure 5. LightBox ダウンロードページ 3. SAS マクロ変数の設定 次項の 3.1.3. SAS プログラム の最初にあるマクロ変数 datadir に上記 1.で縮小加工後の画像保 存先を入力する. 4. SAS プログラムの実行 1〜3 まで設定後,SAS プログラムを実行する.実行が終わると縮小加工後の画像保存先に HTML ページ(PHOTO̲VIEWxx.HTML)が作成される. 7 - 359 ー

364.

3.1.3.SAS プログラム 本項で紹介したHTMLページを作成するためのSASプログラムを示す.重要な処理については Programming Note に記載したので参考にしていただきたい. ***************************************************************************************************; * 使用者設定内容 ; * 画像保存先; %let datadir = C:¥SUGI¥写真・図 ; ***************************************************************************************************; ****************************************************************************; * 設計者設定内容 ; * 検索拡張子: 複数指定する場合は半角ブランク区切り; %let fileflg = gif jpg png ; * サムネイル表示した際に列をいくつ用意するか指定; %let turnobs = 7 ; ****************************************************************************; Programming Note: マ クロ変数 datadir に画像保存先を入力 する.基本的に使用者が必ず変更しな けれ ばいけない部分はこれだけである. * ===== HTMLページの保存ファイル名の決定; %macro find_file; * 初期設定 ; %global filename ; %let _i = 0 ; filename outdir "&datadir.¥photo_view&_i..html" ; * 存在しないファイル名をGetできるまでループ; %do %while( %sysfunc(fexist(outdir)) = 1 ) ; filename outdir ; %let _i = %eval(&_i. + 1 ); filename outdir "&datadir.¥photo_view&_i..html" ; %end; %let filename = photo_view&_i. ; Programming Note: 画像保存先にある HTML ファイルを上書きし %mend find_file; な いように,安全な ファイ ル名を取得するた %find_file; めの SAS マクロ. PHOTO_VIEWxx ( xx は数字) というファ イル名がつけられる. (“xx”には画像保存先 に存在しない添え字が割り当てられる) 8 - 360 ー

365.
[beta]
* ===== 写真ファイルの検索 ;
%macro FindDir(dir=,x=);
%if "&dir." = "" or "&x." = "" %then %goto %exit;
data direct;
length lstname $50.;
rc=filename("findir","&dir.");
if rc =0 and fexist("findir") then do;
did=dopen("findir");
memcount=dnum(did);
if memcount > 0 then do;
do i=1 to memcount;
lstname=dread(did,i);
%let _i = 1 ;
%do %while( %scan(&x.,&_i.) ne ) ;
if lowcase(reverse(scan(reverse(lstname),1,'.')))
= lowcase("%scan(&x.,&_i.)") then do;
cnt+1;
output;
end;
%let _i = %eval(&_i. + 1);
%end ;
end;
Programming Note:
end;
画像保存先から拡張子が GIF,JPG,PNG
rc=dclose(did);
になっているファイル名を取得し,SAS デー
end;
タセット化するための SAS マクロ.
rc=filename("findir");
引数を変更すれば,どのようなファイル名も
run;
取得できる.
%exit:
%mend FindDir;
%FindDir(dir= &datadir. , x= &fileflg.);
* ===== 折り返し枚数ごとにセッティング;
data dat01 ;
length cell $500. ;
set direct ;
* 転置するための加工 ;
rows = ceil ( cnt / &turnobs. ) ;
idno = mod ( cnt -1 , &turnobs. ) + 1

Programming Note:
Cell 変数に直接 HTML タグを入力する.
この部分で,使用する Script ファイルの
指定や,HTML ページ上に表示する画
像サイズ等の指定を行っている.
その他のタグの内容については,HT ML
タグの参考書等を参照のこと.

;

* リンク,Scriptファイル参照の設定 ;
cell = '<p><div align="center">'
||'<A href =" '||trim(left(upcase(lstname)))||' " rel=lightbox>'
||'<IMG src =" '||trim(left(upcase(lstname)))||' " height=100 width=120 border=0 >'
||'</A><br>'
||trim(left(upcase(lstname)))||' </br></div></p>' ;
run ;
proc transpose data = dat01 out = dat02( keep = cell: ) prefix = cell ;
by rows ;
var cell ;
id idno ;
run ;

9361
366.
[beta]
* ===== 出力テンプレートの設定 ;
%macro subs ;
proc template ;
define table photo_view ;
header H1 ;
define
H1 ;
text 'PHOTO VIEW';
start = cell1 ;
end
= cell&turnobs. ;
end;
* ヘッダー部の調整 ;
column cell1 - cell&turnobs. ;
%do _i = 1 %to &turnobs. ;
define cell&_i. ; print_headers = off ; end;
%end ;
end;
run ;

Programming Note:
テー ブルテ ンプレ ートの 設定.詳 細は
SAS マニュアル参照のこと.

%mend subs ;
%subs ;
* ===== HTMLページの作成 ;
options center ;
ods listing close ;
ods html
path
= "&datadir. " ( url = none )
file
= "&filename..html"
newfile = none
headtext= '<SCRIPT src="lightbox.js" type=text/javascript></SCRIPT>
<LINK href="lightbox.css" type=text/css rel=stylesheet>';
* タイトル設定 < データ読み込み先へリンク > ;
title1
j = r h = 4 '<a href = "' "&datadir." '" target = "_blank"'
'title = "画像保存先を開きます" > 画像保存先' " </a>" ;
data _null_ ;
Programming Note:
set dat02 ;
“headtext = “の部分で ,Script ファ イル,
file print ods = ( template = "photo_view" ) ;
CSS の参照指定を行っている.
put _ods_ ;
注意:
run ;
文字列が長すぎるため ,“</SCRIPT>”以降
ods html close ;
を折り返し て いるが,</SCRIPT><LINK
ods listing ;
〜の間にブランクを入れないこと.<LINK 以
降の文字列が作成されなくなる.
* ===== LightBoxを有効にするための最終調整 ;
data dat11 ;
length wk $2000. ;
infile "&datadir.¥&filename..html" lrecl = 20000 missover dsd ;
input wk && ;
if lowcase(substr(wk,1,5)) = "<body" then wk = '<body class="body">';
run ;
data _null_ ;
Programming Note:
set dat11 ;
Script ファイル LightBoxを有効にするた
file "&datadir.¥&filename..html" lrecl = 20000 ;
めの最終処理.
put wk ;
run ;
10362
367.

3.2. SAS データセット定義書の作成 臨床試験において,昔の海外データを取り扱う場面ではデータセットの構造定義書がなく SAS データセ ットそのものしかない状況がしばしばある.このような場合に SAS データセットの内容からデータセット定義 書を作成し,さらに,この定義書からデータ内容を可視化できるようにしておくと業務を遂行する上で有用 である.本項では,臨床試験で用いられる一般的なデータセット定義書の内容に加えて,各データセット の変数の内容も確認できるような HTML ページを紹介する. なお,この定義書を作成する SAS プログラムはとても長く,多少複雑なため本稿では割愛する. 3.2.1.結果イメージ 本項で紹介する HTML ページの構成図を Figure 6 に示す.また,この構成図の簡単な説明を Table 5 に示し,本プログラムから作成されるフォルダ構造を Figure 7 に示す. Variable View DM 3. all̲var.html AE 1. SAS datasets 2. Top̲page.html LB Format View 5.dataset definition 4. form̲list.html Figure 6.HTML 形式のデータセット定義書構成図 11 - 363 ー 6. summary of variabele

368.

Table 5.構成図の説明 内容 項目 リンク先 SAS データセット保存フォルダ. ここに保存されている SAS データセット やフォーマットカタログに対して定義書 が作成される. SAS データセット一覧. ほぼ全てのページにリンクする Top ペー ジ. 1. SAS datasets 2. Top_page.html SAS データセットの全変数一覧. このページで全ての変数名を確認できる. 4. form_list.html フォーマットカタログ一覧. このページでフォーマットの内容を確認 できる. 5. dataset definition 各 SAS データセットの定義書. 変数ごとに要約表・頻度表をもつ. 6. summary of variable 計量データであれば,箱ヒゲ図または推移 図. 計数データであれば,頻度表をもつ. (計量データか,計数データかの判別は, ある一定のルールに基づいている) 3. all_var.html ‐ 1. SAS datasets 3. all_var.html 4. form_list.html 5. dataset definition 2. Top_page.html 5. dataset definition 2. Top_page.html 2. Top_page.html 2. Top_page.html 5. dataset definition 1. SAS Datasets SAS データセット保存フォルダ DEMO,AE などの SAS データセット SUB Top_page.html 2. Top_page.html 3. all_var.html info All_var.html Form_list.html Lightbox.js Lightbox.css 4. form_list.html 5. datasets definition DEMO 6. summary of variable AE LABO LABO.html LABO に関する情報ファイル 斜体文字で示したフォルダ やファイルが,SAS プログ ラムから作成 する内容で ある. Figure 7. HTML 形式のデータセット定義書のフォルダ構造 12 - 364 ー

369.

3.2.2.定義書の内容 CDISC SDTM Ver3.1.1 をモデルとして作成した定義書を基に説明する. ■ Top_page.html の実例 Top̲page.html の内容を Figure 8 に示す.図の右上にデータセット保存先( 1.SAS dataset )への リンクがあり,表内の データセット名 列が各データセット定義書( 5.dataset definition )にリンク する.また,図の右下は全変数一覧( 3.all̲var.html ) とフォーマットカタログ一覧( form̲list.html ) にリンクする.その他,各データセットのラベルや,OBS 数などが確認できる. Figure 8. Top_page.html の実例 ■ All_var.html の実例 全変数一覧を Figure 9 に示す.左側にこのページ内容に対する INDEX があり,各データセットの 表の上にそれぞれのデータセット定義書( 5.dataset definition )へのリンクがある.変数名検索を 全体に対して実施することを想定している. Figure 9. All_var.html の実例 13 - 365 ー

370.

■ Form_list.html の実例 フォーマットカタログ一覧を Figure 10 に示す.左側にこのページ内容に対する INDEX があり,フォ ーマットごとにどのデータセットの変数で使われているかの情報を持っている.(例.$SEX̲CD フォー マット→DM.SEX など) Figure 10. form_list.html の実例 ■ Dataset definition ( LB.html )と Summary of Variable の実例 LB ドメインの定義書を Figure 11 に示す.一番右の列( Summary )に,各変数の頻度集計表や, 箱ヒゲ図(クリックするとズーム表示)などが用意されている.また,LB ドメインのような縦型構造(検 査項目をキーとして繰り返す構造)を想定して,検査項目ごとに箱ヒゲ図や推移図を作成できるよう なオプションを用意している.そのイメージを Figure 12 に示す. Figure 11. dataset definition ( LB.html )の実例 14 - 366 ー

371.

Figure 11. dataset definition の実例 2(ズーム表示) Figure 12. 検査項目ごとの推移図と箱ヒゲ図 4. まとめ 本稿では,HTML ページ上に Hyperlink や画像を表示するための基礎的な内容を紹介した.また,こ れらの内容にインターネット上でよく利用されている Script ファイルと CSS を組み合わせて,日常生活や 業務に応用する例を示した. 本稿での重要なポイントは,HTML ページが基本的にタグで構成されるテキスト文書であり,SAS の ODS 機能で表現できない,もしくは表現しづらい箇所を,直接タグを入力することで表現可能となること である.このことは,インターネット上で表現されていることのほとんどが, SAS で実現可能なことを意味 する.今回は,身近な内容についてズーム表示を中心に 2 つの事例を紹介したが,これらはインターネ ット上の既存の情報を基にしている. より利便性の高い HTML ページを作成するのに,本稿の内容が参考になれば幸いである. 15 - 367 ー

372.

5. 注意事項  Script ファイルによるズーム表示の不具合 使用している PC によっては,3.応用編で紹介した Script ファイルが上手く適用できずに,ズーム 表示が正確に行われない場合がある.現在分かる範囲での対応策を示す. [ パターン 1 ] ツールバーの下に「セキュリティ保護のため,コンピューターにアクセスできるアクティブコン テンツは表示されないよう,Internet Explorer で制限されています.オプションを表示する にはここをクリックして下さい」とコメントがでる  対策 1 ツールバーのコメントをクリックして「ブロックされているコンテンツを許可」に対して「はい」を 選択する.  対策 2 「ツール」→「インターネットオプション」 の詳細設定タブの 「マイコンピュータのファイルでの アクティブコンテンツの実行を許可する」 を有効にする.( WindowsXP のみ ) [ パターン 2 ] 「ランタイムエラーが発生しました」という下記のようなメッセージが表示される  対策 1 「はい」を選択する.一回目だけズーム表示されずに HTMLページの切り替えが起こるが,二 回目以降は問題なくズーム表示される. 16 - 368 ー

373.

 SAS 結果ビューアの設定 3.2 データセット定義書のような多くのHTMLページを作成する場合に,対話式で実行を行うと結果 ビューアに多くの HTML ページが開かれてしまう.実行上特に問題ないが,これを回避するための 方法を以下に示す. SAS のツールバー「ツール」→「オプション」→「プリファレンス」→「結果」のオプション設定(赤の点 線で囲まれた箇所)を以下のように設定して「OK」ボタンを押す. 6. 実施環境 本プログラムの実施環境は以下の通りである. - PC :IBM NetVista M42 Slim/PentiumⅣ 2.2 GHz(IBM) - OS :Microsoft Windows 2000 Version 5.0(Build 2195:SP4) (Microsoft Corporation) :SAS System 9.1 TS レベル 1M3(SAS Institute Inc.) - Software 7. 参考資料 [1] Susan J. Slaughter, Avocet Solutions, Davis, CASy Truong, Meta-Xceed, Inc, Fremont, CALora D. Delwiche,University of California, Davis.ODS Meets SAS/IntrNet®.SUGI28. [2] 株式会社 SAS インスティチュートジャパン 村山 友子.SAS ODS 出力のカスタマイズ.日本 SAS ユーザー会論文集 2001. [3] 株式会社 SAS インスティチュートジャパン 迫田 奈緒子 ほか.SAS/GRAPH ソフトウェアと ODS を使用したグラフ作成方法 −HTML,ActiveX,Java などの Web に対応して−.日本 SAS ユーザー会論文集 2002. [4] Vector HP,フリーソフトウェア BatchGOO!.http://www.vector.co.jp/soft/win95/art/se200307.html. (最終閲覧日 2007 年 6 月 15 日) [5] Lightbox JS by Lokesh Dhakar.http://www.huddletogether.com/projects/lightbox/. (最終閲覧日 2007 年 6 月 15 日) [6] HTML クイックリファレンス.http://www.htmq.com/index.htm. (最終閲覧日 2007 年 6 月 15 日) [7] キリンビール株式会社 長谷川 要.BOXPLOT プロシジャの臨床データへの適用事例.日本 SAS ユーザー会論文集 2006. 17 - 369 ー

374.

Cure model を仮定した生存時間解析を行うための SAS プログラムの紹介 ○ 浅野 淳一 浜田 知久馬 東京理科大学大学院 工学研究科 経営工学専攻 SAS program for survival analysis based on cure model Junichi Asano Chikuma Hamada Faculty of Engineering / Tokyo University of Science 生存時間解析では,最終的に全ての患者に死亡や再発といったイベントが起こることを想定している.だが実 際には治癒が起きたため,イベントが起きない患者が存在する場合がある.治癒した患者が存在するデータに ついて生存時間解析を行うと、治癒した患者によって予後が見かけ上、良く評価されてしまう可能性がある. この問題に対し,治癒を考慮した解析方法として,イベントが起きない治癒患者と非治癒患者の生存時間分布 に混合分布を仮定する cure model を用いた解析が行われている.本稿では cure model を仮定した生存時間解 析を行うための SAS プログラムを紹介する.また、実際のデータに cure model を適用した結果を示す. キーワード: NLMIXED プロシジャ, Survival analysis, cure model 1 はじめに がんや循環器に関する臨床研究では,疾患の再発や死亡 (以下,イベント) が起きるまでの時間 (以 下,生存時間) を評価指標として治療を評価することが多い.このような研究では,全ての患者にイ ベントが起こることを想定しているが,疾患によっては患者の一部が治癒し,イベントが起きない場 合がある.治癒患者が存在するデータを解析すると,治癒患者が存在する群では,その群の生存時間 が長く評価され,正確な非治癒患者の生存時間を評価ができないという問題が生じる.そこで治癒患 者を考慮して治療を評価する方法として,cure model を適用した解析が行われている.このモデル は,患者集団に治癒患者と非治癒患者が混在していると考え,生存時間分布に混合分布を仮定する統 計モデルである.cure model 自体の提案は古いが,最近の計算技術の進歩を反映させた研究が行わ れている.本稿では cure model の理論と,NLMIXED プロシジャを用いた cure model の解析プロ グラムを紹介する.さらに,実際の臨床試験データに適用した結果を示す. - 370 ー

375.

2 臨床試験データ cure model は疾患が治癒し,イベントが起きない患者集団が存在する場合に適用される統計モデ ルである.そこで cure model を適用する例として,実際に治癒患者が存在した Kersey et al. の臨床 試験を紹介する. Kersey et al. は白血病の患者に対し,抗がん剤治療後に他人の造血幹細胞を移植する同種造血幹 細胞移植 (以下,同種移植法) と,自分の造血幹細胞を移植する自家造血幹細胞移植 (以下,自家移植 法) とで,どちらが再発率が低いかを評価することを目的とした臨床試験を行った [5].データの要約 統計量を表 1 に示す.また,再発をイベントとした生存曲線を図 1 に示す.生存曲線上の縦線は打切 りがあったことを示している.図 1 より同種移植法の方が自家移植法よりも再発が起こりにくく見え る.だが両群とも再発がある時点から減少し,最終的に 20% 程度が時間打切りを受けている.また, 医学的には造血幹細胞移植により,白血病の治癒が考えられることから,このデータには治癒患者が 存在すると考えられる.このような場合に治療法を比較しようとしても,治癒患者が存在する群は見 かけ上,再発が起こりにくく見えることから,正確に治療効果を評価できない.非治癒患者のみで解 析を行えればよいが,打切りの場合には再発の有無を確認できない.よって治癒患者集団の存在をモ デルで考慮して,解析を行う必要がある. 表 1: 再発の要約統計量 患者数 (人) 再発数(人) 生存時間の範囲 (年) 46 44 33 35 0.03-5.00 0.06-5.05 ↢ሽഀว 同種移植法 自家移植法 1.0 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0.0 ଑‫ࡰ̨ޣ‬೗ ‫ݟ‬ϐ̨ࡰ೗ 0 1 2 3 4 ᐕ 図 1: 各移植法の生存曲線 - 371 ー 5 6

376.

3 cure model 治癒患者の問題に対し,Boag は cure model を提案した [1].これは生存時間分布に,治癒患者と 非治癒患者の混合分布を仮定する統計モデルである. Y を患者の治癒の有無を表す変数とし,Y = 0 のとき治癒,Y = 1 のときには非治癒とする.p を 非治癒確率 p = Pr(Y = 1) とする.T を生存時間を表す確率変数としたとき,T の分布関数は F (t) = Pr(T ≤ t) =p · Pr(T ≤ t|Y = 1) + (1 − p) · Pr(T ≤ t|Y = 0) (1) となる.ここで,治癒患者には,治癒によりイベントは起きないと仮定する.つまり P r(T ≤ t|Y = 0) = 0 としたとき,その分布関数は (1) 式より F (t) = p · F (t|Y = 1) (2) となる.これを cure model という.cure model の下での確率密度関数 f (t),生存関数 S(t) とハザー ド関数 h(t) は (2) 式より f (t) =p · f (t|Y = 1) S(t) =(1 − p) + p · S(t|Y = 1) (3) h(t) =f (t)/S(t) となる. 4 共変量のモデル化 治療や共変量の影響を評価するモデルとして,生存時間解析でよく用いられる比例ハザードモデル を仮定する.比例ハザードモデルは対数ハザードに対して線形モデルを仮定するモデルで,共変量ベ クトルを z ,共変量の回帰係数ベクトルを β とするとき,比例ハザードモデルは ( ) h(t; z|Y = 1) = h0 (t|Y = 1) · exp β ′ z (4) となる.ここで h0 (t) は z = 0 のときのハザード関数であり,′ はベクトルの転置を表す. また,治癒に対する治療や共変量の影響を評価することを考える.Farewell は p にロジスティック回 帰モデルを仮定し,治癒に対する共変量の影響をモデル化する方法を提案した [2].これは x = (1, z)′ , 共変量の回帰係数ベクトルを b とするとき,p を p(x) = exp (b0 x) 1 + exp (b0 x) - 372 ー (5)

377.

と表すモデルである. (4),(5) 式を仮定したときの生存関数とハザード関数は以下のようになる. ′ S(t; z) =(1 − p(x)) + p(x) · S0 (t|Y = 1)exp(˛ z) h(t; z) = 5 ( ) ′ p(x) · S0 (t|Y = 1)exp(˛ z) · h0 (t|Y = 1) · exp β ′ z (6) ′ (1 − p(x)) + p(x) · S0 (t|Y = 1)exp(˛ z) 推定方法 母数の推定には,生存時間分布に,パラメトリック分布を仮定し,最尤法を用いる. 本稿では,非治癒患者の生存時間に対して,対数ロジスティック分布を仮定する.対数ロジスティッ ク分布は 2 つの母数 θ = (γ, λ)′ を持つ分布で,生存関数とハザード関数は以下のようになる. 1 1 + λ · tγ γ · λ · tγ−1 h(t; θ) = 1 + λ · tγ S(t; θ) = (7) i を患者,d を患者 i のイベントの有無を表す変数とし,i にイベントが起きたならば di = 1,起き ないならば di = 0 と定義する.このとき対数尤度関数 log L は (6),(7) 式より以下のようになる. log L (θ , β, b; ti , zi ) = n ∑ di · {log S(θ , β, b; ti , zi ) + log h(θ , β, b; ti , zi )} (8) i=1 + (1 − di ) · log S(θ , β, b; ti , zi ) 6 データ解析 本稿では白血病データに cure model を適用する.ztre を治療法を表す変数とし,ztre = 1 のとき 同種移植法,ztre = 2 のとき自家移植法を受けたと定義する.このとき,(4),(5) 式は以下のように なる. h(t; ztre |Y = 1) =h0 (t|Y = 1) · exp (β1 · ztre ) p(ztre ) = exp (b0 + b1 · ztre ) 1 + exp (b0 + b1 · ztre ) (9) 非治癒患者の生存時間が対数ロジスティック分布に従うと仮定した下で,治療間の違いを表す母数 β1 , b1 を推定する.母数の推定には NLMIXED プロシジャを用いた.SAS プログラムを以下に示す. %let DATA = データセット名; %let TIME = 生存時間変数; %let CENSOR = 打切り変数; *CENSOR=1:イベント , CENSOR=0:打切り; - 373 ー

378.

%let Z = TREAT; *TREAT=1:同種移植法 , TREAT=2:自家移植法; proc nlmixed data = &DATA maxfunc = 10000 maxiter = 10000; /*初期値の指定*/ parms LAMBDA = 1 GAMMA = 1 H_S = 1 P_I = 1 P_S = 1; /*推定する母数の制約の指定*/ bounds LAMBDA>0, GAMMA>0; /*比例ハザードモデルの共変量の指定 : (4) 式に対応*/ PHM = exp( H_S * &Z ); /*ロジスティック回帰モデルの共変量の指定 : (5) 式に対応*/ LM = P_I + P_S * &Z; P = exp(LM) / (1 + exp(LM)); /*非治癒患者の生存時間に対数ロジスティック分布を仮定:(4),(7) 式に対応*/ S_NLTS = (1/(1 + LAMBDA*&TIME**GAMMA))**PHM; H_NLTS = (GAMMA*LAMBDA*&TIME**(GAMMA-1))/(1 + LAMBDA*&TIME**GAMMA)*PHM; /*生存関数とハザード関数の指定 : (6) 式に対応*/ S_F = (1-P) + P*S_NLTS; H_F = P*S_NLTS*H_NLTS/S_F; /*対数尤度の指定 : (8) 式に対応*/ LL = (CENSOR=1)*(log(H_F) + log(S_F)) + (CENSOR=0)*( log(S_F)); /*対数尤度関数の指定*/ model &TIME~general(LL);run; 以上のプログラムを実行して得られた結果を表 2 に示す.表 2 より,点推定値についてみると,自 家移植法の再発ハザードが同種移植法の 1.65 倍であり,自家移植法が同種移植法に比べて再発が起 こりやすいことが示唆された.また,自家移植法のオッズが同種移植法の 1.45 倍であり,自家移植 法のほうが同種移植法に比べて治癒が起こりにくいことが示唆された. しかし,表 2 より,ハザード比とオッズ比ともに 95% 信頼区間が 1 を含むことから,再発時間,治 癒ともに,起こりやすさは有意水準 5% で,有意な違いはないことが示された. 表 2: 治療の効果を表す母数の推定値 推定値 exp(β1 ) (ハザード比) exp(b1 ) (オッズ比) 1.65 1.45 - 374 ー 95%信頼区間 下限 上限 0.96 2.85 0.53 4.00

379.

今回は 1 変量による解析結果を示したが,容易に多変量にもプログラムを拡張できる.多変量解析 を行う場合は,プログラムの初期値を指定する部分と,比例ハザードモデル,ロジスティック回帰モ デルを指定する部分を以下のように変更すればよい.例として 3 変量の場合を示す. %let Z1 = TREAT;%let Z2 = SEX;%let Z3 = AGE; /*初期値の指定*/ parms LAMBDA = 1 GAMMA = 1 H_S1 = 1 H_S2 = 1 H_S3 = 1 P_I = 1 P_S1 = 1 P_S2 = 1 P_S3 = 1; /*比例ハザードモデルの共変量の指定 : (4) 式に対応*/ PHM = exp( H_S1 * &Z1 + H_S2 * &Z2 + H_S3 * &Z3 ); /*ロジスティック回帰モデルの共変量の指定 : (5) 式に対応*/ LM = P_I + P_S1 * &Z1 + P_S2 * &Z2 + P_S3 * &Z3 ; 以上,紹介したように,多変量による推定は可能だが,変数を増やすと推定に要する時間が非常に 長くなる.特に初期値をグリッドサーチで指定したときは膨大な時間がかかる.そこで,比例ハザー ドモデルに関する母数の初期値に関しては,一度,PHREG プロシジャを用いて推定を行い,その推 定値を NLMIXED プロシジャの初期値として与えるといった工夫を薦める.また,分布の母数につ いても LIFEREG プロシジャを用いて同様に初期値を与えるとよい. 7 補足 本稿では共変量のモデル化として比例ハザードモデルを仮定したが,加速モデルでも解析すること ができる.また,生存時間に対数ロジスティック分布を仮定したが,より柔軟な BurrXII 分布や拡張 F 分布による方法も提案されている [6][8].cure model の解析ではパラメトリックな方法だけではな く,セミパラメトリックモデルも提案されている.だが,推定方法はパラメトリックモデルの場合に 比べて複雑で,EM アルゴリズムを用いた方法が提案されている [3][9][7][10]. 参考文献 [1] Boag WJ. Maximum likelihood estimates of the proportion of patients cured by cancer therapy. Journal of the Royal Statistical Society 1949;11:15-13. - 375 ー

380.

[2] Farewell VT. The use of mixture models for the analysis of survival data with long-term survivors. Biometrics 1982;38:1041-1046. [3] Kuk AYC, Chen CH. A mixture model combining logistic regression with proportional hazards regression. Biometrika 1992;79:531-541. [4] Maller RA, Zhou X. Testiong for the presence of immune or cured individuals in censored survival data. Biometrics 1995;51:1197-1205. [5] Maller RA, Zhou X. Survival analysis with long-term survivors. John Wiley & Sons 1996. [6] Peng Y, Dear KBG, DenhamJW. A generalized F mixture model for cure rate estimation. Statistics In Medicine 1998;17:813-830. [7] Peng Y, Dear KBG. A nonparametric mixture model for cure rate estimation. Biometrics 2000;56:237-243. [8] Shao Q, Zhou X. A new parametric model for survival data with long-term survivor. Statistics In Medicine 2004;23:3525-3543. [9] Sy PJ, Taylor JMG. Estimation in a cox proportional hazards cure model. Biometrics 2000;56:227-236. [10] Taylor JMG. Semi-parametric estimation in failure time mixture models. Biometrics 1995;51:899-907. [11] 蓑谷千凰彦. 統計分布ハンドブック. 朝倉書店 2003. - 376 ー

381.

ODS Statistical Graphicsの臨床データへの適用事例 長谷川 キリンファーマ株式会社 要 開発本部 臨床データ統括部 ODS Statistical Graphics and its application for clinical trial data Kaname Hasegawa (hasegawak@kirin.co.jp) Biostatistics Section, Clinical Data Management and Biostatistics Department, Product Development Division, Kirin Pharma Company, Limited. 要旨 SAS では従来から作図のための各種プロシジャが SAS/GRAPH プロダクトに用意されて いたが、臨床試験データの解析に伴う各種統計グラフや推移図の作成に当たっては、各種 プロシジャや、データステップを駆使することにより作図を行っていた。近年 SAS はバー ジョンアップされ、SAS System 9 からは ODS Statistical Graphics 機能が評価版として利 用が可能となり、見栄えの良い統計グラフの作図が容易に行えるようになった。本論文で は、ODS GRAPHICS ステートメントを用い、臨床試験データの解析でしばしば利用され る各種グラフの作図事例を紹介する。 キーワード:ODS, STATISTICAL, GRAPHICS, SAS9 1. はじめに 一般的にデータの解析を行う際には、解析で得られる数値のみを示すより、結果の解釈 を容易にするためにデータの可視化がしばしば行われる。たとえば、二変数間の相関関係 を解析するために REG プロシジャなどにより相関係数などの算出を行うが、ただ単に解析結 果の数値を示すよりも、散布図などを作図することにより二変数間の相関関係はより理解し やすくなる。また、一元配置分散分析を行うために GLM プロシジャを用いて分散分析表を 作成するが、水準ごとのデータの分布や、残差プロットなどによるモデルの当てはまり具合 を確認することにより、得られた結果の解釈が容易になる。SAS System 9 からは、このような 各種統計グラフの作図を可能とするための ODS GRAPHICS ステートメントが評価版の機能 として提供されている。本論文では、この ODS GRAPHICS ステートメントを用いた各種臨床 データの解析事例を紹介する。 - 377 ー

382.

2. ODS GRAPHICS ステートメントの臨床データへの適用事例 臨床試験では、有効性あるいは安全性を評価するために、多様な評価変数を用いられ 解析が行われる。例えば、連続変数の平均値の比較や、有効率などの二値変数の比較、 あるいは生存時間データに基づく比較など、評価に用いる変数は多様であり、それぞれの データの特性に応じて SAS/STAT プロダクトなどに用意された各種統計プロシジャを適用し 解析が行われる。 SAS/STAT プロダクトが提供するプロシジャのうち ODS GRAPHICS ステートメントにより統 計グラフの作図が可能なプロシジャは ANOVA, CORRESP, GAM, GENMOD, GLM, KDE, LIFETEST, LOESS, LOGISTIC, MI, MIXED, PHREG, PRINCOMP, PRINQUAL, REG, ROBUSTREG の 16 プロシジャである。今回は、このうち臨床試験データの統計解析でしば しば用いられる GLM プロシジャ、LOGISTIC プロシジャ、LIFETETST プロシジャに焦点をあ てポスターにて適用事例を紹介する。 3. ODS GRAPHICS TEMPLATE 機能を用いた独自グラフの作図事例 前述した通り、ODS GRAPHICS ステートメントは各種プロシジャの実行に伴い、適 切な統計グラフの作図を行うことが可能となる。しかしながら、ODS GRAPHICS ステ ートメントには、作図用の TEMPLATE の書き換えなどにより独自グラフの作成も可能 となる。 臨床試験のデータ解析では、しばしば推移図の作成が行われるが、このようなグラフ の作成も独自 TEMPLATE を作成することにより、ODS GRAPHICS ステートメントに より作図が可能となる。ポスターにてその作図事例を紹介する。 4. おわりに 本論文では SAS System 9 で評価版機能として追加された ODS GRAPHICS ステートメント を用いた臨床データの解析事例の紹介を行った。従来のバージョンの SAS で統計グラフを 作成するためには、各種プロシジャやデータステップを組み合わせ、多くのプログラミング労 力をかけて作図していたが、プログラムが複雑となり実用には適さなかったのが現状である。 しかしながら、ODS GRAPHICS ステートメント機能の登場で、複雑な統計グラフが容易に作 図できるようにな った。更に、SAS/STAT プロダクトをはじめ、BASE/SAS、SAS/ETS、SAS High-Performance Forecasting の各種プロシジャで利用可能となっている。 今回、ODS GRAPHICS ステートメントを臨床試験データの解析に適用し、いくつかの事 例について作図を試みたが、一般的な試験データの解析で利用する可能性のある統計グ ラフの作図には十分耐えうる機能と考えられた。出力デバイスについては触れなかったが、 - 378 ー

383.

ODS で用意されている各種出力形式に対応しており、学術論文や総括報告書などの図形 ファイルとして引用する場合にも問題なく利用できるものと考えられた。 最後に、本論文の発表時に用いた SAS のバージョンは 9.1.3 であるが、現時点において は ODS GRAPHICS は評価版であり、実務レベルでの使用が望まれることから、早期の実装 版の登場に期待する。 5. 参考文献 1) 吉沢敦子、小林丈二、緑川修一、高原佳奈、宮岡悦良.ODS Statistical Graphics の 紹介.日本 SAS ユーザー会論文集.2005. 2) Robert N. Rodriguez. An Introduction to ODS for Statistical Graphics in SAS® 9.1. http://www2.sas.com/proceedings/sugi29/204-29.pdf. Last Access June 2007. 3) Wei Cheng. ODS Statistical Graphics for Clinical Research. http://www2.sas.com/proceedings/sugi31/095-31.pdf. Last Access June 2007. 4) SAS Technical News Winter 2005. http://www.sas.com/offices/asianpacific/japan/periodicals/technews/pdf/05_win. pdf. Last Access June 2007. 5) SAS® 9.1 Output Delivery System User’s Guide. http://support.sas.com/documentation/onlinedoc/91pdf/sasdoc_91/base_ods_703 2.pdf. Last Access June 2007. 6) Linda Atkinson. ODS Statistical Graphics. http://www.cpcug.org/user/sigstat/PowerPointSlides/ODSgraphicsDemo.ppt. Last Access June 2007. 7) Andrew H. Karp. How to Make ODS Statistical Graphics Work for You. http://www.pnwsug.com/Conference_2005/Proceedings/Papers/Andrew%20Karp %20-%20ODS%20Stat%20Graphics.pdf. Last Access June 2007. 8) Cynthia Zender, Catherine Truxillo. Customizing ODS Statistical Graphs. http://www.mwsug.org/Conference/2005/Statistics/SS400.pdf. Last Access June 2007. 9) Paul Kent. Forthcoming Changes in SAS. http://www.rtpnet.org/rtsug/ChangesInSAS.ppt. Last Access June 2007. 10) Steven M. LaLonde. ODS for the Statistician. http://www.nesug.org/proceedings/nesug04/an/an11.pdf. Last Access June 2007. 11) Carey Smoak. Survival (Kaplan-Meier) Curves Made Easy. http://www.lexjansen.com/pharmasug/2006/technicaltechniques/tt07.pdf. - 379 ー

384.

Last Access June 2007. 12) John Amrhein. What’s New in SAS/STAT 9.1?. http://www.sas.com/offices/NA/canada/downloads/presentations/Edmonton_fall _2005/whatsnewinSASstat.pdf. Last Access June 2007. 13) Wei Cheng. ODS Statistical Graphics for Clinical Research. http://www2.sas.com/proceedings/forum2007/094-2007.pdf. Last Access June 2007. - 380 ー

385.

SASユ ユ ーザー会学術総会2007 戦略の管理 於 東京コンファレンスセンター・品川 7月26日(木)17:15~17:45 専修大学 伊藤和憲 SAS® Financial Intelligence „ Strategic Performance Management ☆戦略のマネジメント・システムを実現するソリューション „ Activity Based Management 精度の高い原価算定を実現し,また業務改善により原価 管理を実現するソリューション „ Financial Management 連結ベースの予算と決算を実現するソリューション 1 - 381 ー

386.

玉川大学でのSPM教育 http://www.sas.com/offices/asiapacific/japan/cprofiles/tamagawa.html „ 課題: ビジネス・インテリジェンスを実践的に身に付けられる教育方 法の開発 „ ソリューション: SAS Strategic Performance Management „ コメント 「SPMは、あらかじめテンプレート化されておらず、自由度が 非常に高いという利点を持っています。従来の4つの視点の 他に、新しい重要な戦略的視点を見つけた時にも柔軟に対 応できるのです。」 2 なぜ戦略か „ グローバル化の進展 競争の激化 „ ステークホルダーのための企業価値 CSRのトリプルボトムラインなど „ 企業価値に占める´無形の資産´の意義 1980年代の1対1 → 2000年は1対6 „ リスク・マネジメントの変化 コンプライアンス → 利益獲得の手段 業務効率(ABC) 戦略実行(バランスト・スコアカード) - 382 ー 3

387.

キャプランとノートンのBSCの変遷 „ 戦略的業績評価システム 吉川武男訳(1997)『バランス・スコアカード』生産性出版 „ 戦略実行のマネジメント・システム 櫻井通晴監訳(2001)『戦略バランスト・スコアカード』 東洋経済新報社 櫻井通晴・伊藤和憲・長谷川惠一監訳(2005)『戦略マップ』 ランダムハウス講談社 „ 組織連携によるシナジーの構築 櫻井通晴・伊藤和憲監訳(2007予定)『バランスト・スコアカードによる シナジー戦略 』ランダムハウス講談社 4 戦略マップ,BSC,アクションプラン 戦略マップ プロセス:オペレーション・マネジメント テーマ:地上の折り返し 財務の視点 利益と RONA 収益増大 尺 度 目標値 アクション・プラン 実施項目 予算 ■収益性 ■収益増大 ■機体の減少 ■市場価値 ■座席の収益 ■機体のリース費用 ■年成長率 30% ■年成長率 20% ■年成長率 5% ■ より 多くの 顧 客を 誘 引 し 維 持する ■リピート客の数 ■顧客数 ■70% ■毎年 12%の増加 ■定刻の発着 ■最低の価格 ■第1位 ■第1位 ■ 地上で の迅 速 な折り返し ■連邦航空局定刻到着評 価 ■顧客のランキング ■地上滞在時間 ■定刻出発 ■CRM システムの $xxx 実施 ■クォリティ・マネ $xxx ジメント ■ 顧 客 ロ イ ヤ ル テ $xxx ィ・プログラム ■30 分 ■90% ■サイクルタイムの $xxx 最大活用 ■ 必要 なスキ ル の開発 ■戦略的業務のレディネ ス ■地上係員の訓練 ■ 支援 システ ム の開発 ■ 地上 係員の 戦 略へ の 方 向 づ け ■情報システムの利用可 能性 ■戦略意識 ■地上係員の持株者数の 割合 ■1 年目 70% 2 年目 90% 3 年目 100% ■100% 機体の減少 顧客の視点 より多くの顧客を 誘引し維持 定刻の発着 BSC (戦略)目標 最低の価格 内部の視点 地上での迅速な 折り返し 学習と 成長の 視点 戦略的な業務 駐機場係員 戦略的システム 係員の配置 地上係員の 方向づけ - 383 ー ■100% ■100% $xxx ■係員配置システム $xxx の始動 ■コミュニケーショ $xxx ン・プログラム ■従業員持ち株制度 $xxx 予算総額 $xxxx 5

388.

医療バランスト・スコアカード „ 財務の視点をどこに位置づけるか ① 三重県立病院 最上位は患者の視点 ② 聖路加国際病院 財務の視点は最下位 ③ 荒井耕氏の見解 財務の視点は最下位 ④ 福井県済生会病院 財務の視点は最上位 6 三重県立病院 患者の視点 財務の視点 内部業務プロセスの視点 学習と成長の視点 „ 県立病院の目標が利益の確保では民間企業と変わらない。県立 病院の役割として赤字でも顧客(県民)のためにやらざるをえない 場合もある 山本浩和(2004)「三重県立病院における経営健全化とBSC活動の展開」医 療バランスト・スコアカード研究,1.1, pp.85-100. - 384 ー 7

389.

聖路加国際病院 患者満足の視点 アウトカムの視点 内部プロセスの視点 学習と成長の視点 財務の視点 „ 財務指標の達成が最終目的ではなく,患者満足やアウトカムの視 点=医療の質の向上が最終的な経営上の達成目標 三谷嘉章(2004)「聖路加国際病院の事業計画策定におけるBSCの活用」医療 バランスト・スコアカード研究,1.1, pp.43-48. 8 荒井 耕氏の提案 顧客満足の視点 アウトカムの視点 内部プロセスの視点 学習と提供体制の視点 財務基盤の視点 „ 財務の視点は最終目的ではなく,経営の維持・安定という医療提 供の支えの部分である 荒井 耕(2005)『医療バランスト・スコアカード』中央経済社,pp.34-38. - 385 ー 9

390.

福井県済生会病院 財務の視点 患者の視点 内部業務プロセスの視点 学習と成長の視点 „ 最終的に収益に貢献するという流れのために財務の視点を最上 位においた 齋藤哲哉(2004)「バランスト・スコアカードによる医療業務の指標化」医療 バランスト・スコアカード研究,1.1, pp.61-66. 10 10 日本にとってBSC導入の課題 1. 業績評価システムとの連結 戦略実行だけ or 業績評価との連動 など 2. カスケード(現場への落とし込み)の仕方 4つの視点をどこまで構築すべきか 3. シェアードサービスのBSC コストセンターでは戦略を支援しない - 386 ー 11

391.

1. 業績評価システムと 成果連動型報酬制度 „ リコーの業績評価システム „ シャープの戦略目標と個人展開 „ モービルの成果連動型報酬制度 12 リコーの業績評価システム ②得点(基準点) ① ウエイト Ⅰ 財務 評価指標 達成率 100点 90点 50点 0点 30% 100点 30点 達成率 100点 90点 50点 0点 20% 100点 20点 売上高 達成率 100点 90点 50点 0点 10% 90点 原則目標 100点 90点 50点 0点 15% 100点 15点 15% 50点 7.5点 4.5点 0点 独自指定 達成率 1)顧客 (4視点) 5視点計 Ⅲ トップ加減点 総評価点 90% 評価点 連結ROA ~ Ⅱ 非財務 ~95%以上~90%以上90%未満 ウエイト 得点 全社指定 連結FC/F 10% 70% 事例:○○事業本部 ~100% 独自指定 2)社内P 100点 90点 50点 0点 100点 90点 50点 0点 原則目標 100点 90点 50点 0点 達成率 ~ 3)学習成長 5% 90点 30% 4)環境保全 5% 0点 100% 100点 別途基準あり 90点 +10点~-10点 50点 0点 100% 9点 86点 +5点 +5点 9 91 1点 ☆ BSCは課長代理まで作成し,報酬と連動 13 - 387 ー

392.

シャープの戦略目標と個人展開 BSC BSC-P(戦略的目標管理システム) 戦略目標のリンケージで個人の戦略目標の実 効状況を管理することで戦略実行を高める 全社・事業本部戦略 部門戦略 個人目標管理 部長以下の部門の BSC-P 個人目標A 担当者 個人目標B 担当者 BSC-P 個人目標C 担当者 ・個人目標A BSC-P 個人目標D 担当者 ・個人目標B ・個人目標A BSC-P ・個人目標C ・個人目標B BSC-P ・個人目標A 個人目標E 担当者 個人目標F 担当者 個人目標G 担当者 ・個人目標C BSC-P ・個人目標 A ・個人目標B ・個人目標B ・個人目標A ・個人目標C ・個人目標B ・個人目標C ・個人目標C ☆ BSCは事業部長まで作成し,個人は指標展開 14 モービルの成果連動型報酬制度 最低 平均 最高 90% 90% 90% 1~2% 3~6% 10% (0% 5~8% 20%) USM&R業績連動の賞与 30% 0% 1.5~2.4% 6% NBU業績連動の賞与 0% 3.5~5.6% 14% ビジネス・ユニットの業績評価 基準賞与 モービル社の業績連動賞与 (モービル社のROCEとEPS) USM&RとNBUの業績連動賞与 70% サービス・カンパニーの業績評価 USM&RとNBUの業績連動賞与 USM&R業績連動の賞与 30% NBU業績連動の賞与 20% サービス・カンパニーの業績連動賞与 50% ☆ BSCは個人まで作成するが,報酬は事業部一律 - 388 ー 15

393.

2. 目標と方策のカスケード „ 済生会熊本病院のBSC 4つの視点はトップだけ „ ノバ・スコシア電力会社のカスケード 4つの視点は本社,事業部,部門まで „ モービルのカスケード 4つの視点は事業部から個人まで „ 方針管理によるカスケードの提案 16 済生会熊本病院のBSC 戦略目標 行動計画 担当部門 医療提供の標準化を行う マニュアルの全科配置・病棟物品標準化・記載と 説明内容の標準化 TQMセンター 予算管理規定の作成 特に追加予算の承認手続き等,必要最低限の規 定制定 企画経理課 手術,検査,器材を効率的に 利用 スケジュール共有化・長時間のOPEを固めない術 式毎の標準時間・設定執刀までの目標時間設定・ 入室時間を早める・全身麻酔チェックリスト活用 共有機器リストの洗い出しと管理台帳の作成 手術室 画像診断センター 中央検査センター 病床を効率的に再編する 病棟再編プロジェクトによる各フロア単位での病 床数見直し 病棟再編プロジェ クト 休日稼働を試験的に行う 休日試験稼働日の選定と実施 外来運営会議 外来と救急部門を再構築する 医療情報の放映・パンフ充実・連携広報誌作成 外来運営会議 新しい検査・治療を検討する 診療現場からのニーズと患者動向調査結果の比 較検討 企画経理課 文書管理をシステム化する 文書管理をデータベース化し,承認経路まで管理 する 総務課・企画経理 課 病床管理の充実 病床管理運用の 再確認と見直し 病床管理委員会 ☆ 4つの視点のBSCは病院として構築する - 389 ー 17

394.

ノバ・スコシア電力会社のカスケード 本社BSC 視点 戦略目標 尺度 顧客 顧客ロイヤルティ の向上:「満足顧 客」から「ロイヤル ティを持った顧客」 への変換 目標値 顧客ロイヤル ティの評価:獲 得した顧客ロイ ヤルティの合 成指数 75% 顧客サービスとマーケティング(CS&M)のBSC 視点 戦略目標 尺度 内部プ 顧客ロイヤルティ ロセス の向上:「満足顧 客」から「ロイヤル ティを持った顧客」 への変換 目標値 顧客ロイヤル ティのプロセス の再構築:再構 築した顧客プロ セスとサービス の数 5 CS&MのIT部門のBSC 視点 戦略目標 内部プ 効果的PC支援: ロセス CS&M担当への 効果的PC支援の 提供 尺度 目標値 支援要求:完了 したPC支援要 求の数 550 ☆ 本社,事業部,部門で4つの視点でBSCを構築する 18 モービルのカスケード 戦略テーマ レベル1 ・・・ レベル5 レベル6 レベル7 事業部長 ・・・ 配送責任者 ターミナル・コーディ ネータ トラック・ドライバー ライン2の1ガロン当 たり原価 ・・・ ライン25の1ガ ロン当 たり原価 帰り荷 ライン24の1ガロン当 たり原価 ■遊休時間 ■ルート外の距離 ・・・ 適時配送 市場調査の作 成 適時配送 ■回収した空ドラム 缶数 適時配送 ■ドラム缶の回収 ■顧客の評価 ■車両事故件 数 ■欠勤日数 環境自主監査の完 了 ■安全性検討会 ■安全検討会の出 席率 正確 な報告 領収書731,601,727 ■業務日誌の改ざん CCEの訓練 個人の改善計画の作 成 財務の視点 競合他社を上回る 長期利益を提供 することで株主に 報 いること ROCE(%) 顧客の視点 顧客と流通パート ナーに対し付加価 値の高いビジネス ソリューションを提 供 すること 製品のマーケット シェア 受注順守度 物流業者の調査 顧客調査の作成/ 実施 内部の視点 市場志向の戦略 を策定してすぐれ たぺレーションを 展開すること 安全性指標 環境指数 継続的改善の原 価低減 資本計画の作成/ 実施 学習と成長の視点 従業員が計画を 達成できるよう支 援することで,業 績のよい組織を創 り出す 従業員育成計画 の達成度 変革プログラムの 作成/実施/進捗度 の測定 キャッシュフロー 原価総額 利益総額 利用不能時間 帰り荷の有効利用 ■ガロン当り走行距離 ・・・ ・・・ 従業員育成計 従 業員育成計 画の達成度 ISO 9000認証 の訓練を受けた 従業員の数 市場調査 ☆ 事業部から個人まで4つの視点でBSCを構築する 19 - 390 ー

395.

方針管理によるカスケードの提案 MBO 事業部長 部 長 課 長 係長 担当者 BSC 部門 BSC 事業BSC サイクルタ イムの短縮 プリント効 率の向上 ストレッチな 目標値 基盤組立効 率の向上 不良率低減 検査時間 の短縮 はんだ工程 効率向上 ライン稼働 率の向上 方針管理 20 方針管理による方針展開 重点目標 重点施策 本部長方針 目標・方策 展開マトリックス 重点実施項目方策 重点目標 部長方針 目標・方策 展開マトリックス 重点目標 実施項目 課長方針 実施計画 目標・方策 展開マトリックス ☆ 方針管理はトップの方針を現場に展開するシステム 21 - 391 ー

396.

3. シェアードサービスのBSC „ シェアードサービスの目的関係図 „ シェアードサービスのタイプ „ モービルの戦略パートナー・モデル „ NTTBAのビジネス・モデル 22 シェアードサービスの目的関係図 業務の集中 連結財務諸表の作成のスピードアップ 教育研修の効率化 業務の見直し 間接業務の品質向上 コスト削減 利益獲得 内部統制の強化 業務の標準化 間接部門従業員の意識変革など ビジネス モデルの追加 アウトソーシング 顧客満足度 の向上 (業務の外販) ☆ コスト削減による顧客満足の向上が目的でいいのか 23 - 392 ー

397.

シェアードサービスのタイプ ‡ タイプA : 本社間接部門 ‡ 戦略リンケージ・モデル コストセンター ‡ タイプB : 子会社 ‡ ビジネス・モデル プロフィットセンター ‡ タイプC : 資本関係のない 複数の会社 ☆ キャプランの分類が理解しやすい 24 モービルの戦略パートナー・モデル 3.ビジネス・ユニット リンケージ・スコアカード 財 務 顧 客 × ■市場占有率と収益性の ■市場占有率 増大で USM&Rを支援 ■地代収入 ■原価低減でUSM&R を ■ガソリン種類ごとの損益 支援 ■ガソリン種類ごとのコスト ■最善の購買経験の提供 (1ガロン当たりのコスト ) ■顧客満足度 に絶えず焦点 を当てる ■覆面捜査員による評価 ■ディーラーの満足度 財 務 2.シェアードサービス・ユニットのスコアカード ■予算差異 F1シェアード・サービスの業務効率 ■直間費比率 クライアント ■時間あたりコスト 1.サービス契約 C1シェアード・サービスのビジョンと戦略の策定 C2フランチャイズの価値を高めるプログラムの開発と支援 ■クライアントの満足 (サービス契約のフィードバック) C3戦略の実行によるNBUの支援 C4目的に 適合した情報の提供とコミュニケーションの促進 内 部 学習と成長 I1フランチャイズの提供品の見直し ■重要な実施項目の跡 づけとマイルストーン I2シェアード・サービスの卓越性 ■ 競争力の評価 (ベスト・プラクティス ) I3支援ユニットの業務効率性の向上 ■原価低減の実施項目による削減額 I4販売員の効果の最適化 ■地域マネジャーのフィードバック ■戦略的コンピタンスの入手可能性 L1コア・コンピタンスとスキル L2組織全体の取組み L3戦略的な情報へのアクセス 4.フィードバック ■社内風土の調査 ■ベスト・プラクティスの移転 ■ITシステムとマイルストーン ☆ 戦略パートナーとしてコスト削減に貢献 - 393 ー 25

398.

NTTBAのビジネス・モデル 視 点 財 務 委託元・顧客 内部プロセス 戦略テーマ : 業容拡大 一般市場向け 売上の増大 業容拡大 新規ビジネ スの開拓 BAブランド の確立 利益の出る仕 組作りの強化 業務の標準化 BA-P,BA東京 との戦略的提携 業務習熟の向上 学習と成長 社員のモチベー ション向上 CS向上 PJ別原価管理 の徹底 ABM手法による 業務分析の推進 ナレッジマネジメ ントの推進 評価ルール の明確化 ☆ 自らの戦略実行のため - 394 ー 26 27

399.

ご清聴, ありがとうございました。 itoh@isc.senshu-u.ac.jp 28 - 395 ー

400.

妊娠中、分娩時、産後ケアの 満足度規定要因に関する研究 -中間報告縣俊彦 東京慈恵医科大学環境保健医学講座 杉本充弘 日本赤十字社医療センター産科 島田三恵子 大阪大学大学院医学系研究科 A Study of Determining Factors about Satisfaction in the period of Pregnancy, Delivery and after Childbirth. -Preliminary ReportT. Agata, Dept of Public Health, Jikei Univ. M. Sugimoto, Japanese Red Cross Medical Center. M. Shimada, Graduate School of Medicine, Osaka Univ. - 396 ー

401.

妊娠中、分娩時、産後ケアの 満足度規定要因に関する研究 -中間報告縣 俊彦 杉本充弘 東京慈恵医科大学環境保健医学講座 島田三恵子 日本赤十字社医療センター産科 大阪大学大学院医学系研究科 - 397 ー

402.

研究要旨 産後のお母様に調査協力を依頼し、その調査票の内容を解析し、母親の満足度規定要因を 明らかにするとともに、ガイドライン選定のためのリサーチクエスチョン選択の一助とす ることを目的とした。快適な妊娠出産のケア、およびそれを提供するために最低限必要なマ ンパワーとシステム等の医療体制を検討する目的で、全国 47 都道府県から、調査対象母親 を層化抽出し、調査したが、それらを有効活用するため本解析を実施した。 妊娠中のケアの満足度については、 ”満足”=1745、”満足ではない“=2046 に、分娩時の ケアの満足度については、”満足”=2157、”満足ではない“=1653 に、産後ケアの満足度に ついては、”満足”=2043、”満足ではない“=1780 に、分類された。また、妊娠中のケアの 満足度に関しては9変数が、分娩時のケアの満足度に関しては15変数が、産後ケアの満 足度に関しては、12変数が取り込まれ選択された。この結果は方法論の解釈、専門家の判 断とも矛盾がなく、合理的結果であるが、今後より詳細な検討によりさらに明確な結論を 追求する必要があろう。 A. 研究目的 度、分娩時のケアの満足度、産後ケアの満 妊娠中、分娩、産後のケアの満足度に関す 足度の3項目に分けて母親の満足度を規定 る研究は諸外国でも行われており、我が国 する要因を明確にすることは重要であると でも盛んに行われている。しかしそれらの 考えられる。 多くが、地域、病院などが限定した形で行わ これらの点を考慮しつつ、対象となる母 れており、全国規模で行われているものは 親調査での母親の満足度規定要因を3つの 見られない 1) 19) ~ 。そこで、我々は全国規模 側面から明確にする。 で、普遍的に母親の満足度に関する検討を 行うこととした。産後のお母様に調査協力 を依頼し、その調査票の内容を解析し、母親 の満足度規定要因を明らかにするとともに、 B. 研究方法 母親調査の対象の調査について検討を行 う。 ガイドライン選定のためのリサーチクエス 方法としてはロジスティック回帰で行う。 チョン選択の一助とすることを目的とした。 ロジスティック回帰は 目的変数が ”満 快適な妊娠出産育児ケアと周産期医療体制 足”、”満足ではない”などのように 2値を の全国調査への疫学的方法論の応用を検討 とる場合に利用できる。ロジスティック回 する。出産施設の閉鎖が続く中、快適な妊娠 帰が使用されるのは 1)影響因子の探索 出産のケアを提供するために最低限必要な 2)交絡因子の調整 マンパワーとシステム等の医療体制の現状 などを行う場合である。ロジスティックモ を検討する際、母親の満足度は重要なファ デルでは、回帰係数、標準誤差、χ2 検定 クターとなる。今回、妊娠中のケアの満足 統計量、オッズ比などを求め、それを用い - 398 ー 3)予後因子の評価

403.

てある事象が発生する確率を直接予測する 調査は、無記名で任意回答とし、郵送で返 ことができる。それぞれの説明変数の分布 信し、施設が特定されないように配慮した は正規分布に従う必要はないなど、実際の ので、倫理面の問題はないと考えられる。 疫学調査には有用な方法である。例えば、初、 経産、妊娠中特に異常なしかどうか、妊娠 C. 研究結果 性高血圧症の有無、妊娠中骨盤位の有無、 1.妊娠中のケアの満足度の解析 羊水の異常の有無(説明変数 x1,x2,x3、、) 妊娠中のケアの満足度については、”満 から、満足度(”満足”、”満足ではない” 足”=1745(46.0%)、”満足ではない(やや満 の2値)を決める 因子を明らかにしようと 足、中間、不満足など) “=2046(54.0%)であっ するときロジスティック回帰を行うと、回 た。表1.に示すごとく、'6-2.初経産'、 帰係数 b1,b2,b3、、、および定数項 b0 が求 'Q9-1.妊娠中特に異常なし'、'Q9-2.妊娠性 められ、それらの説明変数の組み合わせで 高血圧症'、'Q9-3.妊娠中骨盤位'、'Q9-6 性 別 が 男 で あ る 可 能 性 は 、 羊水の異常'、'Q9-7 その他の妊娠中の異常 P=1/{1+exp[-(b0+b1*x1+b2*x2+b3*x3 、 '、'Q13.妊婦健診施設'、'Q14.妊健・分娩 、)]} で求められる。ロジスティック回帰 同一施設'、'Q15-1.医療者の自己紹介'、 では、あまり関係のない説明変数をとりい 'Q15-2.顔見て話す'、'Q15-3.何でも話せる れたり、データ数が少なかったりすると、 雰囲気'、'Q16-1.心身の自己理解' 、'Q16-2. 誤った結果を導くことがあるので注意が必 出産方針の説明'、'Q16-3 出産費用の説明'、 要である。 'Q16-4.健診後すっかり安心' 、'Q36.同一 対象とした母親の満足度とは妊娠中のケ アの満足度、分娩時のケアの満足度、産後 ケアの満足度の3項目とし、その満足度を 医師'、'Q37.同一助産師'の18変数を用い て解析を実施した。 有意水準 P=0.2 ステップワイズ法で実施す ると、”満足”=1563、”満足ではない“=1855 規定する要因検討する。 研究班内部での相互討議により、より効 率性を重視し、各データが利用できるよう に2段階で行うこととした。まず、有意水準 となり、表2に示す11変数が取り込まれ 選択された。 この11変数を用い、有意水準 P=0.05 0.2で解析し、それで取り込まれ選択され ステップワイズ法で実施すると、”満足”=1623、” た変数に対し、有意水準0.05で最終解析 満足ではない“=1910 となり、表3,4に を行うこととした。 示す9変数が取り込まれ選択された。 また、解析に利用する変数は研究班内部 つまり、健診後はすっかり安心し、心身 の討議の結果、次のものを候補とした。妊娠 の自己理解が十分で、妊婦健診は助産所な 中のケアの満足度の解析で利用する変数を どで行い、同一助産師のケアが行われ、出産 表1に、分娩時のケアの満足度については 費用の説明も充分行われ、妊娠中の骨盤位 表5、産後ケアの満足度については表9に、 はなく、何でも話せる雰囲気があり、羊水 示した。 の異常はなく、出産方針の説明も充分行わ また、倫理面への配慮に関しては、実際の れた妊婦は妊娠中の満足度が高いことにな - 399 ー

404.

この20変数を用い、有意水準 る。 P=0.05 ステップワイズ法で実施すると、”満足”=1204、” 2.分娩時のケアの満足度の解析 満足ではない“=991 となり、表11,12 分娩時のケアの満足度については、”満 に示す12変数が取り込まれ選択された。 足 ” =2157(56.6%) 、” 満 足 で は な い つまり育児相談の結果満足度が高く、同 “=1653(43.4%)になった。表5.に示すご 一助産師のケアが行われ、母乳量不足の心 とく、51変数を用いて解析を実施した。 配もなく、特に育児の仕方の確認はせず、 ステップワイズ法で実施す 会陰の痛みもなく、乳房トラブルもなく、 ると、”満足”=1110、”満足ではない“=822 柔軟な乳健時間が設定され、母として睡眠 となり、表6に示す18変数が取り込まれ 不足、疲労など特になく、その他分娩時処置 選択された。 は特に行われず、乳補足も特に行わず(母乳 有意水準 P=0.2 P=0.05 のみ)、働いていなくても利用できる一時預 ステップワイズ法で実施すると、”満足”=1586、” り保育施設は特に必要とせず、育児放棄の 満足ではない“=1116 となり、表7,8に 感情を持つこともない産婦が産後ケアの満 示す15変数が取り込まれ選択された。 足度が高いとなる。 この18変数を用い、有意水準 つまり、医療者に尊重感をもって接して もらい、気持ちを理解してくれてもらえ安 D.考察 心し、経過説明を理解できる言葉でしても ロジスティック回帰分析は、単変量解析 らい、医療者対応については応対がよく、意 に比べれば有用な点が多いが、独立変数を 志は充分尊重され、微弱陣痛はなく、娩出 あまり多くとるとおかしな結果が出ること 体位は仰臥位ではなく、プライバシ配慮は がある。これは、変数選択法に問題があっ 充分なされ、同一助産師によるケアが行わ たり変数の扱い方に問題があったりするた れ、 好評の施設で、経産婦で、無痛分娩で出 めと思われる。 産し、産痛緩和を行い、お産の方法を詳しく ロジスティック回帰分析の条件としては 説明され、母子同室であった妊婦は分娩時 目的変数が2値であること。多変量解析の の満足度が高い。 生存分析ではよく Cox 回帰分析とロジステ ィック回帰分析が使用されるが、ロジステ ィック回帰分析では打ち切り例(censored 3.産後ケアの満足度の解析 産後のケアの満足度については、”満足” case)は扱えない。ロジスティック回帰分析 =2043(53.4%) 、 ” 満 足 で は な い は、5年生存率など一定の観察期間での予 “=1780(46.6%)になった。表9.に示すご 後調査などに向いている。 とく、44変数を用いて解析を実施した。 独立変数に対して、最低5から10の事 ステップワイズ法で実施す 象が必要という。あまりに少ない事象(例 ると、”満足”=1192、”満足ではない“=988 えば死亡とか合併症とか)では、誤った結 となり、表10に示す20変数が取り込ま 果を導くことがあるとされる。 有意水準 P=0.2 れ選択された。 また、注意点として独立変数を増やすと、 - 400 ー

405.

欠損例が増加し分析に使用される症例数が Complicated by Fetal Anomalies: A Survey of かなり減少してしまうことがあるので、欠 Five Academic Perinatal Units in Ontario. 損例数を確認することが重要である。今回 Obstet Gynaecol Can. 2007 29:4:308-314. はこのような変数問題、欠損値問題はクリ 2) Wray J, Davies L. アしているので十分であろう。 from postnatal care. RCM Midwives. 2007 また、変数の分布は正規分布に従う必要 J What women want 10:3:131. はないなど、実際の疫学調査には有用な方 3) Roberts JM, Gonzalez CB, Sampselle C. 法でもある。また、今回の独立変数は調査時 Why do supportive birth attendants become 5段階に分割されたものを統合し、解析に directive of maternal bearing-down efforts in 適合するよう変換した。いくつかの独立変 second-stage labor? J Midwifery Womens 数も同様にカテゴリ統合し、あるものはカ Health. 2007 52:2:134-41. テゴリ単位で変数を分割した。その方法、統 4) Hildingsson I, Thomas JE. Women's 合、分割結果が最適であるかはさらに詳細 perspectives on maternity services in Sweden: な検討が必要であろう。 processes, problems, and solutions. J Midwifery Womens Health. 2007 52:2:126-33. 5) 横手三喜子, 長瀬和美, 鶴薗由加子, 中 E.結論 妊娠中のケアの満足度については、”満 村章子. バースプラン導入を試みて. 鹿児 足”=1745、”満足ではない“=2046 に、分 島県母性衛生学会誌.11:19-20:2006. 娩時のケアの満足度については、”満足” 6) 柳原めぐみ, 須田由紀, 宮本佳代子.妊 =2157、”満足ではない“=1653 に、産後ケ 娠期から乳児期における訪問指導事業への アの満足度については、”満足”=2043、” 取り組み 満足ではない“=1780 に、分類された。 に焦点を当て効果を探る.日本看護学会論 また、妊娠中のケアの満足度に関しては 文集: 地域看護 36:70-72:2006. 初産,経産別母親の訪問満足度 9変数が、分娩時のケアの満足度に関して 7) 塚本絵美, 杉浦絹子. 出産場所選択要因 は、15変数が、産後ケアの満足度に関し に関する研究. 三重看護学誌. 8:43-53:2006. ては、12変数が取り込まれ選択された。 8) 眞鍋えみ子, 松田かおり, 吉永茂美, 瀬 この結果は概略では方法論の解釈、専門家 戸正弘, 上里一郎. 初妊婦における妊娠中 の判断とも矛盾がなく、合理的結果である のセルフケア行動が出産と母親役割達成感 が、今後より詳細な検討によりさらに明確 に及ぼす影響. 母性衛生. 47:2:421-428:2006. な結論を追求する必要があろう。 9) 島袋史, 砂川綾子, 伊波忠. 当院におけ るカンガルーケア(母子早期接触)の施行状 況について. 日本産科婦人科学会沖縄地方 F.文献 部会雑誌. 28:41-48:2006. 1) 10) 伊藤由香里, 小川明子. 参加型母親学 Yan T, Wen SW, Walker MC, Beduz MA, Kim PC. Women's Satisfaction With the 級実施によるイメージと不安の変化 Current State of Prenatal Care for Pregnancies 型母親学級との比較. 愛媛県立病院学会会 - 401 ー 従来

406.

誌. 41:2:11-14:2006. 19) 餘目弘子, 朝賀裕子, 武田トシ子, 高 11) 川上多美子, 室田泉, 中間みちよ. 分 村正子, 大村香津子, 蠣崎奈津子. 出産後 娩・産褥期の保健指導の質の検討 褥婦の の母親支援としての新生児訪問指導に期待 満足度に関する質問紙調査より. 逓信医学. されるもの. 岩手公衆衛生学会誌. 58:2:134-138:2006. 17:1:44-45:2005. 12) 荒木尚子, 野口めぐみ, 湯本敦子, 坂 口けさみ, 上條陽子. 自宅出産をした母親 の自宅出産を選択した理由とその実現のた めの要因. 日本看護学会論文集: 母性看護. 36:152-154:2005. 13) 森下里美, 福岡香織, 久米郁子, 亀井 睦子. ソフロロジー式分娩産前教育の効果 イメージトレーニングの働きかけによる分 娩評価の向上. 日本看護学会論文集: 母性 看護: 36:116-118:2005. 14) 佐々木くみ子. 親の人格的発達に影響 を及ぼす諸要因 妊娠期から乳児期にかけ て. 母性衛生. 46:4:580-587:2006. 15) 星純江, 杉浦順子, 君山香織, 砂子亜 里沙, 蓑島かおり, 長尾有希子, 有澤美由 紀, 工藤仁美, 川村光弘. 地方センター病 院に求められる,夫立ち会い分娩を希望す る夫婦への保健指導・看護サービスのあり 方. 名寄市立病院医誌. 13:1:51-55:2005. 16) 江口美香, 濱田奈緒, 三井佳子, 内村 祐子, 西千晶, 昇眞寿夫, 松本俊彦. 褥婦の 感想から見る産科スタッフの関わりについ ての検討. 鹿児島県母性衛生学会誌. 9:6-8:2004. 17) 塩田利江, 阿久津博子. 自分らしいお 産を引き出す援助 バースプランを用い て. 日本看護学会論文集: 母性看護. 35:66-68:2004. 18) 竹 村 晃 子 , 井 汲 美 恵 , 大 内 あ や 子 . NICU における母親の満足調査. 長野赤十 字病院医誌. 18:153-156:2005. - 402 ー

407.

表1.妊娠中のケアの満足度の解析に用いた変数 表2.妊娠中のケアの満足度の解析 選択された変数(有意水準 P=0.2 ステップワイズ法) PN='6-2.初経産' NP1a='Q9-1.妊娠中特に異常なし' TOX='Q9-2.妊娠性高血圧症' BEL1a='Q9-3.妊娠中骨盤位' AFI='Q9-6羊水の異常' OT1a='Q9-7その他の妊娠中の異常' KENSIN='Q13.妊婦健診施設' SAME='Q14.妊健・分娩同一施設' NAME='Q15-1.医療者の自己紹介' EYE='Q15-2.顔見て話す' MOOD='Q15-3.何でも話せる雰囲気' A9a='Q16-1.心身の自己理解' A1a='Q16-2.出産方針の説明' A2a='Q16-3出産費用の説明' A8a='Q16-4.健診後すっかり安心' SDR='Q36.同一医師' SMW='Q37.同一助産師' Q16-4.健診後すっかり安心 Q16-1.心身の自己理解 Q13.妊婦健診施設 Q37.同一助産師 Q16-3出産費用の説明 Q9-3.妊娠中骨盤位 Q15-3.何でも話せる雰囲気 Q14.妊健・分娩同一施設 Q9-6羊水の異常 Q16-2.出産方針の説明 Q9-7その他の妊娠中の異常 表3.妊娠中のケアの満足度の解析で選択された変数の回帰係数と標準誤差 (有意水準 P=0.05 ステップワイズ法) 選択された変数 Estimate Standard Error Wald Chi-Square Pr > ChiSq Intercept Q16-4.健診後すっかり安心 Q16-1.心身の自己理解 Q13.妊婦健診施設 Q37.同一助産師 Q16-3出産費用の説明 Q9-3.妊娠中骨盤位 Q15-3.何でも話せる雰囲気 Q9-6羊水の異常 Q16-2.出産方針の説明 2.6569 -0.9503 -0.6376 0.3686 -0.4672 -0.2700 -0.6708 -0.3452 -0.5155 -0.1286 0.2667 0.0965 0.0953 0.0560 0.0830 0.0929 0.1866 0.1227 0.2475 0.0590 99.2481 97.0554 44.7722 43.3237 31.7229 8.4430 12.9279 7.9123 4.3373 4.7565 <.0001 <.0001 <.0001 <.0001 <.0001 0.0037 0.0003 0.0049 0.0373 0.0292 - 403 ー

408.

表4.妊娠中のケアの満足度の解析で選択された変数の推定オッズ比と95%信頼区間 (有意水準 P=0.05 ステップワイズ法) 選択された変数 Point Estimate Q16-4.健診後すっかり安心 Q16-1.心身の自己理解 Q13.妊婦健診施設 Q37.同一助産師 Q16-3出産費用の説明 Q9-3.妊娠中骨盤位 Q15-3.何でも話せる雰囲気 Q9-6羊水の異常 Q16-2.出産方針の説明 95% Wald Confidence Limits 0.387 0.529 1.446 0.627 0.763 0.511 0.708 0.597 0.879 表5.分娩時のケアの満足度の解析に用いた変数 PN='6-2.初経産' admi='入院日数階級' NP1a='Q9-1.妊娠中特に異常なし' TOX='Q9-2.妊娠性高血圧症' BEL1a='Q9-3.妊娠中骨盤位' OT1a='Q9-7その他の妊娠中の異常' NP2a='Q10-1.分娩時特に異常なし' JINT='Q10-2.微弱陣痛' FD='Q10-3.胎児心音異常' BL='Q10-4.出血多量' BEL2a='Q10-5.骨盤位分娩' OT2a='Q10-6.その他の診断名' ND='Q11-1.自然分娩' VD='Q11-2.吸引分娩' CS='Q11-4帝王切開' NP='Q11-5無痛分娩' IND='Q11-6.陣痛誘発' AUG='Q11-7.陣痛促進' OT3a='Q11-8その他分娩時処置' WHERE='Q19.分娩施設' B2a='Q20-2.大きい' B4a='Q20-4.好評' B5a='Q20-5.お産の方法' B6a='Q20-6.母子同室' B7a='Q20-7.医療者対応' B9a='Q20-9.前回良かった' - 404 ー 0.320 0.439 1.295 0.533 0.636 0.355 0.557 0.368 0.783 0.467 0.637 1.614 0.737 0.916 0.737 0.901 0.970 0.987 B11a='Q20-11.アメニティ' OTOa='Q23-1.夫付添い' HOKAa='Q23-5.その他付添い' OTOb='Q28-1.夫分娩立会い' HOKAb='Q28-5.その他立会い' IREZU='Q23-7.施設都合で入れず' MW='Q29.分娩介助者' C1a='Q26-1.意志尊重' C3a='Q26-3.仰臥位以外姿勢' C4a='Q26-4.剃毛' C5a='Q26-5.産痛緩和' C6a='Q26-6.気持ち理解安心' C8a='Q26-8.会陰切開' C9a='Q26-9.直後児対面' CTG1a='Q24.CTG頻度' CGT3a='Q25.CTG説明' KEIKA='Q27.経過説明' SISEI1a='Q30-1.自由姿勢' SISEI2a='Q30-2.娩出体位' PRA='Q30-3.プライバシ配慮' SONTYO='Q31.尊重感' BOSI='Q33.母子接触' NYU='Q35.乳補足' SDR='Q36.同一医師' SMW='Q37.同一助産師'

409.

表6.分娩時のケアの満足度の解析で選択された変数(有意水準 P=0.2 ステップワイズ法) Q31.尊重感 Q26-6.気持ち理解安心 Q27.経過説明 Q20-7.医療者対応 Q26-1.意志尊重 Q10-2.微弱陣痛 Q30-2.娩出体位 Q30-3.プライバシ配慮 Q37.同一助産師 Q20-4.好評 Q6-2.初経産 Q26-5.産痛緩和 Q24.CTG頻度 Q11-5無痛分娩 Q26-8.会陰切開 Q20-5.お産の方法 Q20-6.母子同室 Q9-1.妊娠中特に異常なし 表7.分娩時のケアの満足度の解析で選択された変数の回帰係数と標準誤差 (有意水準 P=0.05 ステップワイズ法) 選択された変数 Intercept Q31.尊重感 Q26-6.気持ち理解安心 Q27.経過説明 Q20-7.医療者対応 Q26-1.意志尊重 Q10-2.微弱陣痛 Q30-2.娩出体位 Q30-3.プライバシ配慮 Q37.同一助産師 Q20-4.好評 6-2.初経産 Q11-5無痛分娩 Q26-5.産痛緩和 Q20-5.お産の方法 Q20-6.母子同室 Estimate Standard Error 6.3564 -2.0356 -0.9888 -1.0665 0.5533 -0.7325 -0.5034 0.6427 -0.5397 -0.4787 0.4132 0.2462 -0.2310 -0.6627 0.5092 -0.2839 - 405 ー 0.5161 0.2706 0.1869 0.1553 0.1258 0.1579 0.1271 0.2097 0.2533 0.1034 0.0964 0.0929 0.0945 0.2989 0.1727 0.1231 Wald Chi-Square 151.6625 56.5824 27.9923 47.1340 19.3611 21.5162 15.6758 9.3904 4.5379 21.4363 18.3781 7.0320 5.9802 4.9155 8.6969 5.3217 Pr > ChiSq <.0001 <.0001 <.0001 <.0001 <.0001 <.0001 <.0001 0.0022 0.0332 <.0001 <.0001 0.0080 0.0145 0.0266 0.0032 0.0211

410.

表8.分娩時のケアの満足度の解析で選択された変数の推定オッズ比と95%信頼区間 (有意水準 P=0.05 ステップワイズ法) Point Estimate 選択された変数 Q31.尊重感 Q26-6.気持ち理解安心 Q27.経過説明 Q20-7.医療者対応 Q26-1.意志尊重 Q10-2.微弱陣痛 Q30-2.娩出体位 Q30-3.プライバシ配慮 Q37.同一助産師 Q20-4.好評 6-2.初経産 Q11-5無痛分娩 Q26-5.産痛緩和 Q20-5.お産の方法 Q20-6.母子同室 0.131 0.372 0.344 1.739 0.481 0.604 1.902 0.583 0.620 1.512 1.279 0.794 0.515 1.664 0.753 95% Wald Confidence Limits 0.077 0.258 0.254 1.359 0.353 0.471 1.261 0.355 0.506 1.251 1.066 0.660 0.287 1.186 0.591 0.222 0.537 0.467 2.225 0.655 0.776 2.868 0.958 0.759 1.826 1.535 0.955 0.926 2.334 0.958 表9.産後ケアの満足度の解析に用いた変数 PN='6-2.初経産' admi='入院日数階級' NP1a='Q9-1.妊娠中特に異常なし' BEL1a='Q9-3.妊娠中骨盤位' OT1a='Q9-7その他の妊娠中の異常' NP2a='Q10-1.分娩時特に異常なし' JINT='Q10-2.微弱陣痛' FD='Q10-3.胎児心音異常' BL='Q10-4.出血多量' BEL2a='Q10-5.骨盤位分娩' OT2a='Q10-6.その他の診断名' ND='Q11-1.自然分娩' CS='Q11-4帝王切開' NP='Q11-5無痛分娩' IND='Q11-6.陣痛誘発' AUG='Q11-7.陣痛促進' OT3a='Q11-8その他分娩時処置' BOSI='Q33.母子接触' NYU='Q35.乳補足' NUT='Q40.1ヶ月栄養法' NS='Q41-1.母睡眠不足疲労' KODOKU='Q41-2.孤独感' HOKI='Q41-3.放棄感' DAME='Q41-4.育児自信喪失' OPAI='Q41-5.乳房トラブル' EIN='Q41-6.会陰痛み' ORO='Q41-7.悪露' WK='Q41-10.児不眠' CRY='Q41-11.泣き' MLK='Q41-12.母乳量の心配' RYO='Q41-13.人工乳補足量' RE='Q41-18.育児法の保証' OT5a='Q41-19.その他児心配事' KN2a='Q41-21.相談場専門家 S2a='Q42-6.出産施設の育児相談' I3a='Q42-12.乳房マッサージと家庭訪問' H1a='Q42-13.働いていなくても利用できる一時預り保育' OKANE1a='Q42-24.子ども世帯優遇税保育料支援' NYUKEN='Q42-25.柔軟な乳健時間' SMa='Q45.相談結果満足度' BNYGAI='Q47-6.母乳育児外来' VISIT='Q47-9.必要回家庭訪問3ヶ月' SDR='Q36.同一医師' SMW='Q37.同一助産師' - 406 ー

411.

表10.産後ケアの満足度の解析で選択された変数(有意水準 P=0.2 ステップワイズ法) Q45.相談結果満足度 Q37.同一助産師 Q41-12.母乳量の心配 Q41-18.育児法の保証 Q41-6.会陰痛み Q41-5.乳房トラブル Q42-25.柔軟な乳健時間 Q41-1.母睡眠不足疲労 Q11-8その他分娩時処置 Q42-13.働いていなくても利用できる一時預り保育 Q41-13.人工乳補足量 Q33.母子接触 Q41-20.家族の理解協力 Q41-11.泣き Q35.乳補足 Q36.同一医師 Q10-2.微弱陣痛 Q41-3.放棄感 Q41-2.孤独感 Q10-3.胎児心音異常 表11.産後ケアの満足度の解析で選択された変数の回帰係数と標準誤差 (有意水準 P=0.05 ステップワイズ法) 選択された変数 Intercept Q45.相談結果満足度 Q37.同一助産師 Q41-12.母乳量の心配 Q41-18.育児法の保証 Q41-6.会陰痛み Q41-5.乳房トラブル Q42-25.柔軟な乳健時間 Q41-1.母睡眠不足疲労 Q11-8その他分娩時処置 Q35.乳補足 Q42-13.働いていなくても 利用できる一時預り保育 Q41-3.放棄感 Estimate Standard Error Wald Chi-Square Pr > ChiSq 3.3196 -0.9256 -0.6512 -0.3562 -0.4423 -0.3562 -0.3341 -0.4116 -0.2770 -0.5154 0.2198 -0.0910 0.2501 0.1010 0.1051 0.0980 0.1315 0.1258 0.1068 0.1413 0.1018 0.2301 0.0955 0.0375 176.1166 83.9410 38.4212 13.2196 11.3099 8.0212 9.7881 8.4817 7.4083 5.0148 5.2997 5.8802 <.0001 <.0001 <.0001 0.0003 0.0008 0.0046 0.0018 0.0036 0.0065 0.0251 0.0213 0.0153 -0.2761 0.1289 4.5890 0.0322 - 407 ー

412.

表12.産後ケアの満足度の解析で選択された変数の推定オッズ比と95%信頼区間 (有意水準 P=0.05 ステップワイズ法) 選択された変数 Q45.相談結果満足度 Q37.同一助産師 Q41-12.母乳量の心配 Q41-18.育児法の保証 Q41-6.会陰痛み Q41-5.乳房トラブル Q42-25.柔軟な乳健時間 Q41-1.母睡眠不足疲労 Q11-8その他分娩時処置 Q35.乳補足 Q42-13.働いていなくても 利用できる一時預り保育 Q41-3.放棄感 Point Estimate 95% Wald Confidence Limits 0.396 0.521 0.700 0.643 0.700 0.716 0.663 0.758 0.597 1.246 0.913 0.325 0.424 0.578 0.497 0.547 0.581 0.502 0.621 0.380 1.033 0.848 0.483 0.641 0.849 0.832 0.896 0.883 0.874 0.925 0.938 1.502 0.983 0.759 0.589 0.977 - 408 ー