自己紹介 & お知らせ

   、、┯、、
   ミ (・)(・)ミ  本スライドはhttp://y-yammt.github.io/intro-bayes-social-risks で見られますぞ、と
  彡 д ミ
  彡  / ̄ ̄ ̄ ̄/
_彡ニつ/  Macc /__
   \/____/

今回の内容

  • 入門ベイズ統計 第3章「社会的リスクと決定」を見ていきます。
    • 3.1 リスク認知とベイズの定理
    • 3.2 安全性のモデル
    • 3.3 確信の形成のようす
    • 3.4 決定の正しさと到達時間 → 省略します

3.1 リスク認知とベイズの定理

リスクとは?

リスク
自然現象でも社会現象でも望ましくない結果が起こる「不確実性」
リスクの2つの側面
  • どのくらいの頻度で起きるかという確率的な側面
  • 起こったときの重大性という側面

リスクとは?

リスク
自然現象でも社会現象でも望ましくない結果が起こる「不確実性」
リスクの2つの側面
  • どのくらいの頻度で起きるかという確率的な側面 ← こちらを取り扱う
  • 起こったときの重大性という側面

リスク理論での確率

  • 人間の主観(社会的・心理的に感じる)確率として表す。
    • 実際に現象が起こった頻度では必ずしもない。
      • → 頻度論的よりはベイズより。
      • → ベイズの定理の利用。

3.2 安全性のモデル

安全性のモデル

ひとことで言うと、「対象」が「主体」に与える「信号」をもとにして、主体が対象の「状態」をどのように解釈するかをモデル化する。
対象
リスクの源泉となっているもの (例: 原子力発電所)
主体
リスクを認知し意思決定するもの (例: 人間)
信号
対象に置いて生起する現象 (例: 事故が発生する/しない)
対象と信号
p.46 図3.1より引用

安全性のモデル

原子力発電所の例

状態 \ 信号
(原因) \ (結果)
$z_1$: 無事故$z_2$: 事故
$\theta_1$: 安全$p(z_1 | \theta_1) = 999/1000$$p(z_2 | \theta_1) = 1/1000$
$\theta_2$: 危険$p(z_1 | \theta_2) = 1/2$$p(z_2 | \theta_2) = 1/2$

安全性のモデル

原子力発電所の例

状態 \ 信号
(原因) \ (結果)
$z_1$: 無事故$z_2$: 事故
$\theta_1$: 安全$p(z_1 | \theta_1) = 999/1000$$p(z_2 | \theta_1) = 1/1000$
$\theta_2$: 危険$p(z_1 | \theta_2) = 1/2$$p(z_2 | \theta_2) = 1/2$
信号
対象に置いて生起する現象 → 対象が観測できる

安全性のモデル

原子力発電所の例

状態 \ 信号
(原因) \ (結果)
$z_1$: 無事故$z_2$: 事故
$\theta_1$: 安全$p(z_1 | \theta_1) = 999/1000$$p(z_2 | \theta_1) = 1/1000$
$\theta_2$: 危険$p(z_1 | \theta_2) = 1/2$$p(z_2 | \theta_2) = 1/2$
状態
対象のもつ属性で主体の関心となっているもの
→ 主体がどのように認知しているかであって観測できるものではない。
確率: $p(z_1 | \theta_1)$、$p(z_2 | \theta_1)$
状態ごとに生起しうる信号の可能性の程度
→ 客観的・物理的な性質の把握で理解できる確率である。

安全性のモデル

原子力発電所の例

状態 \ 信号
(原因) \ (結果)
$z_1$: 無事故$z_2$: 事故
$\theta_1$: 安全$p(z_1 | \theta_1) = 999/1000$$p(z_2 | \theta_1) = 1/1000$
$\theta_2$: 危険$p(z_1 | \theta_2) = 1/2$$p(z_2 | \theta_2) = 1/2$
情報量
各信号を得た場合にこれを生ぜしめた状態の確率の比
  • 信号「無事故」を受け取った場合: $\log \frac{999 / 1000}{1 / 2} \simeq 0.3010$
  • 信号「事故」を受け取った場合: $\log \frac{1 / 1000}{1 / 2} = - 2.6990$

情報量の解釈

  • 3.4の「情報量とロジスティック曲線」でも情報量の説明が出てきますが、先に取り上げておきます(「入門ベイズ統計」とちょっと異なる切り口で説明します)。
  • $z_1$、つまり、無事故であるという信号を受け取った場合を考える($z_2$も同様にできる)。
  • このとき、無事故の条件下で状態が安全である確率$w(\theta_1 | z_1)$はベイズの定理より、
  • $w'(\theta_1 | z_1) = \frac{w(\theta_1) p(z_1 | \theta_1)}{w(\theta_1) p(z_1 | \theta_1) + w(\theta_2) p(z_1 | \theta_2)}$
  • 同様に無事故の条件下で状態が危険である確率$w(\theta_2 | z_1)$は、
  • $w'(\theta_2 | z_1) = \frac{w(\theta_2) p(z_1 | \theta_2)}{w(\theta_1) p(z_1 | \theta_1) + w(\theta_2) p(z_1 | \theta_2)}$

情報量の解釈

  • 状態を決定付けるためには信号を受け取った下での(推察される)2つの状態の確度に大きさ差があるのが望ましい。
  • つまり、これらの自己情報量の絶対値の差が大きければよい。ここで自己情報量の差を以下のように表す。
  • $- \log w'(\theta_2 | z_1) - (- \log w'(\theta_1 | z_1)) = \log \frac{w(\theta_1) p(z_1 | \theta_1)}{w(\theta_2) p(z_1 | \theta_2)}$
    ※ 自己情報量は $- \log (\text{確率})$ で表されます(特に $\log$ の底が2の場合の単位をビットといいます)。
  • $\frac{w(\theta_1)}{w(\theta_2)}$ は信号を受け取る前から決まっている値なので定数と置くと、
  • $- \log w'(\theta_2 | z_1) - (- \log w'(\theta_1 | z_1)) = \log \frac{p(z_1 | \theta_1)}{p(z_1 | \theta_2)} + const.$
  • 右辺第1項は入門ベイズ統計に載っている情報量である。つまり、この情報量の絶対値の大きさが信号を受け取った下での状態の確度への影響度を表す

安全性のモデル

原子力発電所の例

状態 \ 信号
(原因) \ (結果)
$z_1$: 無事故$z_2$: 事故
$\theta_1$: 安全$p(z_1 | \theta_1) = 999/1000$$p(z_2 | \theta_1) = 1/1000$
$\theta_2$: 危険$p(z_1 | \theta_2) = 1/2$$p(z_2 | \theta_2) = 1/2$
  • 信号「無事故」を受け取った場合の情報量: $\log \frac{999 / 1000}{1 / 2} \simeq 0.3010$
  • 信号「事故」を受け取った場合の情報量: $\log \frac{1 / 1000}{1 / 2} = - 2.6990$
    • 正常に運転していることはあまり情報を与えないが、事故が起こることで高い識別力をもつことになる。

3.3 確信の形成のようす

ヒツジ飼いの少年とオオカミ

  • (イソップ童話より)
  • 羊飼いは狼がやってきたと村人に助けを求めるという悪戯を繰り返していた。
  • あるとき、本当に狼がやってきた。助けを呼ぶ羊飼い、狂言だと信じて気にもかけない村人。このとき、羊飼いに襲った悲劇とは?
  1. 1. 飼っていた羊が狼に引き裂かれ、羊の群れを失ってしまう。
  2. 2. 羊飼いが狼に食いちぎられる。

「羊飼の少年とオオカミ」の話の確率構造

状態 \ 信号
(原因) \ (結果)
$z_1$: オオカミが来ると言って
実際に来た
$z_2$: オオカミが来ると言って
来なかった
$\theta_1$: 少年はウソツキ$p(z_1 | \theta_1) = 1/3$$p(z_2 | \theta_1) = 2/3$
$\theta_2$: 少年は正直$p(z_1 | \theta_2) = 3/4$$p(z_2 | \theta_2) = 1/4$
  • 実際にオオカミが来た場合の情報量: $\log \frac{1/3}{3/4} = - 0.3522$
  • オオカミが来なかった場合の情報量: $\log \frac{2/3}{1/4} = 0.4259$
    • オオカミが来ないときのほうが来たときより若干高く、村人がよく学習する。

信号の確率 (一般的な形)

状態 \ 信号
(原因) \ (結果)
$z_1$$z_2$
$\theta_1$$p(z_1 | \theta_1) = p_{11}$$p(z_2 | \theta_1) = p_{12}$
$\theta_2$$p(z_1 | \theta_2) = p_{22}$$p(z_2 | \theta_2) = p_{22}$
  • $w^{(n)}$: 第$n$期の、状態$\theta_1$に対する確信(確率)
    → $w^{(n)}(\theta_1)$と書いたほうがわかりやすいかも。
  • $w^{(0)}$は何も観測しないうちに心の中にもっている$\theta_1$に対する確信と考える。

$w^{(n-1)}$ と $w^{(n)}$ の関係

  • ベイズ更新を利用することで以下の関係が得られる。
    • $z_1$のとき: $w^{(n)} = \frac{w^{(n-1)} p_{11}}{w^{(n-1)} p_{11} + (1 - w^{(n-1)})p_{21}}$
    • $z_2$のとき: $w^{(n)} = \frac{w^{(n-1)} p_{12}}{w^{(n-1)} p_{12} + (1 - w^{(n-1)})p_{22}}$

情報量とロジスティック曲線

  • 一般に $w^{(n)}$ は以下のように表すことができる。
  • $w^{(n)} = \frac{1}{1 + b \exp(-L_n)}$
    ただし、
    $b = \frac{1 - w^{(0)}}{w^{(0)}}$
    $L_n = (\text{$z_1$の回数}) \log \frac{p_{11}}{p_{21}} + (\text{$z_2$の回数}) \log \frac{p_{12}}{p_{22}}$
  • 数学的帰納法で証明するのが比較的簡単。エレガントな証明を求む。

情報量とロジスティック曲線

    $w^{(n)} = \frac{1}{1 + b \exp(-L_n)}$
    • (´-`).。。ooO○◯(この関数どこかで見たような・・・)
    ロジスティック曲線
    ロジスティック曲線
p.54 図3.4より引用

情報量とロジスティック曲線

$L_n = (\text{$z_1$の回数}) \log \frac{p_{11}}{p_{21}} + (\text{$z_2$の回数}) \log \frac{p_{12}}{p_{22}}$
  • $L_n = (\text{$z_1$の回数}) (\text{1回あたりの情報量}) + (\text{$z_2$の回数}) (\text{1回あたりの情報量})$の形をとる。
ロジスティック曲線
情報量
p.54 図3.4、および、p.56 図3.5より引用

まとめ

補足

式(3.3.5)〜式(3.3.7)の証明

  • 数学的帰納法を用いて証明する。
  • (i) $n = 1$のとき
    • $z_1$のとき:
      $w^{(1)} = \frac{w^{(0)} p_{11}}{w^{(0)} p_{11} + (1 - w^{(0)})p_{21}} = \frac{1}{1 + \frac{1 - w^{(0)}}{w^{(0)}} \frac{p_{21}}{p_{11}}} = \frac{1}{1 + \underbrace{\frac{1 - w^{(0)}}{w^{(0)}}}_{= b} \exp(- \underbrace{ \log \frac{p_{11}}{p_{21}}}_{= L_1})}$
    • $z_2$のとき:
      $w^{(1)} = \frac{w^{(0)} p_{12}}{w^{(0)} p_{12} + (1 - w^{(0)})p_{22}} = \frac{1}{1 + \underbrace{\frac{1 - w^{(0)}}{w^{(0)}}}_{= b} \exp(- \underbrace{\log \frac{p_{12}}{p_{22}}}_{= L_1})}$
    • となり成立する。
  • (ii) $n = k$のときに成立すると仮定すると、

式(3.3.5)〜式(3.3.7)の証明の続き

  • (iii) $n = k + 1$のとき
    • $z_1$のとき:
    • $w^{(k+1)} = \frac{w^{(k)} p_{11}}{w^{(k)} p_{11} + (1 - w^{(k)}) p_{21}} = \frac{1}{1 + \frac{1-w^{(k)}}{w^{(k)}} \exp(- \log \frac{p_{11}}{p_{21}}) }$
      また、$\frac{1-w^{(k)}}{w^{(k)}} = \frac{1 - \frac{1}{1 + b \exp(- L_k)}}{\frac{1}{1 + b \exp(-L_k)}} = b \exp(-L_k)$
      したがって、$w^{(k+1)} = \frac{1}{1 + b \exp(- (\underbrace{L_k + \log \frac{p_{11}}{p_{21}}}_{= L_{k+1}}))}$
    • $z_2$のときも$z_1$と同様に示すことができるため省略する。
    • 以上より、式(3.3.5)〜式(3.3.7)が成立することが証明された。