SlideShare una empresa de Scribd logo
1 de 80
差分プライバシーとは何か?
定義 & 解釈編
南 賢太郎
東京大・情報理工 博士1年
2016/7
スライドの趣旨
取り扱う話題
• 差分プライバシー (en: Differential Privacy)
という概念を紹介
2
スライドの趣旨
取り扱う話題
• 差分プライバシー (en: Differential Privacy)
という概念を紹介
1. 何をするためのものか?
2. どの程度有益か?
3. どの程度有益ではないか?
4. 研究上の一般的課題は何か?
3
スライドの趣旨
取り扱う話題
• 差分プライバシー (en: Differential Privacy)
という概念を紹介
1. 何をするためのものか?
2. どの程度有益か?
3. どの程度有益ではないか?
4. 研究上の一般的課題は何か?
スライド作成動機
• 筆者は差分プライバシーを研究
• 概念そのものが根本的にわかりづらく,お茶の間の話題にしづらい
• 「これさえ読めばわかる」資料を用意したい
4
日本人の43%はiPhoneユーザー(?)
5[http://www.kantarworldpanel.com]
日本における
モバイルOSシェアの
43.2% がiOS
(2016/4 現在)
@WWDC2016
[http://www.apple.com/apple-events/june-2016/] 6
@WWDC2016
[http://www.apple.com/apple-events/june-2016/] 7
注目
Appleが公表したこと 2016/6/14 (JST)
要点:
• iOSの次期バージョン (10) では,より多くの
人工知能ソリューションを搭載
• 予測変換や絵文字推薦の精度向上のため,
多数のユーザーが利用したパターンを収集
• 個人情報は差分プライバシーによって保護
8
Appleが公表したこと 2016/6/14 (JST)
意訳:
• あなたたちが入力した文章を解析するけど
プライバシー的には安全です
9
C. Federighiの発言@WWDC2016
“Differential privacy is a research topic in the area of
statistics and data analytics that uses hashing, subsampling,
and noise injection to enable this kind of crowdsourced
learning while keeping the information of each individual
user completely private.”
差分プライバシーは:
1. 統計学およびデータ解析の研究領域であり
2. サブサンプリングやノイズ付加を利用することで
3. ユーザーの個人情報を完全に保護したまま
学習を行うことを可能にする!
10
ユーザーの反応:
”差分プライバシー”
って何…?
11
(バズった)
12
(バズった)
13
Dwork, et al. (2006) 以降,
アカデミアの地道な活動で
ほぼ線形に増加してきた知名度が,
Apple副社長の30秒のプレゼンで
一瞬にして5倍に
C. Federighiの発言@WWDC2016
“Differential privacy is a research topic in the area of
statistics and data analytics that uses hashing, subsampling,
and noise injection to enable this kind of crowdsourced
learning while keeping the information of each individual
user completely private.”
差分プライバシーは:
1. 統計学およびデータ解析の研究領域であり
2. サブサンプリングやノイズ付加を利用することで
3. ユーザーの個人情報を完全に保護したまま
学習を行うことを可能にする!
14
研究者の反応:
“個人情報を
完全に保護”
って何…?
15
実社会への応用に際する疑問
• 差分プライバシーを研究したことがあれば,
差分プライバシーは個人情報を完全に保護するも
のではないことがわかる
16
実社会への応用に際する疑問
• 差分プライバシーを研究したことがあれば,
差分プライバシーは個人情報を完全に保護するも
のではないことがわかる
• とはいえ,実社会での応用を検討したとき,
どの程度正当に使われうるかということが
(研究者にとっても)未知数
17
実社会への応用に際する疑問
次のような疑問が生じる:
A) 個人情報とは何か?(問題のスコープ)
B) 個人情報の保護とは何か?(数理的定式化)
C) 「完全に保護」とは何か?(定量化)
18
実社会への応用に際する疑問
次のような疑問が生じる:
A) 個人情報とは何か?(問題のスコープ)
• どのようなデータ形式の情報を
• 誰に対して漏洩させたくないのか?
B) 個人情報の保護とは何か?(数理的定式化)
C) 「完全に保護」とは何か?(定量化)
19
A. 個人情報のスコープ
どんな情報を誰に対して漏洩させたくないか?
20
保護すべき情報
匿名化済みのユーザーのあらゆるデータ
「匿名化は無意味」
• 単純な匿名化処理(名前を消すのみ)では
プライバシーを保護したことにならない
• 例: スポーツデータ
21
「匿名化は無意味」
• 単純な匿名化処理(名前を消すのみ)では
プライバシーを保護したことにならない
• 例: スポーツデータ
22
2005年度のある球技種目の戦績
(球技種目名およびチーム名は匿名化済み)
33 - 4
チームA チームB
「匿名化は無意味」
• 単純な匿名化処理(名前を消すのみ)では
プライバシーを保護したことにならない
• 例: スポーツデータ
23
2005年度のある球技種目の戦績
(球技種目名およびチーム名は匿名化済み)
33 - 4
チームA チームB
特定の理由:
1. 外れ値である
2. 有名な公開情報である1
1: [https://ja.wikipedia.org/wiki/2005年の日本シリーズ]
「匿名化は無意味」
• 単純な匿名化処理(名前を消すのみ)では
プライバシーを保護したことにならない
特定の危険性がある状況:
1. 外れ値的なデータの存在
2. 他の公開情報との突き合わせ(名寄せ)
24
「匿名化は無意味」
• 単純な匿名化処理(名前を消すのみ)では
プライバシーを保護したことにならない
特定の危険性がある状況:
1. 外れ値的なデータの存在
2. 他の公開情報との突き合わせ(名寄せ)
• 匿名化は前提として,それ以上の高度な
情報漏洩量制御を考える必要がある
25
A. 個人情報のスコープ
どんな情報を誰に対して漏洩させたくないか?
26
保護すべき情報
匿名化済みのユーザーのあらゆるデータ
漏洩させたくない相手
(A) データ解析結果利用者 (e.g. 他のユーザー)
(B) データ収集者 (e.g. Apple社)
A. 個人情報のスコープ
どんな情報を誰に対して漏洩させたくないか?
27
保護すべき情報
匿名化済みのユーザーのあらゆるデータ
漏洩させたくない相手
(A) データ解析結果利用者 (e.g. 他のユーザー)
(B) データ収集者 (e.g. Apple社)
 どちらの相手への漏洩を考慮するかで
少なくとも2種類のアーキテクチャがある
データ解析タスク
28
𝑋1 𝑋2 𝑋 𝑛
⋯
ユーザーのデータ 𝐷 データ収集/解析者 統計量 𝜃
データ解析タスク
タスク 𝑫 = (𝑿 𝟏, 𝑿 𝟐, … , 𝑿 𝒏) 公開したい量 𝜽
平均値
線形回帰
分類
29
𝑋1 𝑋2 𝑋 𝑛
⋯
ユーザーのデータ 𝐷 データ収集/解析者 統計量 𝜃
データ収集のアーキテクチャ
(A) 出力型プライバシー
• データ収集者はユーザーの生データを収集
• データを復元できないようにデータ解析結果を加工
30
𝑋1 𝑋2 𝑋 𝑛
⋯
データ収集のアーキテクチャ
(B) 局所型プライバシー
• データ収集者も信用しないモデル
• ユーザー側でデータを乱雑化してから収集
31
• (Appleがやりたいのはこちら…?)
• 本スライド以降は出力型プライバシーに注目
𝑋1 𝑋2 𝑋 𝑛
⋯
ケーススタディ
1. プライバシーポリシーに同意した
ユーザーの生データを集めた
データから計算した統計量を第三者に公開
出力型プライバシー
32
ケーススタディ
2. ユーザーの生データはそもそも集められない
(例: メール,チャットの文面)
しかし,「ある文脈で多く使われた絵文字」
などのデータマイニングを行いたい
ユーザー側の端末でデータを乱雑化して収集
局所型プライバシー
33
実社会への応用に際する疑問
次のような疑問が生じる:
A) 個人情報とは何か?(問題のスコープ)
B) 個人情報の保護とは何か?(数理的定式化)
• 出力型プライバシーどうやって定式化するのか
• どういう風に解釈できるのか or できないのか
C) 「完全に保護」とは何か?(定量化)
34
B. プライバシー保護の定式化
例:「Twitterやってますか?」 (Yes: 1, No: 0)
35
𝑋1 𝑋2 𝑋 𝑛
⋯
1と答えた人の割合:
敵対者
の個人情報を
暴きたい
B. プライバシー保護の定式化
例:「Twitterやってますか?」 (Yes: 1, No: 0)
36
𝑋1 𝑋2 𝑋 𝑛
⋯
1と答えた人の割合:
B. プライバシー保護の定式化
例:「Twitterやってますか?」 (Yes: 1, No: 0)
37
𝑋1 𝑋2 𝑋 𝑛
⋯
𝑋1
′
𝑋2 𝑋 𝑛
⋯
1と答えた人の割合:
補助情報 𝐷′
(運の悪いことに)
敵対者は𝑋1以外は知っている
B. プライバシー保護の定式化
例:「Twitterやってますか?」 (Yes: 1, No: 0)
38
𝑋1 𝑋2 𝑋 𝑛
⋯
𝑋1
′
𝑋2 𝑋 𝑛
⋯
1と答えた人の割合:
補助情報 𝐷′
B. プライバシー保護の定式化
例:「Twitterやってますか?」 (Yes: 1, No: 0)
39
𝑋1 𝑋2 𝑋 𝑛
⋯
𝑋1
′
𝑋2 𝑋 𝑛
⋯
1と答えた人の割合:
補助情報 𝐷′
敵対者の能力として
「補助情報つき攻撃」を許すと
𝜃を決定的に公開してはならない
B. プライバシー保護の定式化
対策:統計量の公開を充分に乱雑化する
40
𝑋1 𝑋2 𝑋 𝑛
⋯
ノイズ
B. プライバシー保護の定式化
対策:統計量の公開を充分に乱雑化する
41
𝑋1 𝑋2 𝑋 𝑛
⋯
𝑋1
′
𝑋2 𝑋 𝑛
⋯
B. プライバシー保護の定式化
対策:統計量の公開を充分に乱雑化する
42
𝑋1 𝑋2 𝑋 𝑛
⋯
𝑋1
′
𝑋2 𝑋 𝑛
⋯
ノイズは
𝜃 にとっては小さい
 解析には影響なし
ノイズは
𝑋𝑖にとっては大きい
 プライバシー保護
差分プライバシー:定義
アイデア:
1. 統計量は必ずランダムに公開 ( 分布: 𝜌 𝐷 )
2. 隣接するデータセット(=ハミング距離1)
に対する分布が近い
43
𝑋1 𝑋2 𝑋 𝑛
⋯
𝑋1
′
𝑋2 𝑋 𝑛
⋯
分布として
近い
差分プライバシー:定義
定義:Differential Privacy [DMNS06]
• 𝜀 > 0, 𝛿 ∈ [0, 1) とする
• 𝜌 𝐷 が (𝜀, 𝛿)-差分プライバシーを満たすとは,
1. 任意の隣接する 𝐷, 𝐷′
2. 任意の (可測) 集合 𝐴 ⊂ Θ
に対して次の不等式が成り立つことをいう:
• 特に 𝛿 = 0 のときは 𝜀-差分プライバシーともいう
44
例: Laplaceメカニズム
観察
• 密度が互いに𝑒 𝜀倍以下なら 𝜀-差分プライバシーを達成:
45
( 𝑓𝐷(𝜃) は 𝜌 𝐷 の確率密度)
例: Laplaceメカニズム
観察
• 密度が互いに𝑒 𝜀倍以下なら 𝜀-差分プライバシーを達成:
46
( 𝑓𝐷(𝜃) は 𝜌 𝐷 の確率密度)
例: Laplaceメカニズム
観察
• 密度が互いに𝑒 𝜀倍以下なら 𝜀-差分プライバシーを達成:
Laplace Mechanism1 [DMNS06]
• 𝑋𝑖 ∈ {0, 1}
• 平均にLaplaceノイズを加えたものは 𝜀-DP
47
( 𝑓𝐷(𝜃) は 𝜌 𝐷 の確率密度)
1: 本来はもう少し一般的な主張
例: Laplaceメカニズム
48
𝑋1 𝑋2 𝑋 𝑛
⋯
𝑋1
′
𝑋2 𝑋 𝑛
⋯
Laplaceノイズを足した出力の密度
例: Laplaceメカニズム
49
𝑋1 𝑋2 𝑋 𝑛
⋯
𝑋1
′
𝑋2 𝑋 𝑛
⋯
Laplaceノイズを足した出力の密度
平均の差を隠蔽できるく
らい分散が大きく,
かつ裾が重いノイズ
データ取扱事業者:
“心配ありません”
50
データ取扱事業者:
“あなたの個人情報は
𝟎. 𝟏-差分プライバシーで
保護されています”
51
ユーザー:
“……???”
52
定義の正当性
• 𝜀 や 𝛿 が小さいほどデータは強く保護される
のはまあわかる
53
定義の正当性
• 𝜀 や 𝛿 が小さいほどデータは強く保護される
のはまあわかる
• 定義の不等式:
• 𝜀 や 𝛿 が小さいほど不等式はタイトであり,
𝜌 𝐷と𝜌 𝐷′が大きく変化できない
54
定義の正当性
• 𝜀 や 𝛿 が小さいほどデータは強く保護される
のはまあわかる
• 定義の不等式:
• 𝜀 や 𝛿 が小さいほど不等式はタイトであり,
𝜌 𝐷と𝜌 𝐷′が大きく変化できない
• しかし,特定の (𝜀, 𝛿) が使われたとして,
「あなたのデータ」は結局どの程度安全か?
55
定義の正当性
• 𝜀 や 𝛿 が小さいほどデータは強く保護される
のはまあわかる
• 定義の不等式:
• 𝜀 や 𝛿 が小さいほど不等式はタイトであり,
𝜌 𝐷と𝜌 𝐷′が大きく変化できない
• しかし,特定の (𝜀, 𝛿) が使われたとして,
「あなたのデータ」は結局どの程度安全か?
56
Q. 情報の復元不可能性という意味で,
別の基準(統計学 or 情報理論)からの
意味づけを考えることはできるか?
再掲:補助情報つき攻撃
57
𝑋1 𝑋2 𝑋 𝑛
⋯
𝑋1
′
𝑋2 𝑋 𝑛
⋯
再掲:補助情報つき攻撃
58
𝑋1 𝑋2 𝑋 𝑛
⋯
𝑋1
′
𝑋2 𝑋 𝑛
⋯
どのような復元手段
を使ったとしても,情報量的な意味で
ある精度以上は復元不可能なことを
(統計的に)保証したい
仮説検定による解釈 [WZ10][BD14]
• 𝐷0, 𝐷1 は隣接
• 次の検定問題を考える:
• 𝜓: Θ → {0, 1} を任意の検定とする
• i.e. 𝜃 を入力して,𝐻0 と 𝐻1 のどちらが真であるか
決定するような可測な判断
59
仮説検定による解釈 [WZ10][BD14]
• 敵対者は 𝜃~𝜌 𝐷 𝑗
を観測して,判断 𝜓( 𝜃) を行う
定理 ([WZ10] Thm 2.4, 少し改変)
• 𝜌 𝐷 が 𝜀, 0 -DP のとき,次が成り立つ
• 特に,有意水準 𝛼 の検定で,検出力が 𝛼𝑒 𝜀 以上
であるものを作ることはできない
• 注: 検出力=Pr(𝜓 = 1 ∣ 𝐻1) = 1 − Pr(𝜓 = 0 ∣ 𝐻1)
60
第1種過誤第2種過誤
仮説検定による解釈 [WZ10][BD14]
• 敵対者は 𝜃~𝜌 𝐷 𝑗
を観測して,判断 𝜓( 𝜃) を行う
定理 ([BD14], Prop 1)
• 𝜌 𝐷 が 𝜀, 𝛿 -DP (𝛿 > 0)のとき,次が成り立つ
• さらに
61
第1種過誤 第2種過誤
仮説検定による解釈 [WZ10][BD14]
数値感
• 検出力 = 本当はデータセットが 𝐷1 であるときに,
「𝐷 = 𝐷0である」という仮説を正しく棄却できる確率
 大きい方がよい
• 𝜃 が 𝜀 = 0.1-差分プライバシーを満たすとき
 𝜃 を見て判断を行う敵対者は,
有意水準5%で検出力5.6%以上の検定を作れない
• 𝜃 が(𝜀, 𝛿) = (0.1, 0.001)-差分プライバシーを満たすとき
 𝜃 を見て判断を行う敵対者は,
有意水準5%で検出力10.05%以上の検定を作れない
62
解釈性に関するメッセージ
• 例: (Yes, No)-値個人情報
• 当然ながら,
「コインを投げて表ならYesと決めつける」
という戦略で50%の確率で個人情報が漏洩
• 差分プライバシーでいくら保護しても
「当てずっぽう」で漏洩する可能性はある
 「邪推したら当たっていた」というタイプの
情報漏洩は絶対に防げない
63
解釈性に関するメッセージ
要点
• 差分プライバシーは,
「この人のデータが 𝑋 であるという仮説」に
統計学的な信頼を一定量以上与えられない
という意味での保護にすぎない
…という事実が理解されないまま普及すると
いつかどこかで炎上する気がする
64
実社会への応用に際する疑問
次のような疑問が生じる:
A) 個人情報とは何か?(問題のスコープ)
B) 個人情報の保護とは何か?(数理的定式化)
C) 「完全に保護」とは何か?(定量化)
• そんなうまい話があるのか
• うまくいかない場合,(研究上の)課題は何なのか
65
C. プライバシー保護の定量化
• 差分プライバシーの枠組みにおける
「完全な保護」とは?
66
定義(再掲)
定義:Differential Privacy [DMNS06]
• 𝜀 > 0, 𝛿 ∈ [0, 1) とする
• 𝜌 𝐷 が (𝜀, 𝛿)-差分プライバシーを満たすとは,
1. 任意の隣接する 𝐷, 𝐷′
2. 任意の (可測) 集合 𝐴 ⊂ Θ
に対して次の不等式が成り立つことをいう:
67
定義(再掲)
定義:Differential Privacy [DMNS06]
• 𝜀 > 0, 𝛿 ∈ [0, 1) とする
• 𝜌 𝐷 が (𝜀, 𝛿)-差分プライバシーを満たすとは,
1. 任意の隣接する 𝐷, 𝐷′
2. 任意の (可測) 集合 𝐴 ⊂ Θ
に対して次の不等式が成り立つことをいう:
68
(𝜀, 𝛿)
=プライバシー保護強度
C. プライバシー保護の定量化
• 差分プライバシーの枠組みにおける
「完全な保護」とは?
• 形式的には 𝜀 = 𝛿 = 0 のはず
69
C. プライバシー保護の定量化
• 差分プライバシーの枠組みにおける
「完全な保護」とは?
• 形式的には 𝜀 = 𝛿 = 0 のはず
70
C. プライバシー保護の定量化
• 差分プライバシーの枠組みにおける
「完全な保護」とは?
• 形式的には 𝜀 = 𝛿 = 0 のはず
71
「データの情報を全て捨てる」
C. プライバシー保護の定量化
• 差分プライバシーの枠組みにおける
「完全な保護」とは?
• 形式的には 𝜀 = 𝛿 = 0 のはず
72
「データの情報を全て捨てる」
• データ解析を行う以上,完全な保護は不可能!
• 解析精度とプライバシーの双方の定量化が必要
「完全に保護」したままで解析は無理
一般にはトレードオフがあると考えるのが自然
73
𝜀 (小さいほど保護が強い)
学習の損失
達成可能な領域
「完全に保護」したままで解析は無理
一般にはトレードオフがあると考えるのが自然
74
𝜀 (小さいほど保護が強い)
学習の損失
達成可能な領域
「完全に保護」したままで解析は無理
一般にはトレードオフがあると考えるのが自然
75
𝜀 (小さいほど保護が強い)
学習の損失
達成可能な領域
• ある保護強度を決めたとき,
理想的にはどれだけの精度で
データ解析が可能か?
 解析タスクに依存するはず
プライバシー制約下での最適性
最適なトレードオフ(赤線)を特定する
• 図の縦軸
=「小さくしたい量」
=損失関数 or リスク
76
研究上の課題
• (𝜀, 𝛿) を固定して,達成可能な中での
最適値の性質について考える:
• 2006年から研究が進められてきたものの,
依然として未解決な部分が多い
• どのようなタスクであればプライバシーを充分に
保護したままで実行できるか?
77
研究上の課題
• (𝜀, 𝛿) を固定して,達成可能な中での
最適値の性質について考える:
• 2006年から研究が進められてきたものの,
依然として未解決な部分が多い
• どのようなタスクであればプライバシーを充分に
保護したままで実行できるか?
• 平均などの統計値の算出
• 線形回帰
• 2値分類 (SVM, Logistic回帰,etc.)
• Deep learning (?)
• … 78
研究動向のまとめも
いずれ作りたいです…
(生命力があれば)
まとめ
A) 個人情報とは何か?(問題のスコープ)
 匿名化済みデータを出力型プライバシーの枠組みで
ランダム化によって保護する
B) 個人情報の保護とは何か?(数理的定式化)
 (𝜀, 𝛿)-差分プライバシー:
隣接するデータセットの間での出力分布のロバスト性
C) 「完全に保護」とは何か?(定量化)
 データを「使う」以上,完全な保護は不可能
保護強度と解析精度のトレードオフの見極めが重要
79
参考文献
論文
[BD14] Barber and Duchi. Privacy and statistical risk:
formalisms and minimax bounds. Arxiv preprint, 2014.
[DMNS06] Dwork, McSherry, Nissim and Smith.
Calibrating noise to sensitivity in private data analysis. In
Theory of Criptography Conference, 2006.
[WZ10] Wasserman and Zhou. A statistical framework
for differential privacy. The Journal of the American
Statistical Association, 105:375--289, 2010
画像
いらすとや [http://www.irasutoya.com]
80

Más contenido relacionado

La actualidad más candente

グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題joisino
 
トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?hoxo_m
 
[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報Deep Learning JP
 
スペクトラル・クラスタリング
スペクトラル・クラスタリングスペクトラル・クラスタリング
スペクトラル・クラスタリングAkira Miyazawa
 
最適輸送の解き方
最適輸送の解き方最適輸送の解き方
最適輸送の解き方joisino
 
機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明Satoshi Hara
 
工学系大学4年生のための論文の読み方
工学系大学4年生のための論文の読み方工学系大学4年生のための論文の読み方
工学系大学4年生のための論文の読み方ychtanaka
 
機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)Satoshi Hara
 
優れた研究論文の書き方―7つの提案
優れた研究論文の書き方―7つの提案優れた研究論文の書き方―7つの提案
優れた研究論文の書き方―7つの提案Masanori Kado
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!TransformerArithmer Inc.
 
推薦アルゴリズムの今までとこれから
推薦アルゴリズムの今までとこれから推薦アルゴリズムの今までとこれから
推薦アルゴリズムの今までとこれからcyberagent
 
Anomaly detection 系の論文を一言でまとめた
Anomaly detection 系の論文を一言でまとめたAnomaly detection 系の論文を一言でまとめた
Anomaly detection 系の論文を一言でまとめたぱんいち すみもと
 
【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Models【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Modelscvpaper. challenge
 
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門グラフニューラルネットワーク入門
グラフニューラルネットワーク入門ryosuke-kojima
 
Statistical Semantic入門 ~分布仮説からword2vecまで~
Statistical Semantic入門 ~分布仮説からword2vecまで~Statistical Semantic入門 ~分布仮説からword2vecまで~
Statistical Semantic入門 ~分布仮説からword2vecまで~Yuya Unno
 
研究発表を準備する(2022年版)
研究発表を準備する(2022年版)研究発表を準備する(2022年版)
研究発表を準備する(2022年版)Takayuki Itoh
 
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)RyuichiKanoh
 
数学カフェ 確率・統計・機械学習回 「速習 確率・統計」
数学カフェ 確率・統計・機械学習回 「速習 確率・統計」数学カフェ 確率・統計・機械学習回 「速習 確率・統計」
数学カフェ 確率・統計・機械学習回 「速習 確率・統計」Ken'ichi Matsui
 
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAttentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAGIRobots
 

La actualidad más candente (20)

グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題
 
トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?トピックモデルの評価指標 Perplexity とは何なのか?
トピックモデルの評価指標 Perplexity とは何なのか?
 
[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報
 
スペクトラル・クラスタリング
スペクトラル・クラスタリングスペクトラル・クラスタリング
スペクトラル・クラスタリング
 
最適輸送の解き方
最適輸送の解き方最適輸送の解き方
最適輸送の解き方
 
機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明
 
工学系大学4年生のための論文の読み方
工学系大学4年生のための論文の読み方工学系大学4年生のための論文の読み方
工学系大学4年生のための論文の読み方
 
機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)
 
優れた研究論文の書き方―7つの提案
優れた研究論文の書き方―7つの提案優れた研究論文の書き方―7つの提案
優れた研究論文の書き方―7つの提案
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!Transformer
 
推薦アルゴリズムの今までとこれから
推薦アルゴリズムの今までとこれから推薦アルゴリズムの今までとこれから
推薦アルゴリズムの今までとこれから
 
Anomaly detection 系の論文を一言でまとめた
Anomaly detection 系の論文を一言でまとめたAnomaly detection 系の論文を一言でまとめた
Anomaly detection 系の論文を一言でまとめた
 
【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Models【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Models
 
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門グラフニューラルネットワーク入門
グラフニューラルネットワーク入門
 
Statistical Semantic入門 ~分布仮説からword2vecまで~
Statistical Semantic入門 ~分布仮説からword2vecまで~Statistical Semantic入門 ~分布仮説からword2vecまで~
Statistical Semantic入門 ~分布仮説からword2vecまで~
 
研究発表を準備する(2022年版)
研究発表を準備する(2022年版)研究発表を準備する(2022年版)
研究発表を準備する(2022年版)
 
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
 
数学カフェ 確率・統計・機械学習回 「速習 確率・統計」
数学カフェ 確率・統計・機械学習回 「速習 確率・統計」数学カフェ 確率・統計・機械学習回 「速習 確率・統計」
数学カフェ 確率・統計・機械学習回 「速習 確率・統計」
 
研究効率化Tips Ver.2
研究効率化Tips Ver.2研究効率化Tips Ver.2
研究効率化Tips Ver.2
 
Attentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門までAttentionの基礎からTransformerの入門まで
Attentionの基礎からTransformerの入門まで
 

Destacado

プライバシー保護のためのサンプリング、k-匿名化、そして差分プライバシー
プライバシー保護のためのサンプリング、k-匿名化、そして差分プライバシープライバシー保護のためのサンプリング、k-匿名化、そして差分プライバシー
プライバシー保護のためのサンプリング、k-匿名化、そして差分プライバシーHiroshi Nakagawa
 
居場所を隠すために差分プライバシーを使おう
居場所を隠すために差分プライバシーを使おう居場所を隠すために差分プライバシーを使おう
居場所を隠すために差分プライバシーを使おうHiroshi Nakagawa
 
『データ解析におけるプライバシー保護』勉強会
『データ解析におけるプライバシー保護』勉強会『データ解析におけるプライバシー保護』勉強会
『データ解析におけるプライバシー保護』勉強会MITSUNARI Shigeo
 
Cybozu Tech Conference 2016 バグの調べ方
Cybozu Tech Conference 2016 バグの調べ方Cybozu Tech Conference 2016 バグの調べ方
Cybozu Tech Conference 2016 バグの調べ方MITSUNARI Shigeo
 
情報ネットワーク法学会2017大会第8分科会発表資料
情報ネットワーク法学会2017大会第8分科会発表資料情報ネットワーク法学会2017大会第8分科会発表資料
情報ネットワーク法学会2017大会第8分科会発表資料Hiroshi Nakagawa
 
Differential privacy without sensitivity [NIPS2016読み会資料]
Differential privacy without sensitivity [NIPS2016読み会資料]Differential privacy without sensitivity [NIPS2016読み会資料]
Differential privacy without sensitivity [NIPS2016読み会資料]Kentaro Minami
 

Destacado (6)

プライバシー保護のためのサンプリング、k-匿名化、そして差分プライバシー
プライバシー保護のためのサンプリング、k-匿名化、そして差分プライバシープライバシー保護のためのサンプリング、k-匿名化、そして差分プライバシー
プライバシー保護のためのサンプリング、k-匿名化、そして差分プライバシー
 
居場所を隠すために差分プライバシーを使おう
居場所を隠すために差分プライバシーを使おう居場所を隠すために差分プライバシーを使おう
居場所を隠すために差分プライバシーを使おう
 
『データ解析におけるプライバシー保護』勉強会
『データ解析におけるプライバシー保護』勉強会『データ解析におけるプライバシー保護』勉強会
『データ解析におけるプライバシー保護』勉強会
 
Cybozu Tech Conference 2016 バグの調べ方
Cybozu Tech Conference 2016 バグの調べ方Cybozu Tech Conference 2016 バグの調べ方
Cybozu Tech Conference 2016 バグの調べ方
 
情報ネットワーク法学会2017大会第8分科会発表資料
情報ネットワーク法学会2017大会第8分科会発表資料情報ネットワーク法学会2017大会第8分科会発表資料
情報ネットワーク法学会2017大会第8分科会発表資料
 
Differential privacy without sensitivity [NIPS2016読み会資料]
Differential privacy without sensitivity [NIPS2016読み会資料]Differential privacy without sensitivity [NIPS2016読み会資料]
Differential privacy without sensitivity [NIPS2016読み会資料]
 

差分プライバシーとは何か? (定義 & 解釈編)

Notas del editor

  1. 009F91
  2. 頻繁に変動あり.1月には50%超だった.iPhone率の正確な推定は今回の本題でないので省略 スマホユーザーの約半数に潜在的に影響のある話をこれからする
  3. 全く新しい圧倒的なプライバシーを提供
  4. 全く新しい圧倒的なプライバシーを提供
  5. (\because) \Pr_{\theta \sim \rho_D}[\theta \in A] &= \int_A f_D(\theta) \dd \theta \\ &\leq \int_A \ee^\vep f_{D^\prime}(\theta) \dd \theta \\ & = \ee^\vep \Pr_{\theta \sim \rho_D}[\theta \in A]
  6. \mathrm{Pr}_{\theta \sim \rho_D} [\theta \in A] \leq {\color{red} \ee^\vep} \mathrm{Pr}_{\theta \sim \rho_{D^\prime}} [\theta \in A] + {\color{red} \delta}
  7. \mathrm{Pr}_{\theta \sim \rho_D} [\theta \in A] \leq {\color{red} \ee^\vep} \mathrm{Pr}_{\theta \sim \rho_{D^\prime}} [\theta \in A] + {\color{red} \delta}
  8. \mathrm{Pr}_{\theta \sim \rho_D} [\theta \in A] \leq {\color{red} \ee^\vep} \mathrm{Pr}_{\theta \sim \rho_{D^\prime}} [\theta \in A] + {\color{red} \delta}
  9. \Pr (\psi(\hat{\theta}) = 1 \mid H_0) + \mathrm{e}^\varepsilon \Pr (\psi(\hat{\theta}) = 0 \mid H_1) \geq 1 - \delta
  10. \Pr (\psi(\hat{\theta}) = 1 \mid H_0) + \mathrm{e}^\varepsilon \Pr (\psi(\hat{\theta}) = 0 \mid H_1) \geq 1 - \delta
  11. \forall D, D^\prime, \quad \mathrm{Pr}_{\rho_D}(\theta \in A) &= e^0 \cdot \mathrm{Pr}_{\rho_{D^\prime}}(\theta \in A) + 0 \\ \Longrightarrow \forall D, D^\prime, \quad \rho_D &= \rho_{D^\prime} \equiv \rho
  12. \forall D, D^\prime, \quad \mathrm{Pr}_{\rho_D}(\theta \in A) &= e^0 \cdot \mathrm{Pr}_{\rho_{D^\prime}}(\theta \in A) + 0 \\ \Longrightarrow \forall D, D^\prime, \quad \rho_D &= \rho_{D^\prime} \equiv \rho
  13. \forall D, D^\prime, \quad \mathrm{Pr}_{\rho_D}(\theta \in A) &= e^0 \cdot \mathrm{Pr}_{\rho_{D^\prime}}(\theta \in A) + 0 \\ \Longrightarrow \forall D, D^\prime, \quad \rho_D &= \rho_{D^\prime} \equiv \rho
  14. \forall D, D^\prime, \quad \mathrm{Pr}_{\rho_D}(\theta \in A) &= e^0 \cdot \mathrm{Pr}_{\rho_{D^\prime}}(\theta \in A) + 0 \\ \Longrightarrow \forall D, D^\prime, \quad \rho_D &= \rho_{D^\prime} \equiv \rho
  15. \forall D, D^\prime, \quad \mathrm{Pr}_{\rho_D}(\theta \in A) &= e^0 \cdot \mathrm{Pr}_{\rho_{D^\prime}}(\theta \in A) + 0 \\ \Longrightarrow \forall D, D^\prime, \quad \rho_D &= \rho_{D^\prime} \equiv \rho
  16. \left . \begin{aligned} L(\theta, D) &\\ R(\theta) = & \; \mathbb{E}_{D \sim P^{\otimes n}} [L(\theta, D)] \end{aligned} \right \} \quad (\to \text{min.} )