Uma Introdução Sucinta a Differential Privacy
Victor Sanches Portella
Outubro 2022
cs.ubc.ca/~victorsp
Por que DP?
(Ou por que usar matemática em privacidade)
Análise de Dados com Privacidade
Publicar análise estatística
Objetivo:
Tomar decisões com base em dados
Usar um modelo de machine learning
Sem revelar informação privada de ninguém
Exemplos
Publicar anualmente estatisticas sobre salários
Mas o que eu quero dizer com "informação privada"?
Treinar modelos de ML
Liberar informação histórica
O Que é Informação Privada
Pergunta:
O que é informação privada?
Dados com informações médicas de fumantes e não fumantes
Análise revela fumantes tem mais chance de ter câncer
Participantes fumantes podem ter problemas com seguro
Descobrir pessoa é fumante sem ela ter revelado essa info
Informação privada foi vazada nesse caso?
Conclusão não depende de uma pessoa específica
NÃO
Objetivo:
Aprender sobre a população sem aprender sobre qualquer pessoa em específico
Anonimizar os Dados Não Basta
O caso do Prêmio Netflix
Anonimizar os Dados Não Basta 2
NYC Taxi Driver Dataset
Campos (anonimizados):
medallion, hack license
Campos (anonimizados):
Reddit percebeu um padrão...
Esse usuário aqui faz MUITAS corridas
cfcd208495d565ef66e7dff9f98764da
Taxi "NULL"
md5 0
Anonimizar os Dados Não Basta 3
Onde DP é Usada
https://desfontain.es/privacy/real-world-differential-privacy.html
US Census, Facebook, Microsoft, Google, Apple, Linkedin
O Que é DP?
Modelo de Computação
Servidor Confiável
Limite de Confiança
Local
Differential Privacy
Adversário
Differential Privacy - Ideia
Ted's blog: https://desfontain.es/privacy/differential-privacy-in-more-detail.html
O Que É Differential Privacy
Algoritmo (média, mediana, fit de modelo de ML)
Bancos de dados diferindo em uma entrada
\(\mathcal{M}\) é \(\varepsilon\)-DP se, para qualquer conjunto de possiveis resultados \(A\),
"Privacy budget"
(menor = mais privado)
"Mudar só um usuário não muda muito o resultado"
"Um usuário participar não afeta a chance de algo ruim acontecer"
Análise de pior caso
O Que É Differential Privacy
Ted's blog: https://desfontain.es/privacy/differential-privacy-in-more-detail.html
Exemplo - Randomized Response
Cada usuário
Cada usuário tem uma resposta binária: SIM ou NÃO
Responde Verdade
com probabilidade 3/4
Responde Mentira
com probabilidade 1/4
% de usuários com resposta SIM
\(\log 3\)-Differentially Private
Local
Propriedades - Pós-processamento
Nenhum tipo de pós-processamento (sem acesso a dados) pode destruir a garantia de privacidade
\(\varepsilon\)-DP
Impossível extrair mais informação só do resultado de um algoritmo DP
\(\varepsilon\)-DP
Função de pós-proc.
Propriedades - Composição
Se mais informação privada é liberada de forma DP, as garantias degradam de forma graciosa
\((\varepsilon_1 + \varepsilon_2)\)-DP
Mesmo se um mesmo usuário tem mais de uma entrada nos dados, ainda temos garantias de privacidade
\(\varepsilon_1\)-DP
\(\varepsilon_2\)-DP
Differential Privacy Aproximada
As vezes \(\varepsilon\)-DP pode ser muito estringente
\(0.1\)-DP quase sempre, mas raramente acontece de ser \(15\)-DP
Bancos de dados diferindo em uma entrada
\(\mathcal{M}\) é \((\varepsilon, \delta)\)-DP se, para qualquer conjunto de possiveis resultados \(A\),
Com probabilidade \(\delta\), o alg. \(\mathcal{M}\) é \(\varepsilon\)-DP.
\(\varepsilon \approx 0.1, 1, 8\)
\(O(1)\)
\(\delta \ll 1/n\)
\(O(1/n^{\omega(1)})\)
Differential Privacy Aproximada
Differential Privacy aproximada é mais fácil de garantir
mas pode ser muito fraca!
Um algoritmo que revela todos os dados com
probabilidade \(\delta\) é \((0, \delta)\)-DP
Um exemplo mais natural:
Cada usuário tem probabilidade \(\delta\) de vazar informação privada
\(n \) usuários \(\implies\) \(\approx \delta \cdot n\) probabilidade de dados vazarem
\(\delta \approx 1/n\) significa alta chance de dados vazarem
\((0, \delta)\)-DP
\(\delta > 1/n\) não garante muita coisa
Como é DP?
('return result + rand(10)' )
Exemplo Corrente - Média
vetores com \(d\) dimensões de um conj.
\(d = 1\) são números, o suficiente para entender quase tudo
\(d = 1\) são números, o suficiente para entender quase tudo
Impossível calcular média DP de números de tamanho arbitrário
Queremos calcular
de forma privada
Os algoritmos vão depender da sensibilidade da média
vizinhos
Mecanismo Laplace
Queremos calcular
de forma privada
vizinhos
Algoritmo \(\varepsilon\)-DP:
Mecanismo Gaussiano
vizinhos
Algoritmo \((\varepsilon, \delta)\)-DP:
Sensibilidade \(\ell_2\)
Dependencia na dimensão pode ser muito melhor
vizinhos
Machine Learning - Exemplos
Alguns exemplos de como treinar modelos de ML com DP
Use dados tratados com DP na fonte
Output perturbation
Adiciona ruido no modelo
Objective perturbation
Adiciona ruido na loss function
Algumas técnicas mais "famosas"
Stochastic Gradient Descent com (mais) ruido
DP-SGD
Private fine-tuning
Private aggregation
PATE
Além do Básico de DP
Controle Fino de Privacidade
Privacy Loss Random Variable
onde
Mas \(\mathcal{L}_{D, D'}\) tem uma distribuição, as definições acima são bem simplistas
Concentrated DP, zero Concentrated DP, Renyi DP, etc...
\(\varepsilon\)-DP
com probabilidade 1
\((\varepsilon, \delta)\)-DP
com probabilidade \(1 - \delta\)
Catadão de Tópicos
Exponential Mechanism
Sanitização de Banco de Dados - Histogramas e Queries
Private Multiplicative Weights Update
"Local" Sensitivity
Adaptive Data Analysis
Composição Avançada
Catadão de Fontes
Livro/Survey: Aaron Roth & Cynthia Dwork
Curso Online de Waterloo: Gautam Kamath - Fall 2020
Ted's Blog: https://desfontain.es/privacy/
Uma Introdução Sucinta a Differential Privacy
Victor Sanches Portella
Outubro 2022
cs.ubc.ca/~victorsp
Elo7 - Introd. a DP
By Victor Sanches Portella
Elo7 - Introd. a DP
- 174