1º Workshop de Integração da Pós-Graduação
Victor Sanches Portella
Maio, 2026
Otimização para ML
Algoritmos Aleatorizados
Privacidade Diferencial
Online Learning
Ciência da Computação Teórica
Aprendizado de Máquina
Treinar um modelo de ML normalmente é modelado via optimização irrestrita
Modelos de ML tendem a serem GRANDES
\(d\) é GRANDE
\(O(d)\) tempo e espaço por iteração é preferível
Um tamanho de passo "Adaptivo" para cada parâmetro
Uma definição formal de Online Learning (AdaGrad)
Hypergradient
Adam, RMSProp, RProp
Aprox. 2nd Order Methods
Desenhado para funções adversariais e não suave
Busca em linha clássica é melhor em problemas simples
Mas o que "adaptativo" significa?
Adaptividade em problemas
suaves e
fortemente convexos
Multidimensional Backtracking
A cada iteração
If
If
tem
progresso suficiente
Atualize \(\mathbf{x}\):
Else
Atualize \(\mathbf{P}\) e conjunto de passos candidatos
Jogador
Adversário
\(n\) Experts
0.5
0.1
0.3
0.1
Pesos
1
-1
0.5
-0.3
Custos
Penalidade do Jogador:
Adversário sabe a estratégia do Jogador
Performance medida
através de regret
Otimização adaptativa
Boosting
Bandits
Análise frequentemente limpa
Playground para design de algoritmos
Gradient flow útil para otimização suave
Pergunta Central: Como modelar optimization
não-suave (online) em tempo contínuo?
Por que usar ?
tempo contínuo
Custo Total de um Expert \(i\):
Perspectiva útil: \(L(i)\) is a realização de um
passeio aleatório
realização de um
Movimento Browniano
Tempo Discreto
Tempo Contínuo
Lema de Ito
(Teorema Fundamental do Cálculo Estocástico)
\(B(t)\) muito não-suave \(\implies\) termos de segunda ordem importam
Ideia: Usar cálculo estocástico para guiar o design de algoritmos
Suave
Não-suave
Algoritmos Online Adaptativos
Otimização Linear Online
Quantile Regret
Objetivo informal: Resultado não deve revelar (muito) sobre qualquer indivíduo em particular
Diferente de falhar de segurança (ex: invasão de servidor)
Resultado
Análise de Dados
Trivial se o resultado não tiver informação sobre a entrada
Indistinguíveis
O que pode ser aprendido com um indivíduo
(provavelmente) pode ser aprendido sem o mesmo
Uma definição: Privacidade Diferencial
Um Problema:
Contar (aprox.) o número de elementos distintos em um stream de \(N\) itens de \(n\) tipos
Queremos usar espaço sublinear
Exemplo: Contador de número de ouvintes de uma música
Itens chegam sequencialmente
\(N\) e \(n\) são GRANDES
[Ícones de Pokemon por Roundicon Freebies em flaticon.com]
Será que alguns algoritmos aletorizador possuem
garantias de privacidade sem modificações?
Normalmente, injetamos ruído/aleatoridade em algoritmos para conseguir garantias de PD
Mas muito algoritmos (online) são naturalmente aleatorizados!