Seminário 04/11/2024
Título: Um algoritmo de aprendizagem universalmente consistente com erro monótono
Palestrante: Vladimir Pestov (UFSC / uOttawa)
Data e local: 04/11/2024 às 10:30 no Auditório Ayrton Silva (auditório MTM).
Resumo: Vou apresentar um dos meus resultados favoritos: a solução afirmativa de um problema em aberto, discutido em 1996 no famoso “livro amarelo” de Devroye, Gyorfi e Lugosi, sobre a existência de um algoritmo de aprendizagem com as propriedades mencionadas no título (JMLR 23(157):1−27, 2022).
Um algoritmo (ou regra) de aprendizagem supervisionada é uma aplicação que associa um classificador a cada amostra rotulada, permitindo predizer os rótulos desconhecidos de todos os pontos. O erro de classificação é definido como a probabilidade de associar um rótulo incorreto. Um algoritmo é considerado universalmente consistente se, para qualquer distribuição dos dados rotulados, o erro de classificação converge para o menor erro possível (o erro de Bayes) à medida que o tamanho da amostra aumenta. Intuitivamente, quanto mais dados, menor o erro de classificação; porém, todos os algoritmos conhecidos apresentam situações em que o erro cresce temporariamente para determinados tamanhos de amostra. Vou descrever um algoritmo que apresenta a propriedade de monotonicidade no erro.