Seminário 23/08/2017

11/08/2017 20:01

O nosso seminário GEAM vai recomeçar na quarta 23 do Agosto, às 10
horas, na sala 007 do Departamento de Matemática.

Palestrante: Vladimir Pestov (UFSC / uOttawa)

Título: A prova do lema de Johnson-Lindenstrauss sobre projeções aleatórias

Resumo: Como já explicado pelo Douglas no nosso seminário, o lema de
Johnson-Lindenstrauss, originalmente mostrado no contexto da análise
funcional, tornou-se numa ferramenta importante da redução de
dimensionalidade em várias partes da informática. Numa série de 3
palestras, quero apresentar uma prova completa do lema, começando com
alguns resultados matemáticos importantes por sua própria conta: uma
construção da medida de Haar sobre a esfera euclideana, a concentração
de medida sobre as esferas, etc.

Seminário 29/11/2016

28/11/2016 12:12

Nosso próximo seminário será do Prof. Douglas Soares Gonçalves, às 15h na sala 007 do Departamento de Matemática (Auditório do LAED).

Título: Redução de Dimensionalidade: uma breve introdução

Resumo: Discutiremos sobre o problema de representar um conjunto de pontos,
originalmente em um espaço Euclidiano de dimensão alta,
em um subespaço de dimensão menor de modo a preservar alguma característica
do conjunto original (por exemplo, a distância entre pares de pontos ou a variância).

Para tanto, apresentaremos os conceitos básicos de algumas técnicas
de redução de dimensionalidade como PCA, MDS, Isomap e Laplacian eigenmaps.
Projeções aleatórias e o lema de Johnson-Lindenstrauss também serão apresentados brevemente.
Cada uma das técnicas será acompanhada de exemplos simples e (espero que) ilustrativos.

Clique aqui para baixar os slides: dimred

Assuntos abordados em 2016

22/11/2016 14:00

Seminários já realizados:

  • Modelo probabilístico padrão da aprendizagem estatística, parte 1 (Prof. Vladímir Pestov, 11/10) – SLIDES
  • Modelo probabilístico padrão da aprendizagem estatística, parte 2 (Prof. Vladímir Pestov, 18/10) – SLIDES
  • Florestas Aleatórias (Prof. Aldrovando Araújo, 01/11)
  • Aplicação e mais Teoria sobre o método de Florestas Aleatórias (Prof. Vladímir Pestov e Prof. Melissa Mendonça, 10/11)
  • Machine Learning na perspectiva da indústria (Túlio Baars, 22/11)
  • Redução de Dimensionalidade: uma breve introdução (Prof. Douglas Soares Gonçalves, 29/11) – SLIDES.

Referências bibliográficas:

  • V. Pestov, Foundations of statistical machine learning and neural networks. The Vapnik-Chervonenkis theory, University of Ottawa lecture notes, 2012, disponíveis aquí.
  • Shahar Mendelson, A few notes on statistical learning theory, In: Advanced Lectures in Machine Learning, (S. Mendelson, A.J. Smola Eds), LNCS 2600, pp. 1-40, Springer 2003, disponível aquí em postscript.
  • Luc Devroye, László Györfi and Gábor Lugosi, A Probabilistic Theory of Pattern Recognition, Springer-Verlag, New York, 1996. ISBN 0-387-94618-7.
  • Vladimir N. Vapnik, Statistical learning theory, John Wiley & Sons, Inc., New York, 1998. xxvi+736 pp. ISBN: 0-471-03003-1
  • Martin Anthony and Peter Bartlett, Neural network learning: theoretical foundations, Cambridge University Press, Cambridge, 1999. xiv+389 pp. ISBN: 0-521-57353-X
  • M. Vidyasagar, Learning and Generalization, with Applications to Neural Networks, 2nd Ed., Springer-Verlag, 2003.
  • Avrim Blum, John Hopcroft, Ravindran Kannan, Foundations of Data Science, version of May 14, 2015, disponível livremente aquí.
  • F. Cérou and A. Guyader, Nearest neighbor classification in infinite dimension, ESAIM Probab. Stat. 10 (2006), 340-355, disponível aquí.
  • Gérard Biau, Luc Devroye, and Gábor Lugosi, Consistency of random forests and other averaging classifiers, Journal of Machine Learning Research 9 (2008), 2015-2033, disponível aquí.