-
Seminário 16/09/2019
Publicado em 30/10/2019 às 23:06Título: Biologia de sistemas com aplicações em terapia celular e câncer
Palestrante: Prof. Dr. Edroaldo Lummertz da Rocha (MIP -UFSC)
Resumo: Células geram dados multidimensionais. Desenvolvimentos tecnológicos recentes permitem a quantificação de transcriptomas e epigenomas em células individuais com resolução sem precedentes, possibilitando a identificação de novos tipos de células assim como suas trajetórias de diferenciação e transformação oncogênica. Nessa palestra serão discutidos tópicos atuais em biologia de sistemas e análise de dados biológicos multidimensionais com aplicações em diferenciação celular e câncer.
Local: Auditório Airton Silva, Dep. de Matemática, Sala 007 (Térreo),
Data: 2a-Feira, dia 16 de Setembro de 2019
Horário: 10:30
-
Seminário 23/08/2017
Publicado em 11/08/2017 às 20:01O nosso seminário GEAM vai recomeçar na quarta 23 do Agosto, às 10
horas, na sala 007 do Departamento de Matemática.Palestrante: Vladimir Pestov (UFSC / uOttawa)
Título: A prova do lema de Johnson-Lindenstrauss sobre projeções aleatórias
Resumo: Como já explicado pelo Douglas no nosso seminário, o lema de
Johnson-Lindenstrauss, originalmente mostrado no contexto da análise
funcional, tornou-se numa ferramenta importante da redução de
dimensionalidade em várias partes da informática. Numa série de 3
palestras, quero apresentar uma prova completa do lema, começando com
alguns resultados matemáticos importantes por sua própria conta: uma
construção da medida de Haar sobre a esfera euclideana, a concentração
de medida sobre as esferas, etc. -
Seminário 29/11/2016
Publicado em 28/11/2016 às 12:12Nosso próximo seminário será do Prof. Douglas Soares Gonçalves, às 15h na sala 007 do Departamento de Matemática (Auditório do LAED).
Título: Redução de Dimensionalidade: uma breve introdução
Resumo: Discutiremos sobre o problema de representar um conjunto de pontos,
originalmente em um espaço Euclidiano de dimensão alta,
em um subespaço de dimensão menor de modo a preservar alguma característica
do conjunto original (por exemplo, a distância entre pares de pontos ou a variância).Para tanto, apresentaremos os conceitos básicos de algumas técnicas
de redução de dimensionalidade como PCA, MDS, Isomap e Laplacian eigenmaps.
Projeções aleatórias e o lema de Johnson-Lindenstrauss também serão apresentados brevemente.
Cada uma das técnicas será acompanhada de exemplos simples e (espero que) ilustrativos.Clique aqui para baixar os slides: dimred
-
Assuntos abordados em 2016
Publicado em 22/11/2016 às 14:00Seminários já realizados:
- Modelo probabilístico padrão da aprendizagem estatística, parte 1 (Prof. Vladímir Pestov, 11/10) – SLIDES
- Modelo probabilístico padrão da aprendizagem estatística, parte 2 (Prof. Vladímir Pestov, 18/10) – SLIDES
- Florestas Aleatórias (Prof. Aldrovando Araújo, 01/11)
- Aplicação e mais Teoria sobre o método de Florestas Aleatórias (Prof. Vladímir Pestov e Prof. Melissa Mendonça, 10/11)
- Machine Learning na perspectiva da indústria (Túlio Baars, 22/11)
- Redução de Dimensionalidade: uma breve introdução (Prof. Douglas Soares Gonçalves, 29/11) – SLIDES.
Referências bibliográficas:
- V. Pestov, Foundations of statistical machine learning and neural networks. The Vapnik-Chervonenkis theory, University of Ottawa lecture notes, 2012, disponíveis aquí.
- Shahar Mendelson, A few notes on statistical learning theory, In: Advanced Lectures in Machine Learning, (S. Mendelson, A.J. Smola Eds), LNCS 2600, pp. 1-40, Springer 2003, disponível aquí em postscript.
- Luc Devroye, László Györfi and Gábor Lugosi, A Probabilistic Theory of Pattern Recognition, Springer-Verlag, New York, 1996. ISBN 0-387-94618-7.
- Vladimir N. Vapnik, Statistical learning theory, John Wiley & Sons, Inc., New York, 1998. xxvi+736 pp. ISBN: 0-471-03003-1
- Martin Anthony and Peter Bartlett, Neural network learning: theoretical foundations, Cambridge University Press, Cambridge, 1999. xiv+389 pp. ISBN: 0-521-57353-X
- M. Vidyasagar, Learning and Generalization, with Applications to Neural Networks, 2nd Ed., Springer-Verlag, 2003.
- Avrim Blum, John Hopcroft, Ravindran Kannan, Foundations of Data Science, version of May 14, 2015, disponível livremente aquí.
- F. Cérou and A. Guyader, Nearest neighbor classification in infinite dimension, ESAIM Probab. Stat. 10 (2006), 340-355, disponível aquí.
- Gérard Biau, Luc Devroye, and Gábor Lugosi, Consistency of random forests and other averaging classifiers, Journal of Machine Learning Research 9 (2008), 2015-2033, disponível aquí.
- Modelo probabilístico padrão da aprendizagem estatística, parte 1 (Prof. Vladímir Pestov, 11/10) – SLIDES