Ministrantes: Eleni Bisognin (UFN), José Antonio Salvador (UFSCar) e Vanilde Bisognin (UFN)
Data e horário: a definir
Local: a definir
Resumo: O minicurso tem como objetivo discutir os fundamentos teóricos e práticos da Modelagem Matemática como metodologia de ensino e aprendizagem na Educação Básica e no Ensino Superior. Serão abordados conceitos, etapas e exemplos de atividades de modelagem que contribuem para o desenvolvimento do pensamento crítico, da criatividade e da articulação entre a matemática escolar e situações do cotidiano. A proposta inclui momentos expositivos, análise de experiências e a elaboração colaborativa de propostas de modelagem adaptadas aos diferentes níveis de ensino.
Público-alvo: Professores pesquisadores, pós-graduandos e graduandos em Matemática ou áreas afins.
Pré-requisito(s): Professores da Educação Básica ou Superior, graduandos em Ciências Exatas.
Material: Volume 102 da Série Notas em Matemática Aplicada
Ministrantes: Michael Ferreira de Souza (UFC)
Data e horário: a definir
Local: a definir
Resumo: Sistemas lineares esparsos de grande porte, da forma $Ax = b$, são recorrentes em problemas da ciência e indústria. Para esses sistemas, métodos diretos como a eliminação gaussiana são impraticáveis devido à complexidade $\mathcal{O}(n^3)$, tornando necessário o uso de métodos iterativos, em particular os métodos de projeção em subespaços de Krylov (e.g., Gradientes Conjugados, GMRES). Contudo, tais métodos podem convergir lentamente sem um precondicionador adequado.
Neste minicurso, abordamos o precondicionador de Inversa Aproximada (AINV), proposto por Benzi, Meyer e Tuma (1996), que busca aproximar a fatoração da inversa de $A$ para melhorar o condicionamento do sistema e acelerar a convergência. Serão apresentados os fundamentos teóricos do método, incluindo o processo de biconjugação, estratégias de descarte e procedimentos para evitar a quebra do algoritmo. Além disso, revisamos e classificamos as principais variações do AINV encontradas na literatura, analisamos suas complexidades computacionais e discutimos extensões para matrizes em blocos, tanto simétricas quanto não simétricas.D
Público-alvo: O minicurso é voltado a pesquisadores e estudantes de graduação e pós-graduação que trabalham com a resolução de sistemas lineares de grande porte por métodos iterativos precondicionados.
Pré-requisito(s): TBD
Material: Volume 94 da Série Notas em Matemática Aplicada
Ministrantes: Luiz Leduino de Salles Neto (UNIFESP) e Weldon Lodwick (University of Colorado Denver)
Data e horário: a definir
Local: a definir
Resumo: A incerteza está presente em grande parte dos problemas reais enfrentados por organizações e pela sociedade, tornando essenciais sua compreensão adequada, modelagem e incorporação em processos de otimização e de tomada de decisão. Este minicurso tem como objetivo apresentar os fundamentos conceituais e matemáticos da incerteza, discutindo sua semântica, as principais estruturas de modelagem e os resultados teóricos associados. Serão abordadas diferentes estratégias para tratar problemas de otimização sob incerteza, com destaque para métodos aplicados em projetos de pesquisa recentes. Além disso, serão apresentadas demonstrações práticas utilizando Python e AMPL, permitindo aos participantes compreender como implementar e resolver modelos que consideram explicitamente a presença de incerteza.
Público-alvo: estudantes, professores, pesquisadores e profissionais que utilizam otimização.
Pré-requisito(s): Curso de graduação de Otimização Linear
Material: Volume 97 da Série Notas em Matemática Aplicada
Ministrante (Instituição): Pedro Konzen (IME-UFRGS)
Data/Horário: a definir
Local: a definir
Resumo: Redes informadas pela física (em inglês, PINNs - physics-informed neural networks) constituem uma classe de métodos de deep learning para a solução numérica de equações diferenciais parciais (EDPs). No minicurso, começaremos estudando sobre os fundamentos de redes neurais artificiais (RNAs): unidades de processamento (perceptron), arquitetura perceptron multicamadas (MLPs) e algoritmos de treinamento (retro-propagação). Na segunda parte, aplicações na aproximação de funções e o método da diferenciação automática são apresentados. Na última parte, estudaremos implementações Python de PINNs para a solução numérica de problemas diretos e problemas inversos em EDPs.
Público-alvo: estudantes de graduação e de pós-graduação em matemática aplicada e áreas afins.
Pré-requisito(s): conhecimentos fundamentais sobre EDPs, métodos numéricos e programação em linguagem Python.
