Busca avançada
Ano de início
Entree

Métodos computacionais de otimização para problemas com restrições convexas simples

Processo: 22/15197-3
Modalidade de apoio:Bolsas no Brasil - Mestrado
Vigência (Início): 01 de março de 2023
Vigência (Término): 28 de fevereiro de 2025
Área do conhecimento:Ciências Exatas e da Terra - Matemática - Matemática Aplicada
Pesquisador responsável:Roberto Andreani
Beneficiário:Elivandro Oliveira Grippa
Instituição Sede: Instituto de Matemática, Estatística e Computação Científica (IMECC). Universidade Estadual de Campinas (UNICAMP). Campinas , SP, Brasil
Vinculado ao auxílio:18/24293-0 - Métodos computacionais de otimização, AP.TEM
Assunto(s):Otimização
Palavra(s)-Chave do Pesquisador:gradiente espectral projetado | Gradientes Conjugados | Problemas com restrições convexas | Otimização

Resumo

O método do gradiente espectral (ou BBR -- Barzilai-Borwein-Raydan) desenvolvido por Raydan, e cuja base está na proposta seminal de Barzilai e Borwein para minimização de quadráticas, mostrou-se uma ferramenta eficaz para resolução de problemas irrestritos de larga escala. Desde então vários métodos do tipo surgiram na literatura, tópico que continua bastante ativo entre os pesquisadores. Outros importantes métodos para otimização irrestrita são os de direções conjugadas (ou gradientes conjugados -- GC). Desde o clássico método de Hestenes e Stiefel para quadráticas, extensões para funções gerais foram propostas na literatura. A principal delas, considerada a mais eficaz, é o método de Hager e Zhang conhecido como CG_descent. Em sua versão atual, implementa passos quase-Newton para corrigir a perda de ortogonalidade durante o processo de minimização. Recentemente outro método do tipo, chamado CG_OPT 2.0, foi proposto por Liu, Liu e Dai, para o qual os autores relatam testes numéricos favoráveis frente ao CG_descent. Neste projeto, consideramos os principais métodos tipo BBR e os dois tipo GC citados. Em um primeiro momento, pretende-se fazer uma revisão dos métodos BBR estudando com detalhes a teoria de convergência e comparando-os numericamente sobre problemas da CUTEst. Em um segundo momento, pretende-se estudar os métodos de gradientes conjugados para funções não quadráticas CG_descent e CG_OPT 2.0. Consideramos ainda o recente método do gradiente ponderado com atraso (do inglês, DWGM) para minimização de quadráticas, proposto por Oviedo, que vem atraindo a atenção deste candidato a orientador. De fato, em 2022 uma extensão para funções fortemente convexas gerais foi publicada com colaboradores, e uma possível hibridização usando DWGM está em discussão. Esse é um tópico que parece frutífero e de longa vida. Logo, a ideia é que o estudante chegue ao final de seu mestrado com conhecimento e experiência suficientes para contribuir, em um possível doutorado, com tal pesquisa. Por fim, cabe ressaltar que o candidato a bolsista possui pré-requisitos em otimização não linear, tem experiência com a prática numérica e conhece algumas das referências deste projeto por ocasião de seu TCC e de uma iniciação científica realizadas durante a graduação.

Matéria(s) publicada(s) na Agência FAPESP sobre a bolsa:
Mais itensMenos itens
Matéria(s) publicada(s) em Outras Mídias ( ):
Mais itensMenos itens
VEICULO: TITULO (DATA)
VEICULO: TITULO (DATA)