Bolsa 22/05788-4 - Aprendizado computacional, Aprendizagem profunda - BV FAPESP
Busca avançada
Ano de início
Entree

Aprendizado de máquina interpretável para aplicações médicas baseadas em imagens

Processo: 22/05788-4
Modalidade de apoio:Bolsas no Brasil - Doutorado
Data de Início da vigência: 01 de maio de 2023
Data de Término da vigência: 30 de setembro de 2025
Área de conhecimento:Ciências Exatas e da Terra - Ciência da Computação
Pesquisador responsável:André Carlos Ponce de Leon Ferreira de Carvalho
Beneficiário:Iury Batista de Andrade Santos
Instituição Sede: Instituto de Ciências Matemáticas e de Computação (ICMC). Universidade de São Paulo (USP). São Carlos , SP, Brasil
Empresa:Universidade de São Paulo (USP). Instituto de Ciências Matemáticas e de Computação (ICMC)
Vinculado ao auxílio:20/09835-1 - IARA - Inteligência Artificial Recriando Ambientes, AP.PCPE
Assunto(s):Aprendizado computacional   Aprendizagem profunda   Diagnóstico por imagem   Inteligência artificial
Palavra(s)-Chave do Pesquisador:Aprendizado de Máquina | Aprendizado profundo | Diagnóstico auxiliado por inteligência artificial | Imagens Médicas | Inteligência Artificial | interpretabilidade | Inteligência Artificial, Aprendizado de Máquina, Interpretabilidade

Resumo

Aprendizado de Máquina vem sendo aplicado a uma miríade de problemas nos últimos anos, obtendo expressivos resultados, especialmente no que se refere a visão computacional, em muito devido a abordagens como os algoritmos de Aprendizado Profundo. No contexto de aplicações médicas para o diagnóstico auxiliado por computadores a partir de imagens, a utilização de algoritmos de aprendizado profundo é de grande valia, sendo uma área que tradicionalmente se vale dos avanços em visão computacional. Contudo, a aplicação prática das soluções empregando algoritmos de aprendizado profundo encontra barreiras, como a dificuldade ou impossibilidade de compreensão e explicação dos resultados gerados. A interpretabilidade dos modelos é essencial para o aumento na confiança e aceitação por especialistas e, consequente, plena exploração destes avanços no campo médico, impactando em efetiva melhora em diagnósticos no dia a dia. Desta forma, a integração e aperfeiçoamento de métodos de interpretabilidade focados ao contexto de aplicações médicas é uma área de estudo em franca ascensão. Este projeto de tese investigará a exploração e aprimoramento de métodos de diagnóstico baseados em imagens com a capacidade de interpretabilidade, tendo por hipótese que modelos interpretáveis são capazes de prover maior confiança em seu uso e permitir melhores análises, auditoria e inspeção por parte dos profissionais médicos e outros interessados. Ainda, é proposto o desenvolvimento integrado junto a especialistas de domínio, objetivando o refinamento e alinhamento preciso dos métodos de interpretabilidade com os requisitos esperados pelos profissionais.

Matéria(s) publicada(s) na Agência FAPESP sobre a bolsa:
Mais itensMenos itens
Matéria(s) publicada(s) em Outras Mídias ( ):
Mais itensMenos itens
VEICULO: TITULO (DATA)
VEICULO: TITULO (DATA)